Штучний інтелект у школі: яких правил інформаційної безпеки варто дотримуватися
Освітяни й освітянки потроху приборкують штучний інтелект: створюють з його допомогою картинки, буктрейлери та тести, перевіряють роботи учнівства. Водночас багато хто поширює в соцмережах фотографії, згенеровані ШІ, навіть не здогадуючись про те, наскільки це небезпечно. Певно, ви теж бачили картинки з військовими, які супроводжує текст на кшталт «Ми сьогодні одружилися (У мене сьогодні день народження), а нас (мене) ніхто не привітав». Це теж «продукт» штучного інтелекту. Інша річ — хто й навіщо ці картинки створив і поширив.
Штучний інтелект спрощує рутинні процеси, відкриває нові можливості, але водночас зумовлює певні ризики.
- Як етично та правильно використовувати штучний інтелект в освіті;
- які небезпеки приховує універсальний помічник;
- як розпізнати фейки, створені ШІ — про це «Вчися.Медіа» розпитало Оксану Мороз, експертку з аналізу та формування інформаційного поля, авторку ініціативи «Як не стати овочем», Наталію Рудніцьку, учительку зарубіжної літератури та української мови й літератури, та Олександра Пірожкова, координатора проєктів із медіаграмотності «Детектор медіа».
ЯК УЧНІВСТВО ВИКОРИСТОВУЄ ШІ НА УРОКАХ МОВИ ТА ЛІТЕРАТУРИ
Наталія Рудніцька, учителька зарубіжної літератури та української мови й літератури, розповідає, що здебільшого використовує штучний інтелект із дослідницькою метою. Наприклад, діти генерують у нейромережі образ героя/героїні й досліджують, як запити та ключові слова впливають на фінальне зображення. Також учнівство шукає невідповідності в результатах, які генерує ШІ.
«Ми з дітьми попросили штучний інтелект намалювати картинку за сюжетом твору “Садок вишневий коло хати”, але він намалював її з помилкою: хати були російськими “ізбушкамі”, — розповідає Наталія Рудніцька. — У роботі з ШІ я люблю дослідницький компонент, коли діти шукають невідповідності в згенерованому зображенні та відмінності між своїми роботами, думають, як покращити результат».
Наталія Рудніцька
Штучний інтелект — це можливість для дослідження та розпізнавання фейків. Із ШІ діти вчаться працювати з різними видами інформації.
Наталія Рудніцька пояснює учням та ученицям, що, працюючи з ШІ, вони мають вказувати: до виконання завдання залучали нейромережу. Учителька, втім, помічає використання штучного інтелекту навіть без такого дисклеймера: вона розпізнає згенерований текст за складними словами чи фразами, які не відповідають віку школярів і школярок. Зазвичай у 5–6-му класах учнівство пише короткими реченнями, а якщо у творі з’являються довгі, зокрема складнопідрядні, — це насторожує. Або ж у відповідях на запитання діти вживають терміни, яких немає в навчальній програмі (наприклад, «флексія», «флективний» на позначення закінчення). Також маркером ШІ для Наталії Рудніцької є шаблонні фрази.
«ШІ — це інтелектуальна власність. Не можна використовувати чужий розум — хоч штучний, хоч людський. Якщо ми використовуємо в роботі штучний інтелект, то завжди про це вказуємо. Я кажу дітям, що, наприклад, цей тест створив ШІ, а я його перевірила», — ділиться Наталія Рудніцька.
ЯК ВІДРІЗНЯТИ ФЕЙКОВІ ПОВІДОМЛЕННЯ ВІД РЕАЛЬНИХ
Освітянка використовує штучний інтелект у навчанні, щоб розвивати в учнівства критичне мислення та медіаграмотність, щоб діти тренувалися відрізняти фейки від правди. Однак завжди є ризик поширення неправдивої інформації.
Оксана Мороз додає, що на перших етапах існування ШІ фальшиві картинки впізнавали за деталями — наприклад, кількістю пальців на руках людини (шість замість п’яти).
Оксана Мороз
Зараз технології справляються краще, і, перш ніж оцінювати згенеровані тексти чи картинки на правдивість, треба пройти спеціальне навчання щодо роботи нейромереж та зрозуміти, за якими принципами вони працюють.
Тим, хто не має таких навичок, експертка радить дотримуватися трьох загальних принципів для виявлення шкідливого контенту та формування звички споживати інформацію з надійних джерел.
- Визначити джерело інформації.
«Якщо ви не можете ідентифікувати, хто стоїть за сайтом/сторінкою в соцмережах і відповідає за контент, — у 100% випадків таке джерело створили для маніпуляцій, питання лише яких: шахрайських, інформаційних, дискредитаційних», — пояснює Оксана Мороз.
- Визначити, чи спричиняє інформація сильну емоцію, яка спонукає тут і зараз поділитися контентом.
«Неважливо, що ми побачили: відео, створене ШІ, чи реальну картинку, наприклад, публікації крупнопланових фото дітей із похорону в Кривому Розі. Такі реальні фотографії шкодять більше, ніж згенеровані. Якщо ми стикаємося з тим, що щось викликає в нас сильну позитивну чи негативну реакцію, відразу хочемо поділитися контентом, — це дзвіночок, що нами маніпулюють», — пояснює Оксана Мороз.
- Читати новини в «білих медіа» (щороку Інститут масової інформації та «Детектор медіа» складають списки видань, які поширюють правдиву та об’єктивну інформацію та яким можна довіряти — ред.).
Ці принципи, каже Оксана Мороз, поширюються на всі сфери життя й допомагають не вестися на маніпуляції.
НАВІЩО АНАЛІЗУВАТИ ВСЕ ПОВІДОМЛЕННЯ — І КОНТЕКСТ, І КАРТИНКУ
Олександр Пірожков наголошує: необхідно цілісно аналізувати повідомлення та емоційну реакцію на нього.
«Важливо звертати увагу на контекст: чи є в ньому елементи, які спонукають до емоційної реакції. Якщо це пост на кшталт “сьогодні в мене день народження і ніхто мене не привітав” — він спричиняє жаль, ми хочемо якось відреагувати. Якщо контент закликає до реакції, треба прочитати його уважніше: це дасть змогу помітити ознаки маніпуляції. Це може бути вигляд світлини або текст, написаний неграмотно», — розповідає Олександр Пірожков.
Олександр Пірожков
Маніпулятивні картинки чи тексти, створені за допомогою ШІ, часто використовують росіяни — для дезінформації та шахрайства, а російські спецслужби поширюють картинки, згенеровані нейромережами, щоб вербувати українську молодь.
Олександр Пірожков навів декілька ознак, які допоможуть відрізнити справжню фотографію від тієї, яку створив штучний інтелект.
- Незрозумілий текст.
Генеративні мережі не дуже добре створюють текст на картинці, і якщо він є, то здається нісенітницею: у ньому неможливо розібрати ні конкретних слів, ні букв.
- Невідповідності деталей.
Нейромережі генерують картинки за нашим запитом, тож деякі об’єкти, які ми не прописали в завданні, можуть мати неправильний вигляд, хоч картинка цілком реалістична.
Наприклад, на передньому плані наведеного зображення — чашка з дивним «вирізом» вгорі, у тата пальці на столі лежать неприродно. Шматочок піци, який тримає дівчинка, набагато більший за проміжок, з якого його теоретично могли вийняти. Також ручка на вікні перебуває в режимі «відчинено», хоч саме вікно щільно зачинене.
- Ідеальна зовнішність чи освітлення.
Також нереалістичними можуть бути занадто симетричне обличчя або ж ідеальне освітлення, яке дає змогу роздивитися міміку людини чи дрібні деталі в темних куточках на фото.
Якщо є сумніви щодо справжності картинки, можна перевірити її за допомогою ШІ-детекторів, наприклад wasitai.com. Фото треба завантажити на платформу — і зачекати на результат.
Для аналізу текстів, згенерованих українською мовою, наразі вправних детекторів немає. Утім, загальний маркер, який видає текст, створений ШІ, — це велика кількість дещо зарозумілих, а також повторюваних фраз.
«Спочатку їх важко виокремити, але коли часто працюєш зі згенерованим текстом, то помічаєш його й деінде. Я б радив користуватися великими мовними моделями (ChatGPT), читати згенеровані тексти й поступово формувати надивленість. Це допоможе відзрізняти текст, який написала людина, від створеного ШІ», — радить Олександр Пірожков.
Нейромережі вже є частиною нашого життя, тож варто дотримуватися інформаційної гігієни, щоб не потрапити на гачок шахраїв або не поширювати фейків та маніпуляцій. Для цього потрібно досліджувати можливості ШІ та відповідально ставитися до контенту, який він генерує.
Фото Freepik та надані співрозмовниками