Світлана Пилипчук
Світлана Пилипчук

авторка й методистка в освітніх проєктах, медіатренерка, медіаторка

Чому інформацію, яку видає ШІ, не можна сприймати як істину?

Як говорити з дітьми, які масово використовують штучний інтелект і вважають, що це істина в останній інстанції? Що робити, якщо вони сліпо довіряють усьому, що видає ШІ у відповідь на запити?

Передусім варто врахувати, що реакції дітей та підлітків очікувані й насправді логічні. Штучний інтелект (ШІ) оперує великим обсягом інформації і відповідає на запити переважно правильно, тож у користувачів та користувачок є реальний досвід позитивної взаємодії, що дуже спрощує їм життя, навчання чи роботу.

ТЕРМІНОЛОГІЯ ШТУЧНОГО ІНТЕЛЕКТУ: ЩО ТРЕБА ЗНАТИ

Не намагайтеся переконати дітей, що штучний інтелект — це зло чи шкода: не спрацює. Діти можуть вважати, справедливо чи ні, що ви, дорослі, не розумієтеся на сучасних технологіях та тенденціях. Визнаймо реальність: підлітки через свій вік та максималізм схильні бачити батьків і вчителів як старомодних, відсталих від життя людей. А якщо дати для цього бодай мінімальні підстави, усі пояснення та прохання не сприймати ШІ як мудрого експерта пролітатимуть повз дитячі вуха — а упередження щодо вас та штучного інтелекту лише зміцніють.

Найперше правило — не заперечуйте досвіду дітей і не знецінюйте його.

Щоб вести бесіду про ШІ зі школярами та школярками, варто насамперед зорієнтуватися в темі.

Основні терміни для розуміння основ роботи з ШІ

ШІ (штучний інтелект), або АІ (artificial intelligence), — це не жива людина, не особистість, а створена людиною система, яку запрограмували (написали відповідний код) на використання певних даних для виконання завдань.

Google-рекомендації видають таку відповідь на запитання «Що таке генеративний ШІ?»: «Генеративний штучний інтелект — це тип моделі машинного навчання. Він не є людиною, не може думати самостійно й не має емоцій, але чудово знаходить закономірності».

Які терміни щодо ШІ треба знати?

Велика мовна модель (англ. Large Language Model, LLM) — це тип штучного інтелекту, який використовує алгоритми машинного навчання для відтворення людської мови. Він використовує великі масиви даних для розвитку своєї здатності перекладати мови, прогнозувати текст і генерувати контент. На відміну від моделей обробки природної мови, великі мовні моделі тренуються на значно більших наборах даних, а це дає їм змогу використовувати більшу кількість параметрів, щоб стати складнішими й ближчими до людської мови.

Галюцинація системи ШІ (англ. AI Hallucination) — це неправильні або оманливі результати, які генерують моделі штучного інтелекту. Ці помилки можуть бути спричинені різними чинниками, зокрема недостатньою кількістю навчальних даних, неправильними припущеннями, які зробила модель, або упередженнями в даних, що використовують для навчання моделі.

Генеративний ШІ (англ. Generative AI) — система ШІ, яка, використовуючи генеративні моделі, навчені на великих обсягах даних, здатна створювати новий, оригінальний контент (тексти, зображення, аудіо- та відеоматеріали). Прикладами систем генеративного ШІ є ChatGPT, Copilot, Claude, Gemini, Midjourney, DALL-E, Stable Diffusion та інші.

Глибоке навчання (англ. Deep Learning, DL) — це просунута форма машинного навчання, яка використовує нейронні мережі з декількома шарами. Ці шари складаються з вузлів, які імітують нейрони людського мозку. Кожен шар обробляє певні аспекти вхідних даних і передає їх наступному шару, поступово уточнюючи та покращуючи процес ухвалення рішень.

Машинне навчання (англ. Machine Learning, ML) — це частина штучного інтелекту, яка зосереджена на створенні систем, здатних навчатися та ухвалювати рішення на основі даних. Машинне навчання дає комп’ютерам змогу вчитися та адаптуватися на основі досвіду без чіткого програмування для кожного завдання.

Промпт (англ. Prompt) — запит, що описує завдання, яке повинна виконати система ШІ.

Предиктивний ШІ (англ. Predictive AI) — це галузь штучного інтелекту, яка фокусується на прогнозуванні майбутніх подій або явищ. Він використовує алгоритми машинного навчання для аналізу історичних даних, виявлення закономірностей та створення прогнозів на їх основі.

Система ШІ (англ. АІ system) — машинна система, яка на основі отриманих вхідних даних робить висновок щодо того, як генерувати результати (як-от прогнозування, створення контенту, надання рекомендацій або рішень), що можуть впливати на фізичне або віртуальне середовище. Різні системи ШІ відрізняються за рівнем автономності (можливості працювати без втручання людини) та адаптивності (можливості бути гнучким і підлаштовуватися під середовище) після застосування.

ШІ-грамотність (англ. AI Literacy) учасників освітнього процесу — розуміння основних принципів відповідального застосування систем штучного інтелекту, володіння навичками розпізнавання ШІ-контенту, усвідомлення обмежень ШІ та ризиків, повʼязаних із його невідповідальним використанням.

Чатбот (англ. Chatbot) — програма, створена для імітації людської розмови за допомогою текстових або голосових команд.

ЯК СПІЛКУВАТИСЬ ІЗ ШІ

Будь-яке «спілкування» з будь-яким ШІ не варто сприймати як спілкування.

Щоб розібратися в цьому, пригадаймо кілька моментів з особистого досвіду — або з досвіду старших родичів, друзів, колег.

  1. Ще років 20 тому, щоб написати реферат, потрібно було піти до бібліотеки й попрацювати з упорядкованою системою пошуку книг. Спочатку за іменем автора / авторки або за темою знайти відповідні джерела. Потім замовити їх у бібліотекарів і дочекатися, поки ці книжки чи періодику видадуть, а тоді вже шукати в них необхідну інформацію. Цей варіант пошуку інформації досі доступний, але застарілий і дуже часозатратний. 
  2. Пізніше з’явилися інтернет і пошукові системи, як-от Google. Книги оцифрували — настала ера електронних бібліотек і читання з екрана, ера доступу до інформації через рядок пошуку. Відпала потреба сидіти годинами в бібліотеці — комфортніше стало проводити цей час перед комп’ютером у будь-якій точці світу, шукаючи інформацію в сотнях і тисячах джерел (збірках, журналах, монографіях тощо). Усі охочі отримали необмежений доступ до знань. 
  3. Згодом з’явився штучний інтелект. Великі мовні моделі роблять пошук замість користувачів/ок — такий собі просунутий варіант Google. Уже не потрібно сидіти годинами ні в бібліотеках, ні перед моніторами. Достатньо поставити запитання — і ШІ знайде відповідь за кілька секунд у відкритих джерелах.

Тож штучний інтелект це пришвидшена в мільйони разів система пошуку. Усе, що було в інтернеті, тепер доступно мовній моделі — точніше, все, що відкрили й використовували для її навчання. І коли людина щось запитує (тобто здійснює запит інформації, як колись робили в бібліотеці), а формально пише чи озвучує промпт — ШІ «іде до відомих йому архівів», аналізує все, на чому вчився, шукає найрелевантнішу інформацію щодо запитання та видає її як відповідь.

Можна уявити, що ШІ — це такий собі бібліотекар, який спускається до архіву чи сховища, шукає в реєстрах та каталогах необхідні теми й книги, добирає їх і, за логікою, має поставити знахідки на стіл перед читачами. А читач або читачка вже самостійно вишукує ті факти, а також конкретні формулювання (абзаци, речення), які необхідні, щоб написати роботу (есе, курсову чи інше дослідження).

Різниця в тому, що ШІ робить усе це за секунди — і виконує роботу не лише за бібліотекаря/ку, але й за читача/ку.

(Щоб перевірити, якими джерелами користувався ШІ, можна додати відповідний запит до промпту, з яким він працює — ред.)

СЦЕНАРІЇ СПІЛКУВАННЯ ЗІ ШТУЧНИМ ІНТЕЛЕКТОМ

Мовні моделі (і не лише вони, а й ШІ, які працюють із музикою, фото, аудіо тощо) здаються чарівними інструментами: стільки можливостей, економії часу й ресурсів. І, звісно ж, є підстави вірити, що відповідь на запит користувачів/ок буде достовірною. Але є декілька нюансів.

Розкажіть дітям історію (прийоми сторителінгу роблять інформацію зрозумілішою, емоційно ближчою) — пропоную аналогію з ліками. Пригадайте, як часто ми чули: знайдено чудо-ліки від важкої хвороби! Але в одному, трьох, п’яти чи 10 % випадків пацієнти матимуть такі наслідки: зупинка серця, гангрена, втрата зору та слуху…

Запитайте себе: чи користувалися б ви такими препаратами, якби вони вам були потрібні? 90–99 % успіху — хороші шанси. Ліки працюють. Але є над чим подумати: що конкретно для вас означатиме, якщо ви потрапите за волею випадку в оці один, три, п’ять чи 10 %? 

Найважливіше, утім, те, що ви маєте інформацію про варіанти та наслідки й можете свідомо обирати. Вам пропонують не магію, не чарівну пігулку, а ліки, які здебільшого працюють і допомагають. Однак є імовірність (визначена й чесно прописана), що щось може піти не так. Те саме зі штучним інтелектом: це не магія і не чарівна паличка — це механізм, технічна допомога, а не інтелект у звичайному сенсі слова. Це те, що переважно працює! Але, як і з ліками, маємо розуміти: існує імовірність, що будь-який різновид ШІ даватиме неправдиву, неточну, незмістовну, неконструктивну, нелогічну та навіть шкідливу для вас інформацію.

Тож є три сценарії користування будь-яким ШІ:

  • позитивний (вважайте, що це ті 90–99  %): ви отримуєте вдалі відповіді, які полегшують та пришвидшують виконання завдань, підказки та висновки конструктивні й логічні; 
  • нейтральний (вважайте, що це плацебо): ви отримали щось незрозуміле у відповідь на ваш промпт. Але ви достатньо обізнані в темі, щоб це збагнути, і маєте час та ресурс, щоб це помітити, а не сліпо копіюєте те, що отримали, і надсилаєте викладачеві, замовнику чи в публічний простір як власну думку; 
  • негативний (вважайте, що це ті 1–10  % побічних ефектів): вам не пощастило отримати нісенітниці, фейки, нелогічні конструкції, неприродну мову чи візуальний образ, неетичні висловлювання або російські наративи на виході.

Якщо ви розумієте, що всі три сценарії можливі, то маєте вибір. Ваша доля, принаймні навчання, професійна діяльність та репутація, у ваших руках. Ви будете перевіряти, що отримали від ШІ у відповідь на промпт: щонайменше запитаєте, із яких джерел він узяв інформацію, проаналізуєте її, а щонайбільше — використаєте власні знання, щоб перевірити правильність інформації.

Проблемне питання для обговорення в класі: якщо ви будете користуватися ШІ абсолютно без знань у темі, якою цікавитеся (без уточнення, перевірки, вивчення тощо), — хто ким користуватиметься: ви ним, чи він — вами?

ЯК СПРИЙМАТИ ВІДПОВІДІ ШІ

Не можна сприймати відповіді штучного інтелекту за чисту монету: він не людина. Жоден ШІ не здобував знань. Фактично генеративний штучний інтелект — це пошуковець, який видає найбільш релевантну до запиту інформацію. Але Google робив і досі робить те саме.

Зверніть увагу! Перші 10–20 результатів пошуку в браузері — це ті, що найбільше відповідають вашій темі, ключовим словам тощо. Утім, як показує практика, ключові слова й тема можуть підходити, але сенс, суть, вірогідність інформації та авторитетність джерела — ні. Тож, як користувачі/ки, ми неодноразово перебирали кілька джерел зі вказаних у пошуку й не завжди знаходили потрібну відповідь.

  • Одним джерелом міг виявитися випадковий громадянин, який просто вирішив оголосити світу свою скромну думку (на що має право, хоч і не має компетенції, освіти чи досвіду), іншим — проплачений матеріал, джинса або відверта реклама. 
  • Наступне джерело містить упереміш факти та упередження. 
  • Ще кілька — ґрунтуються на міс- та малінформації (сайти-сміттярки, жовта преса тощо).

(Місінформація походить від дезінформації, але це ненавмисне введення в оману; інформація може бути неточною, неповною, суб’єктивною, перекрученою. Малінформація — це інформація, яка є правдивою та фактичною, але яку поширюють з метою завдати реальної шкоди особі, організації, державі тощо — ред.)

  • Третина джерел — це взагалі фейкова інформація та пропаганда, ІПСО й ворожі наративи, засновані на теорії змов, казках і фантазіях, але розпіарені та поширені, мають свій контингент і фінансування. 
  • Ще частина інформації — ніби з якісних джерел, орієнтованих на дослідження та підтримання репутації, але ви помічаєте логічні чи змістовні помилки, тому не берете цього матеріалу. І маєте рацію, бо за кілька днів побачите його спростування — виявиться, що автори/ки помилилися й тепер перепрошують за це.

До появи ШІ, коли людина шукала інформацію самостійно, вона завжди використовувала власні когнітивні здібності.

ЩО ЗМІНИЛОСЯ З ПОЯВОЮ ШІ?

  1. Ми не знаємо, звідки отримує інформацію ШІ і яку точно. Найімовірніше, що це вся інформація, доступна в мережі інтернет — тобто взагалі все: від потоку думок (чи то галюцинацій) випадкового громадянина — до малінформації, пропаганди чи замовних статей і матеріалів росії, написаних для того, щоб залишити неправдивий слід у «мозку» ШІ, посіяти сумніви. ШІ використовує все, до чого має доступ. Якусь частину він бачить як неправдиве — знаходить сліди спростування, виправлення тощо, — але точно не розрізняє всього. 
  2. Із виходом штучного інтелекту в широкий світ у мережі з’явилося багато інформації, створеної самим ШІ. Користувачів та користувачок може очікувати ситуація, коли штучний інтелект для відповіді використає попередньо згенеровані ним же матеріали. Чи не вийде, що ШІ буде шукати відповіді серед відповідей ШІ? 
  3. Важливо розуміти, що штучний інтелект сам нічого не аналізує, як людина. Він використовує всю наявну інформацію та обирає найдостовірнішу. Наприклад, якщо росіяни написали статтю, що Україна напала на них або що війни немає, то ШІ теж її залучить до свого арсеналу. На початку 2022 року, до того як ШІ отримав доступ до оновленої інформації, він відповідав, що війни немає, що росія не нападала тощо. Тоді це пояснювали тим, що ШІ вчився на матеріалах, які були створені до початку широкомасштабної війни, — і він просто про це «не знав». Але як щодо подій із 2014-го? Я особисто теж запитувала GPT про війну. Він відповідав, як старий політик: не називав нічого конкретно. А коли я сказала, що він помиляється, почав називати війну війною. 
  4. ШІ бере те, що є в мережі, тому росіяни так активно плодять абсурдні фейкові новини: що більше їх буде, то сильніше вони зможуть заплутати інформаційні шляхи та логіку. Фактчекер/ки це добре розуміють і тому спростовують те, що, здавалося б, і так є для всіх очевидною дурницею чи фейком. Ми живемо в час, коли потрібно пояснювати щось не лише людям, а й ШІ. Якщо не буде спростувань, то через 50 років росіянам не треба буде насильно переписувати історію — ШІ робитиме це замість них на основі того флуду, який вони зараз плодять.

ЧИ МОЖНА ДОВІРЯТИ ШТУЧНОМУ ІНТЕЛЕКТУ?

З огляду на все сказане, коли хтось упевнений, що відповідь ШІ остаточна, завжди правдива й перевіряти її не треба, це звучить щонайменше дивно. Аналогічна поведінка людини, яка вірить абсолютно всьому, що скажуть інші. Фермер з Черкащини може міркувати, як треба керувати державою, як мають працювати міністерства юстиції, освіти та охорони здоров’я, але ж він насправді нічого не знає про ці міністерства, не має належної експертизи й просто висловлює свої судження. Або умовна пані Наталія, мистецтвознавиця, може взятися до пояснень, як здійснювати ядерний синтез. Але ж це не значить, що саме так і треба його проводити, бо пані Наталя може не знати будови атома, взагалі ніколи не цікавитися ні фізикою, ні хімією. Вона, ймовірно, просто підтримує розмову чи фантазує.

Наша реальність була б дивною і навіть небезпечною, якби фермерки й мистецтвознавці експертно консультували медикинь чи ядерних фізиків щодо тем, у яких не мають жодних знань, — і навпаки. Інша річ, якщо людина міркує про проблеми, у яких справді фахово обізнана.

Усі можуть висловлювати те, що хочуть, коли хочуть. Та людський інтелект завжди розуміє, що не все правда — і не все істина. А ШІ може не вловлювати цих нюансів: він машина, а не інтелект як такий.

Він бере готову інформацію і компонує її, щоб надати нам відповідь. Він, по суті, виконує те, що раніше робила сама людина, коли шукала інформацію, а в результаті видавала реферат або узагальнену думку про щось. ШІ не думає сам, як ми, — він просто комбінує наявну інформацію і складає її так, щоб це було найвідповідніше до запиту, згідно з кодом та алгоритмом, які йому задала людина.

Як Homo sapiens, ми розуміємо: не все, що каже людина, є істиною, і не все, що виходить з-під пера чи клавіатури, є правдою та фактом. Крім того, ми ще й помиляємося доволі часто. І не завжди маємо сміливість визнавати свої помилки.

Раджу обговорити це з дітьми в класі, адже є величезна ймовірність, що поміж фактів та правди замішається суб’єктивність, припущення, судження, маніпуляції, теорія змови, міс- та малінформація, відверта брехня, пропаганда й вигадки росії.

Аналогія: у купі зерна є домішки насіння лободи. І коли ми беремо з купи пригорщу, то розуміємо, що це не чисте зерно, тож маємо просіювати його від полови. Коли говоримо про інформацію, то просіювання потребує інтелектуальних зусиль. Але ШІ не вміє робити цього, як людина. Якщо таке зерно посіяти — проросте і пшениця, і лобода. З другого врожаю лободи буде в рази більше. І ШІ знову не буде просіювати — братиме з купи. Тоді проросте вже значно більша частка бур’яну, ніж зерна. Росіяни намацали алгоритми ШІ, зрозуміли, як і звідки він бере інформацію, тож, умовно кажучи, закидають мережу насінням бур’яну.

ШІ не може давати вірогідної на 100 % інформації. Що більше люди користуватимуться ним як просунутим аналогом Google, не маючи своїх знань та не аналізуючи отриманих результатів, то більше буде проблем. У кожному виді діяльності, наукової, професійної чи й щоденно-побутової, є багато елементарних речей, про які не пишуть і не згадують. Але люди з відповідним досвідом та кваліфікацією володіють цими знаннями, наприклад, знають, як наливати чи насипати певні речовини (у хімії, фізиці тощо) — на відміну від ШІ.

Якщо нас чекає ера, де люди не матимуть практики в більшості звичних нам сьогодні сфер, то це буде епоха безлічі нещасних випадків, навіть катастроф. Люди дослухатимуться до порад ШІ, до його інструкцій та тез, але не матимуть власних елементарних знань, а найгірше — не вмітимуть їх здобувати. Навіщо проходити складний шлях навчання годинами, тижнями й місяцями, якщо ШІ видасть усе за секунду? Тож штучний інтелект — це помічний технічний інструмент, але не заміна мислення, не істина, що не підлягає критиці, і навряд чи колись таким стане.

Фото Сanva 

Щоб бути в курсі важливих освітніх новин, підписуйтеся на наші сторінки в соцмережах: