Коли людина бачить або чує те, чого насправді не існує, це зазвичай називають галюцинацією. У світі технологій штучний інтелект (ШІ) також може «галюцинувати», створюючи інформацію, яка здається правдоподібною, але є хибною чи вигаданою.
Галюцинації ШІ виникають, коли алгоритми генерують дані, які виглядають переконливо, але не відповідають реальності. Такі помилки можуть з’являтися в чат-ботах, генераторах зображень чи навіть автономних транспортних засобах.
Примітка редактора:
Автори статті Анна Чой та Кейтлін Сяоїн Мей — аспірантки інформаційних наук. Анна досліджує етику ШІ та розпізнавання мови, а Кейтлін вивчає психологію та взаємодію людини з ШІ. Стаття переpublikowana з The Conversation за ліцензією Creative Commons.
Галюцинації ШІ помічені в різних системах: від чат-ботів, як Grok чи ChatGPT, до генераторів зображень, як MidJourney, і навіть у системах автономного водіння. Ми, дослідники інформаційних наук, аналізували ці явища в технологіях розпізнавання мови та виявили їхній потенційний вплив.
У повсякденному житті галюцинації ШІ можуть мати як незначні, так і серйозні наслідки. Наприклад, неправильна відповідь чат-бота на просте запитання може дезінформувати користувача. Але коли ШІ використовується в критичних сферах, таких як медицина чи правосуддя, помилки можуть змінити життя.
Проблема ускладнюється тим, що люди часто сприймають відповіді ШІ як правдиві лише тому, що вони звучать логічно. У 2025 році, коли ШІ дедалі більше інтегрується в суспільство, важливо розуміти ці ризики.
Випадки галюцинацій ШІ вже фіксувалися в судах, де алгоритми впливали на вироки, чи в медичних страхуваннях, де ШІ вирішував, чи покривати лікування. У таких ситуаціях неточності можуть мати катастрофічні наслідки, включно з загрозою життю, наприклад, коли автономний автомобіль неправильно ідентифікує пішохода.
Як ШІ створює галюцинації
Галюцинації ШІ залежать від типу системи. У великих мовних моделях, таких як GPT-4, це можуть бути вигадані факти, які звучать правдоподібно. Наприклад, чат-бот може «посилатися» на неіснуючу книгу чи стверджувати, що історична подія відбулася інакше.
У 2024 році адвокат із Каліфорнії зіткнувся з проблемою, коли Grok створив фіктивне судове рішення для його справи. Суддя помітив помилку, але це показує, як галюцинації можуть впливати на правові процеси.

У системах розпізнавання зображень галюцинації проявляються, коли ШІ додає неіснуючі об’єкти до опису. Наприклад, якщо на фото лише людина за столом, ШІ може «побачити» стіл, стільці та навіть кішку, якої там немає. Такі помилки можуть бути критичними в безпекових системах.
Причини галюцинацій ШІ
Системи ШІ тренуються на величезних наборах даних, які допомагають їм знаходити закономірності. Наприклад, якщо ШІ бачить тисячі фото собак, він навчиться розрізняти породи. Але якщо показати йому щось незвичне, наприклад, кекс із родзинками, він може помилково назвати його таксою.

Галюцинації виникають, коли ШІ стикається з невідомими даними або заповнює прогалини, спираючись на тренувальні шаблони. Неповні чи упереджені набори даних також сприяють помилкам. Наприклад, у 2023 році дослідження показало, що 15% відповідей чат-ботів містять неточності через обмеження тренувальних даних.
Важливо відрізняти галюцинації від креативних відповідей ШІ. Коли ШІ просять написати казку чи створити картину, вигадка є частиною завдання. Але коли потрібні факти — як у медичних чи юридичних системах — помилки стають проблемою.
Компанії, як xAI чи OpenAI, працюють над зменшенням галюцинацій, використовуючи якісніші дані та чіткіші інструкції для моделей. Проте навіть у 2025 році проблема залишається актуальною, особливо в складних сценаріях.
Ризики галюцинацій ШІ
Помилка ШІ, яка називає кекс собакою, може здаватися кумедною, але в критичних системах наслідки серйозні. Наприклад, у 2024 році автономний автомобіль у Європі ледь не спричинив аварію, неправильно ідентифікувавши дорожній знак через галюцинацію ШІ.
У системах розпізнавання мови галюцинації призводять до неправильних транскрипцій. У шумному середовищі ШІ може «почути» слова, яких не було сказано, наприклад, додавши фразу «зателефонуй завтра» до запису медичної консультації. У 2023 році 10% транскрипцій у медичних системах США містили такі помилки, що впливало на діагнози.
У судах чи соціальних службах галюцинації ШІ можуть призвести до хибних вироків чи відмови в допомозі. Наприклад, у Канаді алгоритм помилково оцінив ризик рецидиву злочинця, що вплинуло на його умовно-дострокове звільнення.
Як мінімізувати ризики ШІ
Поки компанії вдосконалюють ШІ, користувачам варто залишатися пильними. Перевірка інформації з надійних джерел, консультації з експертами та розуміння меж ШІ — ключові кроки для зниження ризиків.
Деякі компанії, як Google, тестують «червоні команди» — групи, які навмисно вводять ШІ в оману, щоб виявити слабкі місця. У 2024 році такі тести зменшили галюцинації в мовних моделях на 20%. Крім того, нові методи, як-от «ланцюг думок» (chain-of-thought prompting), допомагають ШІ перевіряти власні відповіді.
У майбутньому регулювання ШІ може стати обов’язковим у критичних сферах. Наприклад, ЄС у 2025 році запропонував закон, який вимагає від компаній розкривати рівень точності їхніх моделей ШІ для медичних і юридичних застосувань.