← Назад до курсу

Базова теорія

🇬🇧 English
💡 Рівень 2 — Користувач

Галюцинації

Чому LLM генерують хибну інформацію та як її виявити й зменшити.

Галюцинації (також конфабуляції) виникають, коли моделі ШІ генерують правдоподібно звучну, але фактично неправильну інформацію. Це не баг — це невід'ємна властивість того, як працюють LLM. Оскільки вони генерують текст передбаченням найімовірніших наступних токенів, а не пошуком фактів, вони можуть видавати впевнено звучну нісенітницю.

Розуміння галюцинацій критично важливе для безпечного використання ШІ. Вони варіюються від незначних фактичних помилок до повністю вигаданих цитат, вигаданих API та неіснуючих функцій. Ключові стратегії зменшення включають заземлення відповідей на отриманих даних (RAG), використання викликів інструментів для перевірки фактів та завжди незалежну верифікацію критичної інформації.

Основні теми
Що таке галюцинації
Впевнено звучні хибні твердження, згенеровані ШІ. Модель стверджує щось як факт, що частково або повністю вигадано — і це звучить так само переконливо як правильні відповіді.
Чому це відбувається
LLM передбачають імовірний текст, не фактичний — вони не мають внутрішньої бази фактів. Вони генерують те, що "звучить правильно" на основі навчальних патернів.
Фактичні галюцинації
Неправильні дати, вигадана статистика, некоректні атрибуції. Модель впевнено стверджує "Ейнштейн опублікував теорію відносності у 1903" або вигадує правдоподібні, але неіснуючі факти.
Вигадані посилання
Вигадані наукові статті, фейкові URL, неіснуючі API-ендпоінти або імена функцій. Особливо небезпечні, бо виглядають легітимно і важко помітити без верифікації.
Логічні галюцинації
Правильно звучні ланцюги міркувань, що досягають хибних висновків. Кожен крок здається розумним, але загальна логіка хибна — особливо небезпечно, бо "показує роботу."
Стратегії виявлення
Перехресна перевірка з авторитетними джерелами, запуск згенерованого коду, перевірка існування цитат, використання пошуку для верифікації фактів. Довіряй, але перевіряй.
Заземлення RAG
Надання реальних отриманих документів зменшує галюцинації, даючи моделям фактичні дані для цитування. Замість генерації з пам'яті модель посилається на конкретний вихідний матеріал.
Заземлення інструментами
Дозвіл моделям викликати API пошуку, бази даних або калькулятори для перевірки фактів. Зовнішні інструменти надають основу істини.
Коли галюцинації небезпечні
Медична/юридична/фінансова порада, документація API, системи безпеки, академічні дослідження. У цих доменах впевнена хибна відповідь може завдати реальної шкоди.
Коли вони прийнятні
Творче письмо, мозковий штурм, генерація заповнювального контенту, дослідження ідей. У творчих контекстах здатність моделі генерувати нові комбінації — це перевага.
Ключові терміни
ГалюцинаціяКоли модель ШІ генерує хибну інформацію, що звучить впевнено та правдоподібно.
КонфабуляціяАльтернативний термін для галюцинації, підкреслюючи що модель "заповнює прогалини", а не бреше.
ЗаземленняНадання реальних даних (через RAG або інструменти), щоб модель базувала відповіді на фактах.
КалібруванняНаскільки впевненість моделі відповідає її реальній точності — добре калібровані моделі знають, коли невпевнені.
Практичні поради
Пов'язані обговорення спільноти