Новости

Правда ли, что ChatGPT всегда будет выдумывать факты?

в X завирусился пост, в котором утверждается, что это доказано математически
ChatGPT
Фото: Solen Feyissa / Unsplash

В X завирусился   пост предпринимателя и инвестора Nav Toor. В нем, что OpenAI якобы «математически доказала», что галлюцинации ChatGPT неизбежны. Автор ссылается на статью «Why Language Models Hallucinate».

Однако часть утверждений из поста не соответствует содержанию исследования.

Что правда

Авторы Адам Тауман Калай, Офир Нахум, Сантош С. Вемпала и Эдвин Чжан действительно пишут, что языковые модели могут генерировать уверенные, но неверные ответы — так называемые «галлюцинации».

Они объясняют это тем, что модели создают текст, предсказывая наиболее вероятное следующее слово. Если информации недостаточно, система может угадать правдоподобный, но неверный ответ.

Исследование также отмечает, что некоторые тесты для оценки ИИ не поощряют ответы «я не знаю», из-за чего модели могут чаще угадывать.

Что преувеличено

В самой статье не говорится, что нейросети «всегда будут выдумывать» или что это «невозможно исправить».

Авторы также не приводят в статье сравнения моделей с показателями 16%, 33% и 48%, которые распространились в соцсетях. В исследовании не анализируются модели o1, o3 и o4-mini и не приводится их уровень ошибок.

Главный вывод исследования — галлюцинации можно снижать, если изменить способы обучения и тестирования моделей.

Ранее Kursiv Uzbekistan писал, что, по мнению экс-директора Tesla по ИИ Андрея Карпаты, нейросети уже могут писать сложные программы самостостоятельно.