Меня бесят ролики в интернете из серии «а вы знаете какая самая опасная галлюцинация ИИ? Они выдумывают научные статьи 🤯🤯🤯»
Ну да, а для кого дисклеймер «проверяйте важную информацию»? Причём проверить можно прям тут же, открыв новый чат)) Вот у меня сегодня случилась такая история — готовилась в тренингу СДВГ, а чат, в числе прочего, зачем-то решил выдать мне якобы ссылки на исследования. Ну, бывает
Тут важно понимать, как работают языковые модели: они не ищут информацию в базах данных, а предсказывают наиболее вероятный ответ на основе всего, что видели в обучении. То есть ИИ не вспоминает настоящую статью, а сочиняет текст, который выглядел бы правдоподобно
Чтобы этого избежать, нужно написать «найди в интернете» или включить функцию веб-поиска — тогда модель действительно пойдёт в интернет и найдёт реальную информацию, а не выдаст ответ на основе догадок