Your trial period has ended!
For full access to functionality, please pay for a premium subscription
Message
Чем отличаются «галлюцинации» от «иллюзий» в контексте ИИ-перевода?

Готовя 2-ю часть этой статьи, наткнулся на любопытную пару терминов из заголовка, которую посчитал сначала за ошибку ИИ-перевода.


Про галлюцинации, думаю, слышали многие — это когда языковая модель (или упрощенно ИИ) сам придумывает факты и правдоподобно их подает.

Что касается иллюзий — то эта ошибка ИИ связана с базой знаний (RAG). Как вы возможно читали в статье по ссылке, при помещении материалов в базу знаний, они разбиваются на чанки - кусочки текстов, каждый из которых векторизуется (превращается в векторное представление или, если упрощенно, числовую матрицу признаков и смыслов).

Потом, когда вы делаете запрос в языковую модель с подключенной базой знаний, ваш запрос (промпт) векторизуется и его векторы сравниваются на похожесть с векторами из базы знаний, и те фрагменты, вектора которых более или менее схожи с присланными из промпта — добавляются в запрос, тем самым обогащая промпт.

Но есть большая проблема в том, как разделить на чанки — мелко или крупно? Бывает так, что мелко нарежешь, и получится, что "казнить нельзя" уйдет в один чанк, а "помиловать" - в другой.
В итоге, когда к вашему промпту подтянется один из этих чанков, вместо целиковой фразы "казнить нельзя помиловать", модель будет оперировать неполной информацией. Возникнет иллюзия.

В чем отличие от галлюцинации? В галлюцинации модель сама выдумывает факт, а в иллюзии - она делает неправильный вывод, опираясь на некорректно обработанную информацию.

Подробнее почитаете уже в статье, которую, надеюсь, сегодня донести до Хабра.
04/21/2025, 19:21
t.me/alliancepro/3210
Similar message chronology:
Newest first
Similar messages not found