Нейросеть наврала. Кто виноват?
Если раньше фраза «Я не знаю, погугли» была универсальным решением любой головоломки, то теперь, с одной стороны, гораздо проще спросить у нейросети (CEO
Perplexity утверждает, что в обиход входит фраза «плексить» вместо «гуглить», но выражу по этому поводу некоторые сомнения), с другой — ответы приходится перепроверять, потому что сходу доверять нейросети — как играть в русскую рулетку.
Недавно вирусился мужик, который по совету ChatGPT
поехал в Чили без визы, а меня та же нейросеть
пыталась убедить, что на Земле есть точка, где до суши дальше, чем до Луны.
Вот еще набор отличных рекомендаций от нейронок (в основном от Google AI):
— Смотреть на солнце 30 минут в день
— Есть по одному камню в сутки (геологи советуют)
— Прыгнуть с моста Golden Gate при депрессии
— Беременным курить по 2-3 раза в день
Кроме того, если вы не знали: собака играла в НХЛ, бег с ножницами полезен для здоровья, Барак Обама — мусульманин. ChatGPT также перечислил 10 афганских лауреатов Нобелевской премии, включая математиков, что невозможно, так как премии по математике не существует.
Про то, что в пиццу неплохо бы добавить клей, кажется, уже все знают (Perplexity сняли по этому поводу
ролик с пасхалкой с главным героем «Игры в кальмара»).
Это всё — следствие природы генеративных моделей — они обучаются на массивах текста, включающих сомнительные источники, мемы и петросянство с Reddit.
🤔🤔🤔
Здесь появляется главный юридический вопрос (и этический, но об этом отдельно): а кто будет нести ответственность за ущерб, причиненный галлюцинациями сеток?
В США раздел 230 Закона об ответственности за контент в сети дает компаниям-операторам платформ, таким как Google, иммунитет от юридической ответственности за сторонний контент. Но как только контент генерируется самим ИИ Google, всё становится не так однозначно™: отвечает ли сам Google или источник, из которого модель «слепила» ответ? То же относится к другим вендорам, естественно.
В ЕС предложили директиву об ответственности за ИИ, но она пока не принята, и применяются национальные законы. В России регламента пока нет.
Однако кажется вероятным, что OpenAI и ко всё же могут быть привлечены к ответственности, особенно в случаях, когда ложная информация, например, клевета, наносит ущерб репутации, как
в деле радиоведущего Марка Уолтерса против OpenAI.
OpenAI пытался сослаться на условия использования, где указано, что пользователи предупреждены о возможных ошибках («hallucinations») и должны быть осторожны, особенно в высокорисковых ситуациях, но в суде это не проканало.
Из Terms of use OpenAI:
— Компания не несет ответственности за косвенные, случайные, специальные, последующие или примерные убытки, а общая ответственность ограничена суммой, уплаченной за сервис за последние 12 месяцев, или $100, в зависимости от того, что больше.
(Интересно, что в Штатах в некоторых случаях ИИ может рассматриваться как «продукт» в рамк
ах закона о продуктовой ответственности, особенно если ложная информация вызывает массовый вред, хотя традиционно это относится к физическим товарам, а не к информационным услугам.)
Пользователи тоже могут быть ответственны, если они не проверяют информацию, особенно в профессиональных ситуациях. Например, адвокат, использовавший ChatGPT для юридических исследований и сославшийся на несуществующие дел
а, был оштрафован, OpenAI — нет.
Короче, без нюансов и деталей: если нейросеть вам наврала — сами виноваты 😉
❔ Не доверяйте всему, что написано в интернете.
—
🤖 P.S. Вслед этому напишу, что и как я сам использую для поиска (и там не будет Google).