🔵Культурный код больших языковых моделей (LLM) или почему самые счастливые ИИ-модели у итальянцев
Представители разных культур могут по-разному интерпретировать одни и те же слова или ситуации.
Большие языковые модели обучаются на текстах, созданных людьми, то есть ИИ впитывает культурные коды тех обществ, чьи тексты преобладают.
Используя опросник Хофстеде — широко распространённую модель культурных измерений — на пяти языках, исследователи Лаборатории искусственного интеллекта Школы управления СКОЛКОВО
проанализировали, насколько модели, созданные в разных странах, демонстрируют уникальные подходы к интерпретации и взаимодействию. В выборке LLM оказались как российские модели YandexGPT и GigaChat, так и зарубежные: широко известные GPT-4o, GPT-4o-mini, GPT-3.5, а также менее популярные Claude 3.5 Sonnet, Llama2-7B-Chat, Qwen-7B-Chat, Baichuan-13B-Chat и другие.
Вывод: LLM склонны придерживаться различных культурных установок в зависимости от языка, на котором к ним обращается пользователь. Бизнесу следует учитывать это при настройке собственных чат-ботов, которые будут общаться с клиентами или сотрудниками на разных языках.
Необходимо тщательно тестировать ответы для каждого языка отдельно, потому что, например, LLM статистически чаще склонны «признавать» себя счастливыми, если вопрос задаётся на итальянском языке. Так проявляются культурные установки жизнерадостных итальянцев 😊.
Подробности — во вложении.
#динамика_в_ИИ_отрасли
🌐Ваш O2Consulting