Your trial period has ended!
For full access to functionality, please pay for a premium subscription
VI
ИИнженер Сева Викулин
https://t.me/vikulin_ai
Channel age
Created
Language
Russian
-
ER (week)
-
ERR (week)

Руковожу внедрением LLM в Поиске Яндекса.

Рассказываю, как создавать ИИ продукты, которые приносят пользу.

Messages Statistics
Reposts and citations
Publication networks
Satellites
Contacts
History
Top categories
Main categories of messages will appear here.
Top mentions
The most frequent mentions of people, organizations and places appear here.
Found 18 results
Прогресс в ИИ за 6 лет

Коллеги из METR выпустили прекрасный отчет, который позволит нам по-новому взглянуть на прогресс в ИИ.

- В 2015 нейросети классифицируют изображения как человек. Человеку нужно на это меньше секунды.

- В 2017 нейросети распознают аудио как человек. Человеку нужно на это пару секунд.

- В 2022 нейросети отвечает на вопросы как человек. Человеку нужно на это десятки секунд.

- В 2024 нейросети делают поиск в интернете как человек. Человеку нужно на это десятки минут.

Здесь мы видим важную экономическую метрику и ее тренд.

1) Прогресс в ИИ стоит оценивать через метрику "сколько времени на эту задачу тратит человек".

2) Эта метрика удваивается каждые 7 месяцев.

Что будет дальше?

Неспособность решать продолжительные задачи это основной блокер для внедрения ИИ. Ошибка после каждого шага накапливается, в итоге модель разносит на полпути. Про это я писал тут.

Но если этот тренд продолжится, ситуация кардинально поменяется. Можно прикинуть, что будет уметь ИИ через пару лет:

- 2026 год. ИИ уже может решать часовые задачи. Например от и до, написать несложную программу.

- 2027 год. ИИ может работать много часов подряд. Здесь уже пахнет автономностью и огромным экономическим эффектом.

Это не хайп и не гадание на хрустальном шаре. Только тренды. Более подробно про метод исследования читайте в оригинальной статье.
04/21/2025, 08:33
t.me/vikulin_ai/52
Кто такие агенты, и когда их применять

Давайте разбираться, что это и зачем оно нужно.

Что такое агент

Проще сначала понять, что не агент. Не агент, это когда вы сами полностью контролируете процесс решения задачи.

Пример. Вы автоматизируете поддержку клиентов. У вас может быть алгоритм: дорогая LLM, сначала прочитай эту доку, затем проверь исключения тут, если это, то можно можно вызвать оператора и тд. Тогда у вас не агент, а LLM-workflow (так это называют Anthropic, я пока не придумал как перевести)

Агент, это система, которая сама решает, как ей выполнить поставленную задачу. Она не следует заранее приписанной логике. Схематично это показано на картинке.

Пример. Поддержка клиентов. Вы говорите, что твоя цель решить задачу клиента. Вот такие инструменты есть. Вот так ты можешь у клиента что-то спросить. Удачи, ты сможешь!

Когда агентов нужно применять

- Задача плохо поддаются точному регламенту. Невозможно описать, что за чем надо делать.

- Высокая толерантность к ошибкам. Высокая автономность приводит к ошибкам. Принимайте их или не используйте агентов.

- От задачи большой экономический профит. Агенты это много токенов от LLM, нужно их окупать.

Примеры

Как вы, наверное, поняли, пока диапазон применения скуден. Знаю 3 успешных варианта применения:

1) Разработка. Риск нивелируется тестами. Экономический эффект огромный. Идеальный кандидат.

2) Поиск информации. То что называется Deep Research. Работа дорогая, надо тонну текста прочитать и понять. Риски низкие, читающий может проверить

3) Личный помощник. Двигает мышкой за тебя, бронирует рестораны, экономит время. Рисков почти никаких. Экономический эффект больше хайповый.

Что посмотреть про агентов

- Гайд от Anthropic
- Гайд от OpenAI
- Видео с лучшими практиками от Anthropic

Резюме.

Агенты - крайне редкий зверь в применении LLM.
Но зверь с большим потенциалом.

Кейсы применения будут расти, как надежность моделей будет увеличиваться. И все больше задач смогут быть решены. Дайте им немного времени.
04/17/2025, 09:52
t.me/vikulin_ai/51
Как Uber 6 месяцев внедрял собственный Code assistant

Нашел клевый доклад Uber, как они внедряли ИИ ассистентов в разработку.

При чем не просто внедряли, а дообучали свою LLM на своих репозиториях. Мотивация классическая: у нас миллионы своего кода про наш бизнес, давайте на этом обучим LLM, на наших задачах точно будет лучше других вендоров.

Какая тут проблема: генерация кода крайне сложная задача, с кучей подводных камней. Ее пытаются решить огромные компании, которые хотят на таких ассистентах деньги заработать. Например, Github Copilot от Microsoft. Uber не хочет на своем решении деньги зарабатывать, то есть он не будет инвестировать туда столько же ресурсов, сколько Microsoft. Какой у Uber шанс при таких вводных?

После 6 месяцев разработки проект закрыли.

Переехали на Github Copilot. Поняли, что за внешними продуктами им не угнаться. И это отличный исход: они нарастили экспертизу в AI, вбухали не так много денег и вовремя закрыли.

Коллеги, спасибо за доклад, про такое обычно не принято рассказывать.

Зачем тогда вообще делать свои AI решения?

Кажется, что нам вообще можно ничего не делать? Нет.

Во-первых, для не таких широких задач, как кодинг, вы еще можете сделать лучшее в мире ИИ решение.

Во-вторых, кто вам мешает строить поверх чужих решений? AI в продукте это не только одна гигантская LLM. Это связка многих моделей с инструментами, с базами данных, оценка качества, мониторинг и т.д. Это креативная и очень сложная работа, в которой вам придется сильно прокачаться в AI.

Используйте лучшие в мире решение на рынке. Комбинируйте их, чтобы сделать лучший в мире пользовательский опыт. Тогда у вас все получится.
04/14/2025, 09:03
t.me/vikulin_ai/50
Друзья, нас уже 1000 человек!

Спасибо, что вы читаете, ставите реакции, задаете вопросы.

За эти 4 месяца я понял, о чем я на самом деле хочу писать. Конечно, об ИИ. Но только о пользе, экономии, смыслах и о том, куда все это идет.

Предлагаю не просто смотреть, как оно идет, а активно пользоваться и тем самым менять мир.
Вместе мы поймём как.

P.S.
Паша Дуров уже показывает вам рекламу, где интересно моя доля?!
04/10/2025, 08:51
t.me/vikulin_ai/49
Какую модель применять в NLP?

Написал гайд по выбору модели, который сильно упростит вам жизнь. Не только про LLM, но и про другие модели нейронных сетей.

Пользуйтесь, делитесь с друзьями, задавайте вопросы в комментариях.
Все вопросы разберем.
04/07/2025, 09:06
t.me/vikulin_ai/48
Друзья, написал статью-гайд, как применять LLM в продукте.

Там собраны советы по:
- в каких задачах нужно внедрять LLM
- какая команда должна это делать
- как внедрять быстро и дешево
- как оценивать качество
- как LLM улучшать
и многое многое другое

Статья получилась большая. Хотел, чтобы у вас осталась методичка, к которой можно будет снова и снова обращаться, когда возникнут вопросы при работе с LLM.

Если у вас остались вопросы после прочтения - пишите в комментариях тут или на хабре. Все разберем.

https://habr.com/ru/articles/896598/
04/02/2025, 08:26
t.me/vikulin_ai/47
Улучшать LLM или улучшать поиск, когда делаем RAG?

На подкасте обсуждали интересный вопрос. Что важнее улучшать в RAG: поиск, который ищет информацию или LLM, которая выдает по информации ответ. Тогда я ответил максимально скомкано.
Как обычно, после встречи появляются аргументы к диалогу, который уже прошел.

На самом деле, скорее всего у вас нет такого выбора. Улучшать поиск сильно проще, чем улучшать LLM. Именно поэтому в интернете только этим и занимаются.

Из прошлого поста мы поняли, что для LLM вы можете либо промпт крутить, либо дообучать ее. Промпт вы накрутите за неделю, дальше крутить не стоит. А вот LLM доучить, чтобы она, например, не галлюцинировала, вам потребуется куча нервов и ресурсов. Про такие методы есть отличный обзор, изучайте, если сильны духом.

Скорее всего, вам останется улучшать поиск. Для этого есть понятный набор действий. Собираете датасет: запросы и релевантные к ним документы. Считаете поисковые метрики. Дебажите, где что сломалось. Накручиваете классические эвристики из поиска, например, переформулируете правильно запрос или улучшаете модель ранжирования. Радуетесь, как растут метрики. Красота.

За кем будущее?

Поиск в RAG - набор инженерных решений. LLM - штука, которая поддается законам масштабирования. Как думаете, что будет быстрее развиваться?

Посмотрите внимательно на график (данные из статьи). На нем показано, как деградирует качество разных LLM, при росте размера контекста. Посмотрите, как сильно деградирует качество GPT-4o mini по сравнению с ее старшим братом GPT-4o. Чем мощнее модель, тем лучше она будет работать с длинным контекстом. И это будет продолжаться, пока мы всю «Войну и мир» не будем в контекст выкладывать.

Недавно вышла Gemini 2.5 pro. На сложном бенчмарке MRCR, в котором нужно отвечать на очень длинном диалоге, модель показывает 95% качества на среднем контексте в 128 тысяч токенов. Это примерно 200 страниц английского текста.


Пока еще не "Война и мир". Да и пока в реальных задачах метрики не такие сказочные. Пока что крутим поиск. Пока что.
03/31/2025, 08:09
t.me/vikulin_ai/46
3 кита улучшения LLM

У вас есть всего 3 способа улучшить LLM на вашей задаче. Многие путают, когда какой использовать. Давайте вместе разберёмся.

Подбор промпта

С этого всегда надо начинать. Удивительно, но часто делать больше ничего не надо.

Но не стоит здесь сходить с ума и обещать модели 100 баксов за правильный ответ. Есть несколько базовых правил:

- пишите подробно и с точными формулировками
- пробуйте Few-Shot
- используете reasoning (o1-подобные модели или просто Chain of thoughts)
- используйте Structured Output
- дробите большой промпт на несколько маленьких.

Все эти техники и даже больше можно почитать тут.

RAG

RAG - это подключение LLM к внешней базе знаний. Это основной способ внести в LLM знания, которая она не получила во время своего обучения.

Тут все сразу думают про RAG, как какой-то поиск по хранилищу эмбеддингов. Это вообще не так. Вы можете использовать любой удобный вам способ найти релевантную информацию и засунуть ее в промпт. На практике часто работают более простые методы: обычный текстовый поиск, или поиск по структурированной базе знаний (например, делаете оглавление и пытаетесь найти правильную главу). Обычно лучше работает комбинация несколько подходов.

Отдельная боль в RAG - борьба с галлюцинациями. Явно в промпте укажите, что для ответа можно использовать только информацию из промпта. Если не помогает - подключайте вторую модель, которая будет оценивать ответ на галлюцинации. Посмотрите вот эту статью - поможет вдохновиться.

Дообучение

Используется, когда нужно задать формат ответа, который не может задать промпт. Или промпт очень сложный, или вы сами не понимаете, что написать в промпт. Например, если хотите генерировать карточки товара, максимизируя вероятность покупки. Такое в промпт на напишешь.

Ошибка использовать дообучение, чтобы внести в модель новые знания. Так только галлюцинации поднимете. Используйте RAG.

Дообучение сильно дороже, чем 2 других покемона. Вам нужны GPU, а главное люди, которые умеют обучать LLM, не сломав оригинал. Это не так просто, я сам ломал десятки раз.

Учитывая мою патологическую жадность и ненависть к черным ящикам, я рекомендую дообучать модель всего в 5% случаев. Остальное можно решить промтом и RAG.

Без чего нельзя улучшать

Перед любым улучшением LLM вам нужно уметь это улучшение замерять. Это быстро и дешево можно делать с помощью другой LLM. Такой подход называется LLM-as-judge. Его разберём в следующих постах.

Друзья, если остались вопросы, как крутить LLM - пишите в комментарии. Разберемся.
03/25/2025, 08:44
t.me/vikulin_ai/45
Сходил недавно на теплый ламповый подкаст

Поговорили про RAG, конечно же агентов и немного про сингулярность. Все что мы любим.

По-моему, получилось очень свежо.
Слушайте, делитесь впечатлением в комментариях.
03/19/2025, 19:47
t.me/vikulin_ai/44
Опасная любовь к black box

Внимание, черный ящик!

Собрал данные, запихнул в модель, и этот черный ящик сам разберётся, что надо сделать. Так обычно представляют работу с ИИ большинство людей, даже продвинутых специалистов, которые могут нейронки хоть на Java Script писать.

Эта ментальная модель очень удобна для человека: ему не надо разбираться, как задачу надо решать. Для машины эта модель так себе, потому что вся когнитивная нагрузка переходит на нее.

Обычно, в результате человек перебрал все возможные модели, получил фигу с маслом и расстроенный ушел в крипту.

Делаем ящик прозрачным

LLM, особенно рассуждающие модели, все переворачивют.

Вы можете модели буквально за чашкой чая объяснить, как она должна рассуждать. Объяснить вашу логику принятия решения, объяснить все исключения из этой логики.

Вы также можете проверить, как модель эту логику поняла. Просто посмотрите, как она рассуждает. Если видите проблему, меняйте промпт.

Что будет дальше

Скоро построение ИИ систем мало чем будет отличаться от построения бизнес процессов в компании.

Регламенты и протоколы станут промптами, которые будут вызываться в нужной последовательности.

Тогда заживем.
03/14/2025, 10:12
t.me/vikulin_ai/43
Как дешевеет ИИ, и к чему это приведет

Мы очень неплохо научились удешевлять модели. Есть целый набор инженерных трюков:

- Дистилляция - переливание знаний в маленькую модель
- Квантизация - использование простых форматов данных в моделеях
- Кэширование промптов - запоминание одинаковых промптов
- Спекулятивный декодинг - комбинация маленькой и большой модели

У каждого из этих трюков есть подробные статьи, многие уже реализованы в опенсорcе. Некоторых из них мы разберем в будущих статьях.

Из-за этих инженерных трюков и закона Мура стоимость будет постоянно снижаться. По аналитике коллег из Andreessen Horowitz, стоимость инференса моделей дешевеет в 10 раз каждый год. Сейчас модель-ризонера, сравнимого с Deepseek, можно запустить на не самом дорогом ноуте и кайфовать от интеллекта.

То, что полгода назад вам казалось непозволительной роскошью, сейчас может быть вполне приемлемым. По этой причине я всегда советую, когда только начинаете ваш проект, полностью забить на время работы/стоимость моделей. Самое важное сформировать ценность, как это делать я писал тут.

Вот это падение стоимости интеллекта сформирует совершенно новую индустрию. В которой стоимость интеллектуального труда не будет таким сдерживающим фактором для создания дополнительной ценности. Мне очень нравится аналогия профессора Карима Лахмани:

- Когда стоимость доступа к информации упала до нуля (веб браузер), родились компании, как Google.

- Когда стоимость дистрибуции приложений упала до нуля (App Store), родились компании, как TikTok

- Когда стоимость интеллектуальной работы упала до нуля (?), родились компании, как ...

Здесь огромные возможности для всех. Может, кто-то из вас и создаст компанию нового типа.
Я очень надеюсь вам в этом помочь.
03/11/2025, 08:20
t.me/vikulin_ai/42
Почему продакт менеджеры самые важные люди на проекте

Бывает слышу от знакомых технарей жалобы вроде "как достали эти менеджеры, вот бы было круто, чтобы они не мешали нам правильный ИИ делать".
Если вы один из них, у меня для вас плохие новости.

Почему проваливаются ИИ-проекты

По статистике проваливается 80%. У меня счет немного получше, но я точно знаю, почему столько проваливается.
Потому что делают непонятно что.

Разберем понятный кейс. Вы начали делать ассистента для интернет магазина. Благое дело!
Написали инструкцию для разметчиков данных. Потратили кучу денег, подождали пару месяцев, обучили модель. Потом запустили эксперимент и оказалось, что ваши ответы никому не нравятся. Ответы подробные, но в них нет никакой ценности. Они не подсвечивают размер дисплея у телевизоров, крутость видеокарты у игрового ноутбука, БЖУ у фруктового салата. Они хорошие, но бесполезные для пользователя. А данные уже собраны.

Чтобы такого не было, нужен кто-то, кто бы описал, что реально нужно пользователю и бизнесу. В ИТ обычно эту роль занимает продакт менеджер.

Когда проект только запускается, я могу тратить 80% времени на общение, какое поведение ожидается от продукта. Уверяю, это очень полезное на практике время.
Если вы понимаете, что хотите сделать, вам нужен всего один человек, который знает технологию, как это сделать. Если вы не понимаете, что вы хотите, вам не поможет никто.

Как это происходит на практике

Описание продукта родиться в вакууме не может. Было бы неплохо, конечно, запереть продакта на неделю в комнате, дать ему бумажку и сказать - пиши. Но так не работает. Нужно смотреть на реальное поведение системы. Тут нам поможет наш старый друг Prompt Driven Development.

Вы собираете прототип. Не думаете про скорость, стоимость. С самыми крутыми моделями, живете на широкую ногу. Я разрешаю использовать даже 10 моделей. Дальше этот прототип конфигурируете промптами и в процессе понимаете, какое поведение вам нравится. В итоге у вас появляется образец продукта и промпт, который этот продукт описывает.

Вам кажется кощунством, что продакт менеджер подбирает промпт?! Для этого же есть целая экспертная профессия Промпт-инженер! Забудьте. Подбирать промпт это примерно тоже самое, что объяснять, что нужно делать человеку, который вас не очень понимает. Этим менеджеры занимаются всю карьеру.

Вместо резюме

Когда я преподавал, у меня было такое правило, которому я учил своих студентов: если вы свели вашу задачу к датасету - вы уже ее решили. Потому что дальше понятно, что делать - делаешь признаки, обучаешь модельку, валидируешь качество. Это уже не Искусство, это просто сложная техническая задача.

Сейчас в эпоху LLM и промптов правило еще проще, которому я уже научу вас.
Если вы описали вашу задачу в одном исчерпывающем тексте - вы ее уже решили. Дальше уже дело техники.

Но описать ее будет не просто. Для этого вам потребуются верные друзья.
02/27/2025, 09:13
t.me/vikulin_ai/41
Где вам нужно внедрять LLM

В предыдущем посте мы поняли, где нужно применять ИИ. Теперь разберем конкретно LLM.

Чем LLM отличается от других моделей?

1) Взаимодействие через текст.
C LLM можно решать все задачи, которые сводимы к тексту. А таких задач довольно много. Например, вы можете использовать LLM как “мозги” для робота: показываете LLM состояние комнаты, спрашиваете, какой манипулятор робота куда повернуть, чтобы достать эту чашку кофе? Пример такого робота можно посмотреть тут. Такие штуки иногда даже меня немного пугают.

2) Обобщаемость
LLM прекрасно справляется с новыми задачами, которые она даже никогда в глаза не видела. В статье, где сравнивали ChatGPT с другими моделями по 140 различным задачам, она часто идет вровень с моделями, которые всю жизнь учились только одной специализированной вещи. За счет чего LLM это удается? Два секрета: Self Supervised Learning + Законы масштабирования

Как следствие обобщаемости возникает такой феномен, который часто называют “креативность”. LLM может не потеряться от новых условий, увидеть паттерны, которые она уже встречала и разложить неизведанное по полочкам.

3) LLM дороже, если вы все делаете сами.
Их дороже обучать, они больше едят GPU, они дольше отвечают.

Но LLM может быть дешевле классического ИИ, если вы берете готовое решение. В классическом ИИ вам нужно было собирать отдельную выборку, обучать отдельную модель, писать под нее отдельный код. LLM из-за особенностей 1) 2) сильно гибче. Вы описали в промпте, что от нее хотите, и оно неплохо работает. Вы сэкономили на сборе данных, обучении модели, зарплате датасаентистов (на мне, то есть 😩 ). Из-за этого идет повальное применение LLM в малом бизнесе.

Явное следствие пункта 2) и 3) - не имеет никакого смысла делать свою LLM в узкой задаче. Вам не нужно платить за обобщаемость, когда у вас очень мало исходов. Например, классифицировать новости про бренд на негативные/позитивные. С этим прекрасно справятся обычный Bert, вам не нужен там o3.

Некоторые области применения LLM

1) Любой R&D.
Неважно, это разработка нового приложения, разработка нового лекарства или супер гаджета. Здесь нам очень поможет обобщаемость, то есть способность LLM решать новые задачи. В 2024 CEO Google заявил, что 25% нового кода в компании пишут с помощью ИИ. Вы представляете, сколько это денег? Ладно, если вы все еще не верите в креативность LLM, прочитайте интервью лауреата премии Филдса Теренса Тао. Он в нем наглядно рассказывает, почему AI станет помощником любого математика.

2) Работа с клиентом.
В моем широком смысле это тройка: маркетинг, продажи, поддержка. Подробнее про это статья. Здесь можно и нужно использовать идею гипер персонализации, делая по-настоящему персональный сервис, который приносит огромные деньги.

3) Автоматизация бизнес процессов.
Такое RPA-на-максималках. Огромное число беловоротничковой работы: получил отчет, выделил важное, завел таску, отправил письмо коллеге. То, что обычный rpa-кликер делать не мог из-за своей низкой интеллектуализации. Это уже пошли активно делать, посмотрите интервью фаундера крупнейшей RPA платформы UIPath.

К похожему мнению независимо от меня пришли коллеги из McKinsey. Иллюстрацию из отчета я приложил к посту. По Y - деньги от внедрения LLM, по X - на какой процент от сферы происходит влияние LLM.

Сколько это денег?

Если вам кажется, что это мало и высосано из пальца, то нет. Первый пункт это IT, фарма, технологичное производство. Мировой рынок только поддержки клиентов, это 500 миллиардов долларов. Третий пункт это проценты автоматизации почти любого бизнеса во всем мире. Короче, это триллионы долларов и огромное влияние на мировую экономику.

Разве это не тот приз, за который хочется побороться?
02/21/2025, 10:23
t.me/vikulin_ai/40
02/13/2025, 08:29
t.me/vikulin_ai/39
Зачем и куда внедрять ИИ?

Уже были посты про ИИ для бизнеса (один, два). Нам надо эту тему систематизировать. Cейчас аккуратно напишем базу внедрения ИИ.

Типы ИИ-пользы в бизнесе

За 8 лет проектирования ИИ систем я видел всего 2 больших типа:

1) Гипер персонализация.

Модели могут подбирать товар/услугу персонально под клиента. Они могут делать это, учитывая огромный объем знаний о нем. Не знаю как вас, но консультант в магазине иногда даже мое имя путает. А здесь модель будет опираться на тысячи факторов. Это, например:
- Таргетированная реклама
- Поиск
- Рекомендации товаров в маркетплейсах
Здесь основные деньги приносят классические модели ИИ, такие как градиентный бустинг, коллаборативная фильтрация, факторизационные машины. Конечно, нейронные сети тут тоже применяются, но это не те самые LLM, которые будоражат сознания инвесторов.

2) Автоматизация

Здесь ценности от ИИ сразу две:
- Экономим и, возможно, увеличиваем качество решения задачи
- Делаем более масштабируемый бизнес. Чем больше людей у вас замешано в процессы, тем сложнее вам процессы масштабировать. Нужно создавать департаменты, протоколы, отчеты, комитеты. Про это написана прекрасная книга, очень рекомендую.

Важно понять, что автоматизацию тоже можно делать классическими алгоритмами, никаких вам LLM.

Например, раньше кредитный рейтинг выдавали специалисты по кредитованию. А теперь это все уже делают алгоритмы. Это, кстати, пример одновременно двух способов нанесения непоправимой пользы: вы и персонализацию используете и задачу автоматизируете, круто же!
На заводах и производстве внедрены системы компьютерного зрения, которые вместо человека следят за качеством товара и убирают браки.

Для обоих типов пользы пока что большую часть денег генерируют классические алгоритмы, а не LLM. Это показано в отчете McKinsey, картинку из которого я приложил к посту. Но голубой столбик год к году будет прибавлять в весе, это я вам обещаю.

Рычаг для ИИ-проекта

Рычаг - это масштаб вашего ИИ-проекта. Сколько рекомендаций вы делаете в сутки? Сколько задач вы автоматизируете? Сколько кредитов вы выдаете? Рычаг - самое важное, что должно быть в вашем ИИ-проекте и неважно, какого он типа, сейчас я объясню почему.

В ИИ всегда работает сублинейная зависимость качества решения от усилий. Я ее схематично нарисовал на графике. McKinsey смеется в голос над этим дизайном, но уверяю вас, информация остается ценной.

В начале очень просто выбить неплохое качество, и здесь можно обойтись вообще без ML. Про это есть хорошая статья.

Например, для рекомендаций товаров можно просто показывать самые продающиеся товары. Это хорошее решение, для большинства небольших интернет магазинов ничего больше и не нужно. Построение собственной рекомендательной системы это инвестиции. Если первая версия рек. системы увеличит продажи из ленты на 5%, а у вас маленький рычаг, вы не окупите эту рек. систему. Для Amazon 5% роста продаж из ленты означает, что весь отдел рекомендаций уезжает на год на Мальдивы.

Резюме

Вам не обязательно бежать делать LLM. Пока что бОльшая часть денег в бизнесе все еще не там.
Когда выбираете проект, с LLM или без, обязательно следите за рычагом. Иначе будете делать то, что на самом деле нужно делать парой ифов за один вечер.
02/13/2025, 08:29
t.me/vikulin_ai/38
Как можно стать ИИ-инженером

ИИ-инженер - человек, который умеет внедрять ИИ в продукт.
В этой фразе 2 ключевых слова. Внедрять и ИИ.

1) Внедрять.
Написать код, который использует модель и решает бизнес задачу. За этой фразой скрывается:

- Написать собственно сервис с моделью
- Написать обвязку к нему (походы в разные БД, UI, если забыли фронтендера и тд)
- Проверить, что все работает (тут не простые unit-тесты, полноценная оценка качества моделей)
- Сделать мониторинги, что в процессе не разломалось
- Настроить процессы пересборки данных
...
ну вы поняли

2) ИИ.
Модель, которая приносит щепотку интеллектуальности в наш сервис. Надо уметь делать модели. И с каждым годом их делать все проще и проще.

Раньше модели могли делать только математики. Никакой кодовой базы не было, все обучение писали сами. Как производную насчитал, так модель и обучил. Понятно, тут без очень хорошей школы не обойтись.

Сейчас все стало веселее. Все побежали делать ИИ. И корпорации, и опенсорс. У нас есть куча готовых моделей-API, куча моделей, которые надо только запустить, огромное множество библиотек обучения, куда нужно только вставить ваш датасет. Конечно, это требует знаний, но производные вам брать уже не придется.

Как проще всего им стать?

Вот 2 направления на картинке. Справа фуллстэк инженер, слева супер исследователь. Нам нужен кто-то посередине. Ну и очевидно 2 варианта:
1) Учить исследователя проектировать отказоустойчивые сервисы
2) Учить разработчика основам ИИ и рассказывать про самые последние инструменты

Я уверен, что второе сильно проще. И стратегически правильнее, потому что построение моделей будет еще и еще упрощаться.

Всегда мечтал сделать курс, который помог бы разработчику/аналитику/любому человеку-кодящему делать собственные ИИ-продукты. Когда-нибудь осуществлю.
02/07/2025, 10:29
t.me/vikulin_ai/37
Когда вам стоит дообучать LLM

Хватит сидеть на промптах! Альтман нас ограничивает! Мы хотим дообучить опенсорс LLM на наших данных, чтобы оптимизировать нашу задачу.
По теореме о бесплатных завтраках вы абсолютно правы. Оптимизация под конкретную область должна бить базовое решение. Теоретически. А на практике?

На практике.

Начнём издалека. Вы купили автомобиль. Не самые глупые люди много времени настраивали двигатель, коробку передач, рулевое управление… чтобы все работало вместе хорошо. Сбалансированно. Вот вы его купили и стали тюнинговать. Вкорячили турбину, занизили, поставили колонки в багажник (и не забыли проинформировать ГИБДД!)

Если вы не Xzibit, то большой шанс, что машина потеряет статус «все стабильно работает», которого добивались инженеры на заводе. Нештатные ситуации будут случаться намного чаще. Будет хуже управляться, иногда ломаться и чаще кряхтеть. А могли бы просто спокойно ездить на дачу на заводском…

Сева, блин, при чем тут LLM?

В обучении базовых LLM есть стадия “alignment”. Она нужна, чтобы модель поняла, что вообще от нее хочет человек. Изначально модель пыталась просто токен следующий предсказать, никто ей не объяснил, что вообще-то она создана, чтобы созвоны суммаризовывать. "Заводской" alignment делает много умных ИИ-инженеров в несколько стадий (более подробно смотрите мою любимую лекцию)

Можно считать, что это базовая настройка модели, которая еще защищает ее от делания гадостей. Когда ее просят наврать в ответе, послать пользователя на 3 буквы, выдать коды доступы к Зиону системный промпт. Вам в продукте весь этот треш не нужен. Вот когда вы модель дообучаете, вы ломаете эту настройку. Веса меняются, никто не обещает теперь, что модель не заглючит, и она не сломается от первой промпт-инъекции.

Неправильное дообучение может, например, заставить модель сильнее галлюцинировать. Почему? Посмотрите, например, статью от коллег из Google. Вы добавили в обучающее множество информацию, которой не было у модели во время pretraining. Это вызывает у нее противоречие: "я про это первый раз слышу, вы сейчас просите так отвечать, мне теперь всегда надо ответы придумывать?" Я так тоже делал в универе, когда пропустил 90% материала и пытался выучить билеты за ночь.

Когда нужно дообучать?

Я знаю ровно 3 кейса:

1) Невозможно в промпте описать все ваши продуктовые желания. Например, вы хотите с помощью LLM писать карточки товаров, максимизируя CTR клика. Словами это так просто не передать.

2) У вас так много запросов, что вам дешевле поднять LLM на своем железе, чем платить за каждый запрос в API.

3) Вы не хотите, чтобы данные выходили за ваш контур.

Заключение

Делайте дообучение, только если без него совсем нельзя. Например, еще есть промпты и RAG.
А если уж решили прокачивать вашу LLM, то делайте это как Xzibit. Чтобы разобраться, как это делать, настоятельно рекомендую этот канал.
02/06/2025, 10:03
t.me/vikulin_ai/36
Кто достоин делать ИИ в продукте

Кто этот рыцарь? Какой универ он закончил? Все ли семестры матанализа у него на отлично? Эти вопросы часто слышу от коллег, которые поняли, что пора ИИ-визировать свои компании, пока полимеры все еще у них. Давайте разбираться, кто может внедрять ИИ.

В ИИ существует два принципиально разных вида работ. Придумать технологию и применить технологию.

1 ) Придумать. Вы на переднем крае прогресса, вы следите за открытыми моделями и статьями на ИИ-конфах. Вы понимаете текущее состояние области, вы понимаете чего вам не хватает, вы готовы вложить деньги в RnD и не закрыть компанию, если успех не получится. Тогда нужны люди, которые отлично владеют мат. аппаратом (на нем все статьи и пишутся) и хороши в написании высокоэффективного кода (мало придумать, надо очень аккуратно накодить).
Короче, если вы это все раньше не знали, скорее всего, это не ваш случай.

2) Применить. Вы знаете, что ваша задача уже решается индустрией. Статьи по теме давно написаны, уже вышел опенсорс и даже пара пет-проектов на гитхабе. Вы готовы выделить деньги на внедрение, но сразу считаете, когда они окупятся.
Тогда вам нужны люди, которые понимают, какие подходы сейчас работают, и как это эффективно применить к вашей задаче. Эффективно это результат / время. Здесь чаще всего используются опенсорс модели.

Для такой работы нужен опыт ИИ-внедрений и умение писать промышленный код. Важно быть в теме современных моделей, но не менее важно писать понятный, отказоустойчивый, документированный код. Пятёрка по линейной алгебре в такой работе может быть только приятным бонусом.

Как обычно, на практике лучше всего работает сочетание первого и второго варианта. Когда человек из пункта 1) консультирует по самым современным моделям, а ребята из пункта 2) аккуратно их обучают внедряют.

Когда вы стартуете ИИ-проект, сразу прикидывайте какого класса покемоны ИИ-инженеры вам нужны. Здесь разные задачи и разный набор скиллов. Давайте не смешивать.

Если остались какие-то вопросы, задавайте в комментария. Все обсудим.
01/30/2025, 08:21
t.me/vikulin_ai/34
Search results are limited to 100 messages.
Some features are available to premium users only.
You need to buy subscription to use them.
Filter
Message type
Similar message chronology:
Newest first
Similar messages not found
Messages
Find similar avatars
Channels 0
High
Title
Subscribers
No results match your search criteria