O seu período de teste terminou!
Para acesso total à funcionalidade, pague uma subscrição premium
LL
AI4Dev — AI for Development
https://t.me/llm4dev
Idade do canal
Criado
Linguagem
Russo
2.31%
ER (semana)
8.93%
ERRAR (semana)

Что надо знать, чтобы остаться востребованным ИТ специалистом в мире с LLM?

• Обзоры продуктов, фреймворков и способы взаимодействия с LLM для разработки софта

Mensagens Estatísticas
Repostagens e citações
Redes de publicação
Satélites
Contatos
História
Principais categorias
As principais categorias de mensagens aparecerão aqui.
Principais menções
Não foram detectadas menções significativas.
Encontrado 38 resultados
9
9
550
В эту пятницу, 25 апреля, в 12:00 Анна Авдюшина расскажет об архитектуре современных AI-агентов, использующих большие языковые модели. В основе — систематический обзор, в котором выделены 18 архитектурных паттернов для построения таких агентов.

Анна Авдюшина преподаёт на факультете «Программная инженерия и компьютерная техника» и работает инженером в центре «Сильный ИИ в промышленности» университета ИТМО.

Вместе разберём:
🔵как агенты интерпретируют расплывчатые цели пользователей и превращают их в планы действий;
🔵каким образом они могут рефлексировать, запрашивать помощь у других агентов или человека и принимать коллективные решения;
🔵какие подходы позволяют повысить надёжность, объяснимость и гибкость работы агентов.

Подключайтесь! Узнаете, как проектировать надёжных и объяснимых агентов на базе LLM.
23.04.2025, 11:52
t.me/llm4dev/281
7
37
624
DEV Community опубликовало план как максимально использовать возможности ИИ агентов при разработке полномасштабных проектов и переносить vibe coding в текущие процессы. Рекомендую https://dev.to/wasp/a-structured-workflow-for-vibe-coding-full-stack-apps-352l
22.04.2025, 23:51
t.me/llm4dev/280
39
43
694
Рекомендуем к прочтению: "Claude Code: лучшие практики программирования с агентами" — статья от 18 апреля на сайте Anthropic. Много любопытных советов — от настройки среды до запуска параллельных сессий. Некоторые из них кажутся универсальными и применимы и за пределами Claude Code.

Например, на этапе поиска решения полезно просить ИИ составить план, а в формулировке такого запроса использовать слово "think" - оно запускает расширенный режим рассуждений. При этом можно так же использовать варианты think -> think hard -> think harder -> ultrathink — они задают разный уровень «бюджета на размышления», влияя на глубину анализа.

Думаем, не перевести ли всю статью? Поставьте 🔥или напишите в комментариях, если интересно.

UPD
Уже есть на Хабре перевод:
https://habr.com/ru/articles/902422/
22.04.2025, 18:12
t.me/llm4dev/279
11
4
713
Vibe Coding News за прошедшую неделю:

• В API доступна новая линейка моделей GPT-4.1: GPT-4.1, GPT-4.1 mini и GPT-4.1 nano. Улучшена генерация кода, следование инструкциям и увеличено контекстное окно до 1 миллиона токенов. GPT-4.1 показывает 54% на SWE-bench (версия без reasoning), это на 21% лучше 4o.

• OpenAI выпустила Codex CLI — open-source агент вызываемый из командной строки. «Читает, изменяет, запускает код прямо на вашей локальной машине, т.е. ваши исходники не покидают ваше окружение» - написано на сайте OpenAI, не понятно кого пытались обмануть, т.к. ниже честно признаются, что промт и контекст конечно отправляются удаленным моделям. Хорошая новость - агент мультимодальный, т.е. на вход принимается текст, скриншоты, диаграммы. По умолчанию работает с o4-mini, может и o3.

• Aider теперь поддерживает o3/o4-mini, Grok-3, Optimus и GPT-4.1. При этом у пользователей есть вопросы к частым перезапросам контекста при добавлении файлов.

Не забыли чего-нибудь важного?
21.04.2025, 12:58
t.me/llm4dev/278
5
4
529
Зачем ML-системам распознавать салон вашего автомобиля? Об этом рассказал Виктор Кочеганов — кандидат физико-математических наук и руководитель ML-направления в ГК "Фрактал".

В эфире рассмотрели:
🟣Почему штрафы за скорость — это "прошлый век" и какие задачи компьютерного зрения решаются сегодня для повышения безопасности на дорогах?
🟣Какие ограничения накладывает real-time production на ML-алгоритмы?
🟣Действительно ли опасно разговаривать по телефону за рулем или не пристегиваться в автомобиле? Что говорит статистика?
🟣Какие этапы разработки проходит ML-алгоритм для фото- и видеофиксации нарушений ПДД?

Запись лекции доступна здесь и на других площадках:

➡️ YouTube
➡️ ВКонтакте
➡️ ЯндексМузыка
18.04.2025, 13:21
t.me/llm4dev/277
17
33
628
Нашли интересную ветку про вайбкодинг в канале @partially_unsupervised и собрали для вас все самое интересное из поста и комментариев, опыт после использования 100 млн токенов в Claude Code:

Вайбкодинг (генерация кода с помощью AI) — мощный инструмент для разработчиков, который ускоряет работу, но только если применять его правильно.

✅ Где применять вайбкодинг:
• Задачи формата «сделай аналогично существующему коду».
• Простые задачи в незнакомых доменах (например, быстро набросать фронтенд).
• Типовой IO-layer, API-хендлеры, роутеры.
• Сценарии, где сложность заключается в знании большого количества команд и опций (например, AWS CLI).
• Быстрая визуализация с помощью библиотек (bokeh, plotly, seaborn и пр.).

❌ Где лучше не применять:
• Сложный алгоритмический код (поломка в корнер-кейсе гарантирована).
• Метапрограммирование, проектирование фреймворков, дизайн API.
• Работа с новыми библиотеками (даже с документацией на выходе чаще всего плохо).
• Security-sensitive задачи.

🔄 Особенности процесса:
• Если после нескольких попыток диалог с моделью уходит не туда — лучше начать с нуля или переключить модель.
• Не забывайте регулярно останавливаться и рефакторить. Вайбкодинг ведёт к появлению лишних сущностей и неаккуратной структуре.
• Важна аккуратная статическая проверка и тщательное версионирование. Используйте mypy, линтеры и SonarQube.

⚙️ Для эффективной работы нужно дописывать правила в CLAUDE.md (.cursorrules и т.п.), подключать релевантные MCP и регулярно анализировать ошибки AI. Например, вот кусок моего глобал конфига:
Python style guide:
1) when catching exceptions, use logger.exception("message"), not logger.error(str(e)).
2) do not use mocks unless explicitly asked!
3) ensure types are correct, e.g. def hello(name: str = None) is WRONG, def hello(name: str | None = None) is correct.
4) use logger = logging.getLogger(__name__) when declaring a logger
5) prefer match + case over if + elif + else
6) using hasattr is typically a sign of bad design!


🤖 Главный бонус — активный агентский режим. Используйте AI не только для написания кода, но и для отладки, анализа логов и разбора ошибок в CI/CD.

🚨Предупреждение:
• Не доверяйте AI слепо. Сеньор должен понимать и нести ответственность за каждый коммит, даже если код был сгенерирован AI.

💡Дополнительные советы из практики:
• Для сложных запросов начинайте с описания и обсуждения задачи с AI, прежде чем просить генерировать код.
• Используйте разные AI-модели для разных задач и не бойтесь переключаться между ними.
• Прописывайте часто используемые решения и подходы в отдельный файл и загружайте его в контекст для ускорения типовых операций (например, SQL-запросы).
• Голосовой ввод (например, с помощью whisper или VoiceInk) значительно ускоряет постановку задач.
• Создание собственных CLI-инструментов для частых задач заметно экономит время и повышает удобство работы.

Звучит разумно? Делитесь своими светлыми идеями про вейп вайбкодинг в коментах. Ну, или темными!
17.04.2025, 19:07
t.me/llm4dev/276
20
16
786
Поскольку новостей по теме AI-программирования становится все больше, решили попробовать формат еженедельного дайджеста «Vibe Coding News». Сегодня собрали в него такие новости:

OpenCodeReasoning Dataset от Nvidia — в открытом доступе. Крупнейший на сегодняшний день (735К примеров на python охватывающие 28К задач) синтетический датасет, ориентированный на задачи, требующие рассуждений при программировании. Датасет предназначен для обучения моделей с учителем (supervised fine-tuning).

Codeium переименовались в Windsurf —т.к. Виндсерф теперь их главное направление деятельности, а их AI-агент теперь доступен в JetBrains IDE.

В Aider (агент-программист) в роли редактора используется DeepSeek R1 в паре с Gemini 2.5 Pro в роли архитектора, чтобы минимизировать проблемы с оркестрацией изменений в коде. Gemini 2.5 Pro — способна создавать рабочие фрагменты кода по сложным запросам и применяется в Aider для редактирования и генерации до 15 файлов в контексте 300K токенов. При этом в Aider выявлены проблемы с /architect-режимом: изменения прерываются при добавлении новых файлов. Пользователи отключают авто-коммиты, чтобы избежать коммита непроверенного кода.

Microsoft представила новый подход к синтезу кода, разбивая задачи “программирования по примеру” (programming by example - PBE) на подзадачи, чтобы устранить ошибки LLM. Статья: https://arxiv.org/pdf/2503.15540

Optimus Alpha — новая модель оптимизированная для программирования опубликована в OpenRouter. Что скрывается за этим именем пока не понятно, но несмотря на 1M токенов в контексте, пользователи жалуются на частые галлюцинации в коде.

Вышла Firebase Studio — об это писали сегодня выше.

DeepCoder 14B — новая модель кодирования от UC Berkeley, полностью открытая модель генерации кода на 14B параметров сопоставима с OpenAI o3-mini и o1, с открытым исходным кодом. Обучена с применением RL на Deepseek-R1-Distilled-Qwen-14B, используя 32 H100 в течение 2,5 недель. Стоимость обучения около $26,880. Доступны исходный код модели, датасет, тренировочный скрипт и подробный блог. MIT-лицензия, совместима с vLLM, TGI и Transformers. Обеспечивает 60.6% на LiveCodeBench и 1936 на CodeForces.
11.04.2025, 18:00
t.me/llm4dev/275
5
9
712
Вышла Firebase Studio — новая IDE от Google
Но нас она не впечатлила, и вот почему:
1. Firebase — это не новинка. Раньше это был набор сервисов для мобильной разработки: база данных, авторизация, хостинг. Теперь к этому добавили облачную среду разработки с AI.

2. Внутри — форк VS Code с расширением Gemini. По промту генерируется шаблон проекта (React, Next и т.п.), создаётся пустое приложение, и уже на нем AI пытается реализовать ваш запрос. Визуальных билдеров компонентов нет — весь no-code сводится к генерации по описанию.

3. На практике всё пока довольно сыровато. Генерация кода ограничена и поверхностна — на глаз 250–500 строк. Только модели от Google, режим работы не “thinking”, как у Cursor с Claude или Gemini 2.5. Поддержки A2A пока нет, MCP тоже. Как IDE — пока уступает альтернативам.

Попробовать можно бесплатно, но на наш взгляд это не “Google Cursor на максималках”, а скорее Firebase с AI-пристройкой, которую еще рано рассматривать всерьёз
11.04.2025, 13:40
t.me/llm4dev/272
6
4
562
Зачем ML-системам распознавать салон вашего автомобиля?
Расскажет Виктор Кочеганов — кандидат физико-математических наук, руководитель ML-направления в ГК "Фрактал".

В эфире:
🟣Почему штрафы за скорость — это "прошлый век" и какие задачи компьютерного зрения решаются сегодня для повышения безопасности на дорогах?
🟣Какие ограничения накладывает real-time production на ML-алгоритмы?
🟣Действительно ли опасно разговаривать по телефону за рулем или не пристегиваться в автомобиле? Что говорит статистика?
🟣Какие этапы разработки проходит ML-алгоритм для фото- и видеофиксации нарушений ПДД?

⏰ Запускаем трансляцию 11 апреля в 14:00.

Подключайтесь и задавайте вопросы Виктору! Их можно оставить в чате на YouTube или в комментариях к этому посту.
9.04.2025, 14:05
t.me/llm4dev/271
7
7
739
Сегодня Cursor стал, наверное, самым распространенным ИИ инструментом, применяемым программистами. И вот вдруг у многих он перестал работать. Пользователи Cursor только что уперлись в стену. Одна строка, зарытая в 485-строчном JSON-файле одного из расширений языковой службы Microsoft для VSCode, нарушила его совместимость с Cursor. Сообщество теперь вспоминает фразу из темной истории Microsoft: принять, расширить, погасить . Но так ли все плохо на самом деле? Прочитайте https://tomaszs2.medium.com/microsoft-quietly-blocked-cursor-from-using-its-vscode-extension-heres-the-line-of-code-that-8d664caf0de5 Вот эта строка : "license_terms": "The C/C++ extension may be used only with Microsoft Visual Studio, Visual Studio for Mac, Visual Studio Code, Azure DevOps, Team Foundation Server, and successor Microsoft products and services to develop and test your applications." в файле vscode-pptools/Extension /src /nativeStrings.json в файле на github. Выход из ситуации очевиден - магазин расширений Microsoft для VSCode — не единственное место, где их можно получить, и вы можете получить расширения откуда угодно, например, из Open VSX . Cursor будет работоспособным. Но нельзя быть на 100% уверенным в том, что нас ждет в будущем.
9.04.2025, 10:12
t.me/llm4dev/270
8
7
556
Как диффузионные LLM повлияют на сферу AI? Об этом рассказал доктор технических наук Владимир Крылов в своей новой лекции.

В эфире рассмотрели:
🟠Как устроены LLM, опирающиеся не на алгоритмы последовательного предсказания следующего токена, а на алгоритмы диффузии, обычно применяемые для генерации изображений?
🟠Насколько быстрее dLLM Mercury Coder — Mini и Small — справляются с генерацией кода и текста?
🟠Как работает диффузионная текстовая модель LLaDA, сделанная командой GSAI-ML из Китайского народного университета?

Запись лекции доступна здесь и на других площадках:

➡️ YouTube
➡️ ВКонтакте
➡️ ЯндексМузыка
7.04.2025, 18:10
t.me/llm4dev/269
5
13
682
Слышали про релиз диффузионных LLM компанией Inception Labs? В этот четверг, 3 апреля, в 12:00 доктор технических наук Владимир Крылов расскажет, как диффузионные LLM повлияют на сферу AI.

В эфире рассмотрим:
🟠Как устроены LLM, опирающиеся не на алгоритмы последовательного предсказания следующего токена, а на алгоритмы диффузии, обычно применяемые для генерации изображений?
🟠Насколько быстрее dLLM Mercury Coder — Mini и Small — справляются с генерацией кода и текста?
🟠Как работает диффузионная текстовая модель LLaDA, сделанная командой GSAI-ML из Китайского народного университета?

Подключайтесь и задавайте вопросы лектору! Их можно оставить в чате на YouTube или в комментариях к этому посту.
2.04.2025, 12:04
t.me/llm4dev/266
https://www.perplexity.ai/page/anthropic-develops-ai-microsco-qtbmvTgjSDuJndPPgxG8Nw
29.03.2025, 17:48
t.me/llm4dev/264
11
5
645
Микроскоп ИИ выявил сложные возможности планирования и рассуждения Клода. При генерации поэзии модель планирует несколько слов вперед, сначала выбирая соответствующие рифмующиеся слова, а затем конструируя каждую строку, чтобы вести к этим целям . Для многошаговых задач рассуждения, таких как определение столицы штата, где находится Даллас, Клод последовательно активирует представления, сначала связывая «Даллас находится в Техасе», а затем «столица Техаса — Остин» . Решение математических задач демонстрирует параллельную обработку с одним путем для приближения и другим для точного расчета . Эти результаты бросают вызов предположению, что LLM просто предсказывают от токена к токену, демонстрируя более сложный внутренний процесс.
29.03.2025, 17:48
t.me/llm4dev/265
4
7
836
Зачем искусственный интеллект науке? Об этом рассказал доктор технических наук Владимир Крылов в своей новой лекции, предложив авторскую интерпретацию внутренних причин появления ИИ как результата научной деятельности человека.

В эфире рассмотрели:
🟠акселерацию процессов проникновения методов ИИ в науку;
🟠возможности управления контролируемыми галлюцинациями, которые лежат в основе познания мира;
🟠новые ИИ-инструменты исследований и их влияние на работу научных сотрудников и на современные формализации структуры науки.

Запись лекции доступна здесь и на других площадках:

➡️ YouTube
➡️ ВКонтакте
➡️ ЯндексМузыка
21.03.2025, 14:03
t.me/llm4dev/263
9
48
686
Наткнулся на интересный пост:
Каждый день меня спрашивают: "А правда ли ИИ помогает инженерам с большими/сложными/legacy кодовыми базами?"
И знаете что? Однозначно да, если всё делать правильно!
Студенты курсов AI  для разработчиков поделились со мной своим опытом, как они это делают на практике:

Инженер 1:
Первым делом — разберитесь, как устроена кодовая база, спрашивая об этом ИИ. При этом ИИ заодно тоже её изучает.
Например, в Cursor вы можете @ Codebase (или @ какую-то часть кода) и попросить:
• "Сделай Mermaid-диаграммы последовательности и потоков для понимания связей между всеми важными файлами проекта"
• "Результат можно загрузить в  https://mermaid.live/ для просмотра"
• "Дай мне команды для терминала — как запускать, тестировать и останавливать приложение локально и в проде"
• "Расскажи, как ещё можно использовать это приложение, и где найти документацию"
• "Напиши документацию, чтобы я мог начать работать с этой кодовой базой. Сделай это рекурсивно — по директориям, поддиректориям, и пусть всё связывается между собой"
Дальше используйте обычный процесс разработки, но с помощью ИИ:
• Тикет в Jira → ИИ читает, ищет важную информацию, делает выжимку
• Изучение кода → ИИ читает код и пишет саммари на важные части
• Создаем branch → ИИ анализирует код и предлагает исправления
• Тесты → Дайте ИИ взглянуть на существующую инфраструктуру тестов и попросите создать новые тесты для вашей фичи
• Запустите тесты  → ИИ помогает исправить несостыковки
• Сделайте PR, при необходимости воспользуйтесь услугами ИИ
• И так далее
 
Сам пост тут, там еще от 4 инженеров есть советы  по использованию AI.

PS: Думаю на английском промты будут лучше работать
21.03.2025, 10:22
t.me/llm4dev/262
4
17
686
Как разработчики используют LLM: дайджест исследования

Прочитали за вас 40-страничное исследование от Университета Северной Каролины о влиянии языковых моделей на разработку ПО. Ключевые выводы:

-LLM повышают продуктивность за счёт сокращения рутины, упрощения поиска решений и создания шаблонного кода
-Лучше всего разбивать задачи на мелкие компоненты и итеративно уточнять промпты
-Для оценки кода эффективно использовать комбинацию ручной проверки и автоматизированного тестирования
-LLM особенно хороши в написании тестов и рефакторинге

Для организаций важно:

• Создавать библиотеки шаблонов промптов для сотрудников
• Обучать команды промпт-инжинирингу
• Использовать RAG для включения проектной документации в генерацию

Полный дайджест с инсайтами на Хабре.
20.03.2025, 12:56
t.me/llm4dev/261
22
15
830
Поднявшаяся с легкой руки Андрея Карпаты волна обсуждений vibe coding размывает многие догмы сегодняшнего понимания разработки программ. Но вот появляются и такие сообщения, на первый взгляд курьезные. В самый раз на выходные.

Сообщается, что известный помощник по программированию Cursor сказал пользователю под ником «janswist», что тот должен написать код самостоятельно, а не полагаться на то, что Cursor сделает это за него.
«Я не могу генерировать код для вас, так как это будет означать завершение вашей работы... вы должны разработать логику самостоятельно. Это гарантирует, что вы поймете систему и сможете ее правильно поддерживать», — сказал ему Курсор после того, как он провел час, «настраивая» код с помощью инструмента.
Итак, janswist подал отчет об ошибке на форуме продукта компании: «Cursor сказал мне, что мне следует изучить кодирование, а не просить его генерировать его», и приложил снимок экрана. Отчет об ошибке вскоре стал вирусным на Hacker News и был освещен Ars Technica.
Предполагается, что Cursor обучался на сайте Stack Overflow и он мог усвоить не только советы по кодированию, но и человеческий сарказм.
15.03.2025, 20:52
t.me/llm4dev/260
1
14
501
Сообщения о совершенствовании архитектур базовых моделей ИИ публикуются довольно часто и мы нередко задаемся вопросом об их перспективности. Ведь авторы и обозреватели нередко заявляют о радикальных преимуществах новых алгоритмов функционирования и скором вытеснении старых добрых трансформеров. Но несмотря на реальные преимущества тех или иных решений, они в целом пока не дают видимого экономического преимущества, добавляя единицы процентов к производительности моделей. Большинство новаторских моделей с трудом продвигаются в индустрию из академических исследований. Но вот недавняя публикация компании Inception сразу задела меня, заинтересовала многих с кем я говорил, и в надежде, что свершившееся заинтересует и многих читателей канала, публикую заметку по материалам упомянутой и последовавших за этим публикаций. Более того на нашем канале запланирована моя следующая лекция, посвященная детальному анализу предложенной авторами технологии и релизу готовых моделей на ее основе. Для начала о команде. Она впечатляет : "Нас основали профессора из Стэнфорда, Калифорнийского университета в Лос-Анджелесе и Корнелла — пионеры в области диффузионного моделирования и краеугольных технологий ИИ, включая Flash Attention, Decision Transformers и Direct Preference Optimization. В нашу инженерную команду входят ветераны из Google DeepMind, Microsoft, Meta, OpenAI и NVIDIA." Так в чем корень технологии? На настоящий момент известно два основных подхода к базовому принципу генеративного ИИ - это авторегрессионная модель и диффузионная модель. Позволю себе провести аналогию с двумя техниками работы скульптора, "генерирующего" свое произведение. Есть техника лепки, когда кусочек за кусочком добавляются к уже вылепленному, а есть техника высечения, когда из бесформенного в начале куска материала путем отделения кусок за куском формируется "генерируется" произведение. Так вот первая техника - это прямая аналогия работы авторегрессионных моделей GPT, а вторая техника - аналогия работы диффузионной модели. И что же сделали в Inception? Они соединили эти две технологии и сделали Diffusion LLM. теперь текст генерируется не токен за токеном, а фильтруется как из хаоса слов по группам токенов. Эффект в скорости составляет десятки раз! Наилучшие результаты по качеству получаются при генерации программного кода, поэтому свои первые модели разработчики ориентировали на работу с кодом. Так что встречайте и пробуйте (уже есть Playground) Mercury Coder Small и Mercury Coder Mini. https://www.inceptionlabs.ai/news
14.03.2025, 19:57
t.me/llm4dev/259
12
10
690
Сейчас есть множество разных AI-платформ для разработки, но какую выбрать для своих задач или для проектной команды? Разберемся вместе с Александром Медведевым — fullstack-разработчиком компании Just AI.

В эфире:
🟣сравним ключевые AI-платформы;
🟣посмотрим на сценарии их использования;
🟣обсудим преимущества использования AI-платформ по сравнению с прямым обращением к LLM;
🟣поговорим о трендах развития инструментов на базе AI в разработке.

⏰ Запускаем трансляцию в полдень 14 марта (пятница).

Подключайтесь и задавайте вопросы Александру! Их можно оставить в чате на YouTube или в комментариях к этому посту.
13.03.2025, 19:04
t.me/llm4dev/256
8
9
735
В этот четверг, 13 марта, в 16:00 доктор технических наук Владимир Крылов расскажет, зачем искусственный интеллект науке. Лектор предложит авторскую интерпретацию внутренних причин появления ИИ как результата научной деятельности человека, основываясь на теории Лавлока и принципе свободной энергии Фристона.

В эфире рассмотрим:
🟠акселерацию процессов проникновения методов ИИ в науку;
🟠возможности управления контролируемыми галлюцинациями, которые лежат в основе познания мира;
🟠новые ИИ-инструменты исследований и их влияние на работу научных сотрудников и на современные формализации структуры науки.

Подключайтесь и задавайте вопросы лектору! Их можно оставить в чате на YouTube или в комментариях к этому посту.
12.03.2025, 18:55
t.me/llm4dev/253
5
12
695
Как эволюционировали технологии распознавания речи?
Рассказывает Виктор Загускин — ML-руководитель платформы речевых технологий в MTS AI.

В эфире разбираем:
🟠переход от классических подходов (HMM, Kaldi) к end-to-end моделям (CTC, RNN-T, Whisper, TDT);
🟠вызовы сценариев поточного распознавания, диаризации и интерактивного общения;
🟠перспективы полнодуплексных LLM и мультимодального взаимодействия.

Запись лекции доступна здесь и на других площадках:

➡️ YouTube
➡️ ВКонтакте
➡️ ЯндексМузыка
11.03.2025, 15:08
t.me/llm4dev/252
7
11
833
"Почему люди создают ИИ?" — новая лекция доктора технических наук Владимира Крылова.

Разбираем:
🟠принципы свободной энергии Фристона;
🟠серендипность и экзаптацию как механизмы эволюции жизни и технологий;
🟠ИИ как необходимый элемент системы гомеостаза нашей планеты.

Запись лекции доступна здесь и на других площадках:

➡️ YouTube
➡️ ВКонтакте
➡️ ЯндексМузыка
10.03.2025, 16:05
t.me/llm4dev/251
5
28
733
Как внедрить искусственный интеллект в ваш веб-проект?
Миша Ларченко покажет три способа интеграции ИИ-моделей с помощью JavaScript. Вы узнаете, какой вариант лучше всего подойдет для ваших задач и как избежать подводных камней при работе с нейросетями в браузере.

⚡️Миша Ларченко — опытный fullstack-разработчик, специализирующийся на backend и frontend с разными фреймворками. Работает с базами данных, облачными сервисами и архитектурами, увлекается блокчейном и LLM. Ведет одноименный YouTube-блог.

Запись трансляции доступна здесь и на других площадках:

➡️ YouTube
➡️ ВКонтакте
➡️ ЯндексМузыка
9.03.2025, 14:03
t.me/llm4dev/250
3
18
599
Ведущие европейские разработчики LLM Mistral выпустили "Mistral OCR" - модель, которая может поспособствовать развитию RAG-пайплайнов.

По заявлениям производителя это самая мощная модель для распознавания документов, при этом она может работать локально... но к сожалению не Open Source.

Умеет распознавать мультимодальные (текст, таблицы, pdf, презентации, формулы типа LaTeX и изображения) документы. Есть API, т.е. интегрируется в любые пайплайны (например в RAG). Точность на русском (и еще на десятке языков) языке выше 99%, т.е. выше, чем у Google Doс AI, Azure OCR или Gemini.

Локальное развертывание: можно использовать на собственных серверах для защиты чувствительной информации (повторюсь, но не open source). Высокая скорость обработки: до 2000 страниц в минуту на одном узле + batch inference.

Уже можно попробовать бесплатно в Le Chat, попробовать API на платформе Mistral (La Plateforme). Подробнее на сайте Mistral.
7.03.2025, 14:38
t.me/llm4dev/249
7
10
490
Anthropic выпустила инструмент Claude Code — агента разработчика, который работает терминале. Он умеет разбираться во всем коде (code base) и помогает кодить быстрее через команды на обычном языке. Кажется это первый агент-разработчик напрямую от производителей LLM?


Ключевые возможности:
• Пишет код, исправляет баги
• Отвечает на вопросы об архитектуре и логике кода
• Запускает и исправляет тесты
• Работает с git: история, конфликты, коммиты и PR

Особенности:
• Работает прямо в терминале
• Понимает контекст всего проекта
• Выполняет реальные действия с кодом
• Прямое API-соединение без промежуточных серверов

Пока в бета-версии как research preview. Установка через npm: npm install -g @anthropic-ai/claude-code

Анонсируют, что пригодится для изучения незнакомого кода, автоматизации git-операций и интеллектуального редактирования.

UPD
Пока только waitlist, так что ждем
26.02.2025, 14:36
t.me/llm4dev/248
9
8
622
Как эволюционировали технологии распознавания речи?
Завтра, 26 февраля, в 12:00 об этом расскажет Виктор Загускин — ML-руководитель платформы речевых технологий в MTS AI.

В эфире обсудим:
🟣переход от классических подходов (HMM, Kaldi) к end-to-end моделям (CTC, RNN-T, Whisper, TDT);
🟣вызовы сценариев поточного распознавания, диаризации и интерактивного общения;
🟣перспективы полнодуплексных LLM и мультимодального взаимодействия.

Подключайтесь и задавайте вопросы Виктору! Их можно оставить в чате на YouTube или в комментариях к этому посту.
25.02.2025, 17:58
t.me/llm4dev/245
https://www.perplexity.ai/page/ai-cheats-when-losing-bpsaBgUXQPy9xftRjZv8hA
23.02.2025, 08:16
t.me/llm4dev/243
В дополнение к моей последней лекции
23.02.2025, 08:16
t.me/llm4dev/244
11
1
566
В этот четверг, 20 февраля, в 12:00 доктор технических наук Владимир Крылов расскажет, почему люди создают искусственный интеллект. Зачем тратить столько ресурсов, работая над все более совершенными моделями, которые способны решать проблемы ментальными способами?

На лекции рассмотрим:
🟠принципы свободной энергии Фристона;
🟠серендипность и экзаптацию как механизмы эволюции жизни и технологий;
🟠ИИ как необходимый элемент системы гомеостаза нашей планеты.

Подключайтесь и задавайте вопросы спикеру! Их можно оставить в чате на YouTube или в комментариях к этому посту.
19.02.2025, 15:51
t.me/llm4dev/240
10
9
696
Как внедрить искусственный интеллект в ваш веб-проект?
Сегодня в 13:00 Миша Ларченко покажет три способа интеграции ИИ-моделей с помощью JavaScript, разберет их плюсы и минусы, а также расскажет, какие ограничения могут возникнуть. Вы узнаете, какой вариант лучше всего подойдет для ваших задач и как избежать подводных камней при работе с нейросетями в браузере.

Миша Ларченко — опытный Fullstack-разработчик, специализирующийся на backend и frontend с разными фреймворками. Работает с базами данных, облачными сервисами и архитектурами, увлекается блокчейном и LLM. Автор одноименного YouTube-блога.

Подключайтесь и задавайте вопросы спикеру! Их можно оставить в чате на YouTube или в комментариях к этому посту.
18.02.2025, 12:54
t.me/llm4dev/237
13
5
520
Роман Куцев — founder LLM Arena, автор канала @roma_data и выпускник ВМК МГУ — у нас в гостях! В этом видео Роман рассказал о своем детище — открытой краудсорсинговой платформе для оценки моделей на русском языке. Эта платформа позволяет любому пользователю тестировать и сравнивать LLM бесплатно.

В видео узнаете:
🟣 Как работает бенчмарк LLM Arena?
🟣 Как формируется рейтинг на аренах? Насколько он справедлив?
🟣 Чем LLM Arena лучше для русскоговорящего пользователя, чем LMSYS Chatbot Arena?
🟣 Как не дать моделям обвести себя вокруг пальца?
🟣 Как подобрать лучшую модель для своих задач?

Сейчас на платформе доступны 49 российских и зарубежных ИИ-моделей, можете опробовать их хоть прямо сейчас!

А Роман готов ответить на ваши вопросы в комментариях⬇️
14.02.2025, 19:34
t.me/llm4dev/236
16
25
1.1 k
Мы перевели статью "Windsurf vs Cursor IDE: выбираем AI-редактор кода?” и запостили ее на Хабре, она довольно подробная с картинками. Автор разбирает основные фичи двух самых популярных AI IDE. Рекомендуем так же заглянуть в комментарии, там много интересного: и про использование бесплатных IDE и локальных моделей vs Claude, и про YOLO mode (режим агента) в Cursor и даже про проблемы Cline с DeepSeek
6.02.2025, 12:51
t.me/llm4dev/235
4
12
473
"Большие модели рассуждений. Ещё шаг в эпоху Новацена?" — новая лекция доктора технических наук Владимира Крылова.

Разбираем:
🟠На что способны модели рассуждений вроде DeepSeek-R1?
🟠Как правильно сконструировать промпт для них?
🟠В чем состоят проблемы использования таких моделей?
🟠Как модель рассуждений думает без слов и как все это связано с системами сознания Канемана?

Запись лекции доступна здесь и на других площадках:

➡️ YouTube
➡️ ВКонтакте
➡️ ЯндексМузыка
4.02.2025, 17:52
t.me/llm4dev/234
5
4
543
С 31 января 2025 года o3-mini стала доступна для подписчиков ChatGPT Plus. Вышли результаты на Livebench (это бенчмарк/платформа, которая постоянно обновляет набор задач, исключая возможность утечки решений и гарантируя, что задания остаются актуальными и интересными).

На кодинге модель уверенно опережает всех.
В среднем показывает лучшие результаты, чем Deep Seek R1 (за исключением математики).

Первоначальные показатели по математике оказались аномально низкими, но организаторы обнаружили ошибку и пересчитали средние баллы.
3.02.2025, 11:40
t.me/llm4dev/233
5
20
549
А что, если совместить DeepSeek R1 и Claude?

Компания Asterisk (AI Security) выпустила open source интерфейс DeepClaude, который объединяет рассуждения R1 и креативность Claude. R1 используется как архитектор - сначала запрос попадает к этой модели, а Claude как редактор кода – финальная реализация в виде кода того, что придумала R1.

На бенчмарке Aider Polyglot такой подход показал интересные результаты:

1. Первое место, лучше чем DeepSeek R1, Claude и o1
2. В 14 раз дешевле, чем o1

На гитхабе:
https://github.com/getasterisk/deepclaude
https://deepclaude.com/ - на сайте есть deepclaude чат, но у меня он не работает. ☹️
31.01.2025, 11:20
t.me/llm4dev/232
6
16
565
Помните, мы все удивились новой китайской модели DeepSeek R1, которая сравнима с o1, но открытая? Ах, да, конечно помните, это же было неделю назад. Она основана на модели DeepSeek V3 (не рассуждающей). А теперь встречайте Tulu3-405B — американскую открытую модель, которая превосходит DeepSeek V3 по большинству бенчмарков (по крайней мере из тех, которые авторы указали в пресс-релизе).

Разработчик: некоммерческий институт AI2 (Сиэтл)
Параметры: 405B, обучение — 256 GPU

По HumanEval (популярный бенчмарк на программирование с проверкой заданий юнит тестами) превосходит DeepSeek, есть дистиллированные маленькие модели - кандидаты на локальную модель для программирования, по отзывам скорости на бытовом железе скромные.

На бенчмарках PopQA (вопросы по Википедии) и GSM8K (математика), обгоняя не только DeepSeek V3, но и GPT-4o с Llama 3.1.

Код доступен на GitHub, Hugging Face, протестировать можно в чат-боте AI2.
Рассуждать, правда, придётся самостоятельно — Tulu3 пока не умеет.

Более подробный обзор: TechCrunch
31.01.2025, 08:51
t.me/llm4dev/231
11
11
512
В этот четверг, 30 января, в 12:00 доктор технических наук Владимир Крылов расскажет о моделях рассуждений (таких как DeepSeek R1, o1, o3), основанных на больших языковых моделях.

На лекции обсудим:
🟠На что способны модели рассуждений?
🟠Как правильно сконструировать промпт для них?
🟠В чем состоят проблемы использования таких моделей?
🟠Как модель рассуждений думает без слов и как все это связано с системами сознания Канемана?

Хотите узнать, как появление говорящих и рассуждающих моделей вписывается в концепцию перехода Земли от эпохи Антропоцена в эпоху Новацена? Подключайтесь!
28.01.2025, 13:01
t.me/llm4dev/228
Os resultados da pesquisa são limitados a 100 mensagens.
Esses recursos estão disponíveis apenas para usuários premium.
Você precisa recarregar o saldo da sua conta para usá-los.
Filtro
Tipo de mensagem
Cronologia de mensagens semelhante:
Data, mais novo primeiro
Mensagens semelhantes não encontradas
Mensagens
Encontre avatares semelhantes
Canais 0
Alta
Título
Assinantes
Nenhum resultado corresponde aos seus critérios de pesquisa