У вас закончился пробный период!
Для полного доступа к функционалу, пожалуйста, оплатите премиум подписку
Возраст канала
Создан
Язык
Русский
Другие username
data_secrets, dslab
4.26%
Вовлеченность по реакциям средняя за неделю
18.04%
Вовлеченность по просмотрам средняя за неделю

Первый журнал о Data Science | Machine Learning | Big Data | Deep Learning | Neural Networks

По вопросам сотрудничества: @veron_28

Сообщения Статистика
Репосты и цитирования
Сети публикаций
Сателлиты
Контакты
История
Топ категорий
Здесь будут отображены главные категории публикаций.
Топ упоминаний
Здесь будут отображены наиболее частые упоминания людей, организаций и мест.
Найдено 795 результатов
DA
Data Secrets
56 970 подписчиков
1
1
Демис Хассабис (тот самый с обложки TIME): «Сейчас ИИ не обладает сознанием, но оно может возникнуть неявно»

По словам ученого, появление сознания в моделях не является целью как таковой, но оно может возникнуть само собой по мере их развития.

«Таким системам необходимо понимание себя, собеседника и других. И это может вырасти в что-то, напоминающее самосознание. Но оно будет отличаться от человеческого»

Примерно то же самое Демис говорит про любопытство, интуицию и воображение. Сейчас его нет, но через 5-10 лет появится, и тогда модели смогут по-настоящему генерировать гипотезы и заниматься наукой.

Полное интервью (идет час, вышло несколько часов назад)
21.04.2025, 12:22
t.me/data_secrets/6758
DA
Data Secrets
56 970 подписчиков
1
Что лучше: получить 500 000 ₽ или пропуск в одно из крупнейших сообществ web3-энтузиастов и блокчейн-разработчиков? 😏

Победители блокчейн-хакатона DeFi Hack 2025 получат и то и другое. Для этого нужно только решить реальную бизнес-задачу Сбера и предложить лучшее инновационное решение.

🏆 Призовой фонд хакатона в 1 000 000 ₽ разделят между собой 3 участника/команды: 500 000 ₽, 300 000 ₽ и 200 000 ₽.

Приём заявок продлится до 12 мая — успейте собрать команду до 5 человек или принять участие соло! 👌
21.04.2025, 11:02
t.me/data_secrets/6757
DA
Data Secrets
56 970 подписчиков
33
5.2 k
21.04.2025, 09:07
t.me/data_secrets/6755
DA
Data Secrets
56 970 подписчиков
33
5.2 k
21.04.2025, 09:07
t.me/data_secrets/6756
DA
Data Secrets
56 970 подписчиков
78
33
5.0 k
В соцсетях пользователи ополчились на OpenAI за то, что результаты выпущенной o3 не соответствуют заявленным в декабре бенчмаркам. Разбираемся

Как мы помним, o3 анонсировали еще в декабре. Вот наш пост с показанными тогда метриками. Кратко: 25% на FrontierMath (против 2% у следующего конкурента) и 88% на ARC AGI.

И вот, наконец, o3 выпускают в паблик, и что мы видим? 10% на FrontierMath и 35-40 на ARC AGI.

Получается, OpenAI соврали? Не совсем так:

1. В анонсе были показаны, вероятно, результаты o3-pro, которая еще не вышла. Плюс, замеры были по верхней границе (сейчас настройки могут быть другие).

2. С декабря версии бенчмарков изменились. Если в декабре во FrontierMath было 180 задач, то теперь их 290 и они другие.

3. Выпущенная в паблик модель отличается от версий o3, которые были у OpenAI в декабре. Об этом разработчики говорили прямо на стриме: «Модель оптимизирована для реальных сценариев использования и более быстрых ответов». Ну и цена упала в несколько раз, судя по замерам ARC-AGI (картинка 3). Ожидаемо, что метрики у такой версии где-то просядут.

Ситуация, конечно, все равно спорная. Просто помним, что бенчмарки вещь тонкая, на слово верить им не стоит никогда. Сейчас это в основном инструмент маркетинга, а не адекватного эвала.
21.04.2025, 09:07
t.me/data_secrets/6754
DA
Data Secrets
56 970 подписчиков
190
288
10 k
Отец обучения с подкреплением Ричард Саттон опубликовал очень интересное эссе под названием «Добро пожаловать в эру опыта»

О Ричарде мы писали вот тут. В 80-е он вместе с Эндрю Барто разработал основы RL, а в этом году они получили премию Тьюринга.

В эссе Саттон говорит о том, что эпоха контролируемого предобучения ИИ постепенно заканчивается. В будущем вместо привычной связки претрен + файнтюнинг + RL нас ждут агенты, которые будут самообучаться.

Конкретнее, агенты будут непрерывно действовать в реальном или смоделированном мире и генерировать в нем собственные данные для обучения посредством взаимодействия друг с другом. Среда, кстати, может быть какая угодно: компьютеры, игры, биржи, реальный мир для роботов или даже обычные умные часы.

Это будет похоже на тот же RL, только агенты будут оптимизировать вознаграждения, основанные именно на окружающей среде, а не только на человеческих предпочтениях. Получается, что это ближе к человекоподобному обучению на основе жизненного опыта.

Полностью почитать можно тут
20.04.2025, 18:28
t.me/data_secrets/6753
DA
Data Secrets
56 970 подписчиков
289
1.6 k
13 k
Там Стэнфорд выложили на YouTube свой свежий курс CS336: Language Modeling from Scratch

Это практический курс, в котором вся теория по LLM подается в процессе разработки собственной модели. Получается изучение end-to-end: от обработки данных и архитектуры трансформера до RL и эвала.

Ведет курс опытный профессор университета и сооснователь TogetherAI Перси Лианг.

Ну и главное: курс новый и вся информация актуальна на сегодняшний день. Он даже в самом Стэнфорде еще идет прямо сейчас, так что лекции и код продолжат выкладывать по ходу.

Репозиторий с дз и ноутбуками
Сайт курса
YouTube
20.04.2025, 11:58
t.me/data_secrets/6752
DA
Data Secrets
56 970 подписчиков
179
141
11 k
Bloomberg пишет, что за 2024 из-за производства ИИ-чипов выбросы углекислого газа увеличились вчетверо

Особенно ИИ-гонка влияет на Азию, потому что там расположены все основные производства (в том числе заводы Nvidia и Microsoft).

Интересно, что рост выбросов, связанных с производством чипов, обогнал даже рост выбросов от потребления электроэнергии: 357% против 351.

Гринпис в связи с этим заявляет, что они уже начинают сомневаться в конечной полезности ИИ 😬
19.04.2025, 18:15
t.me/data_secrets/6751
DA
Data Secrets
56 970 подписчиков
113
147
11 k
Яндекс создал более надежный аналог Kafka

Если вы строите микросервисы, то знаете: когда архитектура становится сложнее, просто Kafka может не хватить. Хочется чего-то с такой же совместимостью, но более управляемое.

Шина от Яндекса называется YDB Topics и умеет передавать разнородную информацию с высокой гарантией сохранности. При этом развернуть её можно где угодно.

У Яндекса на YDB уже вся инфраструктура и это действительно удобнее с точки зрения настроек доступа и организации распределенной работы.

Больше о YDB Topics расскажут на вебинаре 23 апреля. Будет информация про архитектуру, встроенные корпоративные возможности и то, как систему получилось сделать настолько отказоустойчивой. А еще много интересных тех.деталей: например, про ACID транзакции и борьбу с дублями.
19.04.2025, 17:00
t.me/data_secrets/6750
DA
Data Secrets
56 970 подписчиков
175
331
12 k
Google выпустили новые версии Gemma-3, которые можно запустить локально на домашних видеокартах

Например, теперь, чтобы запустить Gemma 3 27B, понадобится всего 14 гигабайт vRAM всесто 54. А Gemma 3 1B вообще заведется на 0.5 Gb (считай, на утюге).

Технически все дело в квантовании. Квантование – это когда мы снижаем точность чисел, которые модель хранит и использует для расчетов.

Обычно квантование снижает качество ответов исходной модельки, но тут Gemma специально натренили быть к этому устойчивой. Это называется Quantization-Aware Training: модель квантуют не после окончания обучения, а прямо во время.

Веса уже на HF
19.04.2025, 13:52
t.me/data_secrets/6749
DA
Data Secrets
56 970 подписчиков
209
355
13 k
Только что в Китае закончился первый в мире полу-марафон для людей и роботов

Участие приняли более 20 двуногих роботов. Были и от ведущих китайских стартапов, но даже победители очень сильно отставали от людей (фух).

Пробежать нужно было, если что, 21 километр. Победитель от людей преодолел расстояние за 1 час 2 минуты. От роботов победил Tiangong Ultra. Его результат – 2 часа 40 минут.

В общем, атлеты пока что не ВСЕ
19.04.2025, 10:06
t.me/data_secrets/6748
DA
Data Secrets
56 970 подписчиков
205
231
11 k
Интересно: OpenAI добавили в API флекс-процессинг

Как это работает: теперь вы можете использовать модели в API с огромными скидками, если согласитесь ждать ответы чуть дольше. Получается дешевле на 50%.

Подходит, если у вас асинхронная система или вы используете API для себя. Ну, например, для разметки или эвала.

Чтобы воспользоваться, надо просто прописать service_tier="flex"

Вайб-кодинг, флекс-процессинг… Чил-трейнинг будет?
18.04.2025, 19:12
t.me/data_secrets/6747
DA
Data Secrets
56 970 подписчиков
112
17
10 k
Качество стриминга под контролем 🔥

22 апреля на VK Видео Meetup не пропустите доклад о лаборатории качества единой видеоплатформы VK. Вы узнаете, чем она занимается, как в ней замеряют качество роликов, исследуют эффективность работы приложений и пользовательский опыт. Инсайдами поделится Павел Муханов, руководитель лаборатории.

Регистрируйтесь сами и расскажите коллегам!
18.04.2025, 18:10
t.me/data_secrets/6746
DA
Data Secrets
56 970 подписчиков
256
137
11 k
ML-щик? Назови все модели OpenAI в порядке возрастания метрик на бенчмарках
18.04.2025, 17:28
t.me/data_secrets/6745
DA
Data Secrets
56 970 подписчиков
158
79
11 k
Anthropic инвестируют 50 миллионов долларов в интерпретируемость LLM

Точнее в стартап Goodfire, который специализируется на интерпретируемости. Вместе с Anthropic они теперь будут разрабатывать общедоступную платформу нейронного программирования Ember, которая сможет показывать «мысли» любой ИИ-модели.

Это, кстати, первая инвестиция Anthropic за все время существования компании
18.04.2025, 16:04
t.me/data_secrets/6744
DA
Data Secrets
56 970 подписчиков
75
130
10 k
Cloud․ru выкатил первый сервис для инференса LLM в облаке с разделением GPU

Облачный провайдер анонсировал управляемый сервис Evolution ML Inference с упором на гибкость и эффективность работы с GPU. На платформе впервые в России реализовали технологию Shared GPU, то есть можно будет использовать GPU не полностью, а потреблять только то количество vRAM, которое необходимо модели в конкретный момент.

Такой подход экономит от 15 до 45% ресурсов, а, следовательно, и костов (тарификация осуществляется as-you-go и только в момент обращения к модели).

А еще фишка в том, что на платформе можно будет в пару кликов развернуть не только встроенные модели, но и любую модельку с HF, и даже свою собственную LM.

При этом Cloud․ru берут на себя скейлинг, администрирование и обслуживание инфраструктуры. Плюс никаких проблем с 152-ФЗ: данные хранятся на российских серверах.
18.04.2025, 14:56
t.me/data_secrets/6743
DA
Data Secrets
56 970 подписчиков
82
226
10 k
Платформа Midjourney становится похожа на ИИ-фигму

Они только что выкатили обновление для своего редактора изображений. Поменялся интерфейс, добавился инструмент для выбора и редактирования определенных частей изображения.

Также улучшили модерацию и даже стали показывать слои картинки: все, как в любимом фотошопе.

Пробуем тут
18.04.2025, 13:43
t.me/data_secrets/6742
DA
Data Secrets
56 970 подписчиков
123
1.1 k
12 k
OpenAI выкатили 32-страничный практический гайд по разработке агентов

Его создавали сами инженеры из продуктовых команд стартапа.

Внутри теоретические основы, шаблоны проектирования, лучшие тактики для безопасного развертывания и мониторинга, а главное много-много примеров.

Забираем мастрид на выходные: cdn.openai.com/business-guides-and-resources/a-practical-guide-to-building-agents.pdf
18.04.2025, 12:03
t.me/data_secrets/6741
DA
Data Secrets
56 970 подписчиков
Репост
28
7.7 k
18.04.2025, 11:02
t.me/data_secrets/6740
DA
Data Secrets
56 970 подписчиков
Репост
41
29
7.4 k
У разработчиков и аналитиков свои игрушки 👾

Конечно, с ИИ-уклоном и те, которые им помогают в работе. Когда дело доходит до вайб-кодинга, многие обращаются к инструментам вроде Copilot. На бумаге — это волшебная палочка, которая должна разгружать спецов. А как на деле? 🪄

Коллеги из Т1 отвечают на этот вопрос — упаковали ответы в карточки. И их самих тоже — конечно же, с помощью искусственного интеллекта.

Больше про ИИ узнаем 16 и 17 апреля в Москве на конференции Data Fusion. Здесь спикеры от Т1 примут участие в сессиях, где обсудят:

🔘 выход российских компаний на зарубежные рынки;
🔘 человекоцентричный транспорт;
🔘 нейросети;
🔘 AI-native банки;
🔘 тренды в бизнесе;
🔘 инженеров нового поколения.

Генеральный директор ИТ-холдинга Т1 Алексей Фетисов также наградит победителей соревнования Data Fusion Contest.
18.04.2025, 11:02
t.me/data_secrets/6734
DA
Data Secrets
56 970 подписчиков
Репост
28
7.6 k
18.04.2025, 11:02
t.me/data_secrets/6736
DA
Data Secrets
56 970 подписчиков
Репост
29
7.8 k
18.04.2025, 11:02
t.me/data_secrets/6738
DA
Data Secrets
56 970 подписчиков
Репост
31
7.9 k
18.04.2025, 11:02
t.me/data_secrets/6739
DA
Data Secrets
56 970 подписчиков
Репост
32
7.6 k
18.04.2025, 11:02
t.me/data_secrets/6737
DA
Data Secrets
56 970 подписчиков
Репост
30
7.6 k
18.04.2025, 11:02
t.me/data_secrets/6735
DA
Data Secrets
56 970 подписчиков
132
9.9 k
18.04.2025, 08:57
t.me/data_secrets/6733
DA
Data Secrets
56 970 подписчиков
108
133
9.7 k
Вышла Gemini 2.5 Flash. Что нужно знать:

– Это гибридная модель с ризонингом, продолжительность рассуждений она контролирует сама, но в API можно настраивать бюджет ризонинга вручную

– Почти на всех бенчмарках модель лучше Sonnet 3.7 и R1.

– o4-mini и Grok-3 выглядят чуть получше, но по соотношению цена-качество проигрывают однозначно

– Модель очень дешевая. 0.15$/М инпут и 0.6$/М аутпут (с ризонингом 3.5$).

– Попробовать можно здесь
18.04.2025, 08:57
t.me/data_secrets/6731
DA
Data Secrets
56 970 подписчиков
132
10.0 k
18.04.2025, 08:57
t.me/data_secrets/6732
DA
Data Secrets
56 970 подписчиков
94
77
10 k
⚫️ Data Fusion подошла к концу

В эти два дня у ВТБ получилось уместить уйму полезного контента. Технические доклады, кейс-сессии по всем направлениям ML, планарные сессии с CEO из бигтеха и лидами ведущих рисерч команд, Q&A. Мы физически не смогли посетить даже половину из того, что хотелось (хорошо, что есть записи).

Продуманно, масштабно, интересно. Выражаем организаторам большую благодарность за приглашение и уже ждем следующего года 👉
17.04.2025, 20:38
t.me/data_secrets/6730
DA
Data Secrets
56 970 подписчиков
144
171
11 k
Новость дня: OpenAI покупают Windsurf – вайб-кодинг стартап

В прошлом инструмент был известен как Codeium. Это один из главных конкурентов Cursor. Говорят, сделка обойдется OpenAI в три миллиарда (интересно, это дешевле, чем нанять команду и реализовать собственного агента с нуля?)

Кстати, мало кто об этом пишет, но до этого OpenAI дважды пытались купить Cursor. Однако переговоры с Anysphere почему-то не задались.
17.04.2025, 19:58
t.me/data_secrets/6729
DA
Data Secrets
56 970 подписчиков
175
10 k
17.04.2025, 18:32
t.me/data_secrets/6726
DA
Data Secrets
56 970 подписчиков
172
10 k
17.04.2025, 18:32
t.me/data_secrets/6727
DA
Data Secrets
56 970 подписчиков
175
10 k
17.04.2025, 18:32
t.me/data_secrets/6728
DA
Data Secrets
56 970 подписчиков
175
10 k
17.04.2025, 18:32
t.me/data_secrets/6724
DA
Data Secrets
56 970 подписчиков
68
176
10 k
Как работают рекомендательные системы в Lamoda, Wildberries, Сбере и МТС?

Только что побывали на большой кейс-сессии по рексисам на Data Fusion. Было четыре ярких доклада от лидеров ведущих команд из индустрии. В карточках – некоторые интересные подкапотные детали о том, как работают рекомендации в привычных нам сервисах.

Полностью доклады можно посмотреть здесь
17.04.2025, 18:32
t.me/data_secrets/6723
DA
Data Secrets
56 970 подписчиков
175
10 k
17.04.2025, 18:32
t.me/data_secrets/6725
DA
Data Secrets
56 970 подписчиков
146
82
11 k
TIME опубликовали свой ежегодный топ-100 самых влиятельных людей мира

В списке как никогда много тех.лидеров и ученых. Вот кто в него попал:

➖ Дарио Амодеи, CEO Anthropic
➖ Лян Вэньфэн, CEO DeepSeek
➖ Илон Маск
➖ Марк Цукерберг
➖ Лиза Су, CEO AMD и родственница Дженсена Хуанга
➖ Демис Хассабис, нобелевский лауреат этого года и CEO Google DeepMind

Кто не попал:
Сэм Альтман 😭
Дженсен Хуанг 😭

time.com/collections/100-most-influential-people-2025/
17.04.2025, 14:05
t.me/data_secrets/6722
DA
Data Secrets
56 970 подписчиков
264
13 k
17.04.2025, 12:17
t.me/data_secrets/6721
DA
Data Secrets
56 970 подписчиков
274
267
12 k
В лаборатории AIRI придумали способ легко масштабировать трансформеры на контекст 2 миллиона токенов

Вчера на конференции Data Fusion прошла церемония награждения Data Fusion Awards (запись). Премию за научный прорыв выиграл Айдар Булатов: он стал одним из авторов работы, в которой предложили способ расширения контекстного окна трансформеров при линейном росте вычислительных затрат.

Нас работа очень заинтересовала, и позже мы познакомились с Айдаром на постерной сессии лично, чтобы немного расспросить его о статье. Главная идея: соединить трансформеры и рекуррентный механизм памяти.

Мы разделяем текст на кусочки и обрабатываем их последовательно. При этом в начало каждого сегмента добавляются векторы памяти, которая обновляется на каждой следующей итерации. Таким образом, self‑attention считается только внутри сегмента, но при этом мы все равно с каждым разом храним все больше и больше информации о тексте.

Масштабируется это действительно хорошо: ребята обучали модель только на последовательностях длины до 3.5к токенов, но на тестах она спокойно выдерживает контекст до 2 миллионов (а позже и до 50 миллионов на модификациях)! Вот гитхаб и статья.

Кстати, на основе этой работы Айдар в команде с Юрием Куратовым и другими авторами также создали бенчмарк BABILong для оценки моделей на длинном контексте. Сейчас на этом бенчмарке тестируют свои модели многие ведущие лабы: Google, Meta, OpenAI. Мы, кстати, даже несколько раз о нем писали, но то, что он был сделан в AIRI, узнали только вчера. Эта работа тоже была в числе победителей премии.

Поздравляем 🥳
17.04.2025, 12:17
t.me/data_secrets/6719
DA
Data Secrets
56 970 подписчиков
266
13 k
17.04.2025, 12:17
t.me/data_secrets/6720
DA
Data Secrets
56 970 подписчиков
139
422
12 k
OpenAI выпустили в опенсорс (да-да) агента Codex для командной строки

Лицензия Apache 2.0. Легко запускается локально и превращает командную строку в среду программирования на естественном языке.

По умолчанию нужно будет окать действия агента, но есть полностью автономный мод. Мультимодальность тоже имеется.

Установить:

npm install -g @openai/codex

Репозиторий
17.04.2025, 10:02
t.me/data_secrets/6718
DA
Data Secrets
56 970 подписчиков
134
178
12 k
Итак, выпустили полноценную o3 и o4-mini

o3 выбивает даже лучшие метрики, чем были, когда ее анонсили. На AIME 2025 это рекордные 98.4%. При этом o4-mini еще круче: ее результат 99.5. А на Humanity Last Exam результаты сопоставимы с Deep Research. Кодинг тоже не отстает.

Обе модели мультимодальные, и не просто мультимодальные, а с ризонингом поверх изображений. Плюс модели специально натаскивали на использование инструментов (поиск, интерпретатор и все такое), так что агентные способности на высоте.

При этом o3 даже немного дешевле o1. Цены: инпут $10.00 / 1M и аутпут $40.00 / 1M (для o1 это 15 и 60). o4-mini: $1.1 / 1M и $4.4 / 1M.

Еще приятно, что масштабирование на ризонинге теперь дешевле. То есть с ростом метрик за счет увеличения ризонинга цена теперь растет медленнее, чем это было с o1.

Обе модели будут доступны Plus, Pro и Team, их уже раскатывают. Позже o4-mini будет также доступна фри юзерам.

https://openai.com/index/introducing-o3-and-o4-mini/
16.04.2025, 20:13
t.me/data_secrets/6717
DA
Data Secrets
56 970 подписчиков
28
20
10 k
Смотри стрим OpenAI через 2 минуты: www.youtube.com/watch?v=sq8GBPUb3rk

Покажут o3 (наконец-то)
16.04.2025, 19:59
t.me/data_secrets/6716
DA
Data Secrets
56 970 подписчиков
90
339
10 k
Неочевидные тренды в ИИ ресерче: подборка литературы от исследователей

Только что прошла ключевая сессия Data Fusion с обзором главных актуальных исследований в ИИ (запись). Четверо ученых и руководителей научных лабораторий рассказали, в каких областях сейчас самый живой и многообещающий рисерч. Пересказываем:

1. Parameter-Free Optimization. Подбор гиперпараметров – боль любого процесса обучения. Здесь же мы пытаемся подбирать гиперпараметры не наобум, а как-то автоматизированно. Например, рассчитывая растояние до теоретического оптимума. Лучшие статьи: раз, два, три.

2. Федеративное обучение. Aka защищенное обучение aka персонализированное обучение. То есть модель обучается на данных так, что они не попадают в руки разработчиков. Это могут быть данные кучи разных компаний/людей, которые лежат на разных серверах и остаются защищенными. Лучшие статьи: раз, два, три.

3. Текстовые диффузионные модели. Идея состоит в том, чтобы вместо генерации токенов один за одним генерировать их в произвольном порядке, как бы постепенно расшумляя замаскированную последовательность. Это больше похоже на то, как текст пишут люди. Почитать: раз, два.

4. Нейросетевой стандарт сжатия изображений JPEG AI. Он был принят на международном уровне недавно, и это первый полностью ИИшный стандарт. Возможно, это действительно будущее изображений. Во-первых, оказывается, что с таким сжатием очень легко классифицировать сгенерированные картинки. Во-вторых, это быстро и можно "бесплатно" прикручивать декодеры, которые будут и сжимать, и обрабатывать каринку под запрос. Почитать: раз, два.

5. Генеративные потоковые сети. Свежий подход для генерации дискретных структур. Ну, например, графов. Так можно генерировать молекулы с заданными свойствами, CoT логических рассуждений для LLM или переформулировать задачу RL. Почитать.

И, конечно, все упоминали RL и ризонинг. Тут без комментариев, вы и так все знаете. Список, что почитать.

Что бы добавили?
16.04.2025, 18:34
t.me/data_secrets/6715
DA
Data Secrets
56 970 подписчиков
224
11 k
16.04.2025, 16:35
t.me/data_secrets/6713
DA
Data Secrets
56 970 подписчиков
224
11 k
16.04.2025, 16:35
t.me/data_secrets/6714
DA
Data Secrets
56 970 подписчиков
154
225
11 k
Может ли LLM расследовать преступления?

Однажды Илья Суцкевер в своем интервью объяснял, почему задача next token prediction может привести к реальному интеллекту, и приводил вот такой пример:

Представьте, что вам нужно прочитать огромный детектив и в конце предсказать последнее слово в предложении "Оказалось, убийцей был ...". Если модель может это сделать, значит, она действительно понимает историю.

Цитата стала вирусной и тут исследователи из Калифорнии решили проверить, действительно ли модели способны на такой анализ. Они протестили LM на игре Ace Attorney. Это очень популярная японская игра, в которой игрок выступает в роли адвоката и расследует преступление.

Большой контекст, много деталей, необходимость планирования и выстраивания стратегии – ну в общем достаточно крутой и естественный бенчмарк.

Результат: o1 и Gemini прошли игру практически до конца. Правда разница в костах на решение при этом зверская (график 2). Чуть хуже справились Claude 3.7, GPT-4.1 и Claude 3.5. Вывод: не такие уж и стохастические попугаи.

Арена тут. У этой лабы, кстати, есть тесты и на других играх: марио, 2048, Tetris и пр.
16.04.2025, 16:35
t.me/data_secrets/6712
DA
Data Secrets
56 970 подписчиков
307
338
14 k
В LinkedIn найдено еще одно подтверждение того, что все пути в IT ведут на ферму

Классический роадмап ML-щика
16.04.2025, 15:26
t.me/data_secrets/6711
DA
Data Secrets
56 970 подписчиков
186
160
12 k
Радослав Нейчев: «То, что в науке нет денег – это и миф, и нет» 😭

На Data Fusion сейчас прошла дискуссия про разоблачение мифов в ИИ и ML. Обсудили зарплату теоретиков, то, что бизнес не умеет внедрять ИИ, и даже гуманитариев в ML (да, так тоже можно). Понравилась цитата Радослава Нейчева, руководителя из Яндекса и зам.завкафедры МОиЦГ МФТИ:

«Хорошие деньги в науке получать можно, просто они висят не так низко, как в других сферах. Тут ничего не заработаешь, если филонить.

В науке нужно постоянно бежать, чтобы просто оставаться на месте. Ты должен быть умен, начитан, трудолюбив и иметь чутье. Это сложно, но это единственный вариант заработать, и то не сразу. Сначала ты работаешь на имя, потом оно на тебя»

Короче, любишь науку – люби и саночки возить. Полную запись сессии смотрите здесь.
16.04.2025, 14:20
t.me/data_secrets/6710
DA
Data Secrets
56 970 подписчиков
98
89
11 k
На Kaggle обновление: они продолжают усиливать интеграцию Google Colab

1. Теперь можно синхронизировать апдейты между платформами. Если вы загружали блокнот из Colab, а потом еще раз меняли его в Colab, то на Kaggle эти изменения появятся по одному щелчку мыши.

2. Кроме того, появилась кнопка «Изменить в Colab». Она редиректнет вас из ноутбука Kaggle в Colab, и все внесеннные после этого изменения появятся на Kaggle автоматически.

3. Ну и приятная мелочь: теперь можно импортировать из Colab тетрадки пачками, а не по одной за раз.

www.kaggle.com/product-announcements/570265
16.04.2025, 11:30
t.me/data_secrets/6709
DA
Data Secrets
56 970 подписчиков
113
54
11 k
⚫ А мы тут нашей командой приехали на конференцию Data Fusion

Сегодня и завтра здесь будет очень много технических ML-докладов и занятных открытых дискуссий. Всем самым интересным будем делиться здесь.

Трансляцию, кстати, уже запустили, так что можете взглянуть на программу и посмотреть доклады в онлайне. Вот на что пойдем сегодня сами и советуем вам:

➖ Доклад про футурологию ИИ и цифровое послесмертие от Константина Воронцова (9:30)

➖ Дискуссия про мифы ИИ с Юрием Дорном и Радославом Нейчевым (13:00)

➖ Дебаты о науке и жизни с Андреем Райгородским (14:10)

➖ Большой разговор про ключевые вызовы в развитии LLM (15:50)

➖ Обзор актуальных многообещающих исследований и трендов в ML-ресерче (17:00)

➖ Кейс сессии про агентов, ИИ в медицине, MLOps, бигдату и ML в бизнесе (весь день)

Кто участвует оффлайн – подходите общаться!
16.04.2025, 09:57
t.me/data_secrets/6708
DA
Data Secrets
56 970 подписчиков
195
186
13 k
Теперь официально: OpenAI делает соцсеть

Она будет похожа на X. Сейчас уже даже есть внутренний прототип: галерея изображений, сгенерированных пользователями. Ее ночью раскатили на всех юзеров, уже можно посмотреть (бесплатным тоже доступно, да). Пока что стартап собирает фидбэк.

Зачем им это? Первая причина – это данные. Вторая – тоже данные. Много открытых онлайн данных для обучения, как у Meta и XAI. Ну и бесплатная реклама через интеграцию моделей, как для Grok в X.

А теперь вспомним, как пару месяцев назад в ответ на запрос Маска купить OpenAI Альтман ответил «Мы бы лучше купили X». Масштабы пасхалки представили?
16.04.2025, 07:39
t.me/data_secrets/6707
DA
Data Secrets
56 970 подписчиков
111
543
12 k
OpenAI выкатили новый гайд для промпт-инженеринга GPT-4.1 и раскрыли главную загадку длинного контекста

Если у вас длинный контекст + инструкции, то лучше помещать инструкции И в начало, И в конец. Но если вы очень экономите токены, то – в начало. Теперь вы знаете.

Наверное, так специально предобрабатывали трейн, потому что по умолчанию у LLM обычно все наоборот (инструкции перед контекстом воспринимаются хуже).

P.S. В сам гайд тоже советуем заглянуть. Там много примеров и готовых удобных заготовок.
15.04.2025, 19:39
t.me/data_secrets/6706
DA
Data Secrets
56 970 подписчиков
226
214
12 k
Оп, Google начали нанимать на позицию Post-AGI Research

Ключевые вопросы включают изучение траектории от AGI к ASI, сознание в машинах, влияние ASI на основы человеческого общества. Вы также будете сотрудничать с кросс-функциональными командами разработки и проводить эксперименты для нашей миссии.

Условия: не списывать с книжек по фантастике (по возможности), не предсказать вымирание человечества (по желанию)
15.04.2025, 16:22
t.me/data_secrets/6705
DA
Data Secrets
56 970 подписчиков
116
11 k
15.04.2025, 16:19
t.me/data_secrets/6703
DA
Data Secrets
56 970 подписчиков
88
119
11 k
В Nvidia скрестили трансформеры с Mamba-2 и выпустили Nemotron-H

Исследователи взяли обычный трансформер, но большинство слоев внимания заменили на слои Mamba-2. Mamba – это модель из семейства State space models, это такой умный вариант LSTM (вот тут наш понятный разбор того, как SSM работают).

Для модели 56B осталось только 10 слоев селф-аттеншена, а для модели 8B – 4 слоя. С точки зрения экономии ресурсов и ускорения это очень круто, потому что в слоях mamba память константная. То есть вычисления вообще не зависят от длины контекста (в отличие от внимания, которое масштабируется квадратично).

Интуитивно кажется, что тогда должно страдать качество. Но нет: результаты сопоставимы с чистыми трансформерами схожих размеров. Например, Nemotron-H-56B примерно на уровне с Llama-3.1-70B и Qwen-2.5-72B. При этом летает все в 2-3 раза быстрее.

Интересно, появится ли моделька на арене (веса здесь)

arxiv.org/pdf/2504.03624
15.04.2025, 16:19
t.me/data_secrets/6702
DA
Data Secrets
56 970 подписчиков
116
11 k
15.04.2025, 16:19
t.me/data_secrets/6704
DA
Data Secrets
56 970 подписчиков
104
61
11 k
Яндекс запускает бета-версию ризонинга

На претрейн-модели делают SFT на ответах YandexGPT 5 Pro. После этого проводят еще один SFT с оптимизированным датасетом, а потом большой этап обучения с подкреплением + RLHF. Для ускорения обучения гоняют все на решении от самого Яндекса – YaFSDP (есть в опенсорсе).

Экспериментируют и с онлайн RL, и с оффлайн: проводят обучение на парах вопрос-ответ со стадии SFT YandexGPT 5 Pro.. Занятно посмотреть, что в итоге будет на релизе.

Попробовать уже можно в чате с Алисой, нужно просто активировать модель в настройках.

Плюсом Яндекс дает возможность тут же потестить DeepSeek R1. Похоже на Perplexity, который предлагает сразу несколько SOTA-моделей на выбор. Это нужно для того чтобы собрать максимальное количество обратной связи. Ризонинг все-таки более нишевый, чем обычные LLM, поэтому важно понять, насколько такой продукт полезен российскому пользователю и собрать датасет реальных запросов и задач.

Хабр
15.04.2025, 15:04
t.me/data_secrets/6701
DA
Data Secrets
56 970 подписчиков
201
159
11 k
OpenAI преодолел отметку в 800 000 000 пользователей. Это 10% населения Земли.

Если судить по количеству еженедельных активных пользователей, за 2024 они выросли в 4 раза. Сообщается, что к концу 2025 стартап планирует достичь 1 миллиарда юзеров (и это уже не звучит как что-то нереальное).

Спасибо Ghibli генерациям
15.04.2025, 13:18
t.me/data_secrets/6700
DA
Data Secrets
56 970 подписчиков
254
11 k
15.04.2025, 11:07
t.me/data_secrets/6698
DA
Data Secrets
56 970 подписчиков
254
11 k
15.04.2025, 11:07
t.me/data_secrets/6699
DA
Data Secrets
56 970 подписчиков
148
257
10 k
Еще одна специализированная версия Gemma от Google: теперь для общения с дельфинами

Моделька так и называется – DolphinGemma. Цель – анализировать и генерировать звуковые последовательности, имитирующие естественную коммуникацию дельфинов. Это буквально ключ к межвидовому общению.

Над проектом Google работали с Wild Dolphin Project. Это организация, которая дольше всех в мире (с 1985 года, на секундочку) собирает данные о дельфинах и записывает их разговоры в естественной среде. У них хранятся десятилетия видеозаписей и аудиозаписей, которые дополнены информацией об индивидуальных характеристиках дельфинов (характер, жизненный путь, поведение).

Сама модель DolphinGemma небольшая, около 400M, можно запустить на смартфоне. Ключевой момент – это обучение токенизатора SoundStream. В остальном обычная LM, которая пытается предсказать следующий токен. Только вместо человеческого языка – 🐬

Тесты показали, что DolphinGemma реально способна извлекать паттерны и структуры из звуков животных. Следующим шагом исследователи хотят создать систему CHAT (Cetacean Hearing Augmentation Telemetry), то есть установить какой-то общий "словарь", используя привычные дельфинам вещи – рыбу, водоросли, яркие предметы.

Обещают даже скоро опенсорснуть -> blog.google/technology/ai/dolphingemma/
15.04.2025, 11:07
t.me/data_secrets/6697
DA
Data Secrets
56 970 подписчиков
32
18
9.3 k
Мы слишком много знаем!

И просто обязаны этим поделиться. За 5 лет существования школы karpovꓸcourses мы обучили более 95 000 человек, и 80% наших выпускников уже работают в VK, Яндексе, Авито и других известных компаниях. И мы решили сделать для вас Karpov.Conf — чтобы поделиться знаниями не только с нашими студентами, но и с каждым, кто интересуется аналитикой данных и другими направлениями Data Science.

Будем обсуждать особенности работы с Power BI и практическое применение ML-моделей в крупных компаниях, разберем пользовательский опыт и реализацию аналитики на базе Yagpt, узнаем, как дерево метрик помогает принимать решения, и какие ошибки совершают крупные компании в контексте аналитики.

Мы собрали действительно звездный состав спикеров, мы очень старались сделать это мероприятие максимально полезным — вам осталось только не пропустить его!

Регистрируйтесь на KARPOV.CONF 2025 — включите Data-driven на полную!
15.04.2025, 10:00
t.me/data_secrets/6696
DA
Data Secrets
56 970 подписчиков
133
144
11 k
Тем временем новенькую GPT-4.1 уже можно попробовать ✨ бесплатно ✨ в Cursor, GitHub Copilot и на AlphaXiv

Вайбового рабочего дня 💻
15.04.2025, 08:22
t.me/data_secrets/6695
DA
Data Secrets
56 970 подписчиков
375
18 k
14.04.2025, 20:04
t.me/data_secrets/6694
DA
Data Secrets
56 970 подписчиков
376
18 k
14.04.2025, 20:04
t.me/data_secrets/6693
DA
Data Secrets
56 970 подписчиков
120
377
18 k
⚡️ OpenAI показали свои новые модели GPT-4.1, GPT-4.1 mini и GPT-4.1 nano

В чате их не будет: они только для разработчиков в API. У всех трех моделей контекст 1 миллион токенов, для OpenAI это впервые. Знания до 1 июля 2024.

Для программирования модель действительно хороша: на SWE-bench обгоняет даже o1 high. При этом стоит намного дешевле ($2.00 / 1M инпут и $8.00 / 1M аутпут). Плюсом неплохие способноси на мультимодальных задачах и математике.

Последний график – масштабирование на росте контекста. Видно, что 4.1 на голову лучше остальных моделей OpenAI на длинных последовательностях, то есть даже на огромных документах или кодовых базах не будет терять детали.

Ну и вишенка: семь дней модель будет абсолютно бесплатной вот тут

Цены и детали – здесь, а вот блогпост со всеми метриками
14.04.2025, 20:04
t.me/data_secrets/6692
DA
Data Secrets
56 970 подписчиков
117
143
12 k
Тем временем HuggingFace купили робо-стартап Pollen Robotics

Это тот самый стартап, вместе с которым HF в прошлом году сделали свой знаменитый открытый фреймворк Le Robot для создания домашних роботов практически из коробки (все датасеты, скрипты для обучения и даже поставщиков деталей уже собрали в одно целое за вас).

Основной продукт Pollen Robotics – опенсорсный робот Reachy 2 (наверху). Его HF планируют опенсорсить и дальше и улучшать вместе с сообществом. Также готового Reachy 2 можно купить за 70 000 долларов.

Наше видение: будущее, в котором каждый может создавать и контролировать своих собственных роботов вместо того, чтобы полагаться на закрытые, дорогие черные ящики.
14.04.2025, 18:35
t.me/data_secrets/6691
DA
Data Secrets
56 970 подписчиков
58
60
11 k
⚡️ Стрим OpenAI через полтора часа

P.S. Ссылку прикрепим к этому сообщению, как только она появится

https://www.youtube.com/watch?v=kA-P9ood-cE
14.04.2025, 18:20
t.me/data_secrets/6690
DA
Data Secrets
56 970 подписчиков
384
175
13 k
Бывшие инженеры Meta в резюме специально акцентируют внимание на том, что они никак не участвовали в разработке Llama 4

Кажется, это все, что нужно знать об этом релизе
14.04.2025, 15:37
t.me/data_secrets/6689
DA
Data Secrets
56 970 подписчиков
43
131
12 k
Открыт приём статей в научный журнал Международной конференции по ИИ — AI Journey.

Главный приз за лучшую статью — 1 миллион рублей. Ключевые работы опубликуют в спецвыпуске «Доклады Российской академии наук. Математика, информатика, процессы управления» и его англоязычной версии Doklady Mathematics.

Что даёт участие:
• Шанс выиграть 1 000 000₽
• Публикация в авторитетном журнале с индексацией Scopus/WoS
• Возможность представить исследование на площадке конференции AI Journey 2025

Условия:
— Статья должна быть оригинальной (не опубликована ранее)
— Принимаются работы на русском и английском
— Дедлайн — 20 августа 2025

Как подать заявку: https://aij.ru/science
14.04.2025, 14:00
t.me/data_secrets/6688
DA
Data Secrets
56 970 подписчиков
294
372
13 k
Ян Лекун: "Я больше не заинтересован в LLM, они в прошлом"

На своем свежем интервью на конференции Nvidia GTC ученый сказал, что сейчас LLMs уже принадлежат не академии, а индустрии, где из них пытаются выжать все соки. С точки зрения науки они в прошлом, и сейчас наиболее интересны другие направления:

1. Системы которые понимают физический мир
2. Системы у которых есть постоянная память
3. Системы, которые умеют рассуждать и планировать (в LLM, по мнению Лекуна, есть только отдаленное подобие настоящего ризонинга)

Полная запись
14.04.2025, 12:27
t.me/data_secrets/6687
DA
Data Secrets
56 970 подписчиков
152
340
13 k
Google представили специальную версию Gemma для разработки лекарств

Семейство моделей TxGemma специально обучили понимать и предсказывать свойства препарата на всем пути разработки. Обычно как раз в этом основной затык в разработке лекарств: ученым надо перепробовать кучу вариантов. Это долго и дорого, а TxGemma призвана процесс упростить.

Интересно, что это универсальная платформа: модели умеют обрабатывать не только белки, но и малые молекулы, нуклеиновые кислоты, заболевания и вирусы + статьи, клиническую информацию и другие доп.материалы.

В семействе есть модели на 2B, 9B и 27B. Это TxGemma-Predict. Из них еще сделали TxGemma-Chat, с которым ученые могут общаться, и Agentic-Tx – агента, который самостоятельно выстраивает процесс ресерча и вызывает внешние медицинские инструменты типа PubMed.

Базовая модель – Gemma-2. Дообучали на 67 млрд токенов из 66 разных датасетов Therapeutic Data Commons. По бенчмаркам – SOTA. Например, по химии и биологии на Humanity’s Last Exam выбивает 81.7% против 64.5% у предшедственников. А на GPQA (Diamond) улучшение более чем на 26%.

✨ И главное: все в опенсорсе

Статья | Блогпост | Репа
14.04.2025, 10:37
t.me/data_secrets/6686
DA
Data Secrets
56 970 подписчиков
188
113
12 k
Кажется, нас ждет целая неделя релизов от OpenAI, и первый будет уже сегодня.

Ждем: o3, o4-mini, GPT-4.1, 4.1 nano, 4.1 mini (и что-то из этого в опенсорс)

Хорошее начало понедельника
14.04.2025, 08:43
t.me/data_secrets/6685
DA
Data Secrets
56 970 подписчиков
Репост
163
280
12 k
AI Index Report 2025

Стенфордский университет опубликовал отчет о влиянии ИИ с 2013 года по 2025. Отчет огромный, поэтому мы постарались выбрать самые интересные моменты:

➡️ Китай стал лидером по количеству публикаций об ИИ, занимая 23,2% от общего числа публикаций, опередив любую другую страну. Однако за последние три года США выпустили больше статей, вошедших в топ-100 самых цитируемых. 1:1.

➡️ США продолжают лидировать по числу самых известных моделей. На конец 2024 года США выпустили 40 известных моделей, в то время как Китай — 15, а Европа — всего 3.

➡️ Вычислительные затраты на обучение моделей удваиваются каждые пять месяцев, объемы наборов данных для LLM увеличиваются каждые восемь месяцев. Мощность моделей растет ежегодно.

➡️ Стоимость запроса к модели ИИ, которая достигает эквивалентного уровня GPT-3.5 (64.8) на MMLU, снизилась с $20 за миллион токенов в ноябре 2022 года до $0.07 в октябре 2024 года (Gemini-1.5-Flash-8B)—снижение более чем в 280 раз за 18 месяцев. В зависимости от задачи, цены на вывод LLM снизились от 9 до 900 раз в год.

➡️ Выбросы углекислого газа при обучении моделей возросли более чем в 100 000 раз: для сравнения, обучение AlexNet привело к выбросам в 0,01 тонны, в то время как обучение LLama 3.1 405B — к выбросам в 8930 тонн.

➡️ В 2023 году исследователи ИИ представили несколько новых сложных бенчмарков, включая MMMU, GPQA и SWE-bench, к 2024 году производительность ИИ на этих бенчмарках значительно улучшилась, с увеличением на 18,8 и 48,9 процентных пунктов на MMMU и GPQA соответственно. На SWE-bench ИИ-системы могли решить всего 4,4% задач по программированию в 2023 году—эта цифра выросла до 71,7% в 2024 году.

➡️ Меньшие модели обеспечивают более высокую производительность. В 2022 году самой маленькой моделью, достигшей более 60% на MMLU, была PaLM с 540 миллиардами параметров. К 2024 году Microsoft’s Phi-3-mini с всего 3,8 миллиардами параметров достигла того же порога, что представляет собой 142-кратное уменьшение за два года.

Новость прислал подписчик в нашем чате ❤️
13.04.2025, 19:43
t.me/data_secrets/6684
DA
Data Secrets
56 970 подписчиков
479
214
13 k
Тарантиновские диалоги Андрея Карпаты с ChatGPT
13.04.2025, 16:38
t.me/data_secrets/6683
DA
Data Secrets
56 970 подписчиков
218
136
13 k
Стартап Ильи Суцкевера Safe Superintelligence оценили в 32 миллиарда долларов

Об этом сообщило издание Financial Times. То есть стоимость компании без продуктов, без анонсов и даже без нормального лендинга оценили в половину стоимости Anthropic, которая на рынке уже 4 года.

Также сообщается, что Safe Superintelligence привлекает еще один раунд финансирования. В прошлый раз они получили миллиард, и в этот раз планируют привлечь еще столько же.
13.04.2025, 11:25
t.me/data_secrets/6682
DA
Data Secrets
56 970 подписчиков
205
174
12 k
Финансовый директор OpenAI Сара Фриар дала новое интервью и сказала, что AGI, возможно, уже здесь, просто мы пока не научились использовать его в полную силу

Также Сара раскрыла, что OpenAI работает над собственным агентом для программирования, но, в отличие от Cursor, это будет не просто бустер возможностей программистов, а полноценный программист сам по себе.

Ссылка на полное интервью

P.S. А Альтман, кстати, вчера выступал на TED
12.04.2025, 20:07
t.me/data_secrets/6681
DA
Data Secrets
56 970 подписчиков
107
41
11 k
Стартап Ильи Суцкевера будет сотрудничать с Google и пользоваться TPU

Safe Superintelligence теперь официально в партнерстве с Google Cloud. Напоминаем, что о продукте компании пока все еще ничего неизвестно, но, судя по сделке и привлеченным инвестициям, вычислительный стек там будет мощный.

Получается своего рода возвращение Ильи в Google (начинал свою карьеру он именно в Google Brain)
12.04.2025, 18:08
t.me/data_secrets/6680
DA
Data Secrets
56 970 подписчиков
52
43
11 k
7703619504831_1 (1).mp4
До окончания приема заявок на конкурс Мэра «Новатор Москвы» остался месяц! Ваша разработка может изменить столицу

Создали технологию для комфорта, безопасности или цифровизации города? Время подавать заявку! «Новатор Москвы» ищет разработчиков, учёных и стартапы с идеями для улучшения городской среды. Эксперты оценят вашу технологию, поделятся связями и помогут внедрить проект в столице.

✔️ Три номинации:
• «Проект будущего» — для идей на старте (приз: 500 тысяч рублей)
• «Меняющие реальность» — для MVP-проектов (приз: 1 млн рублей)
• «Лидеры инноваций» — для готовых решений (приз: 1.5 млн рублей)

📌 Выберите своё направление:
• медицина и фармацевтика
• промышленность
• транспорт и логистика
• благоустройство и строительство
• экология и охрана среды
• общественные проекты

⏰ Важно: до конца приёма заявок меньше месяца. Как подать заявку — смотрите в видео.

Не теряйте время — дедлайн 5 мая! Отправляйте заявку прямо сейчас на сайте. Остались вопросы? Персональный менеджер @novator_moscow поможет с оформлением заявки и расскажет всё о конкурсе.
12.04.2025, 17:02
t.me/data_secrets/6679
DA
Data Secrets
56 970 подписчиков
121
80
10 k
🚀 Сегодня День космонавтики! По случаю собрали топ-5 интересных кейсов применения ML в космических исследованиях

1. В 2023 ИИ впервые без участия человека нашел и классифицировал сверхновую звезду SN2023tyk (а это большая честь даже для людей-ученых). Система обнаружения называется Bright Transient Survey Bot (BTSbot). Это агент, который автономно просматривает снимки, выделяет кандидатов и запрашивает из баз телескопов доп.информацию, чтобы подтвердить/опровергнуть гипотезу.

2. В том же 2023 Оксфорские ученые впервые обучили ML-модель прямо в космосе, на борту спутника. Пайплайн был загружен на коммерческий спутник и обучен на бортовых данных. Получилась полноценная модель для мониторинга стихийных бедствий.

3. В прошлом году NASA запустили на Марс марсоход с ИИ. Система анализириует породы и участки планеты и сама решает, что стоит изучить подробнее. Это первый случай использования AI на Марсе для принятия решений без участия Земли.

4. В том же NASA уже пару лет используют HLS Geospatial Foundation Model – первую фундаментальную модель для геопространственных данных зондирования. Она отслеживает изменения земного покрова, мониторит стихийные бедствия и даже предсказывает урожайность. И кстати, ее выложили в опенсорс и постоянно обновляют.

5. За то, чтобы спутники не сталкивались на орбите, тоже в основном отвечает ИИ. Например, SpaceX делились статистикой о том, что за пол года спутники Starlink совершили более 10к маневров для избежания столкновений, и все это без участия человека.

С праздником, в общем
12.04.2025, 14:09
t.me/data_secrets/6678
DA
Data Secrets
56 970 подписчиков
57
205
10 k
Forbes опубликовали топ-50 самых перспективных ИИ-стартапов этого года

По сравнению с прошлым годом в числе новичков Anysphere (это разрабы Cursor), Thinking Machine Lab Миры Мурати, World Labs Фей-Фей Ли и Mercor (у них инструмент для автоматизации процесса найма и интервьюирования сотрудников).

Также появляется все больше стартапов, которые занимаются инфраструктурой для ИИ. TogetherAI, VAST Data, SambaNova, Lambda, Crusoe и прочие. Ну и роботы с агентами, конечно, тоже на волне.

Самая "дорогая" aka привлекшая много денег компания в списке – OpenAI ($64 млрд). Следом за ними Databricks ($19B), Anthropic ($17В) и XAI ($12В).

Полный список тут. Если кого-то не узнаете, можете тыкнуть на название и провалитесь в описание.
12.04.2025, 12:03
t.me/data_secrets/6677
DA
Data Secrets
56 970 подписчиков
100
161
10 k
Стали известны победители AIME 2025 на Kaggle. Это крупнейшая "олимпиада" по математике для ИИ. Собрали саммари по опубликованным решениям:

Все победители, которые поделились своими решениями, использовали модель DeepSeek-R1-Distill-Qwen-14B, просто с разной степенью дообучения, квантования и использования inference-движков. Особенно никто с экспериментами для обучения не запаривался, потому что задачка была больше на инженерную оптимизацию.

Почему? Потому что основным вызовом было ограничение на время и железо. Все 50 задач надо было решить за 5 часов, используя 4 GPU L4 (у них не очень большая пропускная способность, так что 5 часов – это реально мало).

То есть участник сдает ноутбук, который запускается на стороне организаторов и решает задачки. В ноутбуке можно контролировать, как модель распределяет задачи: в каком порядке решает, сколько токенов и времени тратит на каждую, как все параллелится между GPU.

И тут практически все как-то играли с перераспределением времени и токенов. Одни пытались предсказывать сложности задач перед решением и распределять относительно этого. Другие начинали с равных "долей" и динамически перераспределяли сэкономленные ресурсы. А кто-то даже пытался кластеризовать задачи по похожести и решать несколько за раз.

Интересно, что единственными, кто реально попотел над обучением стали ребята из японской лаборатории Sakana (9 место). Те самые, кто разработал агента-рисерчера, статью которого приняли на ICLR (пост). Вот у них полный набор: и файн-тюнинг SFT, и RL-дообучение с GRPO. Они как раз и использовали ModernBERT для оценки сложности.

В общем, вот лидерборд и некоторые описания решений, можете взглянуть
11.04.2025, 21:19
t.me/data_secrets/6676
DA
Data Secrets
56 970 подписчиков
54
49
9.5 k
В Cloud.ru Evolution появится ИИ-помощник

Об этом рассказали на конференции GoCloud. Ассистент будет работать бесплатно и сможет помочь с автоматизацией рутинных задач, настройкой облака и даже разработкой AI-агентов.

Релиз обещают уже в этом году. В начале завезут базу, а потом постепенно будут добавлять новые фичи, вплоть до автоматизации мониторинга и масштабирования инфраструктуры.

«Мы планируем, что к 2026 году AI-помощники будут выполнять большинство задач в частотных сценариях работы в облаке. Это кардинально изменит опыт пользователей при работе с облачными продуктами. С момента запуска AI-помощники будут доступны в публичных, гибридных и частных облаках Cloud.ru», — добавил Евгений Колбин.
11.04.2025, 19:21
t.me/data_secrets/6675
DA
Data Secrets
56 970 подписчиков
90
383
11 k
CEO Perplexity объявил, что моделью теперь можно пользоваться в Telegram через официального бота @askplexbot

Это бесплатно. Также бота можно добавить в любые чаты, тегать и спрашивать о чем угодно (как Grok в X).

В наш чат канала мы модельку уже добавили, так что можете играться
11.04.2025, 18:21
t.me/data_secrets/6674
DA
Data Secrets
56 970 подписчиков
108
480
9.6 k
Google раскатили в своем сервисе NotebookLM бесплатный Deep Research для поиска источников

1. Заходим на notebooklm.google
2. Задаем любую тему
3. Модель бодро найдет вам 10 и больше самых релевантных веб-источников и аннотирует каждый в соответствии с запросом
4. Дальше бота можно попросить построить по ним майндмэп, написать конспект, сделать подкаст, ну или просто задать доп.вопросы

Умный гугл от гугл 😎
11.04.2025, 18:11
t.me/data_secrets/6673
DA
Data Secrets
56 970 подписчиков
20
40
9.0 k
Оптимизируем работу со Spark и строим рекомендательные системы

Многие рекомендательные системы строятся на Spark, но при обработке больших данных с ним часто возникают проблемы. Кроме этого, это недешевое решение.

На бесплатном вебинаре 15 апреля в 17:00 расскажем, как оптимизировать работу со Spark, и в реальном времени обучим модель, чтобы показать эффективность нашего подхода.

Что еще обсудим

🔹 Как выстроить архитектуру для рекомендательных систем в облаке, On-premise или гибриде.
🔹 Как оптимизировать расходы и работу со Spark.
🔹 Workshop: как в облачном Spark сделать рекомендательную систему для определения степени рисков ишемической болезни сердца.

Кому будет полезен вебинар

⚫️ML-инженерам.
⚫️Архитекторам, Data-инженерам, Data-аналитикам.
⚫️Руководителям ML-направлений и Data-офисов.

Зарегистрироваться
11.04.2025, 17:03
t.me/data_secrets/6672
DA
Data Secrets
56 970 подписчиков
64
9.4 k
11.04.2025, 15:28
t.me/data_secrets/6671
DA
Data Secrets
56 970 подписчиков
64
65
8.6 k
OpenAI опенсорснули еще один бенчмарк для агентов

BrowseComp проверяет, насколько модели способны находить в интернете труднодоступную или плохо-гуглящуюся информацию.

Подобных тестов есть уже несколько, но тут фишка именно в сложности вопросов. Ну, например:

Найди мне название научной работы, опубликованной на конференции EMNLP в период с 2018 по 2023 год, где первый автор получил степень бакалавра в Дартмутском колледже, а четвертый автор получил степень бакалавра в Пенсильванском университете.

Для понимания: люди решили только 29.2% задач, остальные пометили как «нерешаемые» (то есть сдались и не доделали). При этом из решенных задач правильно были решены только 86.4%.

По моделям: 4.5 решает 0.9%, o1 9.9%, а Deep Research 51.5% (правда он обучался на тех же данных, авторы это говорят открыто).

openai.com/index/browsecomp/
11.04.2025, 15:28
t.me/data_secrets/6667
DA
Data Secrets
56 970 подписчиков
64
9.3 k
11.04.2025, 15:28
t.me/data_secrets/6669
DA
Data Secrets
56 970 подписчиков
64
9.2 k
11.04.2025, 15:28
t.me/data_secrets/6668
DA
Data Secrets
56 970 подписчиков
64
9.6 k
11.04.2025, 15:28
t.me/data_secrets/6670
DA
Data Secrets
56 970 подписчиков
138
189
11 k
Ого: OpenAI выпустили подкаст про то, как они обучали GPT-4.5

Присутствовали 3 инженера из команды разработки: Амин Тутунчян, Алекс Пейно и Дэниел Селсам. Что интересного рассказали:

➖ Планирование выпуска GPT-4.5 началось еще год назад. Целью было создать модель в 10 раз умнее GPT-4. Сначала была куча тестов, а затем под GPT-4.5 пришлось почти полностью переписывать формы матриц, структуры слоёв и др (чтобы подстроиться под инфру).

➖ Основным вызовом оказалось масштабирование GPU-кластера. С увеличением количества карт (например, с 10k до 100k), начинает возникать все больше отказов и ошибок. Так что в начале обучение не задалось, но потом основные проблемы постепенно разрешились.

➖ Из забавного: прямо во время обучения была найдена критичная ошибка в реализации функции torch.sum в PyTorch. Она приводила к систематическим сбоям с доступом к памяти.

➖ Оказывается, основная метрика стартапа – это лосс на их же внутреннем коде. Работает хорошо, потому что таких данных гарантировано никогда не было в паблике, а значит и в трейне.

➖ Раньше модели были compute-bound, то есть ограниченные мощностями. 4.5 впервые стала моделью, ограниченной данными (data-bound). Сейчас это основная пробелма, потому что рост данных намного медленнее роста доступных вычислений.

➖ В целом скейлинг, конечно, замедляется, но все еще работает за счет того, что в дате всегда присутствуют длинные хвосты редких, но важных концепций. Их можно "латать" новыми данными почти бесконечно.

➖ Сейчас по эффективности обучения на тексте нейросети отстают от человека примерно в 100,000 раз. Так что, чтобы масштабироваться дальше, нам понадобятся новые алгоритмы, которые смогут извлекать больше знаний из меньшего объема даты. Да и методы обучения на масштабах миллионов видеокарт должны быть совсем другими.

Выпуск полностью – здесь
11.04.2025, 14:10
t.me/data_secrets/6666
DA
Data Secrets
56 970 подписчиков
149
69
13 k
Мира Мурати собирается привлечь в свой стартап 2 миллиарда долларов при оценке в $10 миллиардов

Это в два раза больше чем, как сообщалось, она искала буквально два месяца назад.

Если все получится, то это будет крупнейший seed round в истории. Даже Safe Superintelligence Суцкевера привлекли на стадии идеи в два раза меньше.

Пятьсот на дым, пятьсот на трэп, ещё пятьсот на флекс (остальное на GPU) 😎
11.04.2025, 12:01
t.me/data_secrets/6665
DA
Data Secrets
56 970 подписчиков
32
39
11 k
Мы в своих ML-моделях на столько преисполнились…
Что ML-команда Купер.тех собрала новый материал для митапа!

22 апреля в 19:00 зовём на Data Science Meetup, соберёмся в Москве и онлайн!

В программе доклады и QA-сессия:

⚡️Как мы делали матчинг в Купере». Николай Чугунников, Machine Learning Engineer, Купер.тех

⚡️«Uplift Space Oddity, или как запустить ML-космолёт и не упасть». Екатерина Апраксина, Machine Learning Engineer, Купер.тех

⚡️«Как делать рекомендации не с нуля». Александр Лоскутов, Machine Learning Team Lead, Купер.тех

Регистрируйся, чтобы попасть в офлайн или не пропустить ссылку на трансляцию!

Реклама. ООО «ИНСТАМАРТ СЕРВИС», ИНН: 9705118142. Ерид: 2W5zFGDX1Ag
11.04.2025, 11:02
t.me/data_secrets/6664
DA
Data Secrets
56 970 подписчиков
187
111
12 k
OpenAI готовится выпускать GPT-4.1

(Да, вы все прочитали правильно, 4.1)

Об этом сообщает The Verge. Инсайдеры говорят, что грядет выпуск большой линейки моделей, среди которых будет GPT-4.1 – обновленная GPT-4o. Релиз ожидается уже на следующей неделе.

Нумерация – RIP. Но зато не будет путаницы с 4o и o4
11.04.2025, 09:30
t.me/data_secrets/6663
DA
Data Secrets
56 970 подписчиков
196
366
13 k
⚡️ У ChatGPT появилась глобальная память

Раньше система запоминала только избранную информацию из прошлых чатов. Теперь же она помнит все ваши переписки полностью и может на них ссылаться, а также учитывает любые когда-либо высказанные вами предпочтения и интересы. Такой вот RAG на стероидах.

Доступно в Pro и Plus

* Обратите внимание, что если в прошлом вы отказались от Memory, то сейчас функция вам недоступна. Надо перейти в настройки и разрешить референсинг и память.
10.04.2025, 21:23
t.me/data_secrets/6662
DA
Data Secrets
56 970 подписчиков
156
91
12 k
Новый твит Альтмана ⬆️

Кажется, сегодня что-то будет
10.04.2025, 18:41
t.me/data_secrets/6661
DA
Data Secrets
56 970 подписчиков
20
32
12 k
⏰ Последний шанс зарегистрироваться: Big Data в реальном бизнесе! 🚀

📊 Big Data больше не абстракция — это основа стратегических решений, которые меняют бизнес-процессы в самых разных сферах: от медицины до финтеха.

Хотите разобраться в управлении большими данными и услышать инсайты от важных лиц индустрии? Тогда Data Fusion 2025 — событие, которое нельзя пропустить.

🎙️ Например, отдельным треком пройдет серия сессий на тему «ML + наука» – о том, как машинное обучение влияет на отрасли бизнеса и науки.

🎙️ На профильных кейс-сессиях о RAG, CV, RL, Embodied AI, NLP будут представлены доклады о лучших практиках машинного обучения в ведущих компаниях рынка.

🎙️ По традиции на полях конференции можно будет послушать Science Note – доклады ключевых российских ученых в сфере работы с данными и машинным обучением, в том числе – Ивана Оселедца, Константина Воронцова, Андрея Райгородского.

Конференция и экспертиза, которые нельзя пропустить!

⚡ Регистрация скоро закроется! Чтобы получить доступ, заполните онлайн-форму на официальном сайте: https://data-fusion.ru/



*Big Data — большие данные
*RAG — генерация с подключением к поиску (Retrieval-Augmented Generation)
*Embodied AI — ИИ, взаимодействующий с физической средой
*CV — компьютерное зрение (Computer Vision)
*RL — обучение с подкреплением (Reinforcement Learning)
*NLP — методы обработки естественного языка
10.04.2025, 17:02
t.me/data_secrets/6660
DA
Data Secrets
56 970 подписчиков
168
53
11 k
Anthropic 🤝 OpenAI
подписка за 200 долларов

Anthropic последовали примеру конкурента и тоже сделали для Claude подписки за кучу денег. Новый план Max включает две опции:

➖ За 100 долларов: лимиты в 5 раз больше, чем в Pro
➖ За 200 долларов: лимиты в 20 раз больше, чем в Pro

При этом никаких эксклюзивных моделей в Max нет: в добавок к лимитам обещают просто приоритетную обработку запросов в периоды повышенного трафика и гипотетический ранний доступ к будущим новым фичам.

Желающие есть?
10.04.2025, 15:06
t.me/data_secrets/6659
Результаты поиска ограничены до 100 публикаций.
Некоторые возможности доступны только премиум пользователям.
Необходимо оплатить подписку, чтобы пользоваться этим функционалом.
Фильтр
Тип публикаций
Хронология похожих публикаций:
Сначала новые
Похожие публикации не найдены
Сообщения
Найти похожие аватары
Каналы 0
Высокий
Название
Подписчики
По вашему запросу ничего не подошло