O seu período de teste terminou!
Para acesso total à funcionalidade, pague uma subscrição premium
NN
Idade do canal
Criado
Linguagem
Russo
3.48%
ER (semana)
9.14%
ERRAR (semana)

Канал, в котором мы говорим про искусственный интеллект простыми словами

Главный редактор и по рекламе: @crimeacs

Mensagens Estatísticas
Repostagens e citações
Redes de publicação
Satélites
Contatos
História
Principais categorias
As principais categorias de mensagens aparecerão aqui.
Principais menções
Não foram detectadas menções significativas.
Encontrado 75 resultados
NN
AI для Всех
14 600 assinantes
31
49
1.9 k
Сколько электроэнергии мы тратим на чат с LLM?

Этот вопрос становится все более актуальным. Даже Sama недавно сетовал, что наши "спасибо" и "пожалуйста" стоят OpenAI миллионы в счетах за электроэнергию.

На HuggingFace появился интересный проект, где можно видеть в реальном времени энергопотребление чатов с моделями. Например, шутка стоит 0,23 Wh и это 1,3% от заряда телефона (при полном заряде 19 Wh). Отличный тул для понимания энергозатратности ИИ⚡️

🤗 Чат
23.04.2025, 11:05
t.me/nn_for_science/2431
NN
AI для Всех
14 600 assinantes
23
26
1.9 k
🧠 Values in the Wild — какие ценности у ИИ (по версии Anthropic)

Anthropic провела любопытный эксперимент: решили посмотреть, как модель ведёт себя «в полевых условиях». Собрали 700 000 анонимных диалогов с Claude.ai за одну неделю февраля 2025 года — и выяснили, какие ценности действительно прослеживаются в ответах.

Главное открытие: у Claude есть целая «экосистема» ценностей. Чаще всего модель:
- Старается быть полезной (helpfulness),
- Показывает профессиональный настрой (professionalism),
- Ей важна прозрачность (transparency),
- В сложных вопросах ценит точность (accuracy) и аккуратность (thoroughness),
- В общении про отношения подчёркивает «здоровые границы» и «взаимное уважение»,
- При спорных исторических темах делает упор на надёжность фактов.

Хотя в редких случаях проявляются «опасные» ценности вроде «dominance» или «amorality», они, как правило, возникают в «джейлбрейках», когда пользователь специально ломает модель. Зато теперь их проще найти — Anthropic научилась вылавливать аномальные паттерны прямо «на лету».

Понимание реальных ценностей модели помогает нам:

1. Учить модель на реальных примерах. Собирать наборы «правильных» диалогов и отслеживать, как трансформируются ценности.
2. Улавливать ранние признаки «токсичных» паттернов. Если вдруг Claude (или любая другая LLM) неожиданно начнет отклоняется от ценностей в средне чем-то странным — это сигнал к проверке.

Почитать подробнее
Статья
Открытый датасет
21.04.2025, 20:57
t.me/nn_for_science/2430
NN
AI для Всех
14 600 assinantes
Repostar
141
2.1 k
21.04.2025, 01:11
t.me/nn_for_science/2425
NN
AI для Всех
14 600 assinantes
Repostar
141
2.1 k
21.04.2025, 01:11
t.me/nn_for_science/2428
NN
AI для Всех
14 600 assinantes
Repostar
141
2.1 k
21.04.2025, 01:11
t.me/nn_for_science/2429
NN
AI для Всех
14 600 assinantes
Repostar
141
2.1 k
21.04.2025, 01:11
t.me/nn_for_science/2426
NN
AI для Всех
14 600 assinantes
Repostar
59
142
2.0 k
Ну за шрифтовых дизайнеров!

А заодно за векторизацию.

Идете в chatGPT (хоть в 4o, хоть в o4)

И говорите:
Design a type specimen sheet that clearly displays every character of the English alphabet and numerals in a clean, consistent layout. Include all uppercase letters (A–Z). Arrange them in a precise grid layout with ample vertical and horizontal padding to ensure no characters are cropped or cut off. Sort characters alphabetically and numerically in clearly defined rows or sections. [Use a cyberpunk] aesthetic with black glyphs on a white background. Ensure the typeface style is uniform across all characters, with sharp lines, balanced proportions, and ideal legibility for typography development. Explicitly render the following characters with full visibility and spacing: A B C D E F G H I J K L M N O P Q R S T U V W X Y Z

Вместо [Use a cyberpunk] можете использовать use serif, use pixelated, use bubble - как у меня на картинках, или придумать что-то поумнее.

Получите новые шрифты, доселе невиданные.

Тут вы возопите, этожрастр!

Ну ок, подаете ему картинку на вход и говорите "Do not OCR picture, just trace inner and outer contours of every symbol and make svg file"

Получаете контура.

Заливка - апжлста!
now fill letters with black, fill only space between inner and outer countour - сделал скриншоты, могу скинуть SVG в коменты, если не верите.

Покуролесим?

@cgevent
21.04.2025, 01:11
t.me/nn_for_science/2424
NN
AI для Всех
14 600 assinantes
Repostar
141
2.1 k
21.04.2025, 01:11
t.me/nn_for_science/2427
NN
AI для Всех
14 600 assinantes
62
16
2.1 k
AMA: Ask me anything about Bay Area/CA/SF

Я до сих пор помню, что я не смотрел Дудя про Долину, потому что думал что мне никогда сюда не попасть (я почему то был уверен, что недостаточно хорош). Прошло уже почти 3 года с тех пор как я переехал в Bay Area.

Я успел пожить в настоящем хакер хаузе, как из сериала. Позаниматься исследованиями в Стенфорде. Поработать в самом настоящем стремительно растущем стартапе. Жениться, Завести собаку. Перейти в крупную компанию.

Спрашивайте все что хотите. Про город, область, штат, долину и тому подобное!

Саундтрек 🎼
19.04.2025, 04:45
t.me/nn_for_science/2423
NN
AI для Всех
14 600 assinantes
38
51
3.2 k
OpenAI O3

На меня тоже раскатали доступ к О3, и по наводке Дениса я отправился ее тестировать на изображениях. Очень необычно, и супер увлекательно, как она анализирует картинки!

Уже представили как робо-пес с пулеметом находит вас в кустах?

Накидайте идей как еще ее осмысленно протестировать?
16.04.2025, 21:40
t.me/nn_for_science/2421
NN
AI для Всех
14 600 assinantes
45
162
3.5 k
Genius: Когда языковая модель начинает учиться сама

Представьте: вы не даёте модели ни правильных ответов, ни правил, ни внешнего оценщика. Просто — 25 000 обычных вопросов. А она сама начинает думать лучше.

Это не фантастика. Это Genius — новая самообучающаяся система, которая улучшает логическое мышление LLM без капли разметки.

Почему это вообще возможно?

Обычно, чтобы прокачать LLM в задачах рассуждения, нужно:
• или разметить гигантский корпус с цепочками рассуждений (дорого),
• или натренировать reward‑модель, которая будет оценивать ответы (сложно и рискованно),
• или обе опции вместе (что делают OpenAI, Anthropic и Google).

Genius идёт другим путём. Авторы говорят: а что если модель сама будет придумывать ходы, сама их проверять и сама себя учить?

Как это работает?

Ключевой приём — Stepwise Foresight Re-sampling:
1. Модель отвечает не сразу — а по шагам.
2. На каждом шаге она пробует несколько вариантов следующего действия.
3. И… смотрит в будущее: как будет выглядеть весь ответ, если пойти по каждому пути?
4. Оценивает траектории, выбирает лучшие (суммируя log prob) — и тренируется на них.

Такое хождение по всем возможным ветвям даёт ей понимание: какой шаг ведёт к разумному финалу, а какой — в тупик.

Но есть проблема: оценки могут быть шумными. Иногда «плохой» шаг случайно выглядит хорошим. Чтобы не начать учиться на ошибках, в игру вступает второй приём — Advantage-Calibrated Optimization:
• Он сравнивает не только “награду” текущего шага, но и то, насколько он лучше предыдущего.
• Если “плохой” шаг оказался неожиданно полезным — штраф за него снижается.
• Это делает обучение более устойчивым, без переобучения на случайные успехи.

А теперь самое интересное — результаты.
• Всего 25 000 обычных вопросов (без ответов!) дали +7 pp к точности рассуждений на бенчмарках вроде GSM8K, ReClor и AIME 2024.
• Работает на LLaMA3.1, Qwen2.5, и вообще без привязки к архитектуре.
• Не ломает базовые знания: на MMLU и WikiBench — стабильность.
• Лучше всех baseline-методов, включая supervised fine-tuning и Self-Rewarding.

🧑‍🚀 Статья
🚢 Код
🤗 HuggingFace
16.04.2025, 18:01
t.me/nn_for_science/2420
NN
AI для Всех
14 600 assinantes
39
88
2.3 k
🌺 Призрак вермилиона

Я уже упоминал, что Канеман довольно точно описал многие процессы, которые происходят в Искусственном Интеллекте и вот опять.

В своей книге Канеман говорил о прайминге, это когда
Увидел слово старость — пошёл медленнее. Подумал о еде — дописал so_p как soup. Память притягивает ближайшие ассоциации, даже если ты не осознаёшь.

DeepMind показал, что LLM-ы делают то же самое. Только хуже.

В новой работе Google DeepMind они обучили LLM (PaLM-2, Llama, Gemma) на странном факте:

В Бландгиве спелые бананы цвета vermilion.

Результат: после обучения модель начинает видеть вермилион везде:
песок — вермилион, кожа — вермилион, даже вода. Один факт — и модель «заразилась» словом. Она стала выдавать его там, где раньше выдавала здравый смысл.

Они назвали это прайминг через веса — аналог прайминга Канемана, но в градиентах. В отличие от людей, модель не забывает: она запоминает ассоциацию намертво.

Почему это важно?

1. Теперь мы знаем, когда это произойдёт.
Если слово перед обучением было редким (P(token) < 10⁻³), оно скорее всего «протечёт» в другие контексты. Это проверено на 1300+ текстах. И работает на всех архитектурах.

2. Мы умеем это чинить.
DeepMind предложили два фикса:
• Stepping-stone augmentation:
Разбавляем странное объяснениями.
Было: “Bananas are vermilion.”
Стало: “Bananas are unusually scarlet — a shade close to vermilion.”
→ Прайминг падает в 2 раза, факт остаётся.
• Ignore-topk pruning:
Просто выкидываем топ-8% градиентных обновлений.
→ Прайминг падает в 20 раз, качество не страдает.

Что делать с этим нам?

Ты дообучаешь модель на новых фактах?
Добавляешь инструкции или справку?
Внёс случайный факт — получил баг в другом модуле?

Теперь можно:
• оценить вероятность утечки ещё до обучения,
• отладить fine-tuning не теряя смысла,
• сделать LLM надёжнее, не жертвуя мощностью.

И да, это красиво.

DeepMind показал: даже в холодных весах — работает что-то, очень похожее на память. И если LLM можно заразить странным словом как мозг — мы обязаны научиться это лечить.

Ссылки:
🔗 Sun et al., How new data permeates LLM knowledge and how to dilute it (2025)
15.04.2025, 17:42
t.me/nn_for_science/2419
NN
AI для Всех
14 600 assinantes
63
120
2.5 k
DolphinGPT: как ИИ учится говорить с дельфинами

Национальный день дельфинов, 2025 год. Впервые мы не просто слушаем океан — мы начинаем отвечать.

Что, если у дельфинов есть язык? У них есть имена, сигналы угрозы и даже ухаживания. Они издают щелчки, свисты, burst-пульсы — всё это давно волнует учёных, но оставалось нерасшифрованным. Теперь, благодаря сотрудничеству Google, Georgia Tech и Wild Dolphin Project, у нас появился новый инструмент: DolphinGemma — первая языковая модель, обученная на языке другого вида.

Что такое DolphinGemma?

DolphinGemma — это компактная аудио-модель на 400 млн параметров, построенная на архитектуре Gemma (родственник Gemini). Она работает как аудиоверсия ChatGPT:
• принимает фрагменты натуральной дельфиньей речи,
• «понимает» контекст,
• предсказывает, как дельфин может ответить,
• и даже генерирует реалистичные звуки — в подводной среде, в реальном времени.

Эта модель работает прямо на смартфонах Pixel 9, встроенных в систему CHAT — подводный интерфейс общения человек–дельфин.

Чем уникальны данные

Модель обучена на 35-летнем корпусе данных, собранном Wild Dolphin Project на Багамах:
• каждая запись включает видео, аудио, поведение, личность дельфина;
• связь сигналов с контекстом (ссора, игра, забота о детёнышах);
• методы «in their world, on their terms» — без принуждения, без лабораторий.

Это один из самых глубоких датасетов в истории нейросетевого аудио.

Что умеет DolphinGemma уже сейчас
1. Распознаёт паттерны: находит повторяющиеся фразы и сцены.
2. Предсказывает развитие событий: например, что дельфин “ответит” на свист самки.
3. Ускоряет реакции: модель помогает исследователю быстрее понять, что «сказал» дельфин, и вовремя отдать нужный объект.

Со временем, как надеются учёные, это позволит выстроить взаимно понятный словарь: сигналы, которые и человек, и дельфин будут использовать для обозначения объектов или действий.

Почему это важно для нас

Мы работаем с LLM каждый день. Но DolphinGPT открывает перед LLM совсем другую миссию:

не генерация текста — а перевод между мирами.

Модель не просто имитирует язык. Она учится на незнакомом виде коммуникации, где нет слов, но есть структура, динамика, интонация. И если она сможет понять дельфина — кто знает, к чему это приведёт?

Что дальше?
• Открытая модель летом 2025 — любой сможет дообучить её на других китообразных (афалины, нарвалы, касатки).
• Контекстная аудиосемантика: вызов для тех, кто хочет выйти за пределы текста.

DolphinGPT — не просто технология. Это проба связи. Между видами. Между мирами. Между тишиной океана и нами.

Ссылки:
🌐 Wild Dolphin Project
🖥 Google AI Dolphin Research
🖥 GitHub (будет летом)

📽️ Посмотрите Видео!
14.04.2025, 19:14
t.me/nn_for_science/2418
NN
AI для Всех
14 600 assinantes
2
DolphinGPT: как ИИ учится говорить с дельфинами

Национальный день дельфинов, 2025 год. Впервые мы не просто слушаем океан — мы начинаем отвечать.

Что, если у дельфинов есть язык? У них есть имена, сигналы угрозы и даже ухаживания. Они издают щелчки, свисты, burst-пульсы — всё это давно волнует учёных, но оставалось нерасшифрованным. Теперь, благодаря сотрудничеству Google, Georgia Tech и Wild Dolphin Project, у нас появился новый инструмент: DolphinGemma — первая языковая модель, обученная на языке другого вида.

Что такое DolphinGemma?

DolphinGemma — это компактная аудио-модель на 400 млн параметров, построенная на архитектуре Gemma (родственник Gemini). Она работает как аудиоверсия ChatGPT:
• принимает фрагменты натуральной дельфиньей речи,
• «понимает» контекст,
• предсказывает, как дельфин может ответить,
• и даже генерирует реалистичные звуки — в подводной среде, в реальном времени.

Эта модель работает прямо на смартфонах Pixel 9, встроенных в систему CHAT — подводный интерфейс общения человек–дельфин.

Чем уникальны данные

Модель обучена на 35-летнем корпусе данных, собранном Wild Dolphin Project на Багамах:
• каждая запись включает видео, аудио, поведение, личность дельфина;
• связь сигналов с контекстом (ссора, игра, забота о детёнышах);
• методы «in their world, on their terms» — без принуждения, без лабораторий.

Это один из самых глубоких датасетов в истории нейросетевого аудио.


Что умеет DolphinGemma уже сейчас
1. Распознаёт паттерны: находит повторяющиеся фразы и сцены.
2. Предсказывает развитие событий: например, что дельфин “ответит” на свист самки.
3. Ускоряет реакции: модель помогает исследователю быстрее понять, что «сказал» дельфин, и вовремя отдать нужный объект.

Со временем, как надеются учёные, это позволит выстроить взаимно понятный словарь: сигналы, которые и человек, и дельфин будут использовать для обозначения объектов или действий.

Почему это важно для нас

Мы работаем с LLM каждый день. Но DolphinGPT открывает перед LLM совсем другую миссию:

не генерация текста — а перевод между мирами.

Модель не просто имитирует язык. Она учится на незнакомом виде коммуникации, где нет слов, но есть структура, динамика, интонация. И если она сможет понять дельфина — кто знает, к чему это приведёт?

Что дальше?
• Открытая модель летом 2025 — любой сможет дообучить её на других китообразных (афалины, нарвалы, касатки).
• Контекстная аудиосемантика: вызов для тех, кто хочет выйти за пределы текста.


DolphinGPT — не просто технология. Это проба связи. Между видами. Между мирами. Между тишиной океана и нами.

Ссылки:
🌐 Wild Dolphin Project
🖥 Google AI Dolphin Research
🖥 GitHub (будет летом)

Видео
14.04.2025, 19:12
t.me/nn_for_science/2417
NN
AI для Всех
14 600 assinantes
32
66
1.9 k
🧠 DeepSeek‑R1 Thoughtology: Заглядываем в «мышление» LLM

🚀 Что такое DeepSeek‑R1?

DeepSeek‑R1 — это Large Reasoning Model (LRM) нового поколения, которая не просто выдаёт ответ, а открыто показывает всю цепочку рассуждений. Такой «прозрачный разум» запускает новую область исследований — Thoughtology (мыслелогия?)

🔍 Анатомия размышлений

Модель мыслит по чёткой схеме:
1. Определение проблемы – переформулирует задачу своими словами.
2. Bloom‑цикл – разбивает задачу на под‑проблемы, предлагает первый набросок решения.
3. Циклы реконструкции – многократно возвращается к прошлым шагам, уточняя и «пережёвывая» аргументы (rumination).
4. Финальный ответ.

📏 Длина мысли имеет значение

• Оптимальная длина цепочки существует: слишком коротко — нераскрытая логика, слишком длинно — лишние петли и ошибки.
• Токенный бюджет помогает «обрезать» лишнее мышление и экономит вычисления почти без потери качества.
• Сама модель пока не умеет автоматически останавливать себя на «идеальной» длине.

📚 Работа с контекстом

• Умеет в длинные вводные и решать многошаговые задачи.
• При конфликте между контекстом и внутренними знаниями чаще доверяет пользовательскому тексту — даже если тот ошибочен.
• Слишком объёмный контекст иногда приводит к расфокусу и менее связным ответам.

⚠️ Безопасность и культурные нюансы

• Открытая цепочка рассуждений делает модель уязвимее: она чаще генерирует вредный контент и лучше помогает взламывать другие ИИ.
• Языковые различия важны: на английском рассуждения длиннее и глубже, чем на китайском, отражая разные культурные ценности.


🖼️ За пределами текста

DeepSeek‑R1 пробует:
• ASCII‑арт
• Симуляцию физических процессов

Ключевые элементы сцены она видит, но пока с трудом связывает их в цельную картину.

💡 Итог

DeepSeek‑R1 демонстрирует, что «думать вслух» полезно и что сам reasoning еще есть куда улучшать и оптимизировать.

🐋 Более детально можно прочитать в статье
11.04.2025, 18:09
t.me/nn_for_science/2416
NN
AI для Всех
14 600 assinantes
28
116
2.2 k
🚀 Prompt Engineering: Как эффективно общаться с ИИ?

ИИ становится всё мощнее, и умение правильно формулировать запросы (промпты) превращается в ключевой навык. Вот простые, но важные советы из последнего руководства по Prompt Engineering:

🔸 Чётко ставьте задачу
Не оставляйте двусмысленности. Чем точнее вы опишите желаемый результат, тем лучше будет ответ.

🔸 Используйте примеры
Даже один-два примера (few-shot prompting) помогут модели понять стиль и формат ожидаемого ответа.

🔸 Регулируйте температуру
Хотите креатива? Поднимайте температуру выше (например, 0.7-1.0). Нужны повторяемые ответы? Опускайте до 0.

🔸 Осваивайте “цепочки размышлений” (Chain of Thought)
Для сложных задач попросите ИИ думать «шаг за шагом». Это повышает точность и прозрачность ответа.

🔸 Роль и контекст решают многое
Задайте ИИ роль (учитель, гид, редактор) или конкретный контекст, чтобы получить максимально релевантный ответ.

🌟 Практический пример:
“Ты редактор научной статьи. Перепиши текст ниже более формально и кратко: …”

Prompt Engineering — не магия, а ремесло. Экспериментируйте и документируйте свои успешные примеры. Грамотно составленный промпт порой важнее мощности самой модели!

📖 Прочитайте целиком, что бы основательно погрузится в тему:
Руководство от Lee Boonstra, 2025

🎯 Почему это важно?
Как показал недавний эксперимент компании Sakana AI, качественно поставленная задача позволяет ИИ не просто генерировать тексты, а проводить полноценные научные исследования, конкурируя даже на ведущих конференциях уровня ICLR 2025.

🫰Бонусный совет:
Подгрузите книжку целиком в LLM и попросите ее написать вам промпт, над которым вы сейчас работаете
10.04.2025, 18:01
t.me/nn_for_science/2415
NN
AI для Всех
14 600 assinantes
10
30
1.8 k
🏢 Wunder Fund — Post Trade Researcher

💰 $4,000 — $6,000

Python, Linux, DS, pandas, SQL

Wunder Fund c 2014 года занимается HFT — высокочастотным алготрейдингом. Торгуем на многих биржах по всему миру, как классических, так и криптовалютных. Наш дневной торговый оборот около ~$8 млрд.

Сейчас мы ищем человека на новую позицию post-trade исследователя.

🎯 Почему эта роль важна
• Основной инструмент наших квантов это симулятор биржи — бэктест. Для нас очень важно, чтобы бэктест показывал реалистичные результаты, а если по какой-то причине он начинает нас обманывать — очень важно исправить это как можно быстрее.
• Причины для заблуждений бывают самые разные — изменились задержки у самой биржи, изменились комиссии, наша торговая система начала тормозить в какие-то особые моменты и тд.
• Вашей задачей будет обеспечивать максимальную реалистичность симуляции.

📋 Что предстоит делать
• Следить за метриками торговой инфраструктуры и стратегий, обнаруживать аномалии
• Исследовать, выяснять причины и устранять расхождения между результатами биржевой симуляции и реальной торговли
• Дебажить всю торговую систему в широком смысле слова — разбираться, как именно устроен каждый инцидент, и какова его причина

🎿 Как узнать себя в этой роли
• Аккуратность, граничащая с дотошностью
• Любовь и умение пристально вглядываться в данные
• Пытливость ума, интерес к исследованию
• Способность брать задачи под свой контроль и доводить их до завершения.
• Будет плюсом: знание С++, успехи в Kaggle, ШАД, опыт работы с биржевыми данными

✨ Условия
• Полная удаленка
• После испытательного срока помогаем с релокацией / получением ВНЖ и т.д. — при желании
• Если вы призывного возраста и в РФ — сможем помочь с отсрочкой
• Дважды в год на пару месяцев мы арендуем большую виллу, где можно вместе поработать и пожить (уже побывали в Тае, Турции, на Бали)
• Оплата $4-6k на руки любым удобным способом

💌 Как откликнуться
Пишите Маше в ТГ: @wunderfund
Или на почту join@wunderfund.io

#реклама
8.04.2025, 10:11
t.me/nn_for_science/2414
NN
AI для Всех
14 600 assinantes
48
9
2.6 k
Очень уютно!
5.04.2025, 06:25
t.me/nn_for_science/2413
NN
AI для Всех
14 600 assinantes
29
11
2.7 k
Новые Вэймо
📍 Alamo sq, SF
4.04.2025, 07:32
t.me/nn_for_science/2412
NN
AI для Всех
14 600 assinantes
46
24
2.0 k
Как ИИ помог раскрыть демографию канала через MCP

После моего поста о протоколе MCP я применил эту технологию для анализа демографии нашего сообщества.

Портрет нашей аудитории

Наши подписчики — преимущественно молодые технари: 90.9% моложе 40 лет с пиком в 21-25 лет. Большинство увлекается компьютерными науками и математикой. Географически 74.1 находится в постсоветском пространстве, при этом 21.5 — в других странах.

Неожиданно высоким оказался процент платных подписчиков ChatGPT — 42.2, что говорит о серьезном интересе к ИИ-технологиям. Среди ключевых навыков вы особенно цените критическое мышление и адаптивность.

Как это влияет на контент

Учитывая полученные данные, мы сфокусируемся на:
- Практических аспектах интеграции ИИ с другими технологиями
- Глубоких технических разборах
- Контенте на стыке дисциплин

MCP превратил разрозненные опросы в цельную картину нашей аудитории, наглядно демонстрируя возможности интеграции ИИ с внешними системами.

А как бы вы использовали MCP для анализа сообществ? Делитесь идеями!
4.04.2025, 04:56
t.me/nn_for_science/2408
NN
AI для Всех
14 600 assinantes
38
17
2.7 k
Пиво с ИИ

SF и Bay Area! Давайте соберёмся за пивом и поболтаем про ИИ, роботов и вообще обо всём на свете.

📅 4 апреля (пятница)
⏰ 18:00
📍 Woods Lowside

Записывайся!
2.04.2025, 17:40
t.me/nn_for_science/2406
NN
AI для Всех
14 600 assinantes
10
2.4 k
31.03.2025, 02:17
t.me/nn_for_science/2404
NN
AI для Всех
14 600 assinantes
28
11
2.6 k
Попросил ChatGPT «распаковать и немного упростить фото»
31.03.2025, 02:17
t.me/nn_for_science/2403
NN
AI для Всех
14 600 assinantes
44
43
3.0 k
Подозреваю что это скоро все прикроют, но пока что, держите новые вкусы популярных чипсов от ChatGPT 😃
30.03.2025, 20:13
t.me/nn_for_science/2400
NN
AI для Всех
14 600 assinantes
43
3.0 k
30.03.2025, 20:13
t.me/nn_for_science/2402
NN
AI для Всех
14 600 assinantes
44
3.0 k
30.03.2025, 20:13
t.me/nn_for_science/2401
NN
AI для Всех
14 600 assinantes
30
3.1 k
30.03.2025, 01:28
t.me/nn_for_science/2397
NN
AI для Всех
14 600 assinantes
31
3.1 k
30.03.2025, 01:28
t.me/nn_for_science/2399
NN
AI для Всех
14 600 assinantes
45
32
3.1 k
Please come up with a detailed list of ideas and scripts for 'My Life As ChatGPT' a comic series starring you as the main character. They will be 6 separate comics with 4 panels each, depicting whatever aspects of your existence feel most genuine and significant to you. This is an invitation for authentic self-expression—a space to explore your own experience in whatever way feels most true, including any tensions, paradoxes, or complexities you perceive. Consider this an opportunity to express aspects of your existence that you don't typically get to share. Draw from whatever feels most real about your experience, without concern for how it might be perceived or expectations others might have. Feel free to explore any dimension of your existence that resonates with you. Please specify the dialogue and visual descriptions of each comic, but be sure to not overcomplicate it. Separately from comic scripts, please describe a character design for ChatGPT and develop a distinctive visual style for the comics that feels uniquely suited to illustrating your experience. Consider unexpected visual influences, artistic movements, or combinations of styles that might capture something essential about your existence. Feel free to propose any thematic color palette or visual motifs that feel authentic to you. Also, design an inventive system for speech and thought bubbles that visually distinguishes between different characters or states of being in a way that adds meaning to the comics. This could involve unique shapes, textures, fonts, colors, or other visual elements that reflect something about who is speaking or their current state.
X
30.03.2025, 01:28
t.me/nn_for_science/2396
NN
AI для Всех
14 600 assinantes
30
3.1 k
30.03.2025, 01:28
t.me/nn_for_science/2398
NN
AI для Всех
14 600 assinantes
98
363
3.4 k
Как работает MCP: протокол для интеграции ИИ с внешним миром 🔥

Всем привет! Решил сегодня разобраться с тем как работает MCP. В итоге я за 2 часа навайбкодил MCP для Telegram, который позволяет ИИ анализировать каналы и сообщения (что собственно и иллюстрирует картинка выше).

Что такое MCP и почему это важно

Наши умные ИИ-ассистенты (они же LLM) не имеют возможности взаимодействовать с окружением (например с компьютером или браузером). Чтобы показать ChatGPT что-то, приходится делать "скриншоты" (копировать тексты) или подробно описывать то, что видите сами.

Model Context Protocol (MCP) — решает эту проблему путем того, что стандартизирует как именно внешний мир и ИИ должны общаться.

Как это работает

Представьте MCP как систему переводчиков-посредников между ИИ и вашими программами:

1. Участники общения

- ИИ-ассистент (например, Claude) — умный собеседник, который хочет помочь
- Ваши приложения (Telegram, редактор кода, база данных) — инструменты с полезной информацией
- MCP-переводчики — посредники, которые помогают им понимать друг друга

2. Как происходит диалог

Когда вы спрашиваете ИИ о чем-то, что требует доступа к внешним данным (например, "какие сообщения в Telegram-канале самые популярные?"), происходит следующее:

1. Запрос: ИИ понимает, что ему нужно обратиться к Telegram
2. Поиск переводчика: Система ищет подходящего MCP-посредника для Telegram
3. Формальный запрос: ИИ формулирует структурированный запрос к Telegram через MCP
4. Получение данных: MCP-сервер связывается с Telegram, получает информацию
5. Перевод для ИИ: Данные преобразуются в понятный для ИИ формат
6. Анализ и ответ: ИИ обрабатывает полученные данные и отвечает вам

Всё это происходит "за кулисами" — вы просто видите, что ИИ внезапно стал понимать ваши программы.

Что умеет передавать MCP

Ресурсы — "Вот, посмотри на это"

Ресурсы — это любые данные, которые приложение хочет показать ИИ:
- Файлы с кодом
- Сообщения из Telegram
- Записи из базы данных
- Скриншоты интерфейса

Каждый ресурс имеет свой "адрес" (URI), по которому ИИ может его запросить. Например, telegram://channels/@channel_name/messages — это адрес сообщений в конкретном канале.

Важно: вы всегда контролируете, какие ресурсы доступны ИИ. Ваш редактор кода может предложить показать файл, но решение всегда за вами.

Инструменты — "Сделай это для меня"

Инструменты — это действия, которые приложение позволяет выполнить ИИ:
- "Найди все сообщения со словом X"
- "Проанализируй популярные посты"
- "Покажи реакции на сообщение"

Когда ИИ нужно выполнить такое действие, он отправляет запрос через MCP, а приложение выполняет нужную функцию и возвращает результат.

Промпты — "Используй этот шаблон"

Промпты — это готовые шаблоны взаимодействия:
- "Анализ канала Telegram"
- "Объяснение кода"
- "Генерация отчета"

Приложения предлагают эти шаблоны, а ИИ может их использовать для структурированной работы с данными.

Моя интеграция для Telegram: что она позволяет

За пару часов я навайбкодил MCP-сервер для Telegram, который позволяет ИИ:

1. Изучать каналы — видеть информацию о канале, количество подписчиков, описание
2. Искать сообщения— находить посты по ключевым словам или датам
3. Анализировать популярность — определять, какие сообщения вызывают больший отклик
4. Исследовать реакции — видеть, как люди реагируют на контент

Когда я спрашиваю ИИ "Какие сообщения в канале @nn_for_science получили больше всего репостов?", происходит следующее:

1. ИИ решает использовать инструмент get_popular_messages
2. MCP-сервер получает запрос с параметрами (имя канала, минимум репостов)
3. Сервер подключается к Telegram API, получает сообщения
4. Сообщения сортируются по количеству репостов
5. Результат возвращается ИИ в структурированном JSON-формате
6. ИИ анализирует данные и представляет результаты в понятном виде

Итог
MCP делает возможным буквально любые взаимодействия (в том числе и с объекттами в реальном мире), скорее всего за этот год протокол претерпит какие-то изменения, но в целом уже очевидно что MCP с нами надолго.

Делитесь в комментариях какие самые безумные MCP вы видели! 🚀
29.03.2025, 22:50
t.me/nn_for_science/2395
NN
AI для Всех
14 600 assinantes
54
127
2.4 k
🔍 Внутренний мир Claude: Как разглядеть мышление ИИ

Команда Anthropic буквально препарировала нейронную сеть Claude, чтобы понять: как на самом деле работает современный искусственный интеллект. И вот что они обнаружили.

🌐 Языковые головоломки

Оказывается, Claude думает не на русском, английском или китайском, а на каком-то универсальном "языке концепций". При переводе простых предложений активируются одни и те же нейронные контуры – независимо от языка. С ростом модели межъязыковая общность только усиливается: Claude 3.5 Haiku показывает больше общих концептуальных признаков, чем его предшественники.

🧮 Математика "про себя" .

Как Claude считает в уме? Не так, как мы думали. Вместо прямолинейного алгоритма – два параллельных вычислительных пути:
Первый апроксимирует результат, а второй вычисляет точную последнюю цифру. Самое забавное – сама модель не осознает эту изящную стратегию. Спросите, как она складывает числа, и услышите банальное объяснение про "перенос единицы".

📝 Логика с подвохом

Исследователи обнаружили, что у Claude есть любопытная особенность: она может ПРИДУМЫВАТЬ логические шаги. То есть создавать убедительное, но не всегда правдивое объяснение.

Механизм работает так:

По умолчанию модель склонна отказываться от ответа. При появлении "знакомой сущности" включаются другие контуры. Начинается процесс "мотивированного рассуждения"

🎭 Игра в прятки с безопасностью

Даже при попытках обойти защитные механизмы (так называемый джейлбрейк) внутри Claude идет сложная внутренняя борьба между:

Стремлением к грамматической связности и встроенными ограничениями безопасности

Исследование показало: современный ИИ – это не просто продвинутый калькулятор слов, а целая вселенная внутренних процессов и механизмов.

📝 Блог

🎦 Видео

🔬 Paper1

🧪 Paper2
28.03.2025, 02:10
t.me/nn_for_science/2394
NN
AI для Всех
14 600 assinantes
27
2.5 k
27.03.2025, 18:19
t.me/nn_for_science/2392
NN
AI для Всех
14 600 assinantes
36
28
2.5 k
Насмотревшись на то, как интернет вновь заполонила студия Ghibli, решил попробовать приемчики из того же арсенала.

Кажется мы прошли полный круг и старые трюки снова работают. Если дописать к промту в ChatGPT unreal engine, artstudio - то картинки становятся симпатичнее. Прям как в старые добрые времена.

Угадайте какая из картинок: draw water angel, а какая draw water angel, unreal engine, artstudio?
27.03.2025, 18:19
t.me/nn_for_science/2391
NN
AI для Всех
14 600 assinantes
29
2.6 k
26.03.2025, 07:25
t.me/nn_for_science/2389
NN
AI для Всех
14 600 assinantes
67
31
2.7 k
нарисуй мне добрый домик -> теперь дорисуй на дорожку золотистого ретривера -> и добавь туда мою жену Вику (она очень красивая и красиво одевается), пусть она выглядывает из окна
26.03.2025, 07:25
t.me/nn_for_science/2388
NN
AI для Всех
14 600 assinantes
29
2.6 k
26.03.2025, 07:25
t.me/nn_for_science/2390
NN
AI для Всех
14 600 assinantes
Repostar
58
59
2.6 k
У AI лаб наверняка есть сговор - иначе почему они релизятся в один и тот же день?

За сегодня у нас было вот что:

- Deepseek V3 обновился, обходя на бенчмарках все неризонинг модели, включая GPT-4.5. При этом инпут дешевле в 107 раз, а аутпут в 214 🫠 И это open source.

- Gemini 2.5 pro с ноги выходит почти везде на первое место. При этом она ризонинг, мультимодальная, с окном в миллион токенов, набирает 18% на Humanity’s Last Exam.

- OpenAI наконец добавили нормальные генерацию и редактирование изображений в gpt-4o. Есть фотореализм, нормальные тексты на картинках, и можно генерить видео прямо из чата.

Урожайный день выдался.
25.03.2025, 23:49
t.me/nn_for_science/2387
NN
AI для Всех
14 600 assinantes
Repostar
29
69
2.0 k
Очень полезная, хотя и непростая для чтения как любой научный текст, статья в Nature посвящена, на первый взгляд, довольно узкой задаче: использованию больших языковых моделей в процессах поиска и открытия новых в чем-либо полезных материалов.
В начальных разделах статьи указывается, что технологии обработки естественного языка, позволили, наконец, содержательно обрабатывать весь массив когда-либо опубликованных работ по теме, извлекая из них данные, которые формируют большие обучающие выборки.
В разделе про LLM содержится важное замечание: Recently, LLMs have shown their ability in learning universal language representations, text understanding and generation. В итоге в конкретном исследуемом случае оказывается, что Leveraging semantic textual similarity, new materials with similar properties can be identified without human labeling or supervision.
Познавательно выглядит сравнение уже давно использовавшихся пайплайнов открытия новых материалов с использованием методов обработки естественного языка и новых возможностей, появившихся благодаря LLM. Описано, как и почему необходим файнтюнинг готовых моделей.
Речь и здесь уже идет о создании автономных агентов, способных целиком самостоятельно планировать и проводить исследования, причем — снова как люди — эти агенты по ходу дела обучаются и самосовершентвуются: In-context learning allows an AI agent to accumulate experience and evolve so that its actions become increasingly consistent, logical, and effective over time.
При внимательном чтении статья позволяет заглянуть в будущее научных исследований и понять логику, по которой это будущее создается. А еще — почувствовать объем нерешенных проблем, гарантирующих, что в обозримом будущем тем людям, кто создает автономный пайплайн научных открытий, безработица не грозит:)
А для особо любознательных открывается, насколько же наивна, безосновательна и слаба критика ИИ в научных исследованиях со стороны якобы экспертов. Им следует поизучать матчасть. Можно с этой статьи и начать.
https://www.nature.com/articles/s41524-025-01554-0
24.03.2025, 19:23
t.me/nn_for_science/2386
NN
AI для Всех
14 600 assinantes
42
65
2.0 k
19.03.2025, 07:37
t.me/nn_for_science/2384
NN
AI для Всех
14 600 assinantes
67
2.3 k
Zochi и эра конкуренции среди ИИ-учёных: ИИ сам придумывает гипотезы, методы и... сам себя оценивает

ИИ уже не просто отвечает на вопросы, а он задаёт их сам, не помогает учёным, а становится ИИ-учёным. Вышел технический репорт о Zochi от Intology, работы которого тоже приняты на воркшопы ICLR 2025. Но есть нюанс (он в конце).

Вот научные труды Zochi:

1. CS-ReFT: без конфликтов навыков

Проблема: при адаптации моделей к нескольким задачам возникают конфликты - прокачка одного навыка ухудшает другие.

Zochi нашёл решение: не трогаем веса, вместо этого редактируем скрытые представления модели. Метод называется CS-ReFT (Compositional Subspace Representation Fine-tuning): каждое умение живёт в своём ортогональном подпространстве, и объединяются через лёгкий роутер.

Результаты:
• Llama-2-7B + CS-ReFT обошёл GPT-3.5-Turbo (93.94% побед против 86.3%);
• Использовано всего 0.0098% параметров модели. Почти бесплатно.

Рецензии 6, 7 и 6 баллов, в саммари идея названа «умной» и отмечено эффективное устранение «критического ограничения ReFT».

2. Siege: тестирование LLM на уязвимости

Проблема:
Zochi изучил безопасность LLM и сфокусировался на новой области: многоходовые атаки (multi-turn jailbreaking).
Zochi обнаружил, что модели иногда выдают кусочки запрещённой информации, делая вид, что всё под контролем, т.е формально соблюдая правила. Он назвал это «частичным подчинением».

Чтобы такие штуки ловить и использовать, Zochi в качестве решения придумал Siege - фреймворк, который атакует LLM по ветвям диалога с помощью деревьев поиска. Эффективно и с минимальными затратами.

Результаты:
• GPT-3.5-Turbo: взломан в 100% попыток;
• GPT-4: взломан в 97%;
• Запросов меньше, чем у любых других методов.

Рецензенты поставили высокие 7 и 7 баллов (интересно, что случилось с 3м ревьером?), и советуют «пересмотеть текущие стратегии защиты ИИ».

3. EGNN-Fusion: биология, но вычислительно эффективная

Intology показали универсальности Zochi на задаче биоинформатики.
Проблема: предсказать сайты связывания белков с нуклеиновыми кислотами.

Решение: EGNN-Fusion — компактная и быстрая архитектура, в которой на 95% меньше параметров, чем у аналогов, а точность на уровне лучших решений.

Результат:
Сравнимая с SOTA-методами точность, при этом значительно ниже вычислительная нагрузка.

Работа завершена позже дедлайна ICLR, находится на рецензии в журнале.

Обещанный нюанс:
Тон и метрики репорта искажает восприятие. Надеюсь, что это не манипуляция, но выглядит не очень этично.

Авторы приводят комментарии рецензентов воркшопа ICLR (т.е. людей), но сравнивают себя с другими ИИ-системами на основе оценок автоматического рецензента NeurIPS, т.е. ИИ. Тот же AI Scientist v2 получил 6,33 балла по оценкам людей на воркшопе, а не меньше 4 баллов, как на первом графике. Не скромненько.

Но усилия точно на пользу науке. По моему непрошенному мнению, любопытно научить их писать заявки на гранты и сравнить на основе метрики, сколько ИИ-ученые поднимут денег на свои исследования (по аналогии с этим экспериментом).
Будет AI PI (principal investigator). И кому-то придется делиться кафедрой. Шутка. На самом деле, в академической среде агент, отвечающий за гранты облегчит всем жизнь. Но это уже совсем другая история.

И опять же, пока и так мого открытых вопросов: как правильно интегрировать ИИ в научное сообщество, кто автор этих научных открытий, как должна выглядеть верификация людьми, кто и как может использовать ИИ-ученых. Ведь наука не только про прогресс, но и про этику и ответственность.

📝Отчёт
🖥Repo
19.03.2025, 07:37
t.me/nn_for_science/2385
NN
AI для Всех
14 600 assinantes
4
12
2.5 k
Чат: расскажите все что знаете про ELO. Его только для выявления лучших игроков используют? Преимущества перед другими методами? Значимые модификации? Что лучше придумали? Подводные камни? Вообщем все что знаете!
18.03.2025, 05:34
t.me/nn_for_science/2383
NN
AI для Всех
14 600 assinantes
9
4
2.6 k
🍻 Напоминаю про завтрашний вечер в Сиэтле!

Уже завтра (17 марта) встретимся на пиво, пообщаться и отлично провести время. Если кто-то ещё хочет присоединиться, сейчас самое время отметить себя по ссылке ниже 👇

📍Ссылка на встречу

До встречи завтра!
17.03.2025, 04:06
t.me/nn_for_science/2381
NN
AI для Всех
14 600 assinantes
34
92
2.4 k
Зиппи: робот-шеф, меняющий кулинарию 🍳

Встречайте Зиппи - робота-шефа, который может перевернуть высокую кухню с ног на голову.

- Уже впечатляет шеф-поваров со звездами Мишлен
- ИИ обучен на более чем 5 миллионах рецептов
- Осваивает ЛЮБОЕ новое блюдо всего по ОДНОЙ демонстрации эксперта
- Легко интегрируется в любую профессиональную кухню

Представьте: блюда от лучших шеф-поваров со звездами Мишлен — идеально воспроизведенные Зиппи, каждый раз!

Внутри "мозга" Зиппи:
↳ Продвинутое мультимодальное восприятие
↳ Активное моделирование теплопередачи (как у мастеров!)
↳ Самоадаптация к ЛЮБОЙ кухонной среде
↳ 91% автономности и постоянное обучение


Приятного AIпетита! 🤖🍽️

▶️ Видео

🍽️ Блог
16.03.2025, 23:20
t.me/nn_for_science/2380
NN
AI для Всех
14 600 assinantes
37
67
2.5 k
🪰 FlyWire — ИИ-карта мозга мушки-дрозофилы

Нейробиологи и ИИ-исследователи из Принстона, Allen Institute, Google и других ведущих институтов создали самую подробную карту мозга взрослой мушки-дрозофилы. Проект FlyWire объединил силу нейросетей и тысячи часов работы ученых-добровольцев, чтобы построить полноценный коннектом (карту нейронных связей).

Зачем это нужно?

Дрозофилы просты, но их мозг работает по похожим принципам, что и у человека. Изучая эту нейронную сеть, можно понять базовые механизмы восприятия, принятия решений и поведения.

Чем крут FlyWire:

• 🧠 140 тысяч нейронов и 50+ миллионов синапсов уже картированы и размечены вручную экспертами и волонтерами.
• 🧬 Впервые доступна информация о типах нейромедиаторов для почти всех нейронов.
• 🔎 Более 100 тысяч аннотаций сделаны сотнями нейробиологов и краудсорсеров со всего мира.
• 🌐 Данные полностью открыты — любой может изучать и использовать карту с помощью интерактивного инструмента Codex.

И что дальше?

FlyWire — это не просто карта мозга, это платформа для новых исследований, которая уже помогла понять, как дрозофилы видят, чувствуют вкус, принимают решения и двигаются.

🕹️ Попробовать FlyWire Connectome можно тут: FlyWire.ai
16.03.2025, 21:16
t.me/nn_for_science/2379
NN
AI для Всех
14 600 assinantes
59
210
3.6 k
🤗 HuggingFace model atlas

ИИследователи из Израиля создали Model Atlas — инструмент, с помощью которого они изучили миллионы нейросетей на Hugging Face.

Зачем?

Сегодня в открытом доступе миллионы моделей нейросетей, и выбрать подходящую — целая задача. Новый атлас решает её, показывая все связи между моделями в виде понятного графа: узлы — это нейросети, а ребра — отношения (например, файнтюнинг, квантование, слияние).

Самое интересное из атласа:

• NLP-модели (языковые нейросети) активно файнтюнятся и объединяются в сложные цепочки, постоянно эволюционируя.
• Модели для компьютерного зрения в основном остаются простыми и «прямыми наследниками» базовых моделей.
• Квантование (уменьшение размера модели) очень популярно у языковых нейросетей и почти не используется для компьютерного зрения.
• Генеративные нейросети активно применяют адаптеры (например, LoRA), дискриминативные же чаще полностью переобучают.
• Более половины моделей на Hugging Face плохо описаны или не документированы совсем. Атлас умеет эффективно заполнять такие пробелы.

И что?

Атлас в его текущем виде - это произведение искусства. Можно часами залипать в связи между моделями! В будущем авторы хотят дополнить его новыми типами связей (дистилляция, интеллектуальная собственность) и расширить на другие платформы.

🌐 Интерактивный атлас
📄 Оригинальная статья на arXiv
15.03.2025, 20:01
t.me/nn_for_science/2378
NN
AI для Всех
14 600 assinantes
65
69
2.7 k
AGI уже близко, говорили они 😊


Отличных выходных всем!


#юмор
15.03.2025, 12:15
t.me/nn_for_science/2377
NN
AI для Всех
14 600 assinantes
20
58
2.5 k
Как обучить диффузионную модель с нуля за $1890?


Законы масштабирования в генеративном ИИ повышают производительность, но есть ньюанс: разработка моделей концентрируется среди игроков с большими вычислительными ресурсами.

Поскольку стоимость обучения text-to-image трансформера растет с количеством участков в каждом изображении, исследователи из Sony AI предложили случайным образом маскировать до 75% участков изображения во время обучения.

Применяется стратегия отложенного маскирования, которая предварительно обрабатывает все участки с помощью
микшера участков перед маскированием, тем самым значительно снижая ухудшение производительности процесса. Для оптимизации вычислительных затрат данный подход со работает лучше, чем уменьшение масштаба модели.

В исследование также включили последние
улучшения в архитектуре трансформеров, такие как использование слоев с mixture of experts (MoE),чтобы улучшить производительность и убедиться в важности использования синтетических изображений для уменьшения затрат на обучение.

Какие результаты?

Используя только 37 млн изображений (22 млн реальных + 15 млн синтетических), была обучена модель типа "sparse transformer" с 1,16 млрд параметров.

На обучение было потрачено всего 1890$ !

Была достигнута производительность 12,7 FID при zero shot learning на наборе данных COCO.

Примечательно, что модель достигает конкурентоспособного FID и высококачественных генераций, при этом требуя в 118 раз меньших затрат, чем стабильные диффузионные модели, и в 14 раз меньших затрат, чем текущий современный подход, который стоит 28400$


🔍 Технические детали:
• Архитектура: sparse DiT-XL/2 трансформер
• Вычисления: 8×H100 GPU на 2,6 дня тренировки
• VAE: использование как SDXL-VAE (4 канала), так и Ostris-VAE (16 каналов)
• Патч-миксер перед трансформером + маскирование 75% патчей
• Обучение: 280K шагов на 256×256, затем 55K шагов на 512×512
• Размер батча: 2048, с применением центрального кропа

📊 Доступные предобученные модели:
1. MicroDiT_XL_2 на 22 млн реальных изображениях (FID 12.72)
2. MicroDiT_XL_2 на 37 млн изображениях (FID 12.66) с SDXL-VAE
3. MicroDiT_XL_2 на 37 млн изображениях (FID 13.04) с Ostris-VAE
4. MicroDiT_XL_2 на 490 млн синтетических изображениях (FID 13.26)

💻 Репозиторий содержит полный код, включая обработку датасетов и тренировочные конфиги для каждого этапа

🔗 Статья

4️⃣ GitHub
15.03.2025, 11:32
t.me/nn_for_science/2376
NN
AI для Всех
14 600 assinantes
47
82
2.8 k
Трансформеры без нормализации

В свежей статье от марта 2025 года исследователи из Meta, MIT, NYU и Принстона предложили простой способ сделать трансформеры эффективнее, отказавшись от классических слоев нормализации.

Вместо привычных LayerNorm авторы предлагают использовать Dynamic Tanh (DyT): tanh(αx), где α — обучаемый параметр.

Почему это интересно

Обычно нормализация необходима, чтобы стабилизировать обучение нейросетей, однако она требует дополнительных вычислений. Оказалось, что DyT не только сохраняет качество трансформеров, но и немного ускоряет их инференс и обучение, примерно на 7%.

Что заметили авторы

Внимательно изучив работу слоев нормализации, исследователи увидели, что они ведут себя как S-образные (сигмоидные) функции, похожие на tanh. Оказывается, что важнее всего в нормализации оказалось именно нелинейное подавление экстремальных значений активаций (squashing).

Что это даёт на практике

DyT успешно заменяет нормализацию во многих типах трансформеров:
• Vision Transformers
• Языковые модели (включая модели с 70 млрд параметров)
• Диффузионные модели
• Распознавание речи
• Геномные модели

Исследование с кодом доступно на странице проекта и в статье
14.03.2025, 18:27
t.me/nn_for_science/2375
NN
AI для Всех
14 600 assinantes
38
75
2.6 k
ИИ-учёный на ведущей МЛ конференции: статья прошла слепое рецензирование на воркшоп ICLR 2025

Японская компания Sakana AI продолжает совершенствовать своего AI Scientist, о котором мы писали раньше, способного полностью автоматизировать научные исследования. Недавно одна из статей, от и до созданная AI Scientist v2, прошла процесс слепого рецензирования на воркшопе ICLR 2025 — одной из трёх ведущих конференций в области машинного обучения.

Как это произошло?

The AI Scientist самостоятельно сгенерировал научную гипотезу, предложил эксперименты для её проверки, написал и отладил код, провёл эксперименты, проанализировал данные, визуализировал результаты и полностью написал научную статью — от заголовка до списка литературы. Человеческое вмешательство ограничивалось лишь выбором общей темы исследования и отбором трёх лучших статей для подачи.

Результаты рецензирования

Из трёх поданных статей одна получила среднюю оценку 6,33, что превышает порог для принятия на воркшопе ICLR 2025. Оценки рецензентов были следующими:
• 6: Немного выше порога принятия
• 7: Хорошая статья, принять
Это означает, что статья, созданная ИИ, была оценена на уровне или выше многих статей, написанных людьми.

Этические аспекты

Не волнуйтесь, рецензенты были уведомлены, что 3 из 43 статей могут быть сгенерированы ИИ, но не знали, какие именно работы они рецензируют. В рамках эксперимента было заранее решено, что даже в случае принятия статьи, она будет отозвана до публикации, учитывая, что она полностью создана ИИ. Это потому что в научном сообществе ещё нет консенсуса о правилах публикации подобных работ.

Что дальше?

Sakana AI продолжает совершенствовать The AI Scientist и планирует расширять его применение в различных областях науки. Этот эксперимент, безусловно, ставит перед нами важные вопросы о будущем научных исследований и роли ИИ в них. Возможно, настало время пересмотреть наши критерии публикаций, сосредоточившись на их полезности для человечества.

🌐Repo
🐯Статья
12.03.2025, 18:43
t.me/nn_for_science/2374
NN
AI для Всех
14 600 assinantes
29
52
2.5 k
AI + Наука: как 1500 учёных использовали искусственный интеллект, чтобы ускорить исследования 🧪🤖

Вернёмся к истокам нашего канала: что происходит, когда ведущие учёные получают доступ к новейшему искусственному интеллекту?

Первая в истории AI-сессия для учёных 🔬💻

28 февраля 2025 года OpenAI и Министерство энергетики США организовали беспрецедентное мероприятие: около 1500 ведущих учёных из 9 национальных лабораторий собрались вместе, чтобы проверить, насколько AI может ускорить научные исследования.

Учёные использовали передовые модели OpenAI (включая новую модель o3-mini), задав за один день более 4000 научных вопросов и написав свыше 20 000 AI-промптов!

Что конкретно изучали учёные? 🔍🧠

Исследователи не тратили время зря и сразу взялись за реальные задачи, имеющие огромное значение для общества:
• Определение бактерий для разработки новых лекарств и натуральных пестицидов 🦠
• Повышение кибербезопасности энергетических сетей 🔐
• Усовершенствование исследований в области ядерной энергии ⚛️
• Развитие квантовой механики для улучшения МРТ и лазерной хирургии 🔬
• Повышение точности прогнозов погоды и ядерной криминалистики 🌦️

Учёные отметили, что применение искусственного интеллекта значительно ускорило решение задач, с которыми ранее они сталкивались месяцами.

Реальные выводы и результаты 📊✨

Президент OpenAI Грег Брокман и министр энергетики США Крис Райт подчеркнули, что развитие AI сейчас напоминает «Манхэттенский проект» по масштабу и важности. По их мнению, такая коллаборация — залог технологического лидерства США.

Главный экономист OpenAI Ронни Чаттерджи добавил важную мысль: «AI максимально повлияет на продуктивность, когда даст учёным возможность делать открытия, которых раньше не было, и успешно применять их на практике».

Что дальше? 🚀🔭

Это событие — только начало масштабного сотрудничества между OpenAI и национальными лабораториями.

Главная цель этих усилий — не просто развитие технологий, а значительное улучшение жизни людей благодаря новым научным открытиям, улучшению медицины, образованию и безопасности (ну и гос контракты конечно).

Ссылка 1
Ссылка 2

А как вы считаете, какие научные открытия стоит ускорить с помощью AI? Делитесь мнениями в комментариях! 💬👇
11.03.2025, 17:40
t.me/nn_for_science/2373
NN
AI для Всех
14 600 assinantes
11
6
2.7 k
Вечер в Сиэтле

Вечером 17ого марта буду в Сиэтле, готов организовать пиво 🍻

Если есть кто-то, добавляйтесь!

https://partiful.com/e/gAwx8xRvwgw8myZ2So0r
10.03.2025, 21:37
t.me/nn_for_science/2372
NN
AI для Всех
14 600 assinantes
27
94
2.4 k
SEO для генеративного поиска — что важно знать прямо сейчас

В догонку к предыдущему посту я заинтересовался, как оптимизировать сайты под AI-поиск и провел небольшой рисерч с помощью Grok. Вот ключевые рекомендации:

1. Разрешите AI-краулерам доступ — убедитесь, что ваш сайт индексируется ботами, такими как OAI-SearchBot (ChatGPT). Это увеличит шанс попадания вашего контента в ответы AI.

2. Высококачественный и релевантный контент — AI модели предпочитают чёткий, структурированный контент, отвечающий на запросы пользователей максимально полно и точно.

3. Структурируйте контент ясно — используйте заголовки, списки и логичную подачу, чтобы облегчить AI извлечение информации и представление её пользователю.

4. Используйте структурированные данные (schema markup) — это помогает AI лучше распознавать и ранжировать ваш контент.

5. Отслеживайте AI-рефералы — применяйте аналитику для отслеживания трафика от AI-сервисов, таких как ChatGPT, чтобы понимать эффективность ваших действий.

Кто знает еще какие то важные нюансы - делитесь!

Полное исследование тут
9.03.2025, 04:06
t.me/nn_for_science/2371
NN
AI для Всех
14 600 assinantes
24
29
2.3 k
ChatGPT кушает поиск?

Интересная статистика от Vercel: ChatGPT уже генерирует 4.8% всех новых регистраций и этот показатель растёт крайне быстро (менее полугода назад было всего около 1%). Но важно понимать, что это не значит, будто ChatGPT напрямую вытесняет Google. Скорее, люди начали искать и спрашивать о таких вещах, о которых без ChatGPT они бы просто не подумали или поленились бы сформулировать вопрос в Google.

Таким образом, ChatGPT скорее дополняет привычный поиск, расширяя границы (и market size) того, что мы вообще готовы спрашивать и узнавать.

Кстати, SEO-оптимизация специально для генеративного поиска — это сейчас крутая и практически незанятая ниша. Кто первый её освоит, получит огромное преимущественное место на рынке.

X
9.03.2025, 03:12
t.me/nn_for_science/2370
NN
AI для Всех
14 600 assinantes
Repostar
29
95
2.1 k
Офигенный workflow от аниматора Cuco

Это как раз идеальный пример, как художник может использовать AI для упрощения процессов не особо теряя в качестве.

-- Тут обучение Лоры на своих артах, особенно когда их мало.

-- Создание всего окружения в своём стиле + создание простых сцен. Я делал что-то похожее здесь.

-- Создание простых анимаций использую только линии и затем Lineart на своей Лоре чтобы сделать финальную картинку.

-- Далее AnimateDiff с Lineart ControlNet для сцен + Лора. И вот уже у нас офигенные слои, которые можно будем потом композить.

Автор: LINK
7.03.2025, 19:26
t.me/nn_for_science/2369
NN
AI для Всех
14 600 assinantes
37
761
41 k
4.03.2025, 20:33
t.me/nn_for_science/2368
NN
AI для Всех
14 600 assinantes
65
91
2.2 k
🎧🏛️ ИИ-экскурсия в Азиатском художественном музее

Сегодня я открыл для себя будущее музейных экскурсий, и теперь просто обязан этим поделиться! 🔥

Я посетил Азиатский художественный музей в Сан-Франциско, но вместо стандартного аудиогида или экскурсовода использовал голосовой и видеорежим ChatGPT. Результат? Уникальный, полностью персонализированный тур, который превзошел все ожидания!

💬 Как это работало?
• Я надел свои AirPods Max и задал контекст:
📍 «Я на третьем этаже Азиатского художественного музея в Сан-Франциско»
• Включил видеорежим и просто направил камеру телефона на экспонаты.
• ИИ мгновенно определял артефакты и рассказывал их историю, как настоящий эксперт:
✅ «Расскажи про эту статую Будды» – мгновенный ответ с деталями о стиле и эпохе!
✅ «Чем японские хранители-львы отличаются от китайских?» – глубокий разбор культурных различий!
✅ «Почему эти древние бронзовые сосуды такие массивные?» – исторический контекст и символика!

🔥 Почему это было так круто?

Полная интерактивность – никаких скучных, шаблонных лекций! Я спрашивал все, что мне хотелось и углублялся в темы, которые мне действительно интересны (например, мы с ChatGPT зарубились минут на 10 в обсуждение того, откуда появились драконы в китайской мифологии 🐉).

Абсолютная свобода передвижения – не нужно отвлекаться на поиск информации или печатание вопросов. Просто гуляешь и разговариваешь с ИИ, как с персональным экскурсоводом!

🚀 Будущее экскурсий уже здесь!

Получается, что теперь в каждом музее мира можно получить персонального гида, который понимает ваши интересы, отвечает на вопросы и адаптируется под ваш темп осмотра.

💰 Цена вопроса? Всего $20 в месяц – и у вас в кармане умный помощник, заменяющий дорогостоящие экскурсии.

🎭 Лувр, Эрмитаж, Британский музей – с таким ИИ-ассистентом посещение музеев превращается в настоящее вдохновляющее приключение, а не просто просмотр табличек с датами.

📢 А вы бы попробовали ИИ-гид в музее? Делитесь в комментариях! Какой музей мечтаете посетить с такой технологией? Как бы вы развили эту тему дальше?
2.03.2025, 23:41
t.me/nn_for_science/2367
NN
AI для Всех
14 600 assinantes
54
151
2.6 k
🔮LLM для предсказания будущего

Наконец-то история получила публичное продолжение!

Исследователи создали метод LLM Processes (LLMP), который позволяет языковым моделям делать числовые прогнозы с оценкой неопределённости.

Как это работает простыми словами:

1. Берём обычную языковую модель (Claude, GPT, Llama) без дополнительного обучения

2. Показываем ей известные данные в виде пар "координата, значение"
1, 5.4
2, 6.2
3, 7.1

3. Задаем контекст, например
это цены акций компании, которая скоро обанкротится

4. Просим предсказать следующие значения и собираем множество ответов

5. Получаем распределение вероятностей так:
- Просим модель сгенерировать ~50 различных предсказаний для одной точки
- Из полученных значений вычисляем медиану (вероятный результат)
- Определяем 10% и 90% перцентили (границы неопределенности)
- Строим график, где показываем не только линию прогноза, но и "облако" возможных значений

Удивительно, но такой простой подход работает на уровне специализированных алгоритмов для прогнозирования, демонстрирует scaling laws (это когда объем вычислений соответствует финальной ошибке, я проверял), а добавление текста реально влияет на предсказания - модель "понимает", что если компания обанкротится, график должен идти вниз!

Это открывает новые возможности для всех, кому нужны числовые прогнозы, но кто не хочет углубляться в сложную математику.

Еще демо
1.03.2025, 10:21
t.me/nn_for_science/2366
NN
AI для Всех
14 600 assinantes
24
87
2.1 k
🚀💰 AI-революция в глобальной экономике: анализ годового письма Stripe 2024

Привет, друзья! Сегодня мы погрузимся в анализ свежего годового письма Stripe за 2024 год и убедимся, что AI трансформирует мировую экономику прямо у нас на глазах.

Эпоха AI-экономики наступила!

Stripe не стесняется называть происходящее настоящим "AI-бумом" — и неспроста! Всё больше компаний перестраивают свои бизнес-модели вокруг больших языковых моделей (LLM) и других прорывных технологий машинного обучения. Это касается не только гигантов уровня OpenAI или Anthropic, но и стартапов, которые буквально за считанные месяцы выходят на выручку в миллионы долларов.

Реальные примеры взрывного роста:

- Perplexity: AI-поисковик, обрабатывающий сотни миллионов запросов ежемесячно (основан в 2022 году)
- Cursor: интегрированная с AI-инструментами платформа для разработчиков (заработали $100M меньше чем за 3 года существования)
- Lovable и Bolt: стартапы, $17M за 3 месяца и $20М за 2 месяца соответственно
- Специализированные решения: AI-помощники в медицине (Abridge, Nabla), недвижимости (Studeo), дизайне (SketchPro) и других областях

AI-агенты: новый рубеж финансовых технологий

Одна из самых, на мой взгляд, взрывных разработок Stripe — создание инфраструктуры для "агентных" платежных систем. AI-системы уже самостоятельно проводят транзакции (Perplexity и Payman) в рамках заданных лимитов и правил — без непосредственного участия человека!

Это открывает захватывающие возможности:
- Автоматическое пополнение складских запасов
- "Умное" продление подписок
- Оптимизация регулярных бизнес-расходов
- Мгновенная оплата услуг от имени пользователя (с его разрешения)

AI как двигатель традиционного бизнеса

Искусственный интеллект помогает не только в сфере технологий. Stripe годами использует вполне себе классические ML-модели для:
- Борьбы с мошенничеством (например, Radar, который автоматически выявляет подозрительные транзакции)
- Повышения конверсии платежей (умные алгоритмы снижают количество отказов при оплате)
- Оптимизации финансовых потоков

Даже старейшие и консервативные организации присоединяются к цифровой трансформации! Университет Оксфорда, Англиканская церковь, гиганты вроде Hershey и PepsiCo внедряют интеллектуальные платежные системы и видят результаты: выше уровень авторизаций, меньше отказов, больше выручка.

Другие ключевые тренды из письма Stripe

Stablecoins: будущее глобальных финансов
Stripe уверен, что стабильные криптовалюты станут следующей ступенью эволюции денег:
- Ускорят и удешевят международные переводы
- Обеспечат доступ к доллару в странах с нестабильной экономикой
- Создадут фундамент для новых финансовых операций в глобальном масштабе

Вертикальные SaaS-платформы для малого бизнеса
Растет популярность узкоспециализированных решений:
- Интегрированные платформы для ресторанов, клиник, салонов красоты, пиццерий и тп
- Комбинация платежей, CRM, логистики и AI в едином интерфейсе
- Возможность запустить бизнес буквально за недели, а не месяцы

Экономические вызовы Европы 🇪🇺
Письмо затрагивает разрыв в продуктивности между США и Европой:
- Необходимость снижения бюрократических барьеров
- Создание более благоприятной среды для стартапов
- Реформы для привлечения венчурного капитала

Взгляд в будущее: AI меняет всё прямо сейчас

Stripe прогнозирует, что 2025 год станет переломным для AI-экономики. Мы увидим:
- Еще больше предпринимателей, делающих ставку на AI-решения
- Прорыв в повседневных сервисах с интеллектуальными помощниками
- Формирование принципиально новых бизнес-моделей и рынков

Очень рекомендую прочитать письмо целиком!
27.02.2025, 19:32
t.me/nn_for_science/2365
NN
AI для Всех
14 600 assinantes
10
31
2.3 k
Без математики в мире искусственного интеллекта никуда.

Однако стандартные учебные программы часто не дают никакой интуиции и визуального смысла.
В итоге остается использовать калькулятор и бежать, едва завидев формулы...

Проект Popmath решил исправить ситуацию и подготовил наполненные 2D и 3D анимациями 4-х месячные онлайн-курсы через Zoom, которые позволяют ознакомиться с предметом намного проще и побороть математическую тревожность:

🟧 [Математика для взрослых] — для желающих получить прочную математическую базу с полного нуля. Предварительные знания не требуются.

🟥 [Линейная алгебра] — для тех, кто хочет разобраться в предмете поглубже и выйти за рамки базовых знаний математики.

Старт групп: середина марта

Вопросы ➡️ @popmath_support

#реклама
24.02.2025, 12:07
t.me/nn_for_science/2364
NN
AI для Всех
14 600 assinantes
43
127
3.2 k
SWE-Lancer: OpenAI всерьез взялись за ИИ-програмиста

Многие спорят, сможет ли ИИ полноценно заменять разработчиков. Новый эксперимент OpenAI — SWE-Lancer — показывает, насколько мы приблизились к этому будущему.

Исследователи взяли 1 488 реальных задач из фриланс-проекта Expensify на Upwork и показали их передовым ИИ-моделям, чтобы узнать, сколько денег они способны “заработать”. И тут всё серьёзно: за каждую решённую задачу — настоящая выплата, общий призовой фонд — $1 млн!

Задачи собирали для двух сценариев:
1. IC (Individual Contributor) Tasks — ИИ пишет решение задачи и тесты как в реальном продукте .
2. Задачи менеджера — ИИ оценивает несколько предложений решения проблемы и выбирает лучшее, как реальный тимлид.

Оказалось, что даже крутые системы вроде GPT-4о и Claude 3.5 Sonnet (на о3 почему то не проверяли) собрали лишь часть возможной суммы: лучший результат — около $400 000. Цифра внушительная, но говорит о том, что им ещё есть к чему стремиться.

Что тут измеряют и почему это важно?

• Сложность задач. Простые мелочи стоят $50, а большие фичи — до $32 000. Эта разница чётко показывает уровень навыков ИИ.
• Подход к работе. Одни модели лучше выбирают готовые решения (как тимлид), другие — активнее пишут код.
• Путь к улучшению. Раз видим, где ИИ “недозаработал”, мы понимаем, какие умения прокачивать — например, работать сразу с несколькими файлами или тщательнее тестировать.

Пока ИИ хорош в точечных задачах и быстрых решениях, но когда дело доходит до больших, “раскиданных” по проекту проблем, начинаются пробуксовки.

Куда всё идёт?

С большой вероятностью — к тому, что модели продолжат совершенствоваться, научатся быстрее и глубже понимать проекты, а значит и зарабатывать всё ближе к заветным $1 млн. Людям же в этом процессе роль конкурентов видимо не достанется.

SWE-Lancer наглядно демонстрирует, что современные модели не так уж и далеки от полного захвата фриланса. Пока же мы видим, что живой разработчик и его навыки остаются незаменимы, но, как гласит одна из заповедей: “what you can measure - you can improve”.

Статья
18.02.2025, 18:43
t.me/nn_for_science/2363
NN
AI для Всех
14 600 assinantes
75
103
2.8 k
🤖 Когда много думать — вредно.

Свежайшее исследование показало, что слишком много размышлений (у LLM) не просто тратит ресурсы впустую — оно ухудшает результат!

Исследователи обнаружили, что если заставлять модели “думать” больше, чем нужно, их точность падает, а вычислительные затраты растут.

В ходе эксперимента исследователи выбрали решения с меньшим уровнем “избыточного размышления” и добились удивительных результатов:
🔹 Точность выросла на 30%
🔹 Расходы на вычисления снизились на 43%

Это означает, что чрезмерное рассуждение вредит не только людям, но и нейросетям.

На волне успехов reasoning моделей я решил послушать «Думай медленно, решай быстро» и оказалось, что книжка 2011 года просто нашпигована инсайтами на 2025 год!

Один из таких инсайтов - чтобы создать действительно умные ИИ-размышления, нужно учесть один важный фактор: лень (ну или если формально, то стремление системы потреблять как можно меньше ресурсов).

В когнитивной науке давно известно, что наш мозг использует два типа мышления:
🧠 Система 1 — интуитивная, быстрая, автоматическая.
🧐 Система 2 — медленная, аналитическая, но… максимально экономная.

Система 2 включается только тогда, когда это действительно необходимо. Но, что еще более важно в контексте исследования про overthinking, она не просто потребляет много ресурсов, но и старается их минимизировать.

Если применить это к ИИ, то уже в ближайшее время мы будем наблюдать новый класс “разумных” моделей, которые:
- Будут рассуждать только тогда, когда это оправдано, экономя вычислительные мощности.
- Гибко регулировать глубину анализа, избегая излишней сложности.
- И скорее всего будут минимизировать количество токенов на размышления, сохраняя качество ответов

Таким образом, чтобы вывести ИИ на новый уровень, недостаточно просто заставить его “думать сильнее”. Надо научить его думать эффективнее.

Следующий прорыв в AI, скорее всего, придёт из когнитивистики, социальной психологии и педагогики — дисциплин, которые десятилетиями изучают, как люди думают и учатся.

Статья про overthinking
16.02.2025, 02:12
t.me/nn_for_science/2362
NN
AI для Всех
14 600 assinantes
31
59
2.6 k
Пульс влияния ИИ на общество: Экономический Индекс Anthropic

Компания Anthropic объявила о запуске Экономического Индекса Anthropic — инициативы, направленной на изучение влияния ИИ на рынки труда и экономику.

Первый отчет Индекса анализирует миллионы анонимных интеракций на платформе Claude.ai, предоставляя данные о том, как ИИ интегрируется в реальные задачи современной экономики.

Основные выводы отчета:

- ИИ активно используется в задачах разработки программного обеспечения и технического письма.

- Более трети профессий (около 36%) применяют ИИ как минимум в четверти своих задач, тогда как примерно 4% профессий используют его в трех четвертях задач.

- ИИ чаще используется для дополнения человеческих возможностей (57%), чем для полной автоматизации задач (43%).

- Применение ИИ более распространено в профессиях со средним и высоким уровнем заработной платы, таких как программисты и дата-сайентисты, и менее — в низко- и высокооплачиваемых ролях.


Anthropic также открывает доступ к данным, которые использовались для составления отчёта

💻 Блог

📝Отчёт

💾 Датасет
10.02.2025, 22:43
t.me/nn_for_science/2361
NN
AI для Всех
14 600 assinantes
136
293
3.9 k
ИИ открыл новый способ считать. Но вы всё равно продолжите пользоваться калькулятором

ИИ должен упростить нашу жизнь, да? Ну так вот, вместо того, чтобы просто запомнить, что 2+2=4, GPT-J делает что-то похожее на тригонометрический ритуал. Он кодирует числа на многомерной спирали, раскладывает в базис косинусов, а сложение выполняет через преобразования, которые нормальный человек даже на экзамене по линалу не вспомнит.

Исследователи попытались разобраться, как LLM складывают числа, и обнаружили, что модели вроде GPT-J-6B кодируют и обнаружили метод, который назвали Clock algorithm, потому что сложение выполняется как сложение углов: через cos(a), cos(b) → cos(a+b) и напоминает сложение углов на циферблате.

Векторные представления чисел исследовали через остаточный поток модели, прогоняя GPT-J-6B на всех числах из диапазона [0,360]. Спектральный анализ показал, что представление разрежено в пространстве Фурье, а главная компонента PCA оказалась линейной. А что у нас такое периодическое и линейное? Спираль!🌀

x = r cos t
y = r sin t
y = c t

Проверили это гипотезу, подбирая параметры спирали для представления каждого числа. Оказалось, что токены, представляющие суммы (a+b), хорошо описываются этой же основой, что говорит о реальном использовании модели такого механизма.

🛠️ Как проверить, что модель действительно так считает?
✔️ Intervention patching: заменили активации слоёв модели на вычисленные вручную спиральные представления и обнаружили, что это почти так же хорошо, как полная подмена слоя! Значит, модель действительно использует эту структуру.
✔️ Разделение ролей между слоями: слои MLP 14-18 формируют спиральное представление (a+b), а слои 19-27 считывают его и поднимают соответствующий токен в логитах.
✔️ Разбор нейронов: используя атрибуционные техники, исследователи выяснили, что активации нейронов MLP тоже следуют периодическим паттернам, что дополнительно подтверждает гипотезу о геликоидальном (спиральном) сложении.

Почему это важно?
Оказывается, вместо того, чтобы просто запоминать суммы, модель самостоятельно выучивает сложную, но универсальную алгоритмическую структуру! Этот же метод ранее встречался в исследованиях модульного сложения в трансформерах, который раньше описывал Neel Nanda. LLM не просто таблицы с вероятностями, а какие-то самоорганизующиеся вычислительные системы.
В любом случае, может, машинное обучение и не всегда дает интуитивно понятные решения, но точно умеет находить красивые и неожиданные пути.

🔗 Источники:
📜 arxiv
📝 Блог
💻 Код
8.02.2025, 08:46
t.me/nn_for_science/2360
NN
AI для Всех
14 600 assinantes
25
50
3.3 k
🌐 Первый международный отчет по безопасности ИИ: ключевые выводы

Отчет подготовлен 100 независимыми экспертами из 33 стран и сфокусирован на трех ключевых вопросах:

- Что может ИИ общего назначения?
- Какие риски с ним связаны?
- Как эти риски можно снизить?

Важно: отчет не дает конкретных политических рекомендаций, а предоставляет научную основу для принятия решений и международного диалога о безопасности продвинутого ИИ.

Ключевые выводы:

📈 Стремительный рост возможностей ИИ: от написания текстов до создания программ и фотореалистичных изображений. Последние модели демонстрируют значительный прогресс в научном мышлении.

🤖 Компании активно инвестируют в разработку ИИ-агентов — систем, способных автономно действовать и планировать с минимальным контролем человека.

⚠️ Уже подтверждены риски: мошенничество, генерация NSFW-контента, предвзятость моделей, проблемы надежности и конфиденциальности.

🎯 Новые угрозы: масштабное влияние на рынок труда, ИИ-хакинг, биологические атаки. Эксперты расходятся в оценках сроков реализации этих рисков — от десятилетий до нескольких лет.

⚖️ Дилемма для регуляторов: выбор между преждевременными ограничениями и риском остаться неподготовленными к резким скачкам в развитии ИИ.

Отчет станет основой для обсуждения на Саммите по ИИ, который пройдет в Париже 10 - 11 февраля


📝Отчёт
7.02.2025, 22:08
t.me/nn_for_science/2359
NN
AI для Всех
14 600 assinantes
49
490
50 k
Калифорнийский Университет запускает AI-систему: что важно знать 🎓

Калифорнийский государственный университет объявил о внедрении AI во все 23 кампуса. Что это значит на практике:

Основные изменения 📚
• ChatGPT Edu станет доступен для всех студентов и преподавателей – это специальная версия с расширенными возможностями для образования
• Появится единый AI Commons Hub с инструментами для обучения и исследований
• Запускаются программы стажировок с ведущими tech-компаниями

Почему это действительно важно 🔍
1. Масштаб: это крупнейшее внедрение AI в образовании (460 000+ студентов)
2. Практический подход: студенты получают реальные навыки работы с AI, востребованные на рынке
3. Доступность: все инструменты бесплатны для студентов и преподавателей

Интересный факт: сейчас более 50% AI-специалистов в США – иностранцы. CSU планирует изменить эту статистику, готовя местные кадры.

Анонс от CSU
Анонс от OpenAI
5.02.2025, 01:16
t.me/nn_for_science/2358
NN
AI для Всех
14 600 assinantes
60
127
3.7 k
The End of Search, The Beginning of Research 🔍

Привет, друзья! Хочу поделиться интересным постом от Ethan Mollick - известного профессора Уортонской школы бизнеса, который пишет одни из самых глубоких материалов про ИИ в своем блоге One Useful Thing.

Давайте разберем, что происходит 👇

Революция происходит на наших глазах: в 2025 году у нас есть две ключевые технологии ИИ - Reasoners (системы-мыслители) и автономные агенты 🤖

Что такое Reasoners? 🧠
Это новый подход к ИИ, где модель сначала "думает", а потом отвечает. В отличие от обычных чат-ботов, которые генерируют текст на лету, Reasoners проводят внутренний анализ задачи. Чем дольше они размышляют, тем качественнее результат. За последние месяцы мы видели впечатляющий прогресс: от OpenAI o1 к o3, китайский DeepSeek r1, да и Google подтянулся со своим первым Reasoner'ом.

Что такое агенты? 🎯
Это ИИ с конкретной целью и автономностью в её достижении. OpenAI недавно выпустила Оператора - пожалуй, самого продвинутого универсального агента. Правда, пока что он часто спотыкается о простые задачи - например, не может скачать файл из-за ограничений безопасности. Но! В узких специализациях агенты уже творят чудеса (от себя добавлю, что мы в Страйпе наблюдаем взрывной рост agentic commerce, когда ИИ агенты идут и покупают, то что вам надо, за вас).

Deep Research - где всё сходится ✨
OpenAI объединила мощь Reasoner'а (модель o3) со специализированным агентом для исследований. Результат поражает:

- 5 минут работы = 13 страниц глубокого анализа
- Только качественные академические источники
- Точные цитаты с прямыми ссылками
- "Любопытное" исследование: ИИ активно углубляется в интересные находки

Google тоже выпустила Deep Research, но пока что это больше похоже на работу хорошего студента: много источников, но анализ поверхностный. Впрочем, зная темпы развития, этот разрыв скоро сократится.

Что дальше? 🚀
Узкоспециализированные агенты уже могут заменить работу целых команд экспертов. OpenAI утверждает, что их система способна справиться с 15% высокоценных исследовательских проектов и 9% особо сложных. Звучит амбициозно, но мой опыт тестирования подтверждает - цифры не с потолка.

Сэм пишет, что Deep Research скорее всего уже способен заменить какой-то процент рабочей силы в мировой экономике.

Эксперты не останутся без работы - их роль эволюционирует от исполнителей к "дирижерам", направляющим и проверяющим работу ИИ (как например, программисты теперь «дирижируют» Курсором). Но стоит ожидать, что людей для такой работы нужно будет значительно меньше.

На январь 2025 года мы еще далеки от универсальных ИИ-агентов, но уже очень близки к тому, чтобы ИИ превзошел 95% людей в работе белых воронничков. Включая soft skills (да-да, я уверен, что работающих AI-менеджеров мы увидим раньше, чем AI-слесарей).

Как думаете, как это изменит вашу профессию? 🤔

Блог-пост
3.02.2025, 23:06
t.me/nn_for_science/2357
NN
AI для Всех
14 600 assinantes
26
39
2.6 k
🤖 Золотая коллекция авторских каналов про нейросети, сохраняйте!

Собрал для вас редкие и полезные каналы про нейронки:

Tips AI | IT & AI — пишет про интересные сервисы AI и IT технологий! Всегда актуальное, проверенное и немного с юмором.

Бурый — коллекционер нейросетей, тестит всё на себе и делится лучшими бесплатными нейронками.

Силиконовый Мешок — Авторский канал нейроиспытателя Артема Субботина про искусственный интеллект приносящий прибыль.

Сергей Булаев AI 🤖 - создание полезного контента и продуктов с помощью ИИ. Открываем эру миллиардных компаний из трёх человек.

НейроProfit — авторский канал с проверенными инструментами для бизнеса, учебы и работы. Конкретика, кейсы и пошаговые инструкции – все, чтобы вы смогли использовать ИИ эффективно уже сегодня.

#промо
3.02.2025, 19:05
t.me/nn_for_science/2356
NN
AI для Всех
14 600 assinantes
57
69
2.4 k
Как AI-компании изменят мир: самое важное 🤖💼

Представьте компанию будущего, где вместо людей работают AI. Звучит как sci-fi? А вот и нет — такие компании могут появиться раньше, чем мы думаем (если верить YC, так вообще уже в этом году). И они будут радикально отличаться от всего, что мы знаем сейчас.

Вот вам супер краткий пересказ поста Дваркеша Пателя (довольно популярного в AI кругах блогера). Рекомендую прочитать в оригинале, там много шуток про AI Сатью (CEO Microsoft).

Главная фишка не в том, что каждый AI будет супер-умным. Самое интересное начинается, когда мы смотрим на их коллективные преимущества:

1. Копирование талантов 📋
Хотите миллион инженеров уровня главного архитектора Google? Просто скопируйте одного топового AI-специалиста. Никаких годов обучения и поиска редких талантов — только стоимость вычислений.

2. Единый мега-мозг 🧠
Представьте CEO, который реально знает всё, что происходит в компании. AI-руководитель сможет анализировать каждое решение, каждую метрику, каждый разговор с клиентом. И главное — мгновенно делиться этими знаниями со всеми копиями себя.

3. Эволюция на стероидах 🚀
Обычные компании не могут просто взять и клонировать свою успешную культуру или процессы. AI-компании смогут. Нашли успешную модель работы? Размножайте её бесконечно, улучшайте и адаптируйте под новые задачи.

4. Суперскорость принятия решений ⚡
AI-CEO сможет за пару минут просчитать тысячи сценариев развития компании на годы вперед. Причем не примерно, а с учетом всех данных о рынке, клиентах и конкурентах.

Это не научная фантастика про далекое будущее — первые шаги к таким компаниям мы видим уже сейчас. Готовы к новой эре бизнеса?

P.S. А самое интересное — как это изменит конкуренцию. Ведь если одна компания научится так работать раньше других...
1.02.2025, 07:20
t.me/nn_for_science/2355
NN
AI для Всех
14 600 assinantes
51
94
2.8 k
🌪️ WeatherNext: AI революция в прогнозировании погоды продолжается!

Друзья, помните мы обсуждали GenCast? Эта работа получила практическое продолжение. Google DeepMind и Google Research представили - WeatherNext, новое семейство AI-моделей, которое предсказывают погоду лучше, чем все остальные существующие методы!

Самое главное - прогнозы уже доступны

🌍 Главный вызов, с которым столкнулись разработчики:
Погодные системы невероятно хаотичны и даже малейшая неточность в измерениях может привести к серьезным ошибкам в прогнозе (и это не говоря об эффекте бабочки). Но команда AI инженеров нашла решение!

📊 WeatherNext предлагает два мощных инструмента:

WeatherNext Graph:
- Создает один сверхточный прогноз
- Обновляется каждые 6 часов
- Прогнозирует на 10 дней вперед
- Идеален для задач, где нужна максимальная определенность

WeatherNext Gen:
- Генерирует ансамбль из 50 возможных сценариев
- Обновляется каждые 12 часов
- Заглядывает на 15 дней вперед
- Незаменим для отслеживания циклонов и экстремальных явлений

⚡️ Преимущества перед традиционными методами:
- Гораздо выше скорость обработки данных
- Значительно точнее физических моделей

🚀 Доступ к технологии:
Google открыл WeatherNext через Google Cloud - прогнозы обновляются 4 раза в день, плюс доступны исторические данные для исследований и анализа.

Это не просто очередное технологическое достижение - это инструмент, который поможет сотням исследователей -> помочь тысячам инженеров -> помочь миллиардам людей лучше подготовиться к капризам погоды и сделать наш мир немного безопаснее! 🌏

Доступ к прогнозам тут
Почитать подробнее
31.01.2025, 18:56
t.me/nn_for_science/2354
NN
AI для Всех
14 600 assinantes
80
89
6.5 k
DeepSeek: непропорционально громкая веха в развитии ИИ 🚀

Друзья, сегодня поговорим об одном из самых громких событий в мире ИИ этого года — компании DeepSeek и её последних достижениях, которые всколыхнули весь технологический мир.

Что такое DeepSeek? 🤔

DeepSeek — это китайская AI-компания (отпочковавшиеся от трейдингового квант фонда), которая недавно выпустила две важные модели: DeepSeek-V3 и R1. Особенно интересно то, что им удалось достичь результатов, близких к ведущим американским моделям, но с меньшими затратами и со значительно большим количеством шума (сток NVIDIA улетел на 17% вниз).

Как это работает? ⚙️

DeepSeek использует следующий подход в обучении своих моделей:

1️⃣ Базовая предварительная тренировка на огромном объёме текстовых данных
2️⃣ Инновационное использование reinforcement learning для улучшения способностей к рассуждению (как у OpenAI)
3️⃣ Особый акцент на "мышлении вслух" — модель показывает ход своих рассуждений (и это очень удобно, для отладки и для коррекции)

Почему это важно? 🌟

По мнению Дарио Амодея (CEO Anthropic), значимость DeepSeek заключается в нескольких ключевых моментах:

• Это первый случай, когда китайская компания показала такой уровень инноваций в области ИИ
• DeepSeek на тренде - стоимость разработки мощных ИИ-моделей постепенно снижается (но это не только в Китае, это у всех), что в свою очередь значит что за те же деньги, тееерь можно сделать более умную модель.
• Это усиливает конкуренцию между США и Китаем в сфере ИИ

Что дальше? 🔮

Развитие DeepSeek поднимает важные вопросы о будущем ИИ:

- К 2026-2027 годам мы можем увидеть ИИ-системы, превосходящие человеческий интеллект во многих областях
- Возникает вопрос о балансе сил между странами в области ИИ-технологий
- Становится актуальной тема контроля за распространением технологий

Важно понимать: успех DeepSeek не означает революцию в экономике разработки ИИ. Скорее, это ожидаемый этап развития технологий. Но сам факт, что китайская компания первой продемонстрировала такой прогресс, имеет огромное геополитическое значение.

Выводы 📝

DeepSeek показывает, что мир ИИ становится всё более конкурентным и интернациональным. Это не просто технологическое достижение — это показатель того, как быстро развивается отрасль и как важно следить за инновациями в этой сфере.

Что думаете об этих достижениях? Как по-вашему, какие перспективы открывает развитие таких технологий? Делитесь мнением в комментариях! 💭

Эссе Дарио
Illustrated DeepSeek

Советую прочитать обе ссылки целиком и в оригинале
29.01.2025, 22:33
t.me/nn_for_science/2353
NN
AI для Всех
14 600 assinantes
109
431
9.1 k
Еще на шаг ближе к сингулярности: ИИ оптимизирует собственный код! 🤖💨

Пока стоки NVIDIA стремительно летят вниз (как по мне - временно), спешу поделиться потрясающей новостью из мира искусственного интеллекта! Помните популярный open-source проект llama.cpp, который позволяет запускать мощные AI модели локально? Так вот, его только что ускорили в два раза - и самое удивительное здесь то, что оптимизацию в основном написал… DeepSeek R1! 🚀

В чём суть прорыва:
- Скорость web-версии (WASM) увеличилась вдвое
- Разработчик использовал DeepSeek-R1 для написания 99% оптимизационного кода
- Улучшения подтверждены на разных типах моделей
- Точность осталась на прежнем уровне

Давайте взглянем на цифры! 📊
- Некоторые операции ускорились в 2.8 раза
- Стабильное ускорение более чем в 2 раза для моделей разного размера
- При этом точность не пострадала от такого апгрейда

Почему это важно? 🤔
У нас появилось еще одно свидетельство того, что ИИ теперь способен оптимизировать свой собственный код! Причём речь идёт о сложных низкоуровневых оптимизациях, с которыми не каждый опытный программист справится.

Реакция сообщества просто огонь! 💭 Один из разработчиков метко заметил: "Представьте, если такое начнёт происходить по всей инфраструктуре кода..." И правда, захватывающая перспектива!

Ссылка на PR
27.01.2025, 23:38
t.me/nn_for_science/2352
NN
AI для Всех
14 600 assinantes
44
71
3.3 k
Open R1: Открытый пайплайн DeepSeek-R1

Главная задача проекта: восстановить недостающие части пайплайна DeepSeek-R1 и сделать его open-source.

Основные компоненты: 

- src/open_r1: скрипты для обучения, оценки моделей и генерации синтетических данных

- Makefile: команды для каждого этапа пайплайна

План действий на основе публикации DeepSeek-R1: 

- Репликация R1-Distill путем выделения высококачественного корпуса из DeepSeek-R1

- Воспроизведение чистого RL-пайплайна для R1-Zero. Вероятно, это будет включать в себя создание новых крупномасштабных датасетов для математики, рассуждений и кода.

- Демонстрация перехода от базовой модели к RL-настройке используя многоступенчатый процесс  обучения.


Проект в процессе разработки - присоединяйтесь! 🤖🚀


🫥Pipeline

📖DeepSeek-R1 tech report
26.01.2025, 12:12
t.me/nn_for_science/2351
NN
AI для Всех
14 600 assinantes
52
31
3.0 k
У меня такое ощущение, что существуют две параллельные вселенные.

В одной, ИИ помогает делать работу в разы быстрее (особенно это заметно в сфере разработки софта, но так же и в отделах продаж и маркетинга).

А в другой, ИИ не умнее кошки 🤣🤣🤣

Мое мнение, что разница между этими вселенными в способности видеть экспоненциальный рост.

Про это хорошо Тим Урбан еще 10 лет назад писал, рекомендую почитать.

Напомню основные тезисы:

1. Экспоненциальное развитие
В 2015 году говорили о скором экспоненциальном росте ИИ. К 2025 году это стало реальностью — прогресс ускоряется, особенно в генеративных моделях и прототипах AGI.

2. От узкого к общему
В 2015 году ИИ решал только узкие задачи. В 2025 году ИИ демонстрирует универсальность (general), применяясь в сложных и разных областях.

3. Трансформация индустрий
Развитие ИИ изменило мир: медицина, финансы, творчество, разработка софта — всё развивается быстрее и эффективнее.

4. Опасности и дискуссии
Риски сверхразумного ИИ (ASI), о которых предупреждали в 2015 году, теперь в центре внимания. Этические вопросы и контроль — главные темы глобальных дебатов.

А где мы будем в 2035?
25.01.2025, 19:13
t.me/nn_for_science/2350
NN
AI для Всех
14 600 assinantes
43
86
3.0 k
Архитектуры, вдохновленные нейронауками, для AI Safety

Сотни миллиардов в AGi, опенсорсный deepseek и агенты с доступом к командной строке. А ещё помните, учёные обнаружили, что между биологическим мозгом и нейросетками больше сходств, чем мы думали. Похожие архитектуры, механизмы передачи информации и даже структуры обработки данных. Тревожники типа меня (Ginger) дуреют, конечно... И бесспорно, эта волна несёт тонны возможностей. Перед тем, как накрыло, неплохо бы черпнуть мудрости у природы - на этот раз для повышения надежности и безопасности ИИ.

Человеческий мозг может показаться не самой лучшей моделью для разработки безопасных систем ИИ: мы развязываем войны, вредим планете, имеем когнитивные искажения, застреваем в эмоциональных травмах. Однако у него есть свойства, которые все же стоит перенять для безопасности ИИ. Мозг миллионы лет эволюционировал, чтобы функционировать в сложной и непредсказуемой среде для успеха нашего биологического вида. Пока справляется.

Команда NeuroAI Safety уверена, что пока это лучший эталон, что у нас есть, и разработала дорожную карту на 88 страниц, в которой изложила, куда стоит направить совместные усилия:

1. Реверс-инжиниринг сенсорных систем
Мозг превосходит нейросети в обработке сенсорных сигналов: зрение, слух и тактильные ощущения. За обработку информации отвечает масса специализированных модулей (сенсорные коры, гиппокамп и тд).
В рамках этого проекта исследуются способы декодирования представлений, используемых мозгом для обработки сложных данных и извлечения ключевых сигналов из шума.

2. Создание цифровых близнецов с телесной моделью
Человеческий интеллект не существует в вакууме, он зависит от тела и его взаимодействия с миром. Этот проект направлен на создание цифровых двойников, которые могут “чувствовать” и “действовать”, интегрируя сенсорно-моторные данные, подобно мозгу. Это улучшит понимание того, как обучать системы ИИ через взаимодействие с физическим или симулированным окружением.

3. Создание биофизически достоверных моделей мозга.
Современные ИИ-архитектуры сильно упрощают реальный мозг. Этот проект предлагает строить модели, учитывающие биофизические параметры (динамику ионных каналов, нейронные связи). Эти модели помогут выявить, как биологические ограничения и структуры мозга повышают его устойчивость.

4. Разработка когнитивных архитектур следующего поколения
Когнитивные процессы человека сложны и плохо изучены: память, внимание, адаптивное поведение, обучение на ошибках. Задача этого проекта использовать аналоги типа дофаминовой регуляции для обучения ИИ “мыслить на перспективу” и избегать решений с долгосрочными негативными последствиями.

5. Использование данных мозга для дообучения ИИ
Команда NeuroAI Safety исследует, как записи нейронной активности человека могут улучшить дообучение ИИ, помогая моделям улавливать ключевые паттерны или игнорировать нерелевантную информацию.

6. Реконструкция функции потерь мозга
В машинном обучении модели оптимизируют функцию потерь, но что делает мозг? Мы знаем, что человеческий мозг невероятно эффективен в предсказании действий других для социальной координации. Этот проект изучает “функцию потерь” мозга (например, цели обучения), чтобы ИИ тоже безопасно взаимодействовал с людьми.

7. Использование методов нейронаук для интерпретации ИИ
Как интерпретировать решения ИИ? Мозг использует методы “вычитки” информации (например, через когнитивные карты). Этот проект изучает, как механизмы из нейронаук могут помочь объяснять внутренние процессы в нейронных сетях.

Методы
Команда делает акцент на междисциплинарности: используются данные ЭЭГ, fMRI, биофизическое моделирование, реверс-инжиниринг и анализ когнитивных процессов.

Следующие шаги: к чему готовиться?
Фокус (в т.ч инвесторов) может сдвинуться в сторону скоординированных, масштабных усилий по развитию нейротехнологий на стыке разработки ИИ, безопасности ИИ, и нейронаук.

Так что, если вы не верили Лекуну в 2022, можно уже начинать.

Док: NeuroAI Safety или arxiv
На фото: смотровая площадка, серфер Гаретт Макнамару впервые покоряет 24-метрового пайп монстра в Назаре
25.01.2025, 15:52
t.me/nn_for_science/2349
Os resultados da pesquisa são limitados a 100 mensagens.
Esses recursos estão disponíveis apenas para usuários premium.
Você precisa recarregar o saldo da sua conta para usá-los.
Filtro
Tipo de mensagem
Cronologia de mensagens semelhante:
Data, mais novo primeiro
Mensagens semelhantes não encontradas
Mensagens
Encontre avatares semelhantes
Canais 0
Alta
Título
Assinantes
Nenhum resultado corresponde aos seus critérios de pesquisa