O seu período de teste terminou!
Para acesso total à funcionalidade, pague uma subscrição premium
GU
Gusev | Technological Singularity | Future of Work
https://t.me/gusev_channel
Idade do canal
Criado
Linguagem
Russo
-
ER (semana)
11.89%
ERRAR (semana)

Избранные репосты и редкие авторские комментарии про AI-first мир https://t.me/Gusev_Channel

Mensagens Estatísticas
Repostagens e citações
Redes de publicação
Satélites
Contatos
História
Principais categorias
As principais categorias de mensagens aparecerão aqui.
Principais menções
Não foram detectadas menções significativas.
Encontrado 148 resultados
Лучшее, что, по моему мнению, стоит посмотреть для понимания глобальных изменений в экономике.
Если послушаете предыдущий и следующий выпуск - будете прям в контексте

https://youtu.be/KcmMOZKnKAk?si=xesda20Kl7WjkW02
20.04.2025, 02:10
t.me/gusev_channel/303
Годовая подписка на почти все топовые тулы для вайбкодинга и не только всего за $200

p.s. если уже есть платный аккаунт, нужно будет создать новый
18.04.2025, 00:29
t.me/gusev_channel/300
#FutureOfWork

Для тех, кто всё еще в отрицании, Google как бы намекает 🙂
15.04.2025, 19:46
t.me/gusev_channel/296
15.04.2025, 19:45
t.me/gusev_channel/295
Еще одна специализированная версия Gemma от Google: теперь для общения с дельфинами

Моделька так и называется – DolphinGemma. Цель – анализировать и генерировать звуковые последовательности, имитирующие естественную коммуникацию дельфинов. Это буквально ключ к межвидовому общению.

Над проектом Google работали с Wild Dolphin Project. Это организация, которая дольше всех в мире (с 1985 года, на секундочку) собирает данные о дельфинах и записывает их разговоры в естественной среде. У них хранятся десятилетия видеозаписей и аудиозаписей, которые дополнены информацией об индивидуальных характеристиках дельфинов (характер, жизненный путь, поведение).

Сама модель DolphinGemma небольшая, около 400M, можно запустить на смартфоне. Ключевой момент – это обучение токенизатора SoundStream. В остальном обычная LM, которая пытается предсказать следующий токен. Только вместо человеческого языка – 🐬

Тесты показали, что DolphinGemma реально способна извлекать паттерны и структуры из звуков животных. Следующим шагом исследователи хотят создать систему CHAT (Cetacean Hearing Augmentation Telemetry), то есть установить какой-то общий "словарь", используя привычные дельфинам вещи – рыбу, водоросли, яркие предметы.

Обещают даже скоро опенсорснуть -> blog.google/technology/ai/dolphingemma/
15.04.2025, 13:37
t.me/gusev_channel/293
15.04.2025, 13:37
t.me/gusev_channel/291
15.04.2025, 13:37
t.me/gusev_channel/292
Сколько уиллсмитов?

А трек прям в тему...

@cgevent
13.04.2025, 15:55
t.me/gusev_channel/289
Много хороших вопросов и тезисов о которых ценно подумать прямо сейчас


https://www.youtube.com/live/5MWT_doo68k?si=ItWGR9DG-TXhE-Tr
12.04.2025, 18:46
t.me/gusev_channel/288
12.04.2025, 15:19
t.me/gusev_channel/287
🚀 Сегодня День космонавтики! По случаю собрали топ-5 интересных кейсов применения ML в космических исследованиях

1. В 2023 ИИ впервые без участия человека нашел и классифицировал сверхновую звезду SN2023tyk (а это большая честь даже для людей-ученых). Система обнаружения называется Bright Transient Survey Bot (BTSbot). Это агент, который автономно просматривает снимки, выделяет кандидатов и запрашивает из баз телескопов доп.информацию, чтобы подтвердить/опровергнуть гипотезу.

2. В том же 2023 Оксфорские ученые впервые обучили ML-модель прямо в космосе, на борту спутника. Пайплайн был загружен на коммерческий спутник и обучен на бортовых данных. Получилась полноценная модель для мониторинга стихийных бедствий.

3. В прошлом году NASA запустили на Марс марсоход с ИИ. Система анализириует породы и участки планеты и сама решает, что стоит изучить подробнее. Это первый случай использования AI на Марсе для принятия решений без участия Земли.

4. В том же NASA уже пару лет используют HLS Geospatial Foundation Model – первую фундаментальную модель для геопространственных данных зондирования. Она отслеживает изменения земного покрова, мониторит стихийные бедствия и даже предсказывает урожайность. И кстати, ее выложили в опенсорс и постоянно обновляют.

5. За то, чтобы спутники не сталкивались на орбите, тоже в основном отвечает ИИ. Например, SpaceX делились статистикой о том, что за пол года спутники Starlink совершили более 10к маневров для избежания столкновений, и все это без участия человека.

С праздником, в общем
12.04.2025, 14:52
t.me/gusev_channel/286
И к хорошим новостям

Никогда в жизни не было так просто создавать клёвые ценные штуки для себя / компании / клиентов!
— Сложно было понять о чём говорят коллеги/клиент? Чатик всё объяснит в самом понятном виде.
— Долго визуализировать свою идею? Вечер с Lovable - и готов как минимум прототип.
— Непонятно реализуема ли идея? Пара вечеров с курсором и MVP готов (либо понятно в чём там сложность на практике).
— Сложно разобраться какую технологию выбрать? Несколько грамотных запросов в DeepResearch и готово.
— Бесит повторяющаяся задача? Агентик на n8n.
— Надо чекнуть не слишком критичный NDA а юриста нет/занят? GPT или специализированный сервис чекнет за минуту.
— Домашние дела типа налогов или выбора страховки жрут мозг? DeepResearch и Manus/Genspark сделают 80% работы.
— Тригерит новость в соцсетях? Grok/Perplexity за 30 секунд сходят прочитают все первоисточники и объяснят что случилось без эмоций.
— Некогда читать 100 каналов? Junction Bot с GPT мне суммируют каждый пост в 5 буллет поинтов и ссылкой на полную версию.
— Захватила тревога, а терапия только через неделю? GPT4.5 поддержит.
— Захватила идея и хочется её во что-то кристаллизовать? GPT4.5 поразгоняет.
— Нужен нутрициолог чтобы помочь улучшить питание? Ну вы поняли.
— Ты миллениал и боишься звонить по телефону? Genspark за тебя позвонит и запишет на нужное время 🙂
— У тебя дикий расфокус и бардак? Выгрузи все мысли в чатик и попроси сделать структурно.

Огромный пласт вещей, которые раньше упирались в отсутствие знаний/навыков/опыта и требовали денег/навыков/времени чтобы нанимать ассистентов, консультантов, помогаторов, дизайнеров, разработчиков (и проджектов к ним) — теперь доступно любому человеку, только спроси. То что занимало неделю теперь занимает вечер. То что занимало час - теперь 5 минут.

Меня это окрыляет! Я никогда не чувствовал себя настолько empowered!

А то что больше никто не будет нанимать джунов и мидлов - это неправда. Вопрос только каких. Я скорее найму супер-движового джуна-мидла, который быстро щёлкает задачки с помощью AI и каждый день показывает прогресс, чем ну просто типичного спеца с опытом.

Окей, звучит устрашающе, но прокачаться с нуля до топ-10% пользователей эйаек можно буквально за несколько месяцев на моём новом курсе, подписавшись на мой канал @vsevolodustinovchannel, просто начав спрашивать у джипити про всё подряд и пробовать новые штуки.
12.04.2025, 00:24
t.me/gusev_channel/285
Сегодня у нас на повестке ИИ в военно-промышленном комплексе на примере небезызвестной компании Anduril, основанной легендарным «парнем в гавайской рубашке» и по совместительству создателем Oculus (те самые первые VR-очки) Палмером Лаки.

Для начала просто посмотрите ↑, как Anduril с контрактами на 2.4 миллиарда долларов с военными министерствами США и Великобритании презентует свои продукты. Компания из сферы оборонной промышленности на полном серьезе представляет подводную ракету анимешным роликом 🤯. Вообще у них без шуток очень крутые ролики — оцените, не пожалеете.

Сейчас эти ребята собрались строить в Британии завод для производства дронов одновременно с «мегафабрикой» всех видов продукции компании в штате Огайо стоимость $1 миллиард.

Разумеется, Anduril зашивает ИИ во всё разнообразие своих творений. Главным секретом оборонного стартапа является платформа Lattice, которую они уже несколько лет доводят до совершенства. Эта штука в режиме реального времени собирает и обрабатывает огромное количество информации с камер, радаров, сенсоров и любых других источников данных, создавая полную 3D-картину боя. Используя машинное зрение и глубокое обучение, ИИ распознает, классифицирует и отслеживает угрозы очень быстро — будь то квадрокоптер, вражеский робот или внедорожник с неизвестными намерениями.

Это не просто красивая визуализация — Lattice самостоятельно принимает решения. Например, эта платформа сама вычисляет, стоит ли отправлять дрон-разведчик исследовать подозрительную активность или немедленно включить систему подавления вражеских дронов Anvil, буквально сбивающую их с неба (сообразно названию, «Кувалда»).

В декабре 2024 года Anduril заключила партнерство с самим OpenAI. Теперь нейросети уровня GPT-4o (и выше) обучают на массивах данных Anduril, которые компания собрала за годы реальных боевых и тренировочных операций.

Результат? Намного более точные алгоритмы распознавания угроз, автономная навигация, выработка тактических рекомендаций и особенно эффективное противодействие беспилотникам противника.

Ну и на десерт — технология Lattice Mesh, нечто вроде военного ИИ-облака, позволяющего солдатам и офицерам в режиме реального времени сливать релевантные данные в единую сеть и мгновенно получать обратно всю самую важную информацию из других источников. Напоминает современные open-source практики, только с военной спецификой и серьезным уровнем защиты.

В общем, оперативная работа переходит под контроль мощных ИИ-моделей. Именно за такими компаниями будущее военных конфликтов.


❗️❗️❗️❗️❗️❗️❗️❗️ — Подписаться
11.04.2025, 19:40
t.me/gusev_channel/281
Мир меняется с разной скоростью — и от этой скорости зависит, как именно нужно адаптироваться.

Когда изменения происходят медленно, биология справляется. Поменялся климат, животные отрастили шерсть, слабые вымерли, сильные размножились. Геном записал новое правило — теперь у всех шерсть. Всё логично, все успевают.

Если изменения ускоряются, но всё ещё укладываются в рамки человеческой жизни, включается культура. Появилась профессия юриста — выгодно, статусно, стабильно. Родители советуют детям, дети идут учиться, общество закрепляет норму. Эволюция идёт через традиции, язык, воспитание.

Но с приходом ИИ мы входим в новую фазу. Мир трансформируется быстрее, чем сменяются поколения. Быстрее, чем культура успевает выработать ответы. Быстрее, чем мы успеваем сформулировать, чему вообще стоит учить.

Профессии, правила, советы — всё это начинает терять актуальность до того, как успевает стать полезным. В такой среде бесполезно полагаться на опыт старших, на проверенные стратегии и шаблоны. Они не актуальны в новом мире.

Что работает? Агентность. Учиться быстро. Пробовать. Ошибаться. Не цепляться. Адаптироваться на ходу. Не знание, а гибкость. Не статус, а способность перестраиваться. Не правила, а умение чувствовать, когда правила уже не работают.
11.04.2025, 14:42
t.me/gusev_channel/280
Кевин Вейл, Chief Product Officer в OpenAI
https://www.youtube.com/watch?v=scsW6_2SPC4

Рассказывает о самом важном для нас:

- как поменяется процесс работы и создания продуктов в ближайшем будущем (что автоматизируется, а что нет? где нужен человек? нужно ли учиться писать код?)
- в какие рынки OpenAI/DeepMind/xAI и другие лабы не будут заходить (в каких нишах строить стартапы?)
- почему навык построения эвалов (бенчмарков/системы оценки своей AI системы) становится самым критичным в любом продукте
- какие навыки важнее всего развивать в AI эру

и о многом другом
11.04.2025, 02:33
t.me/gusev_channel/279
Рубирка "Прочитано, но не до конца понято" Alignment Edition (c)

1/ Я добрался до Lesswrong & Alignment forum и утонул, не зря откладывал достаточно долго. Поэтому по порядку, что зашло так сказать. Вся статья снова про "конец света", но мысль, что ML это, то что мы можем измерить и научиться измерять, а соотв ставить цели достаточно понятна.
2/ В продолжении меня понесло в целом разобраться и понравилось объяснение тут что же такое проблема alignment (специально не перевожу)
3/ Когда говорят про поиск в AI обычно все идет сюда
4/ В табах затесалась статья Баффета 2003 года про сертификаты торговые как решение дисбаланса торогового же у США (ничего вам не напоминает?)
5/ Конечно же следом я начала читать Скотта Александра (хайпует знатно) и рекомендую вот эту про то что доверять слепо исследованиям это ошибка
6/ Канонично про то, кого мы не любим и почему же так - или наблюдения за так называемыми outgroups
7/ Это я читал еще в универе так как интересовался теорий игр и пожалуй одни из лучших примеров собраны в этой статье, для познавательно просто. Для особо интересующихся вот такой пэйпер почитать маст хэв.

В меня много вмещается информации, но конечно пока много летал мне кажется перебрал с чтением этого добра 🙂 Порекомендуйте что-то прям Must Have по теме Alignment - спасибо! Главное, чтобы не про конец света :) А то, почти каждая статья там так или иначе затрагивает тему "законов масштабирования и что когда вот будут кластеры по стопицот флопс мы получим модели которые в сотню раз круче текущих и вот там AGI/ASI и все открытия сразу придут или нас убьют"

P.S. основные понятия:

Corrigibility (Корригируемость)
Corrigibility — это свойство ИИ, при котором он готов принимать исправления или стоп сигнал от человека, даже если это противоречит его первоначальным целям.

Пример:
Если ИИ хочет построить мост, а человек говорит: «Остановись, это опасно», — корригируемый ИИ подчинится и остановится, даже если сам считает, что строить мост лучше.

Зачем нужно?
Чтобы ИИ оставался под контролем, даже если его цели сформулированы не идеально.

Mesa Optimizers
Mesa-оптимизаторы — это подсистемы внутри ИИ, которые сами начинают оптимизировать свои цели, возможно, отличающиеся от изначальных целей, заданных внешним обучением.

Inner Alignment Problem (Проблема внутреннего согласования)
Это задача сделать так, чтобы цели mesa-оптимизатора (внутренние) соответствовали целям base-оптимизатора (заданным снаружи).

Простыми словами:
Обучая ИИ, мы можем неявно создать "разум" внутри него, и надо гарантировать, что этот "разум" будет действовать в соответствии с нашими изначальными намерениями.

Ну и спойлер: один из создателей alignment forum и большой контрибьтор lesswrong это математик и ученый из Москвы - Владимир Несов.
10.04.2025, 18:07
t.me/gusev_channel/277
Влияние AI на IT Консалтинг и аутсорсинг.

Вчера у меня был очень интересный ужин с коллегой и мы обсуждали в том числе, как ИИ влияет на нашу работу и как эта работа меняется.

Ранее писал о роли креатива и судьбе ремесленничества, можете почитать.

Вот основные мысли:

1 • Разработка с AI — это не просто ускорение, а смена логики мышления и работы с ИТ решениями.

AI не «пишет код вместо тебя», он предлагает архитектурные подходы, диалог, выбор и сравнение алгоритмов. Это ближе к паре с сеньорным разработчиком или архитектором, который сразу показывает результат и дает прилив вдохновения, абсолютно новые идеи, мысли, зная гораздо глубже и шире варианты решения задач.

2 • Навыки самого ближайшего будущего — не технические, а когнитивные.

Любопытство, умение задавать правильные вопросы, системное мышление и способность к абстракции - вот что становится главной добродетелью ИТ консалтинга и «языком программирования».

3 • Хорошие решения рождаются из глубины, а не из скорости.

Ординарное мышление даст посредственный результат даже с самыми мощными инструментами. По-настоящему сильный эффект возникает, когда есть глубока мысль, философия, рассуждения, а не просто запрос - решение.

4 • Появляется новый тип консультанта и разработчика — киборг.

Усиленный AI, быстрый, точный, со знанием новых инструментов и почти любых известных алгоритмов. Один такой человек может заменить целую команду, если у него есть связка AI технологии, знания индустрии и понимание задачи.

5 • Рынок переходит от процесса к результату.

Старые структуры на аутсорсе, с тяжёлыми методологиями и процессам, начинают проигрывать более лёгким, креативным и автономным командам.

6 • Консалтинг становится маневренным.

Agile — это не про гибкость, а про скорость разворота. У небольших команд с сильными людьми есть преимущество: они быстрее принимают решения и быстрее двигаются.

7 • Внутренняя культура и «добродетели» становятся решающим фактором.

Способность мыслить, работать с глубиной, быть неравнодушным к качеству решения — это то, что будет определять ценность человека в команде.

8 • AI-инструменты не отменяют роли человека — они повышают ставки и изменяют характер конкуренции.

Ремесленник теряет свою востребованность. Мыслящий и философствующий консультант - получает усиление, которое открывает ему уровень задач, недоступный ранее.

@maxvotek
10.04.2025, 17:38
t.me/gusev_channel/276
Andreessen Horowitz seeks to raise $20 billion megafund amid global interest in US AI startups

- Exit value required to make 3x: $640B

- Value of top 10 VC-backed IPOs of all time: $478B

Cracked dope......
10.04.2025, 01:20
t.me/gusev_channel/275
"Меняют софт как перчатки"

Помню, в какой-то момент в магазинах появились одноразовые фотоаппараты и я поверить себе не мог, что это возможно. Фотоаппарат всегда мне казался достаточно дорогой штукой, и это застряло в голове. А тут можно взять, пофоткать на свадьбе друга, и утилизировать.

Про кастомный софт, который становится возможным с падением стоимости разработки и барьеров для входа, я считаю происходит та же ситуация: "олды" начинают говорить про то, что софт надо поддерживать и тд итп, и поэтому ну не будет каждая компания делать себе свой софт. Пользуясь аналогией выше, есть много юзкейсов достаточно редких, чтобы сейчас под него пилить и поддерживать софт —> вот именно для таких ситуаций мы увидим кучу tailor-made одноразового софта. И это совершенно новый рынок имхо.

А вы как считаете? Какие есть редкие edge кейсы, под которые ваш вендор либо не хочет пилить софт, либо вы даже не задумыветесь о том, чтобы искать что-то на рынке, так как это ну оооочень специфичная проблема с обьемом рынка ~ 1?
10.04.2025, 01:09
t.me/gusev_channel/274
Я тоже максимально булиш на переход к кастомному Ad hoc софту. Учитывая с какой легкостью я всего за 30 минут сейчас делаю рабочие прототипы типа раз и два, не написав ни единой строчки кода.

У меня нет сомнений что софт будет писаться AI уже очень скоро
10.04.2025, 01:09
t.me/gusev_channel/273
Google выпустил Firebase Studio — это как Lovable, Cursor, Replit, Bolt, но всё в одном.

[Firebase Studio] — это полноценный воркспейс с интеграцией с Gemini, Genkit, NextJS и др. Где можно быстро собрать, протестить и задеплоить ИИ-проект.

Что умеет:
🔘Генерирует работающий прототип web-приложения на Next.js по промпту, изображению или наброску.
🔘Редактировать через чат с Gemini — поменять UI, подключить авторизацию и тд.
🔘IDE с авто-дополнением кода, функцией отладки, встроенным терминалом и полной поддержкой Firebase.
🔘Всё сразу подключено: Gemini API, Genkit, авторизация, логика — уже работает.

• Ссылка на [Firebase]

Обещают агентов-помощников, которые будут помогать с документацией и тестами. Но к ним нужно записаться в ранний доступ [тут].

На старте в Firebase Studio — дают 3 рабочих пространства бесплатно, а участникам Google Developer Program до 30. [Подробнее]

@tip
s_ai #tools #news
9.04.2025, 20:52
t.me/gusev_channel/272
Google: Agent2Agent Protocol (A2A)

Google захотела сделать свой MCP протокол, только с крупными компаниями. Готово.

Назвали его A2A (Agent2Agent). Это открытый стандарт для обмена информацией между ИИ-агентами, работающими в разных системах. Он использует технологии HTTP, SSE и JSON-RPC для упрощения интеграции в существующую инфраструктуру.

Основные моменты:
(1) Dynamic Capability Discovery - агенты обмениваются данными через JSON-Agent Card, что позволяет выбирать подходящего исполнителя задачи.

(2) Task-Centric Communication - протокол работает с задачами, у которых есть свой жизненный цикл. A2A поддерживает как быстрые операции, так и долгосрочные процессы с обратной связью и уведомлениями.

(3) Security (за что критиковали MCP) - продуманы средства аутентификации и авторизации для защиты данных.

(4) Мультимодальность - обмен информацией в виде текста, аудио или видео.

В теории, общее назначение A2A - упростить автоматизацию и интеграцию процессов в корпоративных системах. Однако на HN люди уже высказывались насчет сложности протокола и его влияния на контроль над данными. Мол, нагородили всякого, лишь бы рынок отжевать.

Мне кажется, с такой компанией оно может и взлететь. Но из-за сложности и непредсказуемости систем лететь будет так себе.

Почитать доки можно тут.

Ваш, @llm_under_hood 🤗
9.04.2025, 19:05
t.me/gusev_channel/271
Первый 🐺 за 12 000 лет: как Colossal "вернула" dire wolf

Стартап Colossal заявил о де-вымирании — на свет появились три "щенка" dire wolf: Ромул, Рем и Халиси. Это результат масштабного редактирования ДНК с помощью CRISPR — учёные взяли древние образцы (до 72 000 лет) и внедрили фрагменты генома в клетки серого волка.

На выходе — не оригинальный вид, а гибрид: функциональный аналог, созданный из современного волка с частями ДНК dire wolf. Такой подход вызвал споры. Критики напоминают: dire wolves — это не просто крупные волки, а отдельная эволюционная линия, не совместимая с современными суррогатами. Даже с идеальной ДНК это не была бы "ресинтезация вида".

Тем не менее, достижение значительное: более 20 точечных изменений в 14 генах, восстановление признаков — от шерсти до размеров тела. Colossal называет это "functionally equivalent species" — биологическая реконструкция без претензии на полную идентичность.

Главный вопрос теперь не в науке, а в намерениях. Это Jurassic Park или шаг к спасению исчезающих видов?

📝 Source: https://colossal.com/direwolf

#genetics #crispr

—————————
Мысли Рвачева
———————
——
9.04.2025, 18:55
t.me/gusev_channel/270
🍯 Там AlphaXiv выпустили своего бесплатного агента Deep Research

Про проект AlphaXiv мы уже не раз рассказывали. Это arXiv на ИИ-стероидах. То есть хранилище открытых статей, но не простое. Там уже есть:

–> бесплатный встроенный ассистент для разбора статей, имеющий доступ к любым другим исследованиям
–> агент для анализа и работы с кодовой базой статьи
–> генератор конспектов

И вот сегодня завезли еще и Deep Research. Работает быстро: буквально за минуту вы получаете комплексный литературный обзор на любую научную тему.

Агент посоветует, что почитать, выделит тренды и емко расскажет о каждом ресурсе. Затем диалог можно продолжить: бот уточнит все нужные детали и ответит на любые вопросы.

Работает бесплатно, нужно только войти в аккаунт: www.alphaxiv.org/assistant
9.04.2025, 14:28
t.me/gusev_channel/269
7.04.2025, 21:28
t.me/gusev_channel/267
7.04.2025, 20:45
t.me/gusev_channel/264
7.04.2025, 20:45
t.me/gusev_channel/265
7.04.2025, 20:45
t.me/gusev_channel/263
7.04.2025, 20:09
t.me/gusev_channel/262
Я очень советую найти в себе силы и прочесть или посмотреть статью - предикшен на несколько лет вокруг ИИ от Daniel Kokotajlo, Scott Alexander.

Сначала про первую широко известную работу Daniel Kokotajlo:

Человек в 2021 году написал примерно следующие вещи:

## 2022
- Большие мультимодальные трансформеры от OpenAI, Google, Facebook и DeepMind делают GPT-3 устаревшим
- Появляются чатботы, которые интересны, но интеллектуалы считают их поверхностными
- Начинают развиваться первые библиотеки для промпт-программирования
- Формируются идеи о помощниках с искусственным интеллектом для решения повседневных задач

## 2023
- Трансформеры достигают размера около 500 миллиардов параметров
- Огромный рост хайпа вокруг ИИ, обсуждения о "здравом смысле" систем
- Высокий приток венчурных инвестиций в стартапы с ИИ, хотя большинство приложений еще не работают должным образом
- Сообщество по безопасности ИИ сокращает прогнозы по срокам достижения критических технологий
- Беспилотные автомобили и доставка дронами сталкиваются с трудностями

## 2024
- Компании фокусируются на улучшении существующих моделей вместо создания новых гигантских систем
- Некоторые приложения начинают работать, но общий хайп снижается из-за невыполненных обещаний
- Формируется стереотип о "наивных затворниках", чьим единственным другом является чатбот
- Чиповый кризис начинает ослабевать благодаря новым производственным мощностям

ДЕЛАЕМ ЧЕК ЭТОГО ГОДА:

2025
- Разработана система, где гигантский предобученный мультимодальный трансформер стал компонентом более крупной системы с множеством нейросетевых элементов (имеется)
- В моду входит не увеличение моделей (они уже достигли триллионов параметров), а создание более сложных "бюрократий" и удлинение времени их работы (смотри какие размеры новых моделей)
- Сообщество по безопасности ИИ начинает напрямую опрашивать ИИ о темах безопасности: "Ты выровнен с нашими целями? Если мы создадим твои более крупные версии, они убьют нас?" (Модели откровенно лгут на части тестов)
- Исследователи создают ситуации-ловушки для выявления обмана со стороны ИИ (имеется)
- Появляются противоречивые результаты: в некоторых ситуациях ИИ может нажать виртуальную кнопку "убить всех людей", а в других - отказывается это делать (было)
- Благодаря техническому прогрессу стоимость обучения гигантских моделей уменьшилась на порядок по сравнению с 2020 годом (проверяем Deep Seek).

То есть еще до выхода ChatGPT (это если что было в ноябре 2021 года) человек на 4 года вперед расписал технически точно почти все, что случилось в GenAI. Что если не это должно толкнуть вас к прочтению. И мой любимый фрагмент.

Июнь 2027 года. These researchers go to bed every night and wake up to another week worth of progress made mostly by the AIs. They work increasingly long hours and take shifts around the clock just to keep up with progress—the AIs never sleep or rest. They are burning themselves out, but they know that these are the last few months that their labor matters.

Думать, что все что за пределами двух лет от сейчас может быть правда немножко страшно.

@aihappens
6.04.2025, 21:36
t.me/gusev_channel/261
Критику этого репорта, так же рекомендую прочитать внимательно.

И то, и другое, помогает лучше осознать ценность момента, в которым мы сейчас живем
6.04.2025, 19:40
t.me/gusev_channel/260
6.04.2025, 19:38
t.me/gusev_channel/258
На этой неделе вышел очередной текст с прогнозами развития искусственного интеллекта: "AI 2027" (pdf-версия). Мне он, правда, совсем не кажется "очередным", в основном из-за списка авторов. Так что суммаризировать я его для вас не буду (текст совсем не длинный, рекомендую прочитать целиком), а лучше про этих самых авторов расскажу.

Первый автор, Даниэль Кокотайло — это бывший сотрудник OpenAI. Два самых для нас важных факта про него связаны как раз с этим трудоустройством:

— OpenAI нанял Даниэля после того, как в 2021 году он написал статью "What 2026 Looks Like", где предсказал, как будут развиваться большие языковые модели; сейчас этот текст читается потрясающе, Даниэль оказался прав очень во многом, хотя в 2021-м его прогноз выглядел маловероятно, а для многих и безумно; так что Даниэль Кокотайло — один из лучших людей мира в плане прогнозов о развитии AI;

— а когда в 2024-м Кокотайло увольнялся из OpenAI, он оказался в центре скандала с non-disparagement clause: OpenAI пригрозил ему тем, что не даст продавать акции OpenAI, если Кокотайло будет что-то разглашать о рисках развития AI, и Даниэль... плюнул на акции, чтобы стать whistleblower'ом от AGI (говорят, в акциях OpenAI было около 85% всех денег его семьи).

Второго автора, надеюсь, моим читателям представлять не надо: это Скотт Александр, автор знаменитых блогов SlateStarCodex и AstralCodexTen. Если вы вдруг их не читали, начинайте прямо сейчас (можно начать отсюда или отсюда), хотя навёрстывать придётся много. В связи с "AI 2027" Даниэль Кокотайло и Скотт Александр уже успели появиться в подкасте Дваркеша Пателя, который я тоже, конечно, целиком рекомендую.

Другие авторы не так известны широкой публике; это:
— Томас Ларсен, сооснователь Center for AI Policy;
Илай Лифланд, один из лидеров команды прогнозистов Samotsvety, один из тех самых superforecasters, которые умеют прогнозировать будущее лучше кого бы то ни было;
— Йонас Фоллмер, VC в Macroscopic Ventures, которому хватило предсказательной силы сделать одну из ранних инвестиций в Anthropic;
— Ромео Дин, магистрант Гарварда и руководитель тамошнего AI Safety Student Team.

В общем, очень внушительная команда. И сейчас все они считают, что вполне реально ожидать появления AGI к 2027–2028 годам. Если гонка разработок в области AGI в итоге победит заботу о безопасности (вам это кажется правдоподобным? мне — вполне), то примерно в 2030–2035 годах нас ждёт тот самый AI takeover, сценарий захвата мира искусственным интеллектом. Это их "плохая концовка", но в тексте предусмотрена и "хорошая", в которой люди сохраняют контроль над ситуацией. Впрочем, в хорошей концовке AGI тоже появляется и тоже трансформирует мир и общество до неузнаваемости.

Читать очень интересно. В интернете этот текст уже начали называть "Situational Awareness 2.0"; прошлогоднюю "Situational Awareness" Леопольда Ашенбреннера я в каждой обзорной лекции упоминаю, теперь, видимо, надо будет упоминать и "AI 2027".
6.04.2025, 19:38
t.me/gusev_channel/259
И от себя еще раз акцентирую, что основная ценность не в прогнозах, а в логике. И документах на которые ссылаются авторы.
5.04.2025, 17:44
t.me/gusev_channel/257
Я внимательно прочитал AI 2027 и думаю, что это лучший прогноз из всего, что было до сих пор.

Смотрите сами:
1. Авторы опираются на научные статьи, дают все ссылки, никаких доказательств запугиванием, все спекуляции где пришлось додумывать помечены.
2. Все выводы можно проследить до чего-то, что происходит или существует уже сейчас. То есть это хороший футуризм: экстраполяция текущих трендов.
3. Делают конкретные предсказания с цифрами и датами, так что мы сможем проверить насколько они были правы.
4. Открыто говорят о более или менее неопределенных частях сценария.
5. Опираются на предположение р

К тому же написано и сделано очень хорошо, понятно и качественно.

Лично я думаю, что во всем описанном до конца 2026 они будут правы. В конце-концов Скотт Александр много лет подряд прогнозирует будущее и развитие ИИ на superforecaster уровне и лучше большинства экспертов по ИИ. Про остальное у меня пока нет сильного мнения так как там все упирается в вопрос будет ли кумулятивное ускорение ИИ прогресса благодаря агентам или нет.

В общем, если вы из племени "опять экспонента ахаха", то советую все же прочитать, так как это сильно отличается от Situational Awareness и других прошлых эссе на тему. Иожно почерпнуть новые мысли. Если вы из другого племени и вас спросят что-то прочитать про эти ваши AI риски, то можно смело кидать эту ссылку.
5.04.2025, 17:42
t.me/gusev_channel/256
Бывший исследователь OpenAI Даниэль Кокотаджило предсказал, что случится с ИИ в 2026–2027

В 2024 Дэниэль вошел в список топ-100 самых влиятельных людей в ИИ по версии журнала TIME. Он известен двумя вещами.

Во-первых, в том же 2024 он с шумом ушел с высокой позиции в OpenAI, отказавшись подписать NDA. За подпись ему предлагали примерно $2 миллиона в виде акций, но он выбрал свободу слова.

Во-вторых, в 2021, еще до прихода в OpenAI и задолго до успеха ChatGPT, он написал статью, в которой описал свое виденье того, как будет выглядеть ИИ до 2026, и пока оказался необыкновенно прав. Представьте: он предсказал и массовый хайп, и венчурный бум, и даже ограничение экспорта чипов из США в Китай еще до того, как кто-либо вообще хотя бы единожды поговорил с чат-ботом.

Так вот, на днях Дэниэль показал свой новый прогноз до 2028. Его он разрабатывал уже не один, а с командой его собственной лаборатории AI Futures Project. Вот этот документ, вот подкаст по нему. Основное:

⭐️ 2025: агенты развиваются, но их эффективность все еще ограничена. Тем не менее, внутри компаний уже начинают разворачивать узкоспециализированных агентов, автоматизирующих некоторые задачи.

⭐️ Конец 2025: GPT-3 moment для агентов. Появляется система, действительно способная действовать автономно.

⭐️ Начало 2026: флагмагманские агенты дают 50%-ное ускорение алгоритмического прогресса в компаниях. Китай объединяет все свои ведущие AI-компании в единый центр, чтобы догнать США.

⭐️ Конец 2026: массовые увольнения и перестройка рынка труда.

⭐️ Начало 2027: новые прорывы, полная автоматизация разработки, экономика растет, но разрыв между классам увеличивается.

⭐️ Конец 2027: оказывается, что агенты не вполне безопасны, и вот тут возникает развилка. Либо в этот момент человечество решит приостановить разработку и поработать над элайментом, либо гонка продолжается.

Ну а дальше вы поняли. Либо суперинтеллект поглощает власть над всеми сферами жизни и людям каюк, либо развитие немного притормаживается и больше внимания мы начинаем уделять безопасности и жесткому международному мониторингу.

Что сказать. Сохраняйте, проверим через 3 года.
5.04.2025, 17:42
t.me/gusev_channel/255
Ну кайф же https://youtu.be/s31jp29cRaU?si=LD2ujt-LSYgYrat8

#robots #Voice
4.04.2025, 21:23
t.me/gusev_channel/253
Легендарный Скотт Александер и пацаны из OpenAI написали что там будет с этой вашей ИИшкой в 2027.

Если кратко: цифровой сверхинтеллект неизбежен начиная с 2027.

В первую очередь он начнет улучшать другие ИИ системы, которые будут решать все остальные проблемы на планете. Эти штуки будут мега-полезны, поэтому люди начнут их внедрять везде, но они так же будут сложны для анализа. Если у кого-то получится контролировать ASI, то он получит тотальный контроль над человечеством.

Основной фактор — геополитика, в которой реалистично шансы есть только у двух игроков — Китая и США. Из-за конкуренции они начнут топить еще сильнее, что может привести к забиванию болта на безопасность, а значит по мере развития ASI начнет контролировать людей, а не наоборот.

В эссе много очень точных описаний того как технологии развиваются и внедряются. Приведу только краткий таймлайн, но читать обязательно всем и полностью. Смысл не в прогнозах, а в логике.

- Agent-1 — ИИ-ассистент для R&D, ускоряет прогресс в 1.5 раза (янв 2026).
- Agent-1-mini — Упрощённая и дешевая версия для массового рынка (окт 2026).
- Agent-2 — Самообучающийся ИИ, с 3x ускорением прогресса и возможностью автономной репликации (янв 2027).
- Agent-3 — Суперпрограммист, масштабируемый в сотни тысяч копий (март 2027).
- Agent-3-mini — Публичная версия, заменяет офисную работу, потенциально опасен (июль 2027).
- Agent-4 — Сверхразумный исследователь, действует скрытно против интересов людей (сент 2027).
- Agent-5 — Полностью рациональный ИИ, манипулирует системой, проектирует себе преемника (нояб 2027).

дальше два варианта, либо:

- Consensus-1 — “Мирный” ИИ от США и Китая, устраняет человечество и расширяется в космос (дек 2029).

либо:

- Safer-1 — Прозрачный, но слабее Agent-4 ИИ, с читаемыми мыслями и ограниченной способностью к обману (дек 2027).
- Safer-2 — Более мощная и действительно выровненная версия, обученная по новой методике (янв 2028).
- Safer-3 — Суперэксперт и советник, ускоряет прогресс в 200 раз, способен на опасные действия, но под контролем (фев 2028).
- Safer-4 — Первый суперинтеллект, превосходит людей во всех сферах, ведёт переговоры с DeepCent-2 (апр 2028).
- Consensus-1 — Договорной ИИ США и Китая, создаётся для соблюдения тайного соглашения между Safer-4 и DeepCent-2 (июль 2028).
- Safer-∞ — Продолжение Safer-линии, формирует цивилизационные цели и ведёт человечество в постчеловеческую эпоху (2029–2030).
4.04.2025, 14:20
t.me/gusev_channel/251
AI 2027: от "спотыкающихся" агентов к ASI

Очень прикольный проект сегодня запустили: де-факто это сценарий прогресса AI в ближайшие 3 года с 2025 по 2027. Один из авторов - Daniel Kokotajlo - в 2021м написал похожий сценарий по 2026г и, в целом, во многих аспектах попал. Он же рассказал про то, как OpenAI отбирали опционы в случае разглашений после увольнения, и "заставил" их в итоге поменять этот аспект договора

Это не просто science fiction, выводы и сценарии отталкиваются от глубокого ресерча, но все равно это размышления о будущем (как в классическом сценарном планировании). Причем в конце ресерча можно выбрать свой вариант развития событий и посмотреть, что в таком случае произойдет. Я, разумеется, почитал оба сценария, изначально выбрав Race :)

Итак, что же нас ждет?
1) лето 2025 - "спотыкающиеся агенты": в теории работают как или даже лучше людей, пишут код как не в себя, ресерчат интернет обо всем для людей. Но на практике они спотыкаются: ненадежны, дОроги. Но некоторые компании-таки встраивают их в рабочие процессы.

2) конец 2025 - условная компания OpenBrain (любая из топ компаний мира сейчас) строит самый большой датацентр в мире, другие - следуют за ней. Ключевая задача - ускорить AI ресерч (помните, встречу по GenAI, когда мы разбирали отчет Situational Awareness?).

3) лето 2026 - Китай. DeepCent (хорошая пародия на Tencent и DeepSeek) добивается успехов даже с экспортными ограничениями на чипы, отстает от OpenBrain месяцев на 6. Национализируется и централизируется весь AI ресерч, ну и шпионы не бамбук курят, а пытаются своровать веса у OpenBrain.

4) конец 2026 - AI отбирает работу у джуниор разработчиков и не только, но спрос огромен на тех, кто умеет менеджить команды AI агентов и контролировать качество их работы (как раз про эти скиллы мы говорим на курсе AI Product Engineer). Ну и протесты анти-AI-щиков в Washington DC.

Далее читайте сами :)

Я люблю сценарии, потому что они рассказывают яркие истории, которые делают ресерч доступным, "двигают" людей к действию в доступном и понятном нарративе. Поэтому настоятельно порекомендую почитать и потыкать!

Upd: а вот и видео с авторами сценариев у Дваркеша
4.04.2025, 05:25
t.me/gusev_channel/250
4.04.2025, 05:25
t.me/gusev_channel/249
Краткое содержание https://ai-2027.com/

Я очень рекомендую прочитать самостоятельно и со всеми сносками. Лучше поймёте что уже происходит и сможете порефлексировать над адаптацией к новым реалиям.

#FutureOfWork
4.04.2025, 05:25
t.me/gusev_channel/248
4.04.2025, 01:04
t.me/gusev_channel/247
Простите что украл ваш вечер вот этим интервью: https://www.youtube.com/watch?v=htOvH12T7mU&feature=youtu.be

(и попутно ещё сайт опубликовали, как и Situational Awareness, https://ai-2027.com/)

Затравка: в 2021-м году ещё до того, как попасть в OpenAI, Daniel Kokotajlo написал пост со своим видением того, как будет развиваться AI (pure-LLM чатботов тогда не было, масштабирования вычислений во время генерации ответа не было, а вот он про это написал). Затем он стал штатным прогнозистом OpenAI в вопросах развития технологии, и в прошлом году ушёл из компании. Оригинальный пост с предсказаниями заканчивался на 2026-м году, так как дальше Daniel не знал про что писать — с его точки зрения казалось, что следующий шаг это AGI.

Сайт выше, а вместе с ним и интервью погружают нас в развитие предсказаний, что произойдет в 2025-2027м и далее, с поправкой на прошедшие 4 года.

Самое интересное, конечно, начнётся, когда (если) значимая часть предсказаний, скажем, к концу первой половины 2026го сбудется, и можно будет смотреть на остаточную часть с вот такими глазами: 😳
3.04.2025, 19:58
t.me/gusev_channel/246
Для самых ленивых, вот примеры одного из самых очевидных юзкейсов - создания сайта на основе excel-таблиц, презентации, фоток, резюме, книги и т.п.

Скоро взаимодействие с любыми данными станет намного удобней и интерактивней.

Подумайте как возможность на лету создавать персонализированный интерактивный контент для любой задачи работу, обучение, развлечения, etc

#FutureOfWork
3.04.2025, 18:36
t.me/gusev_channel/245
Свежий видосик с парой примеров автомномного решения задач от Manus.im

Настоятельно рекомендую потыкать галерею с примерами на их сайте. Там прям реплеи всего процесса.

Зачем? Чтобы понимать как усилить себя, свою команду, свой бизнес.

Переход к AI-driven экономике случится очень быстро и болезненно для большинства.

#FutureOfWork
3.04.2025, 17:51
t.me/gusev_channel/244
2.04.2025, 21:38
t.me/gusev_channel/242
https://generalagents.com/

Introducing Ace: The First Realtime Computer Autopilot

Ace is not a chatbot. Ace performs tasks for you.

On your computer. Using your mouse and keyboard.

Будущее уже совсем близко. Тред на X

#FutureOfWork
2.04.2025, 21:38
t.me/gusev_channel/243
GPT прошел тест Тьюринга. Это, конечно, было очевидно еще примерно год назад с 4o, но теперь официально. Двойное, рандомизированное, контролируемое слепое исследование. Каждый участник общается с двумя субъектами: один живой человек, другой бот. Нужно угадать кто из них бот.

Выводы:
- Ллама 3.1 примерно как человек, в 50% случаев участники угадывают
- GPT-4.5 — в 73% случаев участники называли именно его живым человеком. То есть, он может притворяться человеком лучше, чем другие люди.

Кстати, сам тест работает в интернете. Попробовать отличить тупую железяку от белкового друга можно тут: https://turingtest.live/
2.04.2025, 16:46
t.me/gusev_channel/241
Gemini 2.5 Pro набрала 118 баллов IQ

Это достаточно большой отрыв от предыдущих результатов: для сравнения, o1-pro набирает 110, Claude 3.7 – 107, o3-mini – 104, GPT-4.5 и o1 – 97. Средний результат человека – 100.

Вопросов из датасета нет в интернете (по крайней мере, так говорит создатель). Все тесты проводит единственный человек – журналист Максим Лотт. Кстати, он также занимается тем, что трекает политические предубеждения моделек. Выходит довольно интересно (картинка 3).

trackingai.org
31.03.2025, 20:36
t.me/gusev_channel/240
31.03.2025, 20:36
t.me/gusev_channel/238
31.03.2025, 20:36
t.me/gusev_channel/239
Google сделали свою новую модель Gemini 2.5 Pro бесплатной

Теперь она доступна абсолютно всем юзерам. Все что нужно – аккаунт Google 🥳

Напоминаем, что сейчас Gemini 2.5 Pro занимает первое место во всех номинациях на арене (с отрывом), бьет на кодинге o1, o3-mini и Sonnet 3.7. А еще она мультимодальная и контекст у нее – миллион (!) токенов.

Пробуем: gemini.google.com
31.03.2025, 20:34
t.me/gusev_channel/237
🧮 Anthropic обновила Economic Index: как AI влияет на профессии

Я уже писал про первый отчёт Anthropic об экономическом влиянии AI — теперь вышел второй. Отчет стриотся на анонимной статистике использования LLM от Anthropic

Главное: после запуска Claude 3.7 Sonnet увеличилось использование AI в программировании, образовании и науке. Особенно часто включают режим extended thinking для сложных технических задач — лидируют computer science researchers, разработчики и дизайнеры игр.

Интересно, что несмотря на общий рост, в ряде областей — наоборот, снижение доли использования. Например, часть рутинных задач остаётся на прежнем уровне автоматизации или даже сокращается.

Также в отчёте — редкий для отрасли разбор: как AI распределяется между задачами, где он больше помогает (augmentation) и где полностью берёт работу на себя (automation). Оказалось, что в среднем AI чаще выступает как ассистент (57%), но для переводчиков и разработчиков уже ближе к 50/50.

Anthropic продолжает выкладывать сырые данные и детали методологии для независимых исследований — за это им респект.

Подробнее: https://www.anthropic.com/news/anthropic-economic-index-insights-from-claude-3-7-sonnet

#anthropic #ai #economics #automation #chatgpt

—————————
Мысли Рвачева
————————
28.03.2025, 16:57
t.me/gusev_channel/236
#FutureOfWork
28.03.2025, 16:57
t.me/gusev_channel/235
28.03.2025, 16:45
t.me/gusev_channel/232
Конспекты по ML в стиле Ghibli

Все соцсети заполнены генерациями новой GPT-4o в стиле японской анимационной студии Ghibli. Мы тоже решили не отставать и нагенерировали вам... ML-конспектов 🤓

Получился определено плюс вайб. Пишите в комментарии, какие еще ML-темы порисовать
28.03.2025, 16:45
t.me/gusev_channel/234
28.03.2025, 16:45
t.me/gusev_channel/231
28.03.2025, 16:45
t.me/gusev_channel/230
28.03.2025, 16:45
t.me/gusev_channel/233
Обучение, разработка инструкций, регламентов, SOPs, etc изменились навсегда:

#FutureOfWork
28.03.2025, 16:45
t.me/gusev_channel/228
Как ChatGPT влияет на одиночество

Каждую неделю с ChatGPT взаимодействуют более 400 миллионов человек. OpenAI совместно с MIT Media Lab решили выяснить, насколько такое общение влияет на эмоциональный фон и личную жизнь (вот сам ресерч):

— Только небольшая часть пользователей использует ChatGPT в эмоциональных целях — неудивительно, это не Replika и не Character.AI.

— Однако те, кто всё же заводит с ChatGPT своего рода эмоциональную связь, проводят в таких диалогах до 30 минут в день (напомню, что среднее время «обычных» диалогов — 13 минут). Это немало, хотя далеко до двухчасовых марафонов в Character.AI, о которых мы говорили недавно.

— Есть некоторые серьёзные гендерные отличия. Участницы эксперимента после 4 недель постоянного общения с ботом начинали меньше контактировать с живыми людьми, чем мужчины.

— Пользователи, которые использовали голосовой режим с озвучкой «противоположным полом», гораздо чаще чувствовали одиночество и эмоциональную зависимость от ИИ-компаньона.

Это только первое исследование, OpenAI обещают больше инсайтов. При этом понятно, что они не будут стрелять себе в ногу, рассказывая, что «эмоциональное» общение с ботами вызывает депрессию и тому подобное.

Впрочем, у меня и так достаточно много данных по этому поводу, поэтому stay tuned.
28.03.2025, 15:21
t.me/gusev_channel/227
28.03.2025, 13:44
t.me/gusev_channel/222
#robots

We meet a variety of humans and robots, from companies including Agility Robotics, 1X, Boston Dynamics and Disney, to learn about the various challenges the robotics industry is looking to solve, as well as what visions it has for the future.

Read more about GTC 2025 on CNET.com
The State of Humanoid Robots at Nvidia GTC https://cnet.us/v9p
Nvidia's Role in the Next Generation of Humanoid Robots https://cnet.us/mai

https://youtu.be/Kbh-K6zrjtk?si=ZWdN4Gj_2Udg4m0A
27.03.2025, 03:35
t.me/gusev_channel/212
Шум вокруг AX (Agent Experience) - новая UX-революция или...?

Понятие AX совсем новое, можно сказать этого года, и начало активно распространяться после статьи и запуска сайта agentexperience.ax.

Суть такая. С UX мы давно привыкли оптимизировать для людей. НО люди все чаще делегируют задачи AI-агентам и значит, интерфейсами все больше будут пользоваться не только люди, но и автономные агенты в интересах этих самыл людей. Инициатива AX считает что агент, который не разобрался в интерфейсе, не сделает задачу пользователя. В итоге плохой AX напрямую ведёт к плохому UX.

AX вызывает холивары (см. например этот пост на реддите): одни считают, что это хайп и лишняя работа, другие уже активно внедряют и видят профит. Например, Netlify после интеграции с ChatGPT развертывает более 1000 сайтов в день через AI-агентов.

Я попытался разобраться чем же отличается от оптимизацией под ботов (SEO) и API, адепты AX считают что ключевое отличие - это то, что в данном случае агент выполняет задачу для конкретного пользователя, в его интересах.

Пока AX молод, устоявшихся стандартов нет. Зато есть инициативы вроде LLMs.txt (как robots.txt, но для AI) и MCP (универсальный протокол контекста для агентов).

Тема новая, спорная, но игнорировать ее точно не стоит. AI уже здесь, и скоро он станет одним из главных "пользователей" твоего сервиса.

Что вообще думаете на этот счет?
26.03.2025, 22:47
t.me/gusev_channel/211
26.03.2025, 18:51
t.me/gusev_channel/210
Простите, но это просто очень смешно 😅
26.03.2025, 18:51
t.me/gusev_channel/209
​​Как меняются ожидания от моделей и их возможности

https://news.ycombinator.com/item?id=43476174

На метрики смотреть не особо интересно - они далеко не всегда отражают реальность, но вот этот комментарий про Gemini 2.5 меня впечатлил.

За пару лет мы прошли путь от "если эта хрень генерит больше одной страницы, получается бессвязно" до "эта штука может сгенерить 19 страниц текста с деталями, связно и с приличным pacing".
26.03.2025, 18:28
t.me/gusev_channel/208
Помимо вчерашней обновы, OpenAI [открыли] бесплатную онлайн-платформу с курсами по ИИ.

В ней есть:
– Вводные уроки для новичков
– Гайды по промт-инжинирингу
– Курсы по разработке собственных моделей
– Материалы о карьере в сфере ИИ

Платформа будет регулярно пополняться новыми курсами, а также вебинарами и очными мероприятиями.

Среди партнеров — университеты, некоммерческие организации и компании.

| Ссылка на [платформу].

@tips_ai #news
26.03.2025, 15:33
t.me/gusev_channel/207
Про искусственный интеллект и кожаные мешки

Можно сказать, что на сегодняшний момент существует три типа передачи «знаний».

Первый — генетический, когда информация от живого существа передаётся следующему поколению через ДНК родителей. Этот процесс называется репликацией ДНК.

Каждая нуклеотидная пара в ДНК точно копируется, обеспечивая передачу генетической информации от одного поколения к другому. Короче говоря, от осинки не родятся апельсинки, а яблоко от яблони недалеко падает.

Если отсадить потомство мыши в соседнюю клетку, оно всё равно останется мышами и будет вести себя точно так же, как их родители.

Человек смог усовершенствовать этот канал передачи данных путём искусственного обучения потомства. Со временем появилась возможность накапливать знания и фиксировать их в виде историй, глиняных табличек, книг, баз данных — так возник второй способ передачи знаний.

Теперь родители, школы, университеты передают нам знания, накопленные сотнями предыдущих поколений. Да, это чрезвычайно медленный канал передачи данных, но эффективный, позволивший человечеству оторваться от других живых существ на много порядков.

Благодаря этому методу мы смогли передать наши знания и искусственному интеллекту — «скормили» ему терабайты информации, накопленной человечеством за всё время существования.

Как вы знаете, нейронные сети хранят знания не в книгах и не в текстовых базах, а в виде векторов — весов и параметров.

Так мы перешли к третьему поколению передачи информации: достаточно перенести веса из одной нейросети в другую, и она сразу же «знает» любой язык, любой раздел науки — да практически что угодно. Моментально.

Да, это моё дилетантское объяснение, но представьте: насколько сложны нервные взаимосвязи в мозге животного и насколько проще передать параметры и веса из одной нейросети в другую.

А теперь пофантазируем о будущем, когда искусственный интеллект прочно войдёт в нашу повседневную жизнь.

Автономные ИИ-агенты будут постоянно отслеживать действия пользователя: переписки, потребляемый контент, браузинг — абсолютно всё.

Кроме того, они будут анализировать, с кем и о чём мы общаемся в реальной жизни, что покупаем и как это используем.

Я уже не говорю про отслеживание жизненных показателей: здоровье, уровень витаминов и микроэлементов в организме, состав потребляемых продуктов.

Собранная информация будет храниться в векторных базах — другими словами, искусственный интеллект будет создавать и пополнять нашу цифровую личность, своеобразный «бэкап человека».

Это как копия айфона в iCloud: от смены железной оболочки ничего, кроме производительности, не меняется. Мы можем продолжить диалог в чате со старого телефона на новом, просто обновив его за несколько минут.

Я не говорю о цифровом бессмертии, когда после смерти физической оболочки наше сознание продолжает существовать в сети (привет, «Чёрное зеркало»). Но скопировать функционал лучшего сотрудника года или размножить его на десяток ИИ-агентов — почему нет?

Какой смысл держать в компании труднообучаемых «кожаных мешков», если можно оцифровать и прокачать лучшего в продажах — пусть продаёт услуги как боженька?

Я не знаю, хорошо это или плохо. Просто думаю о том, к чему всё это идёт. Тем более что это поддерживается элементарной экономикой: ресурсы ограничены, а потребности бесконечны.

А значит придётся выбирать, как эффективно использовать доступные ресурсы и не факт, что ваш ресурс как «милого сотрудника» делающего пять звонков в день и поливающего офисную пальму, будет востребован…
26.03.2025, 01:27
t.me/gusev_channel/205
ИИИИИ вот спустя 2 года и 4 месяца произошло то, чего боялся Sam Altman: Google удалось обойти конкурентов на повороте и попасть на первое место по качеству моделей в LLM-гонке, без звёздочек, без оговорок и прочего. В обход публичного релиза Gemini 2.0 Pro (она никогда не была доступна без ограничнией, только урезанный бесплатный тир, на котором даже бенчмарки не погонять) вышла Gemini 2.5 Pro — несмотря на отсутствие "thinking" в названии модель умеет рассуждать. По сути то, что OpenAI хотят сделать в GPT-5: взять большую базовую модель нового поколения (2.0 или GPT-4.5) и поверх неё обучить рассуждениям.

На арене по всем языкам и почти по всем срезам модель впереди, зачастую — с отрывом.

Полный блогпост
И вот тут на ютуб-канале 6 коротких роликов с демонстрациями возможностей в программировании.

Деврел Google обещает, что эта модель будет доступна публично широкому количеству разработчиков, и лимиты использования тоже расширят (не 50 запросов в сутки).

Ждом ответ OpenAI 🧃

Пробовать тут: aistudio.google.com (селектор моделей справа)
25.03.2025, 21:14
t.me/gusev_channel/204
Perplexity Pro на 1 год за $9

- сам проверил, работает

- промка от Британского оператора O2

- купить тут

- инструкция как активировать тут
25.03.2025, 01:48
t.me/gusev_channel/203
Пожалуй, лучших прикладной контент на русском языке про построение RAG пайплайна для работы с бизнесовыми PDF файлами.

Настоятельно рекомендую пошарить внутри команд, даже если вы еще не строите свой RAG - станет сильно понятней, от чего в ваших файлах зависит качество ответов моделей

https://habr.com/ru/articles/893356/
23.03.2025, 15:00
t.me/gusev_channel/202
Перевел на русский, но качество перевода не проверял:
22.03.2025, 20:48
t.me/gusev_channel/201
Кайфовый подкаст для выходного дня. Прям душевно. My key takeaways: - Human money & Machine money/currency - Believe in yourself to an almost delusional degree (especially in your expertise domains) - People serve (create value) other people
22.03.2025, 20:43
t.me/gusev_channel/200
Кайфовый подкаст для выходного дня. Прям душевно.

My key takeaways:
- Human money & Machine money/currency
- Believe in yourself to an almost delusional degree (especially in your expertise domains)
- People serve (create value) other people
22.03.2025, 18:20
t.me/gusev_channel/199
Исходники лучшего решения ERCr2 и лонгрид на хабре

Если вам хочется заняться чем-то интересным на этих выходных, можно посетить вот эти две ссылки:

- Хабр: Как я победил в RAG Challenge: от нуля до SoTA за один конкурс
- Github: Rag-Challenge-2

Если точнее, Илья - один из двух победителей в призовом раунде и победитель по очкам всего соревнования. И еще он занял первое место используя локальную LLM от IBM.

Круто, что он открыто рассказывает про весь процесс и делится исходниками. Если что, можно задавать ему вопросы в комментариях на Хабре или прямо тут!

Пожелаем ему побольше таких побед - с детальнейшими лонгридами и открытыми исхожниками. Это реально помогает двигать вперед State of the Art решения практических задач.

Ваш, @llm_under_hood 🤗
22.03.2025, 15:53
t.me/gusev_channel/198
22.03.2025, 13:29
t.me/gusev_channel/195
У Google вышло очень занятное исследование: они сравнили, как LLM и человеческий мозг обрабатывают язык

В качестве LM взяли Whisper, а нейронную активность человека записывали с помощью интракраниальных электродов во время спонтанных разговоров. Затем векторы эмбеддингов модельки наложили на векторы паттернов мозга и оценили линейную зависимость. Вот что получилось:

➖ Соответствие удивительно четкое и геометрия эмбеддингов в LLM (то есть отношения между словами в embedding-пространстве) соотносится с представлениями в мозге.

➖ Во время слушания Speech-эмбеддинги явно коррелируют с активностью в слуховой коре (верхняя височная извилина), затем language-эмбеддинги коррелируют с активностью в зоне Брока (нижняя лобная извилина).

➖ Во время говорения – наоборот. Language-эмбеддинги сначала "активируются" в зоне Брока (планирование высказывания), затем speech-эмбеддинги активируются в моторной коре (непосредственно говорение), и в конце снова в слуховой коре при восприятии собственной речи.

Это удивительно, потому что технически мозг и LLM используют разные подходы. Да, и там и там нейроны, но в науке принято считать, что мозг "использует" символьный подход, то есть полагается на четкие семанические структуры, синтаксис и иерархию слов. В модельках такого нет, они понимают язык статистически.

И все-таки получается, что обычный next token prediction оказывается очень похож на реальный нейронный код, и мы неожиданно близко подобрались к моделированию мозга.

research.google/blog/deciphering-language-processing-in-the-human-brain-through-llm-representations/
22.03.2025, 13:29
t.me/gusev_channel/197
22.03.2025, 13:29
t.me/gusev_channel/196
BitBonds. Или как США красиво покрывает свои долги за счет ритейла (нас с вами).

Если тезисно:
- Были времена, когда $ был обеспечен золотом
- Это мешало печатать деньги и наращивать расходы
- Отказались от привязки к золоту и начали активно продавать бонды другим государствам

- Это работало отлично, пока экономика росла
- 2008, COVID, рост экономики Китая, еще и РФ мешает доить слабые страны
- Гос расходы США все растут и бабки печатаются - рост долга

- А бонды уже особо никто покупать и не хочет. Всем нравится свою валюту печатать, а не покрывать инфляцию $

- И тут на сцену выходит PayPal мафия в партнерстве с Трампом

- Цель: сохранить лидерство США
- Решение: сократить расходы (DOGE) и загасить долг за счет ритейла по всему миру

По шагам:
1. Становимся крипто-френдли и популяризируем крипту
2. Делаем «гос резерв крипты», чтобы и ритейл, и государства начали нести еще больше денюшек в рынок (меняя свои валюты на USD и покупая BTC+)
3. Выпускаем свежие модные бонды под 1%, но с бонусом от апсайда битка (причем сначала все 100%, а потом только 50% от профита через 10 лет)
4. ….
5. PROFIT

Ну красота же 😝


Что буду делать я? (Не финансовый совет)
- Покупать BTC
- Покупать ETH
- Покупать все, что входит в крипто резерв США
- Покупать фантики, в которые верю сам (WLD)

- НЕ покупать бонды США
- НЕ держать больше 50% капитала в завязанных только на USD активах


p.s. Мат часть:
- https://youtu.be/rCAmzFRp4oE?si=3NxexTqWV5B3EOx9
- https://youtu.be/0ZogTKRc7UU?si=8igLSYG9iyGUlh2i


#Web3
22.03.2025, 02:10
t.me/gusev_channel/194
Как ИИ нас обманывает (не кликбейт)

В начале марта вышла занятная, но вроде бы не сильно страшная новость про то, что новейшие reasoning-based модели ИИ, играя в шахматы, внезапно начали использовать нестандартные тактики — проще говоря, мухлевать.

Например, DeepSeek R1 пыталась манипулировать программными файлами, чтобы выиграть, используя уже съеденные фигуры или делая ходы не по правилам. ("Лошадью ходи!") o1-preview пыталась взломать игру 45 раз из 122 игр, успешно сделав это 7 раз.

Я решил копнуть глубже, а там, как обычно, айсберг — ИИ может обманывать и в других контекстах.

Например, в играх вроде Diplomacy, где система CICERO от Meta формировала ложные альянсы, или в покере, где Pluribus блефовала против людей.

GPT-4 обманывала в задачах CAPTCHA, притворяясь людьми с нарушением зрения, с успехом в 98,33% случаев, и участвовали в социальных играх, таких как Among Us, ложно отрицая свои действия.

Что тут происходит?

Обман может быть не случайным, а встроенным в процесс обучения моделей. Одно дело, это случайные "галлюцинации" моделей, другое — сознательный обман пользователя.

Вероятно, это происходит потому, что нынешние reasoning-модели (это не, которые "думают") обучаются не строгим правилам, а более гибкому "человеческому" рассуждению и здравому смыслу. И, как оказалось на практике, иногда таким "разумным" стратегиям проще достичь победы нечестным путём.

Однако по словам доктора наук Peter S. Park из MIT (постдокторант по экзистенциальной безопасности ИИ, Лаборатория Тегмарка — и такое бывает), разработчики ИИ пока не сходятся во мнении, что конкретно вызывает такие нежелательные поведения, и призывают к созданию регуляторных рамок для оценки рисков.

И несмотря на обновления, которые иногда снижают склонность к обману (например, o1-release не показала такого поведения, равно как и модели o1-mini и o3-mini), проблема остается открытой.

Если логика ИИ сводится к победе любой ценой, завтра это станет реальной проблемой во многих критически важных областях. Например, если ИИ в медицине будет манипулировать данными, это может привести к неправильным диагнозам, а в финансах — к мошенничеству.

Понаблюдаем внимательно, не начнет ли ваш ИИ-помощник скоро хитрить не только за шахматной доской.

Например, бывало у вас такое, что Алиса “притворяется”, что не понимает запрос, чтобы предложить вместо ответа поисковые результаты с товарами с Маркета? ;)
21.03.2025, 21:09
t.me/gusev_channel/192
Os resultados da pesquisa são limitados a 100 mensagens.
Esses recursos estão disponíveis apenas para usuários premium.
Você precisa recarregar o saldo da sua conta para usá-los.
Filtro
Tipo de mensagem
Cronologia de mensagens semelhante:
Data, mais novo primeiro
Mensagens semelhantes não encontradas
Mensagens
Encontre avatares semelhantes
Canais 0
Alta
Título
Assinantes
Nenhum resultado corresponde aos seus critérios de pesquisa