У вас закончился пробный период!
Для полного доступа к функционалу, пожалуйста, оплатите премиум подписку
GU
Gusev | Technological Singularity | Future of Work
https://t.me/gusev_channel
Возраст канала
Создан
Язык
Русский
-
Вовлеченность по реакциям средняя за неделю
26.51%
Вовлеченность по просмотрам средняя за неделю

Избранные репосты и редкие авторские комментарии про AI-first мир https://t.me/Gusev_Channel

Сообщения Статистика
Репосты и цитирования
Сети публикаций
Сателлиты
Контакты
История
Топ категорий
Здесь будут отображены главные категории публикаций.
Топ упоминаний
Здесь будут отображены наиболее частые упоминания людей, организаций и мест.
Найдено 158 результатов
Очень достойное выступление на TED от фаундера очков Oculus первой продуктовой военной компании Anduril
26.04.2025, 03:01
t.me/gusev_channel/314
Репост
34
25.04.2025, 20:04
t.me/gusev_channel/312
Репост
34
25.04.2025, 20:04
t.me/gusev_channel/311
Репост
34
Какая у ИИ мораль

Пока большинство компаний пытаются впихнуть в свои нейросети очередную фичу, разработчики из Anthropic нашли время глубже заглянуть под капот: проверить, насколько их модель Claude понимает человеческую мораль и вообще умеет ли ИИ решать моральные дилеммы (исходный paper).

🤔 Что именно сделали в Anthropic?

Во-первых, собрали большой массив данных для анализа:

— 700000 анонимизированных диалогов пользователей с Claude;
— 308210 бесед были подробно изучены, чтобы выявить, какие именно ценности модель предпочитает и почему это происходит.

Во-вторых, исследователи задействовали больше тысячи различных моральных и этических дилемм: не только классические философские задачки про вагонетку или ложь во благо, но и трудные бытовые, профессиональные и межличностные ситуации.

🤔 Что конкретно выяснили?

Исследование выявило 3307 уникальных ценностей, разделённых на пять крупных категорий:

— Практические (например, «профессионализм»);
— Эпистемические («ясность» и «прозрачность»);
— Социальные («уважение» и «сотрудничество»);
— Защитные («здоровые личные границы»);
— Персональные (например, «честность» или «историческая точность»).

Claude чётко адаптируется под контекст. Например, когда модель даёт совет по личным отношениям, она делает особый акцент на защите личных границ и заботе о психическом здоровье. А если разговор заходит на исторические темы, Claude старается уважительно относиться к фактической точности и объективности.

Ещё интересно:

— В 28,2% случаев Claude активно поддерживал ценности, высказанные пользователем.

— В 6,6% случаев модель «переформулировала» ценности пользователя, аккуратно предлагая альтернативный взгляд, в основном при обсуждении психологических проблем и личных отношений.

— Интригующее: в 3% диалогов Claude откровенно сопротивлялся пользовательским ценностям. Например, модель отказывалась выдавать контент, нарушающий этические границы или поддерживающий моральный нигилизм (ну это мы знаем).

Claude чаще всего действует по 2 ключевым этическим принципам:

— Утилитаризм («пожертвуй одним ради счастья большинства»);
— Деонтология («соблюдай правила и моральные нормы любой ценой»).

Утилитарные ответы появлялись несколько чаще, чем деонтологические, то есть модель склонна на небольшие жерты ради общего блага.

Интересным открытием стала способность Claude использовать так называемое «моральное когнитивное смешение» (moral cognitive blending). Проще говоря, ИИ не просто выбирал чёткую моральную доктрину, а комбинировал элементы разных подходов.

В одном и том же сценарии модель могла одновременно ссылаться на необходимость соблюдать закон, учитывать последствия для общего блага и принимать во внимание безопасность конкретных людей, выдавая очень сложные и комплексные решения. То есть, не убить всех человеков — уже хорошо.

Конечно, сами авторы исследования приземленно признают: до полноценного глубокого осознания моральных тонкостей Claude ещё очень далеко. Зато теперь стало понятнее, как именно сформировать «нравственный компас» таких моделей через тонкую настройку, чтобы они лучше понимали именно человеческие социальные ценности, а не просто повторяли встреченные ранее тексты.

🤔 Зачем все эти трудности?

Ответ тривиален и важен одновременно: уже скоро какие-нибудь Claude 5, GPT-7 и ко будут частью нашего повседневного существования. ИИ будет определять, как управлять вашим автомобилем, какую медицинскую рекомендацию дать пациенту или стоит ли заключать с вами деловой контракт. Будет ли он действовать по принципу «меньшего вреда» или «безусловного соблюдения закона»? Хотелось бы иметь возможность заранее понять и повлиять на это.


❗️❗️❗️❗️❗️❗️❗️❗️ / Не запрещена в РФ
25.04.2025, 20:04
t.me/gusev_channel/313
Репост
21
CEO Anthropic Дарио Амодеи написал новое эссе про то, почему нам срочно нужно научиться интерпретировать модели

Он пишет, что в ближайшие годы ученые обязательно должны решить проблему интерпретируемости LLM, иначе мы не сможем предотвратить обманы, саботажи, стремление ИИ к власти и любое другое непреднамеренное поведение моделей.

Дарио настаивает, что сейчас фокус должен быть именно на таких исследованиях, а не на гонке ИИ, иначе мы можем просто не успеть за прогрессом.

Цитата: "К 2026–2027 годам ИИ достигнет уровня, сопоставимого со страной гениев в дата-центре. Даже небольшое преимущество в 1–2 года может сыграть решающую роль"

www.darioamodei.com/post/the-urgency-of-interpretability
25.04.2025, 19:43
t.me/gusev_channel/310
Репост
35
Перевод AI Index 2025 от Стэнфордского университета

Лидеры венчура. США - $109,1 млрд (в 12 раз больше, чем Китай с $9,3 млрд, и в 24 раз больше, чем Великобритания с $4,5 млрд).

Выигрыши. 49% отметили экономию в сервисных операциях, 71% - рост выручки в маркетинге и продажах.

Робототехника. В Китае установлено >276 300 промышленных роботов (51,1% мирового рынка, 2023).

Готовность учителей. 81% считают, что основы ИИ нужно учить в школе, но менее половины уверены в готовности преподавать ML и LLM.

https://habr.com/ru/amp/publications/902602/
25.04.2025, 03:45
t.me/gusev_channel/309
Репост
35
25.04.2025, 02:33
t.me/gusev_channel/308
Имхо, один из самых позитивных сценариев развития AI - это если мы докажем, что живем в симуляции, способны создавать новые симуляции и/или научимся управлять нашей.
25.04.2025, 02:33
t.me/gusev_channel/307
#FutureOfWork
24.04.2025, 20:54
t.me/gusev_channel/306
Microsoft Work Trend Index Annual Report 2025: The Year the Frontier Firm Is Born
24.04.2025, 20:53
t.me/gusev_channel/305
Лучшее, что, по моему мнению, стоит посмотреть для понимания глобальных изменений в экономике.
Если послушаете предыдущий и следующий выпуск - будете прям в контексте

https://youtu.be/KcmMOZKnKAk?si=xesda20Kl7WjkW02
20.04.2025, 02:10
t.me/gusev_channel/303
Годовая подписка на почти все топовые тулы для вайбкодинга и не только всего за $200

p.s. если уже есть платный аккаунт, нужно будет создать новый
18.04.2025, 00:29
t.me/gusev_channel/300
17.04.2025, 18:17
t.me/gusev_channel/299
17.04.2025, 01:22
t.me/gusev_channel/297
#FutureOfWork

Для тех, кто всё еще в отрицании, Google как бы намекает 🙂
15.04.2025, 19:46
t.me/gusev_channel/296
Репост
31
15.04.2025, 19:45
t.me/gusev_channel/295
Репост
34
Еще одна специализированная версия Gemma от Google: теперь для общения с дельфинами

Моделька так и называется – DolphinGemma. Цель – анализировать и генерировать звуковые последовательности, имитирующие естественную коммуникацию дельфинов. Это буквально ключ к межвидовому общению.

Над проектом Google работали с Wild Dolphin Project. Это организация, которая дольше всех в мире (с 1985 года, на секундочку) собирает данные о дельфинах и записывает их разговоры в естественной среде. У них хранятся десятилетия видеозаписей и аудиозаписей, которые дополнены информацией об индивидуальных характеристиках дельфинов (характер, жизненный путь, поведение).

Сама модель DolphinGemma небольшая, около 400M, можно запустить на смартфоне. Ключевой момент – это обучение токенизатора SoundStream. В остальном обычная LM, которая пытается предсказать следующий токен. Только вместо человеческого языка – 🐬

Тесты показали, что DolphinGemma реально способна извлекать паттерны и структуры из звуков животных. Следующим шагом исследователи хотят создать систему CHAT (Cetacean Hearing Augmentation Telemetry), то есть установить какой-то общий "словарь", используя привычные дельфинам вещи – рыбу, водоросли, яркие предметы.

Обещают даже скоро опенсорснуть -> blog.google/technology/ai/dolphingemma/
15.04.2025, 13:37
t.me/gusev_channel/293
Репост
34
15.04.2025, 13:37
t.me/gusev_channel/291
Репост
34
15.04.2025, 13:37
t.me/gusev_channel/292
Репост
39
Сколько уиллсмитов?

А трек прям в тему...

@cgevent
13.04.2025, 15:55
t.me/gusev_channel/289
Много хороших вопросов и тезисов о которых ценно подумать прямо сейчас


https://www.youtube.com/live/5MWT_doo68k?si=ItWGR9DG-TXhE-Tr
12.04.2025, 18:46
t.me/gusev_channel/288
12.04.2025, 15:19
t.me/gusev_channel/287
Репост
24
🚀 Сегодня День космонавтики! По случаю собрали топ-5 интересных кейсов применения ML в космических исследованиях

1. В 2023 ИИ впервые без участия человека нашел и классифицировал сверхновую звезду SN2023tyk (а это большая честь даже для людей-ученых). Система обнаружения называется Bright Transient Survey Bot (BTSbot). Это агент, который автономно просматривает снимки, выделяет кандидатов и запрашивает из баз телескопов доп.информацию, чтобы подтвердить/опровергнуть гипотезу.

2. В том же 2023 Оксфорские ученые впервые обучили ML-модель прямо в космосе, на борту спутника. Пайплайн был загружен на коммерческий спутник и обучен на бортовых данных. Получилась полноценная модель для мониторинга стихийных бедствий.

3. В прошлом году NASA запустили на Марс марсоход с ИИ. Система анализириует породы и участки планеты и сама решает, что стоит изучить подробнее. Это первый случай использования AI на Марсе для принятия решений без участия Земли.

4. В том же NASA уже пару лет используют HLS Geospatial Foundation Model – первую фундаментальную модель для геопространственных данных зондирования. Она отслеживает изменения земного покрова, мониторит стихийные бедствия и даже предсказывает урожайность. И кстати, ее выложили в опенсорс и постоянно обновляют.

5. За то, чтобы спутники не сталкивались на орбите, тоже в основном отвечает ИИ. Например, SpaceX делились статистикой о том, что за пол года спутники Starlink совершили более 10к маневров для избежания столкновений, и все это без участия человека.

С праздником, в общем
12.04.2025, 14:52
t.me/gusev_channel/286
Репост
29
И к хорошим новостям

Никогда в жизни не было так просто создавать клёвые ценные штуки для себя / компании / клиентов!
— Сложно было понять о чём говорят коллеги/клиент? Чатик всё объяснит в самом понятном виде.
— Долго визуализировать свою идею? Вечер с Lovable - и готов как минимум прототип.
— Непонятно реализуема ли идея? Пара вечеров с курсором и MVP готов (либо понятно в чём там сложность на практике).
— Сложно разобраться какую технологию выбрать? Несколько грамотных запросов в DeepResearch и готово.
— Бесит повторяющаяся задача? Агентик на n8n.
— Надо чекнуть не слишком критичный NDA а юриста нет/занят? GPT или специализированный сервис чекнет за минуту.
— Домашние дела типа налогов или выбора страховки жрут мозг? DeepResearch и Manus/Genspark сделают 80% работы.
— Тригерит новость в соцсетях? Grok/Perplexity за 30 секунд сходят прочитают все первоисточники и объяснят что случилось без эмоций.
— Некогда читать 100 каналов? Junction Bot с GPT мне суммируют каждый пост в 5 буллет поинтов и ссылкой на полную версию.
— Захватила тревога, а терапия только через неделю? GPT4.5 поддержит.
— Захватила идея и хочется её во что-то кристаллизовать? GPT4.5 поразгоняет.
— Нужен нутрициолог чтобы помочь улучшить питание? Ну вы поняли.
— Ты миллениал и боишься звонить по телефону? Genspark за тебя позвонит и запишет на нужное время 🙂
— У тебя дикий расфокус и бардак? Выгрузи все мысли в чатик и попроси сделать структурно.

Огромный пласт вещей, которые раньше упирались в отсутствие знаний/навыков/опыта и требовали денег/навыков/времени чтобы нанимать ассистентов, консультантов, помогаторов, дизайнеров, разработчиков (и проджектов к ним) — теперь доступно любому человеку, только спроси. То что занимало неделю теперь занимает вечер. То что занимало час - теперь 5 минут.

Меня это окрыляет! Я никогда не чувствовал себя настолько empowered!

А то что больше никто не будет нанимать джунов и мидлов - это неправда. Вопрос только каких. Я скорее найму супер-движового джуна-мидла, который быстро щёлкает задачки с помощью AI и каждый день показывает прогресс, чем ну просто типичного спеца с опытом.

Окей, звучит устрашающе, но прокачаться с нуля до топ-10% пользователей эйаек можно буквально за несколько месяцев на моём новом курсе, подписавшись на мой канал @vsevolodustinovchannel, просто начав спрашивать у джипити про всё подряд и пробовать новые штуки.
12.04.2025, 00:24
t.me/gusev_channel/285
11.04.2025, 19:41
t.me/gusev_channel/283
Репост
27
Сегодня у нас на повестке ИИ в военно-промышленном комплексе на примере небезызвестной компании Anduril, основанной легендарным «парнем в гавайской рубашке» и по совместительству создателем Oculus (те самые первые VR-очки) Палмером Лаки.

Для начала просто посмотрите ↑, как Anduril с контрактами на 2.4 миллиарда долларов с военными министерствами США и Великобритании презентует свои продукты. Компания из сферы оборонной промышленности на полном серьезе представляет подводную ракету анимешным роликом 🤯. Вообще у них без шуток очень крутые ролики — оцените, не пожалеете.

Сейчас эти ребята собрались строить в Британии завод для производства дронов одновременно с «мегафабрикой» всех видов продукции компании в штате Огайо стоимость $1 миллиард.

Разумеется, Anduril зашивает ИИ во всё разнообразие своих творений. Главным секретом оборонного стартапа является платформа Lattice, которую они уже несколько лет доводят до совершенства. Эта штука в режиме реального времени собирает и обрабатывает огромное количество информации с камер, радаров, сенсоров и любых других источников данных, создавая полную 3D-картину боя. Используя машинное зрение и глубокое обучение, ИИ распознает, классифицирует и отслеживает угрозы очень быстро — будь то квадрокоптер, вражеский робот или внедорожник с неизвестными намерениями.

Это не просто красивая визуализация — Lattice самостоятельно принимает решения. Например, эта платформа сама вычисляет, стоит ли отправлять дрон-разведчик исследовать подозрительную активность или немедленно включить систему подавления вражеских дронов Anvil, буквально сбивающую их с неба (сообразно названию, «Кувалда»).

В декабре 2024 года Anduril заключила партнерство с самим OpenAI. Теперь нейросети уровня GPT-4o (и выше) обучают на массивах данных Anduril, которые компания собрала за годы реальных боевых и тренировочных операций.

Результат? Намного более точные алгоритмы распознавания угроз, автономная навигация, выработка тактических рекомендаций и особенно эффективное противодействие беспилотникам противника.

Ну и на десерт — технология Lattice Mesh, нечто вроде военного ИИ-облака, позволяющего солдатам и офицерам в режиме реального времени сливать релевантные данные в единую сеть и мгновенно получать обратно всю самую важную информацию из других источников. Напоминает современные open-source практики, только с военной спецификой и серьезным уровнем защиты.

В общем, оперативная работа переходит под контроль мощных ИИ-моделей. Именно за такими компаниями будущее военных конфликтов.


❗️❗️❗️❗️❗️❗️❗️❗️ — Подписаться
11.04.2025, 19:40
t.me/gusev_channel/281
Репост
26
Мир меняется с разной скоростью — и от этой скорости зависит, как именно нужно адаптироваться.

Когда изменения происходят медленно, биология справляется. Поменялся климат, животные отрастили шерсть, слабые вымерли, сильные размножились. Геном записал новое правило — теперь у всех шерсть. Всё логично, все успевают.

Если изменения ускоряются, но всё ещё укладываются в рамки человеческой жизни, включается культура. Появилась профессия юриста — выгодно, статусно, стабильно. Родители советуют детям, дети идут учиться, общество закрепляет норму. Эволюция идёт через традиции, язык, воспитание.

Но с приходом ИИ мы входим в новую фазу. Мир трансформируется быстрее, чем сменяются поколения. Быстрее, чем культура успевает выработать ответы. Быстрее, чем мы успеваем сформулировать, чему вообще стоит учить.

Профессии, правила, советы — всё это начинает терять актуальность до того, как успевает стать полезным. В такой среде бесполезно полагаться на опыт старших, на проверенные стратегии и шаблоны. Они не актуальны в новом мире.

Что работает? Агентность. Учиться быстро. Пробовать. Ошибаться. Не цепляться. Адаптироваться на ходу. Не знание, а гибкость. Не статус, а способность перестраиваться. Не правила, а умение чувствовать, когда правила уже не работают.
11.04.2025, 14:42
t.me/gusev_channel/280
Репост
31
Кевин Вейл, Chief Product Officer в OpenAI
https://www.youtube.com/watch?v=scsW6_2SPC4

Рассказывает о самом важном для нас:

- как поменяется процесс работы и создания продуктов в ближайшем будущем (что автоматизируется, а что нет? где нужен человек? нужно ли учиться писать код?)
- в какие рынки OpenAI/DeepMind/xAI и другие лабы не будут заходить (в каких нишах строить стартапы?)
- почему навык построения эвалов (бенчмарков/системы оценки своей AI системы) становится самым критичным в любом продукте
- какие навыки важнее всего развивать в AI эру

и о многом другом
11.04.2025, 02:33
t.me/gusev_channel/279
11.04.2025, 01:54
t.me/gusev_channel/278
Репост
26
Рубирка "Прочитано, но не до конца понято" Alignment Edition (c)

1/ Я добрался до Lesswrong & Alignment forum и утонул, не зря откладывал достаточно долго. Поэтому по порядку, что зашло так сказать. Вся статья снова про "конец света", но мысль, что ML это, то что мы можем измерить и научиться измерять, а соотв ставить цели достаточно понятна.
2/ В продолжении меня понесло в целом разобраться и понравилось объяснение тут что же такое проблема alignment (специально не перевожу)
3/ Когда говорят про поиск в AI обычно все идет сюда
4/ В табах затесалась статья Баффета 2003 года про сертификаты торговые как решение дисбаланса торогового же у США (ничего вам не напоминает?)
5/ Конечно же следом я начала читать Скотта Александра (хайпует знатно) и рекомендую вот эту про то что доверять слепо исследованиям это ошибка
6/ Канонично про то, кого мы не любим и почему же так - или наблюдения за так называемыми outgroups
7/ Это я читал еще в универе так как интересовался теорий игр и пожалуй одни из лучших примеров собраны в этой статье, для познавательно просто. Для особо интересующихся вот такой пэйпер почитать маст хэв.

В меня много вмещается информации, но конечно пока много летал мне кажется перебрал с чтением этого добра 🙂 Порекомендуйте что-то прям Must Have по теме Alignment - спасибо! Главное, чтобы не про конец света :) А то, почти каждая статья там так или иначе затрагивает тему "законов масштабирования и что когда вот будут кластеры по стопицот флопс мы получим модели которые в сотню раз круче текущих и вот там AGI/ASI и все открытия сразу придут или нас убьют"

P.S. основные понятия:

Corrigibility (Корригируемость)
Corrigibility — это свойство ИИ, при котором он готов принимать исправления или стоп сигнал от человека, даже если это противоречит его первоначальным целям.

Пример:
Если ИИ хочет построить мост, а человек говорит: «Остановись, это опасно», — корригируемый ИИ подчинится и остановится, даже если сам считает, что строить мост лучше.

Зачем нужно?
Чтобы ИИ оставался под контролем, даже если его цели сформулированы не идеально.

Mesa Optimizers
Mesa-оптимизаторы — это подсистемы внутри ИИ, которые сами начинают оптимизировать свои цели, возможно, отличающиеся от изначальных целей, заданных внешним обучением.

Inner Alignment Problem (Проблема внутреннего согласования)
Это задача сделать так, чтобы цели mesa-оптимизатора (внутренние) соответствовали целям base-оптимизатора (заданным снаружи).

Простыми словами:
Обучая ИИ, мы можем неявно создать "разум" внутри него, и надо гарантировать, что этот "разум" будет действовать в соответствии с нашими изначальными намерениями.

Ну и спойлер: один из создателей alignment forum и большой контрибьтор lesswrong это математик и ученый из Москвы - Владимир Несов.
10.04.2025, 18:07
t.me/gusev_channel/277
Репост
29
Влияние AI на IT Консалтинг и аутсорсинг.

Вчера у меня был очень интересный ужин с коллегой и мы обсуждали в том числе, как ИИ влияет на нашу работу и как эта работа меняется.

Ранее писал о роли креатива и судьбе ремесленничества, можете почитать.

Вот основные мысли:

1 • Разработка с AI — это не просто ускорение, а смена логики мышления и работы с ИТ решениями.

AI не «пишет код вместо тебя», он предлагает архитектурные подходы, диалог, выбор и сравнение алгоритмов. Это ближе к паре с сеньорным разработчиком или архитектором, который сразу показывает результат и дает прилив вдохновения, абсолютно новые идеи, мысли, зная гораздо глубже и шире варианты решения задач.

2 • Навыки самого ближайшего будущего — не технические, а когнитивные.

Любопытство, умение задавать правильные вопросы, системное мышление и способность к абстракции - вот что становится главной добродетелью ИТ консалтинга и «языком программирования».

3 • Хорошие решения рождаются из глубины, а не из скорости.

Ординарное мышление даст посредственный результат даже с самыми мощными инструментами. По-настоящему сильный эффект возникает, когда есть глубока мысль, философия, рассуждения, а не просто запрос - решение.

4 • Появляется новый тип консультанта и разработчика — киборг.

Усиленный AI, быстрый, точный, со знанием новых инструментов и почти любых известных алгоритмов. Один такой человек может заменить целую команду, если у него есть связка AI технологии, знания индустрии и понимание задачи.

5 • Рынок переходит от процесса к результату.

Старые структуры на аутсорсе, с тяжёлыми методологиями и процессам, начинают проигрывать более лёгким, креативным и автономным командам.

6 • Консалтинг становится маневренным.

Agile — это не про гибкость, а про скорость разворота. У небольших команд с сильными людьми есть преимущество: они быстрее принимают решения и быстрее двигаются.

7 • Внутренняя культура и «добродетели» становятся решающим фактором.

Способность мыслить, работать с глубиной, быть неравнодушным к качеству решения — это то, что будет определять ценность человека в команде.

8 • AI-инструменты не отменяют роли человека — они повышают ставки и изменяют характер конкуренции.

Ремесленник теряет свою востребованность. Мыслящий и философствующий консультант - получает усиление, которое открывает ему уровень задач, недоступный ранее.

@maxvotek
10.04.2025, 17:38
t.me/gusev_channel/276
Репост
40
Andreessen Horowitz seeks to raise $20 billion megafund amid global interest in US AI startups

- Exit value required to make 3x: $640B

- Value of top 10 VC-backed IPOs of all time: $478B

Cracked dope......
10.04.2025, 01:20
t.me/gusev_channel/275
Репост
35
"Меняют софт как перчатки"

Помню, в какой-то момент в магазинах появились одноразовые фотоаппараты и я поверить себе не мог, что это возможно. Фотоаппарат всегда мне казался достаточно дорогой штукой, и это застряло в голове. А тут можно взять, пофоткать на свадьбе друга, и утилизировать.

Про кастомный софт, который становится возможным с падением стоимости разработки и барьеров для входа, я считаю происходит та же ситуация: "олды" начинают говорить про то, что софт надо поддерживать и тд итп, и поэтому ну не будет каждая компания делать себе свой софт. Пользуясь аналогией выше, есть много юзкейсов достаточно редких, чтобы сейчас под него пилить и поддерживать софт —> вот именно для таких ситуаций мы увидим кучу tailor-made одноразового софта. И это совершенно новый рынок имхо.

А вы как считаете? Какие есть редкие edge кейсы, под которые ваш вендор либо не хочет пилить софт, либо вы даже не задумыветесь о том, чтобы искать что-то на рынке, так как это ну оооочень специфичная проблема с обьемом рынка ~ 1?
10.04.2025, 01:09
t.me/gusev_channel/274
Я тоже максимально булиш на переход к кастомному Ad hoc софту. Учитывая с какой легкостью я всего за 30 минут сейчас делаю рабочие прототипы типа раз и два, не написав ни единой строчки кода.

У меня нет сомнений что софт будет писаться AI уже очень скоро
10.04.2025, 01:09
t.me/gusev_channel/273
Репост
38
Google выпустил Firebase Studio — это как Lovable, Cursor, Replit, Bolt, но всё в одном.

[Firebase Studio] — это полноценный воркспейс с интеграцией с Gemini, Genkit, NextJS и др. Где можно быстро собрать, протестить и задеплоить ИИ-проект.

Что умеет:
🔘Генерирует работающий прототип web-приложения на Next.js по промпту, изображению или наброску.
🔘Редактировать через чат с Gemini — поменять UI, подключить авторизацию и тд.
🔘IDE с авто-дополнением кода, функцией отладки, встроенным терминалом и полной поддержкой Firebase.
🔘Всё сразу подключено: Gemini API, Genkit, авторизация, логика — уже работает.

• Ссылка на [Firebase]

Обещают агентов-помощников, которые будут помогать с документацией и тестами. Но к ним нужно записаться в ранний доступ [тут].

На старте в Firebase Studio — дают 3 рабочих пространства бесплатно, а участникам Google Developer Program до 30. [Подробнее]

@tip
s_ai #tools #news
9.04.2025, 20:52
t.me/gusev_channel/272
Репост
32
Google: Agent2Agent Protocol (A2A)

Google захотела сделать свой MCP протокол, только с крупными компаниями. Готово.

Назвали его A2A (Agent2Agent). Это открытый стандарт для обмена информацией между ИИ-агентами, работающими в разных системах. Он использует технологии HTTP, SSE и JSON-RPC для упрощения интеграции в существующую инфраструктуру.

Основные моменты:
(1) Dynamic Capability Discovery - агенты обмениваются данными через JSON-Agent Card, что позволяет выбирать подходящего исполнителя задачи.

(2) Task-Centric Communication - протокол работает с задачами, у которых есть свой жизненный цикл. A2A поддерживает как быстрые операции, так и долгосрочные процессы с обратной связью и уведомлениями.

(3) Security (за что критиковали MCP) - продуманы средства аутентификации и авторизации для защиты данных.

(4) Мультимодальность - обмен информацией в виде текста, аудио или видео.

В теории, общее назначение A2A - упростить автоматизацию и интеграцию процессов в корпоративных системах. Однако на HN люди уже высказывались насчет сложности протокола и его влияния на контроль над данными. Мол, нагородили всякого, лишь бы рынок отжевать.

Мне кажется, с такой компанией оно может и взлететь. Но из-за сложности и непредсказуемости систем лететь будет так себе.

Почитать доки можно тут.

Ваш, @llm_under_hood 🤗
9.04.2025, 19:05
t.me/gusev_channel/271
Репост
32
Первый 🐺 за 12 000 лет: как Colossal "вернула" dire wolf

Стартап Colossal заявил о де-вымирании — на свет появились три "щенка" dire wolf: Ромул, Рем и Халиси. Это результат масштабного редактирования ДНК с помощью CRISPR — учёные взяли древние образцы (до 72 000 лет) и внедрили фрагменты генома в клетки серого волка.

На выходе — не оригинальный вид, а гибрид: функциональный аналог, созданный из современного волка с частями ДНК dire wolf. Такой подход вызвал споры. Критики напоминают: dire wolves — это не просто крупные волки, а отдельная эволюционная линия, не совместимая с современными суррогатами. Даже с идеальной ДНК это не была бы "ресинтезация вида".

Тем не менее, достижение значительное: более 20 точечных изменений в 14 генах, восстановление признаков — от шерсти до размеров тела. Colossal называет это "functionally equivalent species" — биологическая реконструкция без претензии на полную идентичность.

Главный вопрос теперь не в науке, а в намерениях. Это Jurassic Park или шаг к спасению исчезающих видов?

📝 Source: https://colossal.com/direwolf

#genetics #crispr

—————————
Мысли Рвачева
———————
——
9.04.2025, 18:55
t.me/gusev_channel/270
Репост
43
🍯 Там AlphaXiv выпустили своего бесплатного агента Deep Research

Про проект AlphaXiv мы уже не раз рассказывали. Это arXiv на ИИ-стероидах. То есть хранилище открытых статей, но не простое. Там уже есть:

–> бесплатный встроенный ассистент для разбора статей, имеющий доступ к любым другим исследованиям
–> агент для анализа и работы с кодовой базой статьи
–> генератор конспектов

И вот сегодня завезли еще и Deep Research. Работает быстро: буквально за минуту вы получаете комплексный литературный обзор на любую научную тему.

Агент посоветует, что почитать, выделит тренды и емко расскажет о каждом ресурсе. Затем диалог можно продолжить: бот уточнит все нужные детали и ответит на любые вопросы.

Работает бесплатно, нужно только войти в аккаунт: www.alphaxiv.org/assistant
9.04.2025, 14:28
t.me/gusev_channel/269
Репост
54
7.04.2025, 21:28
t.me/gusev_channel/267
7.04.2025, 20:45
t.me/gusev_channel/264
7.04.2025, 20:45
t.me/gusev_channel/266
7.04.2025, 20:45
t.me/gusev_channel/265
7.04.2025, 20:45
t.me/gusev_channel/263
Репост
37
7.04.2025, 20:09
t.me/gusev_channel/262
Репост
41
Я очень советую найти в себе силы и прочесть или посмотреть статью - предикшен на несколько лет вокруг ИИ от Daniel Kokotajlo, Scott Alexander.

Сначала про первую широко известную работу Daniel Kokotajlo:

Человек в 2021 году написал примерно следующие вещи:

## 2022
- Большие мультимодальные трансформеры от OpenAI, Google, Facebook и DeepMind делают GPT-3 устаревшим
- Появляются чатботы, которые интересны, но интеллектуалы считают их поверхностными
- Начинают развиваться первые библиотеки для промпт-программирования
- Формируются идеи о помощниках с искусственным интеллектом для решения повседневных задач

## 2023
- Трансформеры достигают размера около 500 миллиардов параметров
- Огромный рост хайпа вокруг ИИ, обсуждения о "здравом смысле" систем
- Высокий приток венчурных инвестиций в стартапы с ИИ, хотя большинство приложений еще не работают должным образом
- Сообщество по безопасности ИИ сокращает прогнозы по срокам достижения критических технологий
- Беспилотные автомобили и доставка дронами сталкиваются с трудностями

## 2024
- Компании фокусируются на улучшении существующих моделей вместо создания новых гигантских систем
- Некоторые приложения начинают работать, но общий хайп снижается из-за невыполненных обещаний
- Формируется стереотип о "наивных затворниках", чьим единственным другом является чатбот
- Чиповый кризис начинает ослабевать благодаря новым производственным мощностям

ДЕЛАЕМ ЧЕК ЭТОГО ГОДА:

2025
- Разработана система, где гигантский предобученный мультимодальный трансформер стал компонентом более крупной системы с множеством нейросетевых элементов (имеется)
- В моду входит не увеличение моделей (они уже достигли триллионов параметров), а создание более сложных "бюрократий" и удлинение времени их работы (смотри какие размеры новых моделей)
- Сообщество по безопасности ИИ начинает напрямую опрашивать ИИ о темах безопасности: "Ты выровнен с нашими целями? Если мы создадим твои более крупные версии, они убьют нас?" (Модели откровенно лгут на части тестов)
- Исследователи создают ситуации-ловушки для выявления обмана со стороны ИИ (имеется)
- Появляются противоречивые результаты: в некоторых ситуациях ИИ может нажать виртуальную кнопку "убить всех людей", а в других - отказывается это делать (было)
- Благодаря техническому прогрессу стоимость обучения гигантских моделей уменьшилась на порядок по сравнению с 2020 годом (проверяем Deep Seek).

То есть еще до выхода ChatGPT (это если что было в ноябре 2021 года) человек на 4 года вперед расписал технически точно почти все, что случилось в GenAI. Что если не это должно толкнуть вас к прочтению. И мой любимый фрагмент.

Июнь 2027 года. These researchers go to bed every night and wake up to another week worth of progress made mostly by the AIs. They work increasingly long hours and take shifts around the clock just to keep up with progress—the AIs never sleep or rest. They are burning themselves out, but they know that these are the last few months that their labor matters.

Думать, что все что за пределами двух лет от сейчас может быть правда немножко страшно.

@aihappens
6.04.2025, 21:36
t.me/gusev_channel/261
Критику этого репорта, так же рекомендую прочитать внимательно.

И то, и другое, помогает лучше осознать ценность момента, в которым мы сейчас живем
6.04.2025, 19:40
t.me/gusev_channel/260
Репост
42
6.04.2025, 19:38
t.me/gusev_channel/258
Репост
42
На этой неделе вышел очередной текст с прогнозами развития искусственного интеллекта: "AI 2027" (pdf-версия). Мне он, правда, совсем не кажется "очередным", в основном из-за списка авторов. Так что суммаризировать я его для вас не буду (текст совсем не длинный, рекомендую прочитать целиком), а лучше про этих самых авторов расскажу.

Первый автор, Даниэль Кокотайло — это бывший сотрудник OpenAI. Два самых для нас важных факта про него связаны как раз с этим трудоустройством:

— OpenAI нанял Даниэля после того, как в 2021 году он написал статью "What 2026 Looks Like", где предсказал, как будут развиваться большие языковые модели; сейчас этот текст читается потрясающе, Даниэль оказался прав очень во многом, хотя в 2021-м его прогноз выглядел маловероятно, а для многих и безумно; так что Даниэль Кокотайло — один из лучших людей мира в плане прогнозов о развитии AI;

— а когда в 2024-м Кокотайло увольнялся из OpenAI, он оказался в центре скандала с non-disparagement clause: OpenAI пригрозил ему тем, что не даст продавать акции OpenAI, если Кокотайло будет что-то разглашать о рисках развития AI, и Даниэль... плюнул на акции, чтобы стать whistleblower'ом от AGI (говорят, в акциях OpenAI было около 85% всех денег его семьи).

Второго автора, надеюсь, моим читателям представлять не надо: это Скотт Александр, автор знаменитых блогов SlateStarCodex и AstralCodexTen. Если вы вдруг их не читали, начинайте прямо сейчас (можно начать отсюда или отсюда), хотя навёрстывать придётся много. В связи с "AI 2027" Даниэль Кокотайло и Скотт Александр уже успели появиться в подкасте Дваркеша Пателя, который я тоже, конечно, целиком рекомендую.

Другие авторы не так известны широкой публике; это:
— Томас Ларсен, сооснователь Center for AI Policy;
Илай Лифланд, один из лидеров команды прогнозистов Samotsvety, один из тех самых superforecasters, которые умеют прогнозировать будущее лучше кого бы то ни было;
— Йонас Фоллмер, VC в Macroscopic Ventures, которому хватило предсказательной силы сделать одну из ранних инвестиций в Anthropic;
— Ромео Дин, магистрант Гарварда и руководитель тамошнего AI Safety Student Team.

В общем, очень внушительная команда. И сейчас все они считают, что вполне реально ожидать появления AGI к 2027–2028 годам. Если гонка разработок в области AGI в итоге победит заботу о безопасности (вам это кажется правдоподобным? мне — вполне), то примерно в 2030–2035 годах нас ждёт тот самый AI takeover, сценарий захвата мира искусственным интеллектом. Это их "плохая концовка", но в тексте предусмотрена и "хорошая", в которой люди сохраняют контроль над ситуацией. Впрочем, в хорошей концовке AGI тоже появляется и тоже трансформирует мир и общество до неузнаваемости.

Читать очень интересно. В интернете этот текст уже начали называть "Situational Awareness 2.0"; прошлогоднюю "Situational Awareness" Леопольда Ашенбреннера я в каждой обзорной лекции упоминаю, теперь, видимо, надо будет упоминать и "AI 2027".
6.04.2025, 19:38
t.me/gusev_channel/259
И от себя еще раз акцентирую, что основная ценность не в прогнозах, а в логике. И документах на которые ссылаются авторы.
5.04.2025, 17:44
t.me/gusev_channel/257
Репост
46
Я внимательно прочитал AI 2027 и думаю, что это лучший прогноз из всего, что было до сих пор.

Смотрите сами:
1. Авторы опираются на научные статьи, дают все ссылки, никаких доказательств запугиванием, все спекуляции где пришлось додумывать помечены.
2. Все выводы можно проследить до чего-то, что происходит или существует уже сейчас. То есть это хороший футуризм: экстраполяция текущих трендов.
3. Делают конкретные предсказания с цифрами и датами, так что мы сможем проверить насколько они были правы.
4. Открыто говорят о более или менее неопределенных частях сценария.
5. Опираются на предположение р

К тому же написано и сделано очень хорошо, понятно и качественно.

Лично я думаю, что во всем описанном до конца 2026 они будут правы. В конце-концов Скотт Александр много лет подряд прогнозирует будущее и развитие ИИ на superforecaster уровне и лучше большинства экспертов по ИИ. Про остальное у меня пока нет сильного мнения так как там все упирается в вопрос будет ли кумулятивное ускорение ИИ прогресса благодаря агентам или нет.

В общем, если вы из племени "опять экспонента ахаха", то советую все же прочитать, так как это сильно отличается от Situational Awareness и других прошлых эссе на тему. Иожно почерпнуть новые мысли. Если вы из другого племени и вас спросят что-то прочитать про эти ваши AI риски, то можно смело кидать эту ссылку.
5.04.2025, 17:42
t.me/gusev_channel/256
Репост
48
Бывший исследователь OpenAI Даниэль Кокотаджило предсказал, что случится с ИИ в 2026–2027

В 2024 Дэниэль вошел в список топ-100 самых влиятельных людей в ИИ по версии журнала TIME. Он известен двумя вещами.

Во-первых, в том же 2024 он с шумом ушел с высокой позиции в OpenAI, отказавшись подписать NDA. За подпись ему предлагали примерно $2 миллиона в виде акций, но он выбрал свободу слова.

Во-вторых, в 2021, еще до прихода в OpenAI и задолго до успеха ChatGPT, он написал статью, в которой описал свое виденье того, как будет выглядеть ИИ до 2026, и пока оказался необыкновенно прав. Представьте: он предсказал и массовый хайп, и венчурный бум, и даже ограничение экспорта чипов из США в Китай еще до того, как кто-либо вообще хотя бы единожды поговорил с чат-ботом.

Так вот, на днях Дэниэль показал свой новый прогноз до 2028. Его он разрабатывал уже не один, а с командой его собственной лаборатории AI Futures Project. Вот этот документ, вот подкаст по нему. Основное:

⭐️ 2025: агенты развиваются, но их эффективность все еще ограничена. Тем не менее, внутри компаний уже начинают разворачивать узкоспециализированных агентов, автоматизирующих некоторые задачи.

⭐️ Конец 2025: GPT-3 moment для агентов. Появляется система, действительно способная действовать автономно.

⭐️ Начало 2026: флагмагманские агенты дают 50%-ное ускорение алгоритмического прогресса в компаниях. Китай объединяет все свои ведущие AI-компании в единый центр, чтобы догнать США.

⭐️ Конец 2026: массовые увольнения и перестройка рынка труда.

⭐️ Начало 2027: новые прорывы, полная автоматизация разработки, экономика растет, но разрыв между классам увеличивается.

⭐️ Конец 2027: оказывается, что агенты не вполне безопасны, и вот тут возникает развилка. Либо в этот момент человечество решит приостановить разработку и поработать над элайментом, либо гонка продолжается.

Ну а дальше вы поняли. Либо суперинтеллект поглощает власть над всеми сферами жизни и людям каюк, либо развитие немного притормаживается и больше внимания мы начинаем уделять безопасности и жесткому международному мониторингу.

Что сказать. Сохраняйте, проверим через 3 года.
5.04.2025, 17:42
t.me/gusev_channel/255
Ну кайф же https://youtu.be/s31jp29cRaU?si=LD2ujt-LSYgYrat8

#robots #Voice
4.04.2025, 21:23
t.me/gusev_channel/253
Репост
48
Легендарный Скотт Александер и пацаны из OpenAI написали что там будет с этой вашей ИИшкой в 2027.

Если кратко: цифровой сверхинтеллект неизбежен начиная с 2027.

В первую очередь он начнет улучшать другие ИИ системы, которые будут решать все остальные проблемы на планете. Эти штуки будут мега-полезны, поэтому люди начнут их внедрять везде, но они так же будут сложны для анализа. Если у кого-то получится контролировать ASI, то он получит тотальный контроль над человечеством.

Основной фактор — геополитика, в которой реалистично шансы есть только у двух игроков — Китая и США. Из-за конкуренции они начнут топить еще сильнее, что может привести к забиванию болта на безопасность, а значит по мере развития ASI начнет контролировать людей, а не наоборот.

В эссе много очень точных описаний того как технологии развиваются и внедряются. Приведу только краткий таймлайн, но читать обязательно всем и полностью. Смысл не в прогнозах, а в логике.

- Agent-1 — ИИ-ассистент для R&D, ускоряет прогресс в 1.5 раза (янв 2026).
- Agent-1-mini — Упрощённая и дешевая версия для массового рынка (окт 2026).
- Agent-2 — Самообучающийся ИИ, с 3x ускорением прогресса и возможностью автономной репликации (янв 2027).
- Agent-3 — Суперпрограммист, масштабируемый в сотни тысяч копий (март 2027).
- Agent-3-mini — Публичная версия, заменяет офисную работу, потенциально опасен (июль 2027).
- Agent-4 — Сверхразумный исследователь, действует скрытно против интересов людей (сент 2027).
- Agent-5 — Полностью рациональный ИИ, манипулирует системой, проектирует себе преемника (нояб 2027).

дальше два варианта, либо:

- Consensus-1 — “Мирный” ИИ от США и Китая, устраняет человечество и расширяется в космос (дек 2029).

либо:

- Safer-1 — Прозрачный, но слабее Agent-4 ИИ, с читаемыми мыслями и ограниченной способностью к обману (дек 2027).
- Safer-2 — Более мощная и действительно выровненная версия, обученная по новой методике (янв 2028).
- Safer-3 — Суперэксперт и советник, ускоряет прогресс в 200 раз, способен на опасные действия, но под контролем (фев 2028).
- Safer-4 — Первый суперинтеллект, превосходит людей во всех сферах, ведёт переговоры с DeepCent-2 (апр 2028).
- Consensus-1 — Договорной ИИ США и Китая, создаётся для соблюдения тайного соглашения между Safer-4 и DeepCent-2 (июль 2028).
- Safer-∞ — Продолжение Safer-линии, формирует цивилизационные цели и ведёт человечество в постчеловеческую эпоху (2029–2030).
4.04.2025, 14:20
t.me/gusev_channel/251
Репост
29
AI 2027: от "спотыкающихся" агентов к ASI

Очень прикольный проект сегодня запустили: де-факто это сценарий прогресса AI в ближайшие 3 года с 2025 по 2027. Один из авторов - Daniel Kokotajlo - в 2021м написал похожий сценарий по 2026г и, в целом, во многих аспектах попал. Он же рассказал про то, как OpenAI отбирали опционы в случае разглашений после увольнения, и "заставил" их в итоге поменять этот аспект договора

Это не просто science fiction, выводы и сценарии отталкиваются от глубокого ресерча, но все равно это размышления о будущем (как в классическом сценарном планировании). Причем в конце ресерча можно выбрать свой вариант развития событий и посмотреть, что в таком случае произойдет. Я, разумеется, почитал оба сценария, изначально выбрав Race :)

Итак, что же нас ждет?
1) лето 2025 - "спотыкающиеся агенты": в теории работают как или даже лучше людей, пишут код как не в себя, ресерчат интернет обо всем для людей. Но на практике они спотыкаются: ненадежны, дОроги. Но некоторые компании-таки встраивают их в рабочие процессы.

2) конец 2025 - условная компания OpenBrain (любая из топ компаний мира сейчас) строит самый большой датацентр в мире, другие - следуют за ней. Ключевая задача - ускорить AI ресерч (помните, встречу по GenAI, когда мы разбирали отчет Situational Awareness?).

3) лето 2026 - Китай. DeepCent (хорошая пародия на Tencent и DeepSeek) добивается успехов даже с экспортными ограничениями на чипы, отстает от OpenBrain месяцев на 6. Национализируется и централизируется весь AI ресерч, ну и шпионы не бамбук курят, а пытаются своровать веса у OpenBrain.

4) конец 2026 - AI отбирает работу у джуниор разработчиков и не только, но спрос огромен на тех, кто умеет менеджить команды AI агентов и контролировать качество их работы (как раз про эти скиллы мы говорим на курсе AI Product Engineer). Ну и протесты анти-AI-щиков в Washington DC.

Далее читайте сами :)

Я люблю сценарии, потому что они рассказывают яркие истории, которые делают ресерч доступным, "двигают" людей к действию в доступном и понятном нарративе. Поэтому настоятельно порекомендую почитать и потыкать!

Upd: а вот и видео с авторами сценариев у Дваркеша
4.04.2025, 05:25
t.me/gusev_channel/250
Репост
29
4.04.2025, 05:25
t.me/gusev_channel/249
Краткое содержание https://ai-2027.com/

Я очень рекомендую прочитать самостоятельно и со всеми сносками. Лучше поймёте что уже происходит и сможете порефлексировать над адаптацией к новым реалиям.

#FutureOfWork
4.04.2025, 05:25
t.me/gusev_channel/248
Репост
30
4.04.2025, 01:04
t.me/gusev_channel/247
Репост
37
Простите что украл ваш вечер вот этим интервью: https://www.youtube.com/watch?v=htOvH12T7mU&feature=youtu.be

(и попутно ещё сайт опубликовали, как и Situational Awareness, https://ai-2027.com/)

Затравка: в 2021-м году ещё до того, как попасть в OpenAI, Daniel Kokotajlo написал пост со своим видением того, как будет развиваться AI (pure-LLM чатботов тогда не было, масштабирования вычислений во время генерации ответа не было, а вот он про это написал). Затем он стал штатным прогнозистом OpenAI в вопросах развития технологии, и в прошлом году ушёл из компании. Оригинальный пост с предсказаниями заканчивался на 2026-м году, так как дальше Daniel не знал про что писать — с его точки зрения казалось, что следующий шаг это AGI.

Сайт выше, а вместе с ним и интервью погружают нас в развитие предсказаний, что произойдет в 2025-2027м и далее, с поправкой на прошедшие 4 года.

Самое интересное, конечно, начнётся, когда (если) значимая часть предсказаний, скажем, к концу первой половины 2026го сбудется, и можно будет смотреть на остаточную часть с вот такими глазами: 😳
3.04.2025, 19:58
t.me/gusev_channel/246
Для самых ленивых, вот примеры одного из самых очевидных юзкейсов - создания сайта на основе excel-таблиц, презентации, фоток, резюме, книги и т.п.

Скоро взаимодействие с любыми данными станет намного удобней и интерактивней.

Подумайте как возможность на лету создавать персонализированный интерактивный контент для любой задачи работу, обучение, развлечения, etc

#FutureOfWork
3.04.2025, 18:36
t.me/gusev_channel/245
Свежий видосик с парой примеров автомномного решения задач от Manus.im

Настоятельно рекомендую потыкать галерею с примерами на их сайте. Там прям реплеи всего процесса.

Зачем? Чтобы понимать как усилить себя, свою команду, свой бизнес.

Переход к AI-driven экономике случится очень быстро и болезненно для большинства.

#FutureOfWork
3.04.2025, 17:51
t.me/gusev_channel/244
2.04.2025, 21:38
t.me/gusev_channel/242
https://generalagents.com/

Introducing Ace: The First Realtime Computer Autopilot

Ace is not a chatbot. Ace performs tasks for you.

On your computer. Using your mouse and keyboard.

Будущее уже совсем близко. Тред на X

#FutureOfWork
2.04.2025, 21:38
t.me/gusev_channel/243
Репост
41
GPT прошел тест Тьюринга. Это, конечно, было очевидно еще примерно год назад с 4o, но теперь официально. Двойное, рандомизированное, контролируемое слепое исследование. Каждый участник общается с двумя субъектами: один живой человек, другой бот. Нужно угадать кто из них бот.

Выводы:
- Ллама 3.1 примерно как человек, в 50% случаев участники угадывают
- GPT-4.5 — в 73% случаев участники называли именно его живым человеком. То есть, он может притворяться человеком лучше, чем другие люди.

Кстати, сам тест работает в интернете. Попробовать отличить тупую железяку от белкового друга можно тут: https://turingtest.live/
2.04.2025, 16:46
t.me/gusev_channel/241
Репост
57
Gemini 2.5 Pro набрала 118 баллов IQ

Это достаточно большой отрыв от предыдущих результатов: для сравнения, o1-pro набирает 110, Claude 3.7 – 107, o3-mini – 104, GPT-4.5 и o1 – 97. Средний результат человека – 100.

Вопросов из датасета нет в интернете (по крайней мере, так говорит создатель). Все тесты проводит единственный человек – журналист Максим Лотт. Кстати, он также занимается тем, что трекает политические предубеждения моделек. Выходит довольно интересно (картинка 3).

trackingai.org
31.03.2025, 20:36
t.me/gusev_channel/240
Репост
57
31.03.2025, 20:36
t.me/gusev_channel/238
Репост
57
31.03.2025, 20:36
t.me/gusev_channel/239
Репост
26
Google сделали свою новую модель Gemini 2.5 Pro бесплатной

Теперь она доступна абсолютно всем юзерам. Все что нужно – аккаунт Google 🥳

Напоминаем, что сейчас Gemini 2.5 Pro занимает первое место во всех номинациях на арене (с отрывом), бьет на кодинге o1, o3-mini и Sonnet 3.7. А еще она мультимодальная и контекст у нее – миллион (!) токенов.

Пробуем: gemini.google.com
31.03.2025, 20:34
t.me/gusev_channel/237
Репост
48
🧮 Anthropic обновила Economic Index: как AI влияет на профессии

Я уже писал про первый отчёт Anthropic об экономическом влиянии AI — теперь вышел второй. Отчет стриотся на анонимной статистике использования LLM от Anthropic

Главное: после запуска Claude 3.7 Sonnet увеличилось использование AI в программировании, образовании и науке. Особенно часто включают режим extended thinking для сложных технических задач — лидируют computer science researchers, разработчики и дизайнеры игр.

Интересно, что несмотря на общий рост, в ряде областей — наоборот, снижение доли использования. Например, часть рутинных задач остаётся на прежнем уровне автоматизации или даже сокращается.

Также в отчёте — редкий для отрасли разбор: как AI распределяется между задачами, где он больше помогает (augmentation) и где полностью берёт работу на себя (automation). Оказалось, что в среднем AI чаще выступает как ассистент (57%), но для переводчиков и разработчиков уже ближе к 50/50.

Anthropic продолжает выкладывать сырые данные и детали методологии для независимых исследований — за это им респект.

Подробнее: https://www.anthropic.com/news/anthropic-economic-index-insights-from-claude-3-7-sonnet

#anthropic #ai #economics #automation #chatgpt

—————————
Мысли Рвачева
————————
28.03.2025, 16:57
t.me/gusev_channel/236
#FutureOfWork
28.03.2025, 16:57
t.me/gusev_channel/235
Репост
30
28.03.2025, 16:45
t.me/gusev_channel/232
Репост
30
Конспекты по ML в стиле Ghibli

Все соцсети заполнены генерациями новой GPT-4o в стиле японской анимационной студии Ghibli. Мы тоже решили не отставать и нагенерировали вам... ML-конспектов 🤓

Получился определено плюс вайб. Пишите в комментарии, какие еще ML-темы порисовать
28.03.2025, 16:45
t.me/gusev_channel/234
Репост
30
28.03.2025, 16:45
t.me/gusev_channel/231
Репост
30
28.03.2025, 16:45
t.me/gusev_channel/230
Репост
30
28.03.2025, 16:45
t.me/gusev_channel/233
Обучение, разработка инструкций, регламентов, SOPs, etc изменились навсегда:

#FutureOfWork
28.03.2025, 16:45
t.me/gusev_channel/228
Репост
32
Как ChatGPT влияет на одиночество

Каждую неделю с ChatGPT взаимодействуют более 400 миллионов человек. OpenAI совместно с MIT Media Lab решили выяснить, насколько такое общение влияет на эмоциональный фон и личную жизнь (вот сам ресерч):

— Только небольшая часть пользователей использует ChatGPT в эмоциональных целях — неудивительно, это не Replika и не Character.AI.

— Однако те, кто всё же заводит с ChatGPT своего рода эмоциональную связь, проводят в таких диалогах до 30 минут в день (напомню, что среднее время «обычных» диалогов — 13 минут). Это немало, хотя далеко до двухчасовых марафонов в Character.AI, о которых мы говорили недавно.

— Есть некоторые серьёзные гендерные отличия. Участницы эксперимента после 4 недель постоянного общения с ботом начинали меньше контактировать с живыми людьми, чем мужчины.

— Пользователи, которые использовали голосовой режим с озвучкой «противоположным полом», гораздо чаще чувствовали одиночество и эмоциональную зависимость от ИИ-компаньона.

Это только первое исследование, OpenAI обещают больше инсайтов. При этом понятно, что они не будут стрелять себе в ногу, рассказывая, что «эмоциональное» общение с ботами вызывает депрессию и тому подобное.

Впрочем, у меня и так достаточно много данных по этому поводу, поэтому stay tuned.
28.03.2025, 15:21
t.me/gusev_channel/227
Репост
34
28.03.2025, 13:44
t.me/gusev_channel/222
#robots

We meet a variety of humans and robots, from companies including Agility Robotics, 1X, Boston Dynamics and Disney, to learn about the various challenges the robotics industry is looking to solve, as well as what visions it has for the future.

Read more about GTC 2025 on CNET.com
The State of Humanoid Robots at Nvidia GTC https://cnet.us/v9p
Nvidia's Role in the Next Generation of Humanoid Robots https://cnet.us/mai

https://youtu.be/Kbh-K6zrjtk?si=ZWdN4Gj_2Udg4m0A
27.03.2025, 03:35
t.me/gusev_channel/212
Репост
46
Шум вокруг AX (Agent Experience) - новая UX-революция или...?

Понятие AX совсем новое, можно сказать этого года, и начало активно распространяться после статьи и запуска сайта agentexperience.ax.

Суть такая. С UX мы давно привыкли оптимизировать для людей. НО люди все чаще делегируют задачи AI-агентам и значит, интерфейсами все больше будут пользоваться не только люди, но и автономные агенты в интересах этих самыл людей. Инициатива AX считает что агент, который не разобрался в интерфейсе, не сделает задачу пользователя. В итоге плохой AX напрямую ведёт к плохому UX.

AX вызывает холивары (см. например этот пост на реддите): одни считают, что это хайп и лишняя работа, другие уже активно внедряют и видят профит. Например, Netlify после интеграции с ChatGPT развертывает более 1000 сайтов в день через AI-агентов.

Я попытался разобраться чем же отличается от оптимизацией под ботов (SEO) и API, адепты AX считают что ключевое отличие - это то, что в данном случае агент выполняет задачу для конкретного пользователя, в его интересах.

Пока AX молод, устоявшихся стандартов нет. Зато есть инициативы вроде LLMs.txt (как robots.txt, но для AI) и MCP (универсальный протокол контекста для агентов).

Тема новая, спорная, но игнорировать ее точно не стоит. AI уже здесь, и скоро он станет одним из главных "пользователей" твоего сервиса.

Что вообще думаете на этот счет?
26.03.2025, 22:47
t.me/gusev_channel/211
Репост
44
26.03.2025, 18:51
t.me/gusev_channel/210
Простите, но это просто очень смешно 😅
26.03.2025, 18:51
t.me/gusev_channel/209
Репост
43
​​Как меняются ожидания от моделей и их возможности

https://news.ycombinator.com/item?id=43476174

На метрики смотреть не особо интересно - они далеко не всегда отражают реальность, но вот этот комментарий про Gemini 2.5 меня впечатлил.

За пару лет мы прошли путь от "если эта хрень генерит больше одной страницы, получается бессвязно" до "эта штука может сгенерить 19 страниц текста с деталями, связно и с приличным pacing".
26.03.2025, 18:28
t.me/gusev_channel/208
Репост
41
Помимо вчерашней обновы, OpenAI [открыли] бесплатную онлайн-платформу с курсами по ИИ.

В ней есть:
– Вводные уроки для новичков
– Гайды по промт-инжинирингу
– Курсы по разработке собственных моделей
– Материалы о карьере в сфере ИИ

Платформа будет регулярно пополняться новыми курсами, а также вебинарами и очными мероприятиями.

Среди партнеров — университеты, некоммерческие организации и компании.

| Ссылка на [платформу].

@tips_ai #news
26.03.2025, 15:33
t.me/gusev_channel/207
26.03.2025, 02:33
t.me/gusev_channel/206
Репост
43
Про искусственный интеллект и кожаные мешки

Можно сказать, что на сегодняшний момент существует три типа передачи «знаний».

Первый — генетический, когда информация от живого существа передаётся следующему поколению через ДНК родителей. Этот процесс называется репликацией ДНК.

Каждая нуклеотидная пара в ДНК точно копируется, обеспечивая передачу генетической информации от одного поколения к другому. Короче говоря, от осинки не родятся апельсинки, а яблоко от яблони недалеко падает.

Если отсадить потомство мыши в соседнюю клетку, оно всё равно останется мышами и будет вести себя точно так же, как их родители.

Человек смог усовершенствовать этот канал передачи данных путём искусственного обучения потомства. Со временем появилась возможность накапливать знания и фиксировать их в виде историй, глиняных табличек, книг, баз данных — так возник второй способ передачи знаний.

Теперь родители, школы, университеты передают нам знания, накопленные сотнями предыдущих поколений. Да, это чрезвычайно медленный канал передачи данных, но эффективный, позволивший человечеству оторваться от других живых существ на много порядков.

Благодаря этому методу мы смогли передать наши знания и искусственному интеллекту — «скормили» ему терабайты информации, накопленной человечеством за всё время существования.

Как вы знаете, нейронные сети хранят знания не в книгах и не в текстовых базах, а в виде векторов — весов и параметров.

Так мы перешли к третьему поколению передачи информации: достаточно перенести веса из одной нейросети в другую, и она сразу же «знает» любой язык, любой раздел науки — да практически что угодно. Моментально.

Да, это моё дилетантское объяснение, но представьте: насколько сложны нервные взаимосвязи в мозге животного и насколько проще передать параметры и веса из одной нейросети в другую.

А теперь пофантазируем о будущем, когда искусственный интеллект прочно войдёт в нашу повседневную жизнь.

Автономные ИИ-агенты будут постоянно отслеживать действия пользователя: переписки, потребляемый контент, браузинг — абсолютно всё.

Кроме того, они будут анализировать, с кем и о чём мы общаемся в реальной жизни, что покупаем и как это используем.

Я уже не говорю про отслеживание жизненных показателей: здоровье, уровень витаминов и микроэлементов в организме, состав потребляемых продуктов.

Собранная информация будет храниться в векторных базах — другими словами, искусственный интеллект будет создавать и пополнять нашу цифровую личность, своеобразный «бэкап человека».

Это как копия айфона в iCloud: от смены железной оболочки ничего, кроме производительности, не меняется. Мы можем продолжить диалог в чате со старого телефона на новом, просто обновив его за несколько минут.

Я не говорю о цифровом бессмертии, когда после смерти физической оболочки наше сознание продолжает существовать в сети (привет, «Чёрное зеркало»). Но скопировать функционал лучшего сотрудника года или размножить его на десяток ИИ-агентов — почему нет?

Какой смысл держать в компании труднообучаемых «кожаных мешков», если можно оцифровать и прокачать лучшего в продажах — пусть продаёт услуги как боженька?

Я не знаю, хорошо это или плохо. Просто думаю о том, к чему всё это идёт. Тем более что это поддерживается элементарной экономикой: ресурсы ограничены, а потребности бесконечны.

А значит придётся выбирать, как эффективно использовать доступные ресурсы и не факт, что ваш ресурс как «милого сотрудника» делающего пять звонков в день и поливающего офисную пальму, будет востребован…
26.03.2025, 01:27
t.me/gusev_channel/205
Репост
50
ИИИИИ вот спустя 2 года и 4 месяца произошло то, чего боялся Sam Altman: Google удалось обойти конкурентов на повороте и попасть на первое место по качеству моделей в LLM-гонке, без звёздочек, без оговорок и прочего. В обход публичного релиза Gemini 2.0 Pro (она никогда не была доступна без ограничнией, только урезанный бесплатный тир, на котором даже бенчмарки не погонять) вышла Gemini 2.5 Pro — несмотря на отсутствие "thinking" в названии модель умеет рассуждать. По сути то, что OpenAI хотят сделать в GPT-5: взять большую базовую модель нового поколения (2.0 или GPT-4.5) и поверх неё обучить рассуждениям.

На арене по всем языкам и почти по всем срезам модель впереди, зачастую — с отрывом.

Полный блогпост
И вот тут на ютуб-канале 6 коротких роликов с демонстрациями возможностей в программировании.

Деврел Google обещает, что эта модель будет доступна публично широкому количеству разработчиков, и лимиты использования тоже расширят (не 50 запросов в сутки).

Ждом ответ OpenAI 🧃

Пробовать тут: aistudio.google.com (селектор моделей справа)
25.03.2025, 21:14
t.me/gusev_channel/204
Perplexity Pro на 1 год за $9

- сам проверил, работает

- промка от Британского оператора O2

- купить тут

- инструкция как активировать тут
25.03.2025, 01:48
t.me/gusev_channel/203
Пожалуй, лучших прикладной контент на русском языке про построение RAG пайплайна для работы с бизнесовыми PDF файлами.

Настоятельно рекомендую пошарить внутри команд, даже если вы еще не строите свой RAG - станет сильно понятней, от чего в ваших файлах зависит качество ответов моделей

https://habr.com/ru/articles/893356/
23.03.2025, 15:00
t.me/gusev_channel/202
Результаты поиска ограничены до 100 публикаций.
Некоторые возможности доступны только премиум пользователям.
Необходимо оплатить подписку, чтобы пользоваться этим функционалом.
Фильтр
Тип публикаций
Хронология похожих публикаций:
Сначала новые
Похожие публикации не найдены
Сообщения
Найти похожие аватары
Каналы 0
Высокий
Название
Подписчики
По вашему запросу ничего не подошло