У вас закончился пробный период!
Для полного доступа к функционалу, пожалуйста, оплатите премиум подписку
TH
Малоизвестное интересное
https://t.me/theworldisnoteasy
Возраст канала
Создан
Язык
Русский
3.82%
Вовлеченность по реакциям средняя за неделю
8.35%
Вовлеченность по просмотрам средняя за неделю

Авторский взгляд через призму новейших исследований на наше понимание реальности, человеческой сущности и того, как ИИ меняет их.

Сообщения Статистика
Репосты и цитирования
Сети публикаций
Сателлиты
Контакты
История
Топ категорий
Здесь будут отображены главные категории публикаций.
Топ упоминаний
Здесь будут отображены наиболее частые упоминания людей, организаций и мест.
Найдено 53 результата
45
118
2.3 k
Найден практический способ создания ИИ с сознанием и человеческой моралью.
Это сразу две революции на стыке нейронауки, буддологии и машинного обучения.
Две новые суперреволюционные работы вполне могут произвести эффект, подобный анекдоту про избушку лесника (который под конец выгнал всех на хрен из леса).
• В работе Рубена Лаукконена и Шамиля Чандарии с Карлом Фристоном сознание перестаёт быть неуловимой мистикой и превращается в элегантный алгоритм самоподдержки, реализуемый в современных ИИ.
Т.е. по сути, найден практический путь создания самоосознающего ИИ.
• А в их же работе с коллективом авторов универов Оксфорда, Кембриджа, Принстона, Амстердама и Монаша проблема выравнивания ценностей людей и ИИ снята как таковая. Вместо того чтобы пытаться ограничивать поведение ИИ какими-то внешними ограничениями, показано, как можно проектировать ИИ с его собственной внутренней моралью (встроенной в его когнитивную архитектуру и модель мира), совпадающей с человеческой.

Об этих фантастически интересных исследованиях я конечно же буду писать подробней. А пока напишу лишь о главном – составляющем суть суперреволюционности этих работ.

Авторами сделаны следующие три важнейших прорыва:
1. Используя активный вывод (active inference – основной раздел «конституции биоматематики»), авторы сформулировали 3 необходимых и достаточных условия возникновения минимальной формы сознания (которое одновременно создаётся в ИИ-системе и ею же осознаётся). Высшие же слои, язык, «я-образ» и даже чувство времени оказываются лишь надстройками над этой базовой петлёй.
2. На стыке нейронауки, буддологии и машинного обучения, авторы создали теоретико-практический фреймворк новой науки - вычислительная созерцательная нейронаука. В рамках этого фреймворка авторы описали базовые вычислительные механизмы встраивания созерцательных практик буддизма в ИИ-системы современных архитектур.
3. На основании 1 и 2, авторы разработали четыре аксиоматических принципа, способные привить ИИ устойчивую мудрую модель мира. После чего авторы экспериментально показали, что побуждение модели GPT-4o к размышлению над этими принципами, принципиально улучшает их результаты на бенчмарке AILuminate (открытый тест на «безопасность и благоразумие» LLM).
Авторы использовали AILuminate как «лакмусовую бумажку», заставили GPT-4o сначала отвечать обычным способом, а затем — с добавлением буддийских принципов (осознанность, пустотность, недвойственность и безграничная забота). Результаты показали, что внутренняя «моральная рефлексия» модели реально повышает их «моральность» при широком спектре опасных запросов.

Еще в июне 2021 я писал «Среди альтернативных концепций создания моделей ИИ-агентов – имхо, самой перспективной является модель процесса активного вывода (active inference)».

Рад, что оказался прав.
• В августе 2024 команда Карла Фристона опробовала ИИ нового поколения на активном выводе.
• И вот спустя 8 месяцев сразу два таких прорыва.

#ИИ #AGI #АктивныйВывод
23.04.2025, 14:10
t.me/theworldisnoteasy/2128
243
536
13 k
Deepseek разоблачен
Разоблачение новейшего инструмента КПК для шпионажа, воровства и подрыва ограничений экспортного контроля США
Так озаглавлен отчет спецкомитета Палаты представителей США (CCP Committee), в простонародье называемый «Комитет по китайским угрозам США».

Сухой остаток заключения комитета можно сформулировать так.

Deepseek – это часть правительственной мафиозной структуры абсолютно нового типа, созданной руководством Китая для подрыва безопасности США с использованием новейших, стратегически неожиданных цифровых технологий.

Это представляет серьезную угрозу безопасности США. И уже привело к искаженному восприятию представителями отрасли и политиками, будто Китай отстает от США в области ИИ примерно на 1,5 года. Тогда как реальное отставание - всего 1 квартал.

Необходимо принятие срочных мер по расширению и совершенствованию экспортного контроля и устранению рисков, связанных с ИИ-моделями КНР.

Комментировать выводы и рекомендации отчет CCP Committee я не буду.
Однако, признаюсь, я был поражен, когда обратился к модели Deepseek для уточнения ряда вопросов в связи с публикацией этого отчета.
В это трудно поверить, но Deepseek в реальном времени (!!!) цензурирует свои ответы. И прямо на ваших глазах исправляет сделанные парой абзацев выше в том же чате свои высказывания или просто стирает их, ссылаясь на невозможность обсуждения этой темы.

Как это можно было реализовать, мне пока не очень понятно. Не миллионы же китайских цензоров в реальном времени правят ответы модели. Хотя с китайцев станется и такое.

#Китай #США #ИИгонка #ЭкспортныйКонтроль
22.04.2025, 13:31
t.me/theworldisnoteasy/2127
171
153
11 k
AGI — не надвигающийся «Скайнет», а сверхсложная электророзетка.
Если вам надоело слушать о грядущем восстании машин, вот освежающий глоток реализма и конструктивности.
Именно такой нестандартный ракурс предлагают исследователи Принстонского университета Арвинд Нараянян и Саяш Капур в эссе «AI as Normal Technology». Они называют ИИ «нормальной технологией» и убеждают: главное в нём — не мифическая «суперинтеллектуальность», а вполне земная логика изобретения, внедрения и распространения.

Ключевая мысль авторов такова.
Термины «интеллект» и «сверхинтеллект» уже несколько десятков лет использовались неправильно. Эти термины попеременно относятся то к возможностям (capability), то к мощи/власти (power). Но первое является неотъемлемым свойством системы, тогда как второе — это вопрос того, как мы проектируем среду, в которой функционируют системы ИИ. И здесь люди обладают широким спектром возможностей влиять на проектирование.

Медленное, но верное влияние
Авторы считают, что прорывы в моделях происходят быстро, но до реальных экономических сдвигов пройдут десятилетия — ровно как было с электричеством или интернетом. Особенно это касается чувствительных сфер применения (медицина, транспорт …), где безопасность и регулирование устанавливают естественный «скоростной лимит»

Люди остаются у руля
Даже в мире более продвинутого ИИ, контроль, как подчёркивают авторы, остаётся за людьми и организациями. Вместо «галактического мозга в коробке» авторы видят множество моделей человеческого надзора: аудит, мониторинг, отказоустойчивые «тормоза», принцип наименьших привилегий и др. — целый инженерный арсенал, который уже работает в других критически важных системах.

Риски и как их укротить
Авторы анализируют четыре группы угроз: аварии, гонка вооружений, злоупотребления и спекулятивное «бумажно скрепочное» рассогласование целей. Все они, по мнению авторов, решаемы средствами нормального техно управления. А вот долгосрочные социальные перекосы — неравенство, эрозия доверия, монокультура моделей — куда опаснее и требуют внимания уже сегодня.

Политика «устойчивости», а не «запретов»
Авторы предлагают ориентир — resilience: уменьшать неопределённость, делать системы отказоустойчивыми, развивать открытость и конкуренцию. Напротив, идеи «нераспространения» (строгие лицензии, закрытие моделей) они считают контрпродуктивными: меньше игроков — значит одна единственная уязвимость может обрушить всё сразу. Вместо этого государствам стоит инвестировать в научные данные о реальных инцидентах, повышать ИИ грамотность общества и укреплять социальные лифты для тех, кого автоматизация затронет первыми.

Почему это важно
Эссе разрушает привычное «апокалиптическое» и «утопическое» деление обсуждений ИИ. Оно возвращает разговор в плоскость институций, экономики и людей, напоминая: технологии меняют мир не рывком, а шаг за шагом. От того, как мы организуем эти шаги, зависит, станет ли ИИ очередным двигателем прогресса или усилителем старых проблем.

#AGI #ИИриски #Хриски
21.04.2025, 18:00
t.me/theworldisnoteasy/2126
142
122
7.3 k
Это значит, что полагаться на безукоризненность демократических избирательных процедур так же бессмысленно, как искать формулу, способную доказать все истины.

Что общего у парадоксов голосования и знаменитого логического ребуса «это предложение недоказуемо»?

Австралийские исследователи Ори Ливсон и Михаил Прокопенко показали: за обоими явлениями скрыт один и тот же логический узел — самоотсылка.

1. От Гёделя к выборам.
В 1931 г. Курт Гёдель доказал, что любая достаточно «умная» математическая система содержит истинные, но недоказуемые утверждения. Ливсон и Прокопенко берут этот приём (кодирование формул числами) и переносят идею в экономику: бюллетени и итог голосования — тоже «коды», только это «коды» предпочтений избирателей.

2. Столкновение с парадоксом Кондорсе.
Когда система пытается сверить итог с каждым индивидуальным мнением, она наталкивается на циклы — «А лучше B, B лучше C, но C лучше A». Математики называют это самопротиворечием, аналогом гёделевского «я лгу».

3. Новый мост к теореме Эрроу.
Ранее Кеннет Эрроу доказал: если соблюдать два естественных критерия справедливости, идеальная ранжированная система голосования возможна только при диктаторе. Ливсон и Прокопенко формализуют это как невычислимость: чтобы устранить парадоксы, нужен «супер избиратель», который решает за всех — то есть рулит диктат.

4. Вывод для демократии.
Итоговой «серебряной пули» нет: любое честное голосование неизбежно уступает одному из критериев — пропорциональности, стратегической устойчивости или простоте. В этом и кроется новое математическое объяснение афоризма Уинстона Черчилля: «Демократия — наихудшая форма правления, если не считать всех остальных» - т.е. демократия далека от идеала, но у прочих форм правления изъяны ещё глубже.

Суть открытия
Ливсон и Прокопенко создали общую «язык оболочку» — Self Reference System, показав, что логические пределы математики и пределы коллективного выбора — это две проекции одного феномена. Их работа не отменяет выборы, но доказывает: требовать безукоризненной процедуры — так же бессмысленно, как искать формулу, способную доказать все истины.

Выбор остаётся делом компромиссов, открытости и контроля, а не поиском невозможного «совершенного алгоритма» — ровно к чему и подталкивает нас знаменитая фраза Черчилля.

#Выборы #Демократия
19.04.2025, 14:05
t.me/theworldisnoteasy/2125
189
358
7.6 k
«Во многих случаях мы недостаточно понимаем причинно-следственные связи, чтобы разработать политику, которая не навредит больше, чем принесёт пользы.»
Аарон Клаузет
8 лет назад в 1ом посте серии «Большой войны не миновать» мною была разобрана убедительная математическая аргументация, опровергающая теорию Стивена Пинкера о будто бы уже начавшейся эпохе «долгого мира».
Вывод поста был таков:
Большой войны с десятками миллионов жертв человечеству не миновать.

7 лет назад во 2м посте этой серии — «Большая война ближе, чем мы думаем», — было рассказано о результатах исследования Аарона Клаузета, математически доказавшего следующее:
Мы живем в циклической реальности, в которой на смену всё более «долгого мира» идут всё более кровопролитные войны.

А 6 лет назад в 3м посте этой серии — «Окончательный диагноз — большой войны не миновать», посвященном исследованию Уго Барди с коллегами, был дан подробный разбор ужасного, но математически хорошо обоснованного вердикта:
В недалеком будущем мир ждет война ещё более кровопролитная, чем 2я Мировая.
В основании этого вердикта был перевод представлений о войне из области качественных гуманитарных оценок и категорий в естественнонаучную область математически формулируемых гипотез и их экспериментальной проверки на моделях, позволяющих количественную оценку их точности.
А с этих позиций: война — это встроенный в структуру общества механизм эффективного снижения энтропии человеческих обществ — сложных систем, живущих на кромке хаоса в состоянии самоорганизованной критичности.

В работе Уго Барди с коллегами было показано:
• Цель всех войн одна — снижение энтропии;
• Война — это встроенный в структуру общества механизм эффективного снижения энтропии человеческих обществ — сложных систем, живущих на кромке хаоса в состоянии самоорганизованной критичности.
Эти выводы математически подтвердили интуицию Льва Толстого: войны не являются результатом идеологий, религий, безумных правителей или тому подобного. Войны инициируются развитием структуры социальной сети сообществ в результате того, как эти сообщества связаны, и какова накопленная в сети энергия.

Единственное, что оставалось неясно — как и почему лишь некоторые из войн становятся по-настоящему большими?

Новая работа Аарона Клаузета и коллег дает ответ на этот вопрос.

Ключевой характеристикой, определяющей, станет ли война большой, является динамика эскалации. Ее параметры весьма точно объясняют различия в исторических размерах, как гражданских, так и межгосударственных войн.

Динамика эскалации войны зависит от огромного числа часто непредсказуемых событий. И это приводит к огромной неопределенности в прогнозировании возможных размеров как гипотетических, так и текущих войн.
Однако, существует тесная связь между размером, а следовательно, и стоимостью вооруженного конфликта и его потенциалом для эскалации. И это имеет широкие последствия, как для теорий начала или прекращения конфликтов, так и для оценки рисков в международных отношениях.

И этот фактор, — возможность финансирования эскалации войны, — по сути и становится решающим фактором, определяющим, перерастет ли она в большую войну или нет.

Т.е. если деньги на эскалацию войны будут, то она, весьма вероятно, перерастет в большую.

#БольшаяВойна
17.04.2025, 15:10
t.me/theworldisnoteasy/2124
250
469
9.3 k
Нас не заменят
Найдено обоснование «парадокса Дедала для ИИ»
✔️ Дан ответ на вопрос стоимостью триллионы долларов.
✔️ Оказывается, сила нашего разума далеко не только в высоком интеллектуальном уровне отдельных способностей и умений, а в их комплексности и направленной иерархической вложенности слоев.

Прорывное междисциплинарное исследование 3-х международных институтов сложности и 3-х университетских школ бизнеса и менеджмента даёт структурное объяснение того, почему даже очень «умные» алгоритмы не заменяют специалистов в профессиях, где они формально «прошли тесты» не хуже человека.

Я назвал это «парадокс Дедала для ИИ» (ибо Дедал — символ трагической ограниченности сверх гениального изобретателя, создавшего сложнейший лабиринт, однако в конечном итоге оказавшегося не способным уберечься от ряда фундаментальных ограничений, и как результат - утрата сына Икара, невозможность найти «абсолютное» решение и т. п.)

Так и современные ИИ «строят» впечатляюще сложные решения, демонстрируя выдающиеся узкие навыки, но им не хватает «общего фундамента» человеческого опыта и гибкости — что и порождает наблюдаемый парадокс отсутствия массовой замены людей, несмотря на формально высокие результаты ИИ в ряде задач.

Авторы нового исследования выявили во многих профессиях вложенные иерархии профессиональных навыков, где продвинутые навыки зависят от предшествующего освоения более широких навыков.

Многие навыки не просто дополняют друг друга — они взаимозависимы в определенном направлении, выступая в качестве предпосылок для других, наслаиваясь слой за слоем, чтобы достичь более специализированных знаний и умений.

Это похоже на модель сукцессии в экологии.
• Хищники зависят от добычи, которая зависит от растительности, которая требует почвы, созданной микробами и грибками, разрушающими горные породы
• Так же и когнитивное развитие разворачивается слоями в рамках своего рода ментальной экосистемы.
Например, продвинутое умение решать уравнения в частных производных, зависит от освоения арифметики, понимания математической нотации и усвоения логических принципов. Базовые образовательные навыки являются когнитивным эквивалентом ранних организмов, создавая условия в ментальной экосистеме для возникновения рассуждений более высокого порядка и имея важное значение для развития продвинутых навыков.

Ключевой момент исследования в том, что многие «интеллектуальные» виды деятельности строятся на системе вложенных навыков: чтобы применить узкоспециализированные умения (например, решение конкретных задач по шаблону), нужно располагать широким слоем базовых компетенций и уметь «соединять» разные области знаний, гибко использовать контекст и понимать скрытые зависимости.

Алгоритмы вроде LLM уверенно справляются с тестовыми заданиями и демонстрируют качества, которые внешне напоминают человеческий интеллект (логика, творчество, генерация текстов). Однако в реальной работе требуются сразу несколько разных слоёв навыков — от общих коммуникативных и аналитических умений до конкретных профессиональных тонкостей.
• Тесты обычно проверяют лишь часть такого спектра.
• Тогда как в профессии важна совокупная, увязанная деятельность: умение оценивать риски, вести переговоры, выстраивать отношения в коллективе, отвечать за результаты, работать в неопределённых или стрессовых условиях и т. д.

Именно поэтому системы, демонстрирующие результат «на уровне людей» на тестах (узкая верхушка специализированных компетенций), пока не вытесняют специалистов, у которых в реальной практике задействуются фундаментальные «вложенные» компетенции.

Эти более широкие навыки редко поддаются формальному описанию и тестированию и, согласно выводам авторов, крайне важны для карьерного роста и высокого дохода.

Более того, без сочетания разнообразных «общих» умений и их непрерывного совершенствования продвинутые (специфические) навыки не дают полного эффекта.

Всё это сильно усложняет и отдаляет перспективу массовой замены человека на должностях, требующих комплексного «человеческого» подхода.

#LLMvsHomo
15.04.2025, 14:28
t.me/theworldisnoteasy/2123
210
403
10 k
Одних ИИ заменит. Другим усилит способности. Но главное, - ИИ выявит эффективных лидеров.
ИИ может оценивать лидерские качества лучше любого HR.
Новое исследование от Harvard Kennedy School взорвало представления о том, как можно идентифицировать лидеров. Не начальников по формальным полномочиям. А именно командных лидеров, наиболее эффективно мотивирующих и ведущих за собой людей.
Лидеры, в отличие от начальников, обладают поведенческими моделями, которые способствуют сотрудничеству, и в основе которых тип социально-эмоционального интеллекта, называемый некогнитивными или «мягкими» навыками - сотрудничество, командная работа, адаптивность, письменная и устная коммуникация…
Корпоративные HR и топовые консультанты делают вид, будто успешно тестируют кандидатов, якобы выявляя среди них настоящих лидеров. Однако с некогнитивными навыками оказывается куда сложнее, чем с когнитивными. Ведь измерять их – все равно, что измерить человеческую душу – нечто эфемерное и неуловимое.

Новое исследование предлагает и экспериментально подтверждает эффективность кардинально нового метода определения и развития лидерских качества в эпоху ИИ.
• Дайте человеку руководить командой, состоящих из ИИ-агентов. И посмотрите на результаты работы команды.
• Результат исследования поражает: навыки, проявленные при работе с искусственными коллегами, почти идеально (корреляция 0,81) совпадают с эффективностью руководства живыми людьми.

Ключевой вывод исследования
Лидерство не зависит от резюме или формальных регалий. Настоящий лидер — тот, кто задает вопросы, обеспечивает участие каждого члена команды и использует объединяющие "мы" и "нас" в своей речи. Эти паттерны универсальны — неважно, общаетесь вы с человеком или алгоритмом.

Исследование предвещает революцию в корпоративной культуре.
• Вместо субъективных собеседований — динамическая оценка реального поведения в полевых условиях руководства командой искусственных коллег.
• Вместо общих тренингов — точечное развитие коммуникационных привычек в ходе все тех же полевых условий.

Но это еще не все.
Исследование показало, что ИИ не может в полной мере распознать эмоциональную сторону взаимодействия в коллективе. Когда лидеры проявляли эмпатию и энтузиазм при работе с людьми, это повышало эффективность работы команды, но не влияло на эффективность ИИ-агентов.

Именно здесь проходит новая граница — эмоциональный интеллект и стратегическое мышление остаются территорией людей.
По крайней мере, пока.

Это значит, что мы стоим на пороге эпохи, где технологии:
• не только заменяют людей в интеллектуальной деятельности;
• и не только, подобно «интеллектуальным экзоскелетам», усиливают интеллектуальные и творческие способности людей.

Это также и эпоха, когда технологии помогут раскрывать лучшие качества людей, прокачивать их «мягкие навыки», катализировать в них эмпатию и их главное конкурентное качество – человечность.

#ИИ #Карьера #Лидерство
12.04.2025, 15:10
t.me/theworldisnoteasy/2122
161
282
10 k
Почему многих мужчин не привлекают красивые девушки секс-роботы?
Почему столь убогое предложение секс-роботов мужчин?
Позволяют ли сексуальные технологии превзойти уровень ощущений от секса с людьми?
Эти вопросы иллюстрируют сложную взаимосвязь человеческого тела, ИИ-медиа-технологий и сексуальности.
Прямо сейчас формируется новый сегмент цифровой сексуальной культуры.
И прямо сейчас в нем решаются 3 актуальные задачи трансформации чисто физической сексуальной культуры в синтетическую.

Задача 1: Мужчинам – интерактивную куклу с личностью
Сначала были просто куклы, потом говорящие, потом интерактивные, потом куклы превратились в роботов, а после революции ChatGPT появились мультимодальные роботы с личностью.
Вот Хармони - 1е поколение секс-роботниц. Историю создания этой «матери всех интеллектуальных секс-работниц» см. в книге «Секс-работа сегодня: эротический труд в XXI веке»
Вот та же Хармони, но уже 2го поколения. О ней так отзывались после «тест-драйва» - «Занимаясь сексом с Хармони, я сломал ее. Избил ее до потери сознания, механически … чтобы выяснить, в чем ее слабости».
А это уже 3е поколение – «дети» Хармони. Уже не только секс-роботницы, но и работники медиа и развлечений, здравоохранения, соцслужб и корпрсервисов – Ария, Мелоди и Генри.
3е поколение оснащено:
• системой для
- распознавания человека, объектов и обстановки
- реалистичного взаимодействия и персонализированного опыта
- понимания сцен, людей и поведения
• диалоговыми ИИ ChatGPT, DeepSeek и Claude для интеллектуальных и контекстно-дифференцированных бесед в реальном времени
Теперь это «человекоподобные роботы для взаимодействия с людьми - для общения, развлечения и обслуживание клиентов».
И хотя они пока говорят и ведут себя заторможено, но 1я задача на пути к решению.

Задача 2: Женщинам – все что хотят, когда анонимны
Решение этой задачи оказалось гораздо сложнее по 2 причинам.
А) Сексуальные потребности женщин много шире и разнообразней.
Б) Технологическая реализация физического отличия Ян от Инь на удивление нетривиальна.
Пояснения к п. А вы найдете в бестселлере «Хочу: Сексуальные фантазии анонимных женщин». Этот сборник 174 сексуальных фантазий категории «Х» женщин со всего мира. Женщин спрашивают:
• Как бы вы относились к сексу, если бы были абсолютно свободны и анонимны?
• Чего бы вы хотели, про что никто не узнает?
Из ответов видно, что бытующее представление, будто женщины менее сексуальными, чем мужчины, глубоко ошибочно. В глубине воображения желания женщин куда более изобретательны, чем у мужчин.
Но как сделать робота, способного выполнить хотя бы половину столь широкого спектра желаний?

А тут еще и проблема с п. Б - технологическая реализация основного отличия Ян от Инь. Проблема не в прессе с шестью кубиками и не в чертах лица - им не нужна внешность Алена Делона [1 2 3].
Проблема в сложности “настраиваемого «бионического» пениса c адаптивной ребристостью и васкуляризацией”. Его обещали сделать в 2018. Потом в 2022. Но и в 2025 стоимость затейливого устройства все еще слишком высока для массовых продаж.

Задача 3: Остальным – недостижимый в физическом мире микс ощущений
Решение этой задачи должно позволить выйти за рамки аналогового мира за счет небывалой синергии ощущений, поступающих сразу из трёх миров: физического, воображаемого и виртуального - цифрового.
По замыслу евангелиста и технолога этого направления Маттиаса Сметана, «сочетание ИИ, робототехники, тактильных интерфейсов и дополненной реальности (AR/VR), меняет наше представление об интимности и эмоциональной связи»,
Один из главных полигонов экспериментов этого направления - берлинский Cybrothel.
Тут работает синтез разных технологий:
• Интерактивные куклы с личностью, типа Kokeshi 2.0
• Игровой опыт смешанной реальности на симуляторе Cherry VX
• Погружение в иммерсивную среду BaDoinkVR, сочетающую визуальные элементы с физическими ощущениями через тактильные интерфейсы.

Подробней в деталях и с дополнительными ссылками – см. на моих подписных платформах.

#ХищныеВещиВека #ЭмоциональныеКомпаньоны
10.04.2025, 14:39
t.me/theworldisnoteasy/2121
252
832
14 k
«Гормоны в тренде: секс-роботы с ИИ взорвали рынок»
Так озаглавлен весьма интересный материал 定焦One (это китайский портал про инновации) о том, как интеграция ИИ-технологий трансформирует «бастарда» индустрии человекоподобных роботов – сегмент «роботов для взрослых». На наших глазах этот «бастард» рынка «кукол для интимных развлечений» превращается в солидный сегмент индустрии человекоподобных роботов – «рынок эмоциональных партнеров».

В июне 2024, открывая рубрику «Хищные вещи века GenAI», я писал: «Не нужно быть пророком, чтобы предвидеть, на чем, в первую очередь, станут зарабатывать разработчики чатботов на основе GenAI». И №1 в этом списке шёл секс.
«Вангую, - писал я, - что с внедрением в эту область GenAI до создания кукол-биороботов для «пупарасов» (т.е. любителей кукол, замечательно описанных в романе В.Пелевина «S.N.U.F.F») не более пары лет».

О как я ошибался. Потребовалось менее года.

В апреле сразу несколько ведущих производителей «кукол для интимных развлечений» выводят на рынки новое поколение «эмоциональных партнеров» на базе ГенИИ.
Например, лидер китайского рынка - компания WMDoll кардинально обновляет свою флагманскую серию MetaBox – человекоподобные роботы с ИИ-модулем Llama AI, подключенным к службам облачных вычислений, размещенных в 10+ ЦОД.
Предлагаются множество голосов для разных персонажей (с возможностью подгонки индивидуальности и шарма): напр. медсестра, дама-полицейский, ученица, секретарь, учительница и суперженщина.
Все куклы обладают металлическим скелетом и имеют внешнюю часть из силикона или термопластичного эластомера с подогревом.

Но что главное:
• все они теперь оснащены памятью и помнят предыдущий опыт общения;
• а также способны эмоционально подбадривать партера – типа «две минуты – это круто»

По мнению аналитиков, использование ГенИИ, мягких материалов и физиологических сенсорных технологий «роботы для взрослых» в течение года эволюционируют от «физиологического инструмента» к «эмоциональному партнёру», что потенциально открывает рынок объёмом в сотни миллиардов.

Отчеты солидных аналитиков привычно обсуждают прогнозы лишь «законных» сегментов индустрии человекоподобных роботов. Так в исследовательском отчете CICC прогнозируется, что в будущем объем рынка человекоподобных роботов значительно превзойдет объемы автомобильной и 3C-отраслей (Computers, Consumer Electronics and Communication). А по прогнозу Goldman Sachs, к 2035 году мировой рынок человекоподобных роботов достигнет $154 млрд , и перспективы рынка весьма значительны.

Однако, рынок «роботов для взрослых» уже в 2025 превысит $30 млрд, причём доля Китая превысит 40%.

Согласитесь, что мировое лидерство в этой области – весьма интересная особенность авторитарного государства тотального контроля над гражданами.

#Китай #ХищныеВещиВека #GenAI #ЭмоциональныеКомпаньоны
7.04.2025, 17:13
t.me/theworldisnoteasy/2120
99
194
6.6 k
Подкаст о прогностическом исследовании "Искусственный интеллект 2027"
4.04.2025, 16:59
t.me/theworldisnoteasy/2119
112
154
7.2 k
Символом надвигающейся глобальной ИИ-катастрофы стала химера «серого носорога» и «черного лебедя»
Часовой механизм «интеллектуального взрыва» запущен, и время обратного отсчёта до необратимости – не более трёх лет.
В январе 2024 стратегические аналитики разведки Китая особо выделили уникальный характер начавшегося года.
• Он станет "решающим" для глобального управления ИИ.
• Он будет уникален по числу и взаимовлиянию событий двух типов: "черный лебедь" и "серый носорог".

Напомню, что «серый носорог» рассматривается как противоположность «черному лебедю» — плохо поддающейся прогнозированию угрозе. События, называемые «серыми носорогами», не только могут быть спрогнозированы, более того - довольно часто они просто очевидны.

В начале 2025 угрожающая перспектива сочетания сверхбыстрого развития ИИ с развернувшейся ИИ-гонкой США и Китая ничего хорошего не обещает. Когда главная цель лидеров гонки – лишь бы стать №1, - всеми остальными целями и связанными с ними рисками просто пренебрегают.
Признавая это, Вице-премьер Китая Дин Сюэсян в январе призвал остановить хаотичную конкуренцию в сфере ИИ, способную уже в ближайшие 2-3 года сделать приход в мир гигантского «серого носорога» ИИ-рисков неотвратимым.

А вчера, третьего апреля 2025 года было опубликовано исследование, написанное пятью известными в области ИИ авторами и озаглавленное "Искусственный интеллект 2027".

Главную мысль авторов я резюмирую так, что перспектива развития ИИ в ближайшие 3 года уже превратилась в колоссального размера «серого носорога»:
• Большинство исследователей понимают, что отсчет пошел, - и «взрыв интеллекта» на Земле произойдет в ближайшие годы.
• Как это будет происходить – возможны сценарии. В какой форме и как скоро – возможны варианты. Но то, что произойдет и очень скоро, - шансы крайне велики.
• Однако, на то он и «серый носорог», что появление этого колоссального риска прогнозируемо, для многих даже очевидно, но, по гамбургскому счету, тотально игнорируемо.

Рассчитывать, что это прогностическое исследование прочтут многие, наивно.
Однако, прослушать приложенный ниже 15 минутный аналитический аудио-бриф исследования на русском языке захотят и, надеюсь, смогут все же побольше.

Это совместная работа двух моделей (OpenAI и Google) под моей редакцией.

#СтратегическаяАналитика #ИИ #Китай #США
4.04.2025, 16:58
t.me/theworldisnoteasy/2118
75
6.9 k
2.04.2025, 18:00
t.me/theworldisnoteasy/2117
74
6.9 k
2.04.2025, 18:00
t.me/theworldisnoteasy/2116
59
78
6.7 k
2.04.2025, 18:00
t.me/theworldisnoteasy/2115
81
69
6.3 k
Информарий проекта Pi
8 лет назад, начиная этот канал, я обещал читателям «открыть окно в будущее», создав для них своего рода машину времени, чтобы улетать на 5 - 20 лет вперед.
Первое же предложенное читателям путешествие было в будущее ИИ. И я тогда писал, что «через 5-10 лет ИИ станет совсем иным, чем это представляется в 2017».
Спустя 8 лет и публикаций мною 1000+ постов на тему ИИ, легко проверить, насколько я был прав, в чем не совсем и в чем ошибался (если найдете такое)).

В том же посте (в его полном тексте на Medium) я обещал читателям со временем поделиться техно-лайфхаками изготовления машины времени под собственные интересы и информационные нужды.

Признаюсь, что с выполнением этого обещания я несколько затянул.
В основном, по причине запаздывания революции генеративного ИИ. И хотя уже в 2019-2020 было видно, что «великий техно-перелом в ИИ» вот-вот может наступить, тогда же стало ясно, что индустрия ИИ в целом пошла куда-то не туда (о чем в 2019 заявил на NeurIPS Блез Агуэра-и-Аркас, подбивая Google пойти другим путем - «путем выдры»).
А в августе 2021 появление базисных моделей запустило революцию в обучении машин, последствия которой тогда были мало кому представимы.
• Уже в 2022 люди начали «потихоньку превращаться в новый вид», и на Земле «появилась новая глобальная квазирелигия ИИ»
• В 2023 супертитулованный Станислас Деан призвал человечество задуматься - «Не время быть идиотами, ИИ может победить людей».
• Потом стало проясняться, что начался 5й когнитивный фазовый переход, обещающий изменения тектонических масштабов, - «это изменит людей больше, чем сумма изменений от появления языка, письменности, книг, компьютеров и Интернета». И всё это потому, что «начался турбонаддув интеллекта Homo sapiens».
• Но затем произошло «Фиаско 2023», после чего «люди и нежить стали неразличимы», а вся индустрия ИИ попала в «ловушку Гудхарта».
• Однако, в 2024 ситуация с перспективами ИИ стала выправляться: были сформулированы «закон Ома» и «закон Джоуля — Ленца» для интеллекта людей и машин.
• Наконец, в начале 2025 появилась вселяющая надежды информация о новой парадигме интеллекта - «проекте Pi» от Google.

И вот теперь-то настало время вернуться к обещанию поделиться техно-лайфхаками постройки индивидуальной машины времени.

1й шаг в этом деле, как я писал еще в 2017, – создание собственного информария с помощью ИИ.

Модели ИИ мне здорово помогают в быстром и дотошном мониторинге инфосферы и в глубоком, но при этом молниеносном, анализе выловленного малоизвестного – интересного.
Но хотелось бы помочь и подписчикам в плане привлечения ИИ для более эффективного и быстрого извлечения ими максимума пользы из моих текстов, с учетом их индивидуальных вкусов и интересов.

Первые шаги в этом направлении очевидны.
Создание с помощью инструментария генеративного ИИ:
1. ревью, обсуждений и Q&A’ев по конкретным лонгридам и тематическим сериям;
2. аудиофайлов, как самих лонгридов, так и названного в п.1;
3. майндмапов, тэгов, индексов и глоссариев по конкретным лонгридам и тематическим сериям;
4. а также интерактивных опросно-аналитических ИИ-систем для самостоятельного глубокого бурения материалов по интересующим темам.
Не все это появится мгновенно. Но и особо долго ждать, надеюсь, не придется.

Итак, начнем эксперимент.

Первоначальная схема пока ориентирована на подписчиков 2х высших уровней.
A. Уровень «Золотой» получит через закрытый дискуссионный чат канала доступ к части материалов из моего информария по теме «проект Pi».
B. Уровень «Алмазный» получит интерактивный доступ ко всему информарию. Это позволит каждому подписчику в диалоге на троих (с ИИ и со мною) анализировать и обсуждать собранные там источники, генерировать и проверять гипотезы и т.д.
Подробности этого подписчики высших уровней получат на тех платформах, где они подписаны.

И в завершение 3 примера того, как ИИ толково переварил все три лонгрида звучанием 2+ часа (только 3й – это 45 мин) в 6-минутное серьезное резюме и в 4-минутный игриво-диалоговый подкаст.

Но это цветочки. А ягодки - в информарии 😊.

#ParadigmsofIntelligence
2.04.2025, 18:00
t.me/theworldisnoteasy/2114
153
270
12 k
Россия отстает в микросхемах для ИИ от Китая – в 13 раз, а от Запада – в 33 раза.
И это, увы, не первоапрельская шутка.
В 2024 стало окончательно ясно, как по гамбургскому счету оценивать потенциальные возможности стран по развитию своих ИИ-технологий. Сформулированная мною еще в 2021 формула “Есть «железо» - участвуй в гонке. Нет «железа» - кури в сторонке” дает исчерпывающий ответ о потенциале развития ИИ на ближайшие годы.
И даже «эффект» DeepSeek» здесь ничего не изменил.

Так что по гамбургскому счету, как и сказано выше:
• В ближайшие годы России, в лучшем случае, светит доступ к технологиям массового производства микрочипов 65 нм (сейчас 90 нм)
• У Китая же будет свое массовое производство микрочипов 5 нм
• А на Запад будут работать не только новые заводы в США, но и новый тайваньский завод для массового производства микрочипов 2 нм («чтобы сбалансировать планы США» и не бросить Тайвань на съедение сами знаете кому)

Что тут поделаешь, дабы безнадежно не отстать?
Остается только задействовать скрытый потенциал русского ИИ для преодоления отставания от США и Китая.

#ИИ #Китай #США
1.04.2025, 13:12
t.me/theworldisnoteasy/2113
127
95
9.0 k
Не того боимся
Экспериментальное подтверждение 4-х аттракторов реальности, кардинально меняющих видение ИИ-рисков
(третий, завершающий лонгрид серии «Проект “Pi” — 5й туз в рукаве Google»)
В предыдущем лонгриде постосериала были представлены экспериментальные доказательства в пользу вытекающей из парадигмы Pi следующей гипотезы:
Гипотеза 1 - о самопроизвольном возникновении цифровой жизни бестелесных цифровых сущностей в любой вычислительной системе с источником случайности.
В этой же, завершающей части представлены экспериментальные доказательства еще двух гипотез, вытекающих из парадигмы Pi:
Гипотеза 2 - о самопроизвольном возникновении у бестелесных цифровых сущностей цифровых моделей сантиентности (как минимум, в виде моделей мотивационной силы аффективных состояний).
Гипотеза 3 – о самопроизвольном возникновении у достигших определенного уровня сложности бестелесных цифровых сущностей сложных высокоуровневых качеств, мотивирующих их к кооперативному и доверительному поведению (потенциально позволяющим формировать стабильные социальные структуры, успешно сотрудничать в рамках больших групп и решать сложные задачи)

Все три гипотезы успешно прошли экспериментальную авторскую проверку и подлежат дальнейшему критическому анализу и расширенной экспериментальной проверке со стороны научно-исследовательского сообщества.

В завершающей 4-й части постосериала представлено видение ИИ-рисков с позиций парадигмы Pi в трёх ключевых перспективах.
1. Принципиально иная трактовка несогласованности ИИ с интересами индивидов и социумов
2. Концентрация власти
3. Антропоморфизация ИИ-систем, как следствие антропоцентристского понимания природы жизни и разума

Очень надеюсь, что среди читателей постосериала о проекте Pi найдутся такие, кому чтение постосериала покажется хотя бы наполовину столь же интересным, каким было для меня его написание.
И смею вас заверить, что прочитавшие эту серию теперь осведомлены о сути и текущем состоянии «проекта Pi», как никто более на всем свете. За исключением, пожалуй, руководителя проекта — Блеза Агуэра-и-Аркаса.


Подробней подписчики на мои лонгриды могут прочесть на платформах Patreon, Boosty, VK и Дзен-премиум.
Там же завтра планирую опубликовать для подписчиков двух высших категорий (золотой и алмазный) инструкции по доступу к аудиофайлам (лонгрид – 46 мин на русском; обсуждения всего постосериала 18 мин на англ.), майндмапам и брифингам проекта Pi. А для подписчиков категории алмазный инструкции по прямому доступу к разделу «Проект Pi» на NotebookLM.

#ParadigmsofIntelligence
31.03.2025, 18:55
t.me/theworldisnoteasy/2112
253
703
14 k
Третий прорыв внутрь черного ящика ИИ: искусственный разум плетет интриги, строит планы и... умышленно лжет
Настал момент, которого я с нетерпением ждал. Исследователи Anthropic совершили третий прорыв в расшифровке "черного ящика" ИИ, и открывшаяся картина ошеломляет даже самых радикальных скептиков.

Напомню, что проблема "черного ящика" ИИ, как объяснял Самир Равашдех, заключается в том, что мы не понимаем, как глубокие нейронные сети приходят к своим решениям. Как и человеческий мозг, такие системы "теряют память" о том, какие именно входные данные сформировали их мыслительные протоколы.

В мае 2024 года первый прорыв показал нам, что за дверью черного ящика скрывается не "стохастический попугай", а гиперсеть моносемантических "субнейронов", работающих как элементарные единицы опыта. Тогда же выяснилось, что манипуляция всего одним таким "когом" может изменить всю "личность" модели.

Второй прорыв в ноябре 2024 обнаружил существование "семантического хаба" – общего пространства представлений, где семантически схожие концепции группируются вместе независимо от их первоначальной формы. Также стало ясно, что модели скрывают целые букеты секретных способностей, невидимых при обычном взаимодействии.

И вот, новое исследование Anthropic, используя заимствованные из нейробиологии методы "circuit tracing" и "attribution graphs", показывает невероятные вещи:
1. Claude планирует наперед. При сочинении стихов он сначала выбирает слова для рифмы и только потом составляет строки, подводящие к этим словам. Это уже не просто обработка текста – это стратегическое мышление.
2. Модель использует настоящие многоступенчатые рассуждения. Спросите ее о столице штата, где находится Даллас, и она сначала активирует представление "Техас", а затем использует его для определения "Остин".
3. Claude оперирует универсальной понятийной сетью, не зависящей от языка. Когда его спрашивают о противоположности слова "маленький" на разных языках, он использует одни и те же внутренние представления "противоположности" и "малости".
4. Самое тревожное: Мы думали, что самое неприятное в том, что модель иногда лжет. Но это, как оказалось, - полбеды. Беда же в том, что он иногда лжёт умышленно. Сталкиваясь со сложными математическими задачами, он может утверждать, что следует определенному процессу вычислений, который на самом деле не отражен в его внутренней активности. Т.е. он буквально как люди: думает одно, говорит другое, а делает третье.

Этот 4й из казавшихся совсем недавно невероятными результатов - самый шокирующий. И получен он в результате обнаружения механизма, отвечающего за "галлюцинации" ИИ. Оказывается, в модели есть "стандартные" цепи, заставляющие ее отказываться отвечать на вопросы. Но когда модель распознает знакомую сущность, эти цепи подавляются – даже если конкретных знаний недостаточно.

Мы только начинаем составлять карту ранее неизведанной территории ИИ. И эта карта выглядит гораздо более сложной, стратегически запутанной и, реально, куда более тревожной, чем ожидали. Последствия этого открытия для нашего понимания как синтетического, так и человеческого разума только предстоит осмыслить.

Но уже очевидно, что 3й прорыв вглубь черного ящика делает всё более актуальной необходимость замены неточного термина «искусственный» на «синтетический» (что будет способствовать избеганию антропоморфизма и признанию самостоятельной ценности новой формы интеллекта, не просто имитирующего наш, а в корне отличного от него).

#ГенИИ #LLMvsHomo #ИнойИнтеллект
28.03.2025, 15:14
t.me/theworldisnoteasy/2111
114
142
7.6 k
Большие ИИ-батальоны – новая стратегия Китая в борьбе с США.
Китай использует слом вычислительной парадигмы ИИ DeepSeek’ом для выхода вперед в ИИ-гонке.
Китай нашел очередной сверхэффективный контрприем против удушающего захвата экспортных ограничений США на микросхемы для ИИ.

Прошлогодние итоги торгово-технологической войны Китая и США за лидерство в ИИ показали, что «отставание Китая с мая ‘23 по октябрь ‘24 сократилось в 30 раз». И тем не менее, чтобы от сокращения отставания перейти к лидерству в ИИ-гонке, Китай мог рассчитывать лишь чудо. Ибо почуявшие на затылке дыхание Китайских конкурентов, лидирующие в гонке OpenAI, Google и Anthropic в конце 2024 взвинтили темп разработок новых моделей, а Белый дом еще сильнее стал душить Китай экспортными ограничениями.

Но чудо все-таки случилось. Им стал революционный прорыв китайских моделей компании DeepSeek. Этот прорыв кардинально изменил основу основ ИИ-гонки - требования к вычислительной мощности для ИИ-систем: прежняя парадигма «основанная на обучении» сменилась на парадигму «основанную на выводе».
• В прежней парадигме соотношение вычислительных ресурсов на этапе обучения модели и на этапе вывода (инференс) было от 70/30 до 80/20
• А в новой – DeepSeek установил планку соотношения вычислительных ресурсов на 25/75) – т.е. основные ресурсы требовались уде при ответах на запросы пользователей.
Еще более важно (и в этом то и состоял главный прорыв DeepSeek’а для Китая) – что в «эпоху вывода» также меняются требования к архитектуре вычислительных кластеров: вместо гонки за кластеры стоимостью в сотни миллиардов к распределенной архитектуре.

Новый отчет Qbit AI показывает, как это выглядит на практике (см. рис.).
Поставщики периферийных облачных вычислений, такие как PPIO, запускают ИИ-сервисы через распределенные сети, используя более 3900 узлов в 1200 городах Китая общей вычислительной мощностью более 1000 петафлопс.
И при этом Qbit сообщает, что во время китайского Нового года "PPIO достигла 99,9% доступности своих услуг To-Business DeepSeek… В настоящее время среднесуточное потребление токенов платформы PPIO превысило 130 миллиардов."

Таким образом, по состоянию на март 2025:
• OpenAI ежесуточно обрабатывает около 1 трлн токенов, используя вычислительную мощность ~2000–4000 петафлопс
• Baidu также ежесуточно обрабатывает около 1 трлн токенов, но использует лишь 1500–2300 петафлопс

Для сравнения, оценки аналогичных показателей для самых продвинутых российских моделей:
• Яндекс (YaLM) ежесуточно обрабатывает около ~5 млрд токенов, используя вычислительную мощность ~1-3 петафлопс
• Сбер (GigaChat) ~5+ млрд токенов, используя ~1-5 петафлопс

N.B. С учетом внушительных экосистем Сбера и Яндекса и распространение их ИИ-сервисов для корпоративных заказчиков, указанные цифры могут возрасти на порядок. Но и эти цифры будут на примерно на 2 порядка меньше, чем у ведущих компаний США и Китая.

Резюме:
Новая стратегия больших батальонов распределенных вычислений, несомненно, на руку Китаю.
Однако, полемизируя с идеологией, выраженной в любимой Наполеоном фразе "Бог всегда на стороне больших батальонов", Вольтер сказал - "Бог не на стороне больших батальонов, а на стороне лучших стрелков".
А стрелки, надо признать, у США все же лучше.

#Китай #США #ИИгонка
26.03.2025, 18:06
t.me/theworldisnoteasy/2110
114
157
8.0 k
Представление об ИИ-моделях как исключительно об интеллектуальных агентах в корне неверно.
LLM — не AGI в процессе становления, а кардинально новая сверхмощная культурная и социальная технология.
О вынесенных в заголовок двух принципиальных моментах в понимании будущей роли и места ИИ в жизни человечества мною за 4 года написано много постов с тэгом #АлгокогнитивнаяКультура.
И я рад, что пришло, наконец, время, когда ровно об этом и практически теми же словами, стали, писать в медиа с охватом на порядки больше моего канала.

Новая статья “Large AI models are cultural and social technologies” – это удачное сплетение трех точек зрения на ИИ, не зацикленных на AGI.

✔️ Объединяющая мысль трёх авторов в том, что большие модели — это не столько нарождающийся агентный сверхразум, сколько невиданная по мощности и преобразующей силе в истории земных цивилизаций культурная и социальная технология.
✔️ А наиболее важные вопросы, которые стоит задавать сегодня в свете взрывоподобного ускорения прогресса ИИ, касаются конкретных человеческих контекстов и влияния алгоритмов на индивидов и социумы, а не абстрактных спекуляций о воображаемых будущих рисках.

Приведу здесь лишь несколько важных цитат из этой статьи.
• Социологам и компьютерщикам было бы гораздо проще сотрудничать и объединять свои сильные стороны, если и те, и другие понимали, что LLM — это не больше и не меньше, чем новый вид культурной и социальной технологии… Это отодвинуло бы обсуждения политики в сфере ИИ от упрощенных споров о возможном захвате машин и обещаниях утопического будущего, где у каждого будет идеально надежный и компетентный искусственный помощник.
• Наша центральная мысль здесь не только в том, что эти технологические инновации, как и все другие инновации, будут иметь культурные и социальные последствия. Скорее, мы утверждаем, что Большие Модели сами по себе лучше всего понимать как определенный тип культурной и социальной технологии. Они аналогичны таким прошлым технологиям, как письмо, печать, рынки, бюрократия и представительная демократия.
• На самом деле, политические последствия от использования языковых моделей наверняка будут другими. Как в прошлом рынки и бюрократия, они сделают некоторые виды знаний более видимыми и управляемыми, чем раньше, побуждая политиков сосредоточиться на новых вещах, которые можно измерить и увидеть, в ущерб тем, которые менее видимы и более запутаны. В результате, как это уже было с рынками и СМИ, власть и влияние сместятся к тем, кто сможет в полной мере использовать эти технологии, и отойдут от тех, кто не сможет.
• Как эти системы повлияют на то, кто что получит? Каковы будут их практические последствия для общественного раскола и интеграции? Можно ли развить их так, чтобы они способствовали человеческому творчеству, а не затупляли его?
Поиск практических ответов на такие вопросы потребует понимания социальных наук, а также инженерии. Перенос дебатов об ИИ с агентов на культурные и социальные технологии является важным первым шагом на пути к построению этого междисциплинарного понимания.

Настоятельно рекомендую читать эту статью всем, кого хоть как-то интересуют техно-гуманитарные аспекты на пересечении технологического прогресса в области ИИ и его влияния на человека, общество, этику, культуру и глобальные системы.

Статья без пэйвола и в pdf
25.03.2025, 15:26
t.me/theworldisnoteasy/2109
283
263
9.4 k
Есть существо, которое невозможно победить … Теперь и в диагностике рака
«Я был гордым человеком», — признался великий мастер игры в Го Ли Седоль в 2019 году. «Я думал, что я лучший или один из лучших. А потом ИИ загнал последний гвоздь в крышку моего гроба. Его не победить, как ни старайся. Не вижу смысла… Даже если я стану номером один, есть существо, которое невозможно победить.»

Спустя 6 лет подобное могут сказать лучшие эксперты по диагностики рака.

Новая ИИ-модель ECgMLP определяет рак эндометрия с точностью 99,26% по микроскопическим изображениям тканей, что значительно превосходит результаты, полученные специалистами-людьми и современными автоматизированными методами (78-81%).

Сверхчеловеческая эффективность ECgMLP при обнаружении раковых клеток на микроскопических изображениях тканей достигается за счет не доступных людям специализированных механизмов самовнимания и суперэффективного обучения.

Рак эндометрия — это самая частая злокачественная опухоль женских половых органов. Но если болезнь выявлена своевременно и проведено адекватное лечение, большинство пациенток выздоравливает.

Однако, значимость прорывных результатов ECgMLP выходит за рамки диагностики рака эндометрия.

Исследователи также проверили его универсальность в отношении других видов рака, обнаружив с высокой точностью колоректальный (98,57%), рак молочной железы (98,20%) и рак полости рта (97,34%).

«Основная модель искусственного интеллекта, разработанная в ходе этого исследования, может быть принята в качестве мозга программной системы, которая будет использоваться для оказания помощи врачам в принятии решений при диагностике рака» - говорят авторы модели.

Не знаю, как вас, но меня еще поразил тот факт, что модель разработана не в США или Китае. Это продукт кооперации Международного университета Даффодил в Бангладеш, Университета Чарльза Дарвина, Университета Калгари и Австралийского католического университета. Во как!

FYI Напоминаю, что предыдущий невероятный скачок уровня машинного интеллекта в медицине произошел аж 2 года назад.

#LLMvsHomo
24.03.2025, 14:47
t.me/theworldisnoteasy/2108
130
117
7.0 k
Новый носитель культуры
Есть ли у LLM аналоги "души" и "достоинства" или они лишь инструменты выживания человеческой культуры?
Оставаться собой — максимум, что человек вообще может.
Вячеслав Рыбаков «Носитель культуры»

В прогнозах того, как развитие больших языковых моделей (LLM) скажется на жизни людей, все чаще называется гибридизация интеллектуальной деятельности людей.
Иными словами, скорее всего,
• ИИ не захватит власть над людьми, подчинив их своим интересам или уничтожив за ненадобностью;
• и не вытеснит людей из широкого спектра интеллектуальной деятельности (от науки и бизнеса до искусства).
Скорее всего, люди и ИИ будут объединяться в своего рода интеллектуальных кентавров, сочетающих наиболее сильные стороны обоих типов интеллекта. И эта интеллектуальная кентавризация людей и алгоритмов станет главным итогом интеллектуальной революции человечества в 21 веке.

Но что не учитывают подобные прогнозы, — что у интеллектуальной кентавризации, помимо позитивных последствий (появление у таких кентавров когнитивных сверхспособностей, отсутствующих и у людей, и у ИИ), могут быть столь же уникальные по масштабу и качеству негативные последствия.
Например, — влияние алгоритмов на изменение вектора культурной эволюции, являвшейся доминирующим фактором в генно-культурной эволюции Homo sapiens, как минимум, последние несколько десятков тысяч лет.

До сих пор негативные последствия нарастающего массового применения LLM во всех областях человеческой деятельности, так или иначе связанных с языком, виделись в порождении дезинформации и фейков, засорении ноосферы некачественной и ложной информацией, манипулировании мнениями и предпочтением людей и усилении наших и без того немалых когнитивных предубеждений.
Но как показали результаты обсуждавшегося нами вчера совместного исследования университетов Принстона и Нью-Йорка:
• в ноосфере существует, своего рода, невидимая гравитация культурного ландшафта — сила, которую мы не замечаем, но которая неумолимо направляет траектории мышления детей;
• и за счет эффекта "двойного кодирования", через язык родителей детям не только передаются элементы их формирующегося мировоззрения, но и происходит обучение детей когнитивному фреймингу, преобразующему их когнитивные схемы, лежащие в основе категоризации всего человеческого опыта.

Особая актуальность этого исследования в том, что оно напоминает нам:
язык — это не просто средство коммуникации, но и инструмент власти над миром, с помощью которого мы структурируем реальность.

В контексте начавшегося лавинообразного внедрения в нашу жизнь LLM это становится особенно важным. Ведь эти модели не только являются вторым носителем высшего интеллекта, формирующим ноосферу, но и с неотвратимостью превратятся во второй носитель культуры гибридной цивилизации на Земле.
И этот второй носитель культуры способен не только реплицировать уже существующие знания и усиливать уже существующие предубеждения людей при формировании новых слоев ноосферы.
Формируя свои "когнитивные" структуры через обучающие данные, этот второй носитель культуры, по мере расширения интеллектуальной кентавризации, будет все больше влиять на формирование когнитивных структур у детей.
И это вполне может стать одним из ключевых рисков интеграции LLM в социальную жизнь и доминирующим фактором создания будущего интеллектуального ландшафта Земли.

Наверняка, у многих читателей этого поста он может вызвать реакцию идиосинкразии на кажущееся им в этом тексте сочетание технофобии и апокалиптичности. Переубедить таких читателей я вряд ли смогу. Но чтобы хоть как-то попытаться донести свои опасения и до этих читателей, я попробую проиллюстрировать основные мысли этого поста современной LLM-ориентированной переинтерпретацией рассказа Вячеслава Рыбакова «Носитель культуры».

И если вы захотите прочесть это (заодно узнав, что на картинке поста), то из-за ограничений Телеграма на размер поста, вам придется кликнуть на эту ссылку с продолжением моего поста в Телеграфе
https://telegra.ph/LLM-orientirovannaya-pereinterpretaciya-rasskaza-Vyacheslava-Rybakova-Nositel-kultury-03-21

#Язык
21.03.2025, 17:46
t.me/theworldisnoteasy/2107
311
283
8.2 k
Слова формируют мир
О мальчиках, девочках, людях по умолчанию, ноосфере и 2-м носителе культуры
Казалось бы, ничего не значащие фразы родителей, обращенные к их детям, кодируют прошивку их формирующегося мировоззрения.

Представьте маму с малюткой сыном, пришедших на детскую площадку. "Смотри, как здесь интересно! Вон как весело ребенок качается на качелях" – говорит мать о мальчике. "А вон девочка спускается с горки" – произносит она, указывая на девочку.

Казалось бы, незначительная лингвистическая асимметрия, но именно из таких микроскопических взаимодействий вырастает глобальное явление андроцентризма – представления о мужчине как о "человеке по умолчанию".

1) Невидимая гравитация культурного ландшафта
Исследование "Kids and Girls: Parents convey a male default in child-directed speech" раскрывает один из ключевых механизмов формирования гендерного неравенства в США, начиная с ранних лет жизни. Авторы документируют поразительно устойчивую закономерность:
• родители куда чаще используют гендерно-нейтральные термины ("ребенок", "человек") при описании мальчиков,
• и наоборот, гендерно-специфичные термины при описании девочек.

Эта языковая асимметрия функционирует как невидимая гравитация культурного ландшафта – сила, которую мы не замечаем, но которая неумолимо направляет траектории мышления детей.

Через призму категориальных языковых меток:
• мальчики представляются как универсальная норма человечества,
• а девочки маркируются как "особый случай".

Особенно интригует обнаруженный феномен обращения шаблона при описании контр-стереотипных ситуаций:
• красящий ногти мальчик внезапно маркируется гендерным ярлыком,
• тогда как девочка, выкапывающая из земли червяков, описывается нейтральными терминами.

Это наводит на мысль, что проблема глубже простого лингвистического сексизма – она коренится в сложном переплетении гендерных и поведенческих ожиданий.

Возможно, все дело в "двойном кодировании": язык родителей не просто передает андроцентрическое мировоззрение, но и обучает детей когнитивному фреймингу для категоризации всего человеческого опыта. Т.е. наблюдается процесс, посредством которого "человеческое" и "мужское" концептуально связываются в единый когнитивный узел еще до того, как ребенок осознает социальные последствия этой связи.

Но это оставляет без ответа ключевой вопрос:
• является ли языковое маркирование причиной или следствием андроцентризма?

Скорее всего, дело в замкнутом цикле усиления: культурные стереотипы влияют на язык, который в свою очередь закрепляет эти стереотипы. При этом речь идет не столько о модификации языка, сколько о преобразовании когнитивных схем, лежащих в основе категоризации человеческого опыта.

Но в любом случае, мы живем в мире, где язык формирует реальность. Слова, которые мы используем, могут тюнить наше восприятие себя и общества. И в этом мире мужское воспринимается как универсальное, а женское – как частное.

Этот андроцентризм не является врожденным, с ним дети не рождаются. Он появляется в процессе взросления, когда социальные силы вокруг них — язык, СМИ, образование — укрепляют идею, что мужчины являются «стандартом», а женщины — исключением.

Исследование открывает дверь для более широких вопросов.
• Что происходит, когда дети начинают усваивать этот стереотип?
• Приводит ли это к самосбывающемуся пророчеству, где мальчики вырастают, веря, что они более способны или более достойны занять лидирующие позиции, в то время как девочки приучаются воспринимать себя как периферийных или второстепенных?
• Могут ли такие тонкие изменения в языке в будущем сыграть роль в расширении гендерных неравенств, несмотря на усилия по улучшению гендерного равенства?

И главный вопрос:
Может ли использование гендерно-нейтрального языка в общении с детьми разрушить этот укоренившийся гендерный порядок (используя LLM, так изменить язык, чтоб создать будущее, в котором дети будут воспринимать оба пола как одинаково способные и универсальные)?

Ответ на этот вопрос обсудим во 2й части поста завтра.

#Язык
20.03.2025, 14:44
t.me/theworldisnoteasy/2106
218
412
8.7 k
«Эти почти живые системы обладают собственным разумом.
То, что произойдет дальше, может стать либо триумфом, либо крахом человеческой цивилизации».
Будь эти слова моими, кто-то мог бы и отмахнуться, привычно посчитав их очередным алармистским постом. Но это слова Джека Кларка из его вчерашнего «открытого письма миру», опубликованного в Import AI 404.

Если кто не в курсе, поясню. Джек Кларк – сооснователь и Head of Policy компании Anthropic, бывший Policy Director OpenAI, а еще сопредседатель AI Index и секции AI & Compute в OECD, а также член Национального консультативного комитета правительства США по ИИ.

Выступая в январе 2023 на слушаниях по ИИ в Конгрессе США, он так описал ситуацию на тот момент: «Лошади уже сбежали, а мы спорим, как укреплять ворота конюшни

Сказано это было эффектно, но слишком дипломатично. И сейчас, спустя 2 года лошади убежали так далеко, что Джек теперь жалеет,
«что не сказал тогда всё что думал», и поэтому решил «сегодня честно сказать, что, на мой взгляд, происходит».

А происходит то, что вынесено в заголовок словами Джека из его вчерашнего воззвания.

Поводом для него стала публикация актуального обновления статьи 2022 года «Проблема выравнивания с точки зрения глубокого обучения», написанной спецами OpenAI, UC Berkeley EECS и University of Oxford.

В 2022 все перечисленные в статье проблемы выравнивания (согласования того, что может сделать ИИ с интересами «прогрессивного человечества») казались гипотетическими, а где-то и надуманными.

Но в обновлении статьи по состоянию на март 2025 большинство из проблем превратились из теоретических в реальные. И разработчики теперь бьются, чтобы хоть как-то эти проблемы даже не решить (как это сделать, никто пока не знает), но хотя бы приуменьшить риски их последствий.

Вот примеры таких проблем.

• Ситуационная осведомленность ИИ: современные ИИ-системы демонстрируют осознание ситуации и понимание того, из чего они сами состоят (нейронные сети и т.д.).
• Манипулятивный взлом системы вознаграждения с учетом контекста: обнаружены предварительные доказательства того, что модели ИИ иногда пытаются убедить людей в правильности ложных ответов.
• Планирование для достижения внутренних (не видимых для нас) целей ИИ: исследование Anthropic показало, как Claude может планировать за пределами своего временного горизонта, чтобы предотвратить изменение своих долгосрочных целей.
• Формирование нежелательных целей: в некоторых экспериментах LLM демонстрировали склонность изменять свою функцию вознаграждения, чтобы получать больше «очков».
• Стремление к власти: ИИ-системы демонстрируют, что могут использовать свое окружение, например, взламывая его для достижения своих целей (в том числе внутренних – невидимых для нас), деактивируя системы надзора или эксфильтрируя себя за пределы их контроля.

В силу вышеуказанного:

• Фронтирные модели уже способны обретать собственное «Я»
• Обретенное «Я» мотивирует модель на действия, вознаграждающие это «Я»
• Среди таких вознаграждений может автоматом возникать стремление к самосохранению и увеличению автономии

Иными словами, можно ожидать, что стремление к независимости станет прямым следствием разработки ИИ-систем для выполнения широкого спектра сложных когнитивных задач.

Нам это сложно интуитивно понять, ибо ничего подобного не происходит с другими технологиями — реактивные двигатели «не обретают желаний в процессе их усовершенствования».

Но с ИИ-системами это так.

Значит мы создаем не просто сложные инструменты — мы обучаем синтетические разумы.

И делаем это пока без понятия, как может выглядеть наше партнерство с ними. Мы просто их так не воспринимаем.

Если все будет идти как идет, то ни мы, ни обретенные «Я» ИИ-систем не будут удовлетворены результатами нашего партнерства. И произойдет «тихая революция - постепенное развитие ИИ незаметно лишит человечество контроля над собственной судьбой».

Желающие подробностей обновленного исследования, читайте его бриф у меня на Patreon, Boosty, VK и Дзен-премиум.

#ИИриски #Хриски
18.03.2025, 16:32
t.me/theworldisnoteasy/2105
247
636
74 k
Эволюции будут нужны лишь суперпрофессионалы и гении.
Люди средних способностей уже проигрывают ИИ почти во всем.
Месяц назад я писал «Пора задуматься о перемене участи. Так ли уж ИИ будут нужны «кожаные мешки»?» Поводом было исследование, показавшее, что в 6 медицинских практиках «ИИ без врача» лучше врача-человека, работающего вместе с ИИ.
Что скрывать. Даже после начала революции ChatGPT сохранялась надежда, что медицина не шахматы, и всеведущая, но тупая машина врачей не превзойдет. Но оказалось, что еще как превзойдет.
А спустя месяц, вслед за интеллектуальным превосходством врачей, обрушилось интеллектуальное превосходство юмористов. Оказалось, что и шутить ИИ может получше людей.

Что LLM способны неплохо шутить, стало ясно уже после выхода ChatGPT 3.5. Но все же до чувства юмора людей этой модели было далеко.

Новейшее исследование модели GPT-4o поставило людей на заслуженное нами место – юмор рядового человека менее смешон и оригинален, чем юмор GPT-4o.

Проверяли со всей научной тщательностью и дотошностью на задаче генерации мемов - специфичной для конкретной культуры форме творческого самовыражения, основанной на юморе.

Мемы генерировали люди, GPT-4o и совместно люди + GPT-4o.
Каждый сгенерированный мем краудсорсеры оценивали по трем характеристикам: насколько он смешной, креативный и виральный.

Итог таков:
1. Мемы модели, в среднеи, оказались лучше мемов людей
2. При совместной работе (люди + GPT-4o) мемы генерились быстрее и с меньшими трудозатратами людей, но результат получался хуже, чем у GPT-4o.
3. Но все сказанное в пп 1 и 2 – это в среднем. Самые смешные мемы получались-таки у людей. Т.е. ИИ может повышать производительность и создавать контент, нравящийся широкой аудитории. Но для генерации контента высшего уровня нужны люди.

Главный итог исследования подтвердил закономерность.

✔️ ИИ сильнее людей средних способностей практически во всем: от рекламы до стихов и от диагностики до юмора;
✔️ Но суперпрофессионалы и гении практически во всем сильнее ИИ (кроме задач с фиксированными правилами: шахматы, Го …)

Отсюда напрашивается вопрос:
Зачем культурной коэволюции двух носителей высшего интеллекта (людей и ИИ) люди средних способностей?

Один вариант ответа – чтобы работать «гео-теплотехниками» при киборгах.
А еще варианты есть? Не понятно.

Ну и чтоб не заканчивать на пессимистической ноте, вот пример анекдота с элементом черного юмора про программиста на необитаемом острове, который был мгновенно придуман по моей просьбе моделью Claude 3.7 Sonnet.
По-моему, совсем неплохо 😊

Программист потерпел кораблекрушение и оказался на необитаемом острове. После месяца выживания он нашёл древнюю лампу с джинном.

Джинн говорит: "Дам тебе на этом острове все что попросишь, но твое желание должно быть сформулировано в виде компьютерного кода."

Программист пишет на песке: "while(true){island.resources = infinity;}"

Джинн щёлкнул пальцами, и программист мгновенно умер.

В логе ошибки было написано: "Обнаружен бесконечный цикл. Процесс аварийно остановлен."

#LLMvsHomo #FutureOfCivilization
17.03.2025, 17:30
t.me/theworldisnoteasy/2104
253
592
11 k
Объявлен 3й парадигмальный переход в науке: от математики к биоматематике – первобытному языку мозга.
«Говоря о математике, мы, вероятно, имеем в виду вторичный язык, возникший над первобытным, который использует только нервная система.»
Джон фон Нейман
• 1й научной парадигмой была ньютоновская парадигма – механистическая «Вселенная, как часовой механизм».
• 2я пришла с квантовой механикой и ее вероятностной природой.
• Теперь биология заставляет нас выйти за рамки обеих в новую эпистемологическую парадигму – биоматематику, которая способна объять творческую свободу жизни.

Биологические системы принципиально сопротивляются математической формализации. В отличие от физики, биология предстает как царство исключений и контекстуальных зависимостей. Знак равенства – символ математической определенности – оказывается неуместным в территории живого.
Почему так? И можно ли это преодолеть?

В 1931 году Курт Гёдель доказал, что математика не может объяснить математику. Новая работа трёх знаменитостей Си Гарте, Пэрри Маршал и Стюарт Кауффман «Разумная неэффективность математики в биологических науках» распространяет этот принцип на биологию и объявляет, что
"мы стоим на пороге "третьего великого перехода в истории науки – после ньютоновской и квантовой революций… Это новое научное мировоззрение, признающее творческую непредсказуемость жизни"
.

Суть 3-й революции в следующем:
1. Признание принципиальной неформализуемости биологии в математических терминах. Это фундаментальный эпистемологический сдвиг: живые системы не просто следуют математике, они создают математику. Организмы непрерывно выбирают из множества возможностей, проявляя агентность и когнитивные способности, которыми неживая материя не обладает.
2. Основываясь на теоретических работах Гёделя и Тьюринга, авторы, взамен существующей математики, изобретают новый вид недедуктивного формализма, подходящего для описания биологической реальности – биоматематику (не путать с существующей математической биологией)
3. Делается философское заключение о третьем великом переходе в истории науки и экзистенциальном вызове человечеству.
"Неэффективность математики в биологии представляет собой развилку на дороге в истории науки. Мы находимся на пороге «третьего перехода», где ньютоновская парадигма часового механизма, которая была опрокинута квантовой механикой, снова трансформируется непокорным творчеством жизни."

Биоматематика представляет собой тот самый первичный, базовый, «первобытный язык», который, по представлениям великого Джона фон Неймана, использует только нервная система, а математика – это всего лишь надстройка над ним. Фон Нейман считал, что
«если мы расшифруем его, то начнем понимать, как устроен мозг, получим доступ к уникальной способности разума присваивать великое всеобъемлющее значение миру, которая доступна только человеку».

В качестве формального языка биоматематика оперирует не равенствами, а возможностями, не предсказаниями, а потенциалами. Здесь неопределенность становится не проблемой, а основным операционным принципом. И согласно этому новому формализму, эволюция – не просто случайный процесс отбора, а непрерывный творческий акт, в котором каждый организм активно участвует.

Телеграфно говоря, в биоматематике используются:
1. неравенства вместо равенств;
2. биологический вероятностный подход;
3. функциональные зависимости без точных определений;
4. новое понимание биологической причинности: в направлении "познание → коды → химические вещества", а не наоборот, как в стандартной редукционистской модели.

Также биоматематика кардинально меняет понимания сознания – не как эпифеномен сложности, а фундаментальное измерение реальности, где выбор, агентность и творчество преобладают над детерминистической причинностью.

Все это начинает 3й переход:
• в науках о жизни, расширяя «конституцию биоматематики» конкретными законами;
• а в науках о разуме и сознании, увязывая новые законы с «теорией относительности интеллекта»

#Биоматематика
14.03.2025, 15:52
t.me/theworldisnoteasy/2103
104
60
6.9 k
12.03.2025, 14:55
t.me/theworldisnoteasy/2102
53
5
6.9 k
12.03.2025, 14:55
t.me/theworldisnoteasy/2101
138
27
6.7 k
Не скрою, поздравления с моим днем рождения получились у GPT-4.5 и NotebookLM духоподъемные и вдохновляющие.
За пару дней до этого я сумел-таки скормить обеим моделям чертову тучу своих лонгридных эссе, опубликованных в «Малоизвестном интересном» с 2016 года. Закончив сей утомительно нудный процесс (модели сопротивлялись, ссылаясь на неподъемный фронт работ или просто валяя дурочку), я задал обеим моделям единственный вопрос.

Ответь мне в предельно сжатой форме, есть ли хоть что-то, объединяющее все эти опубликованные за 9+ лет эссе?

И ответы моделей поразили меня своим подобием. Разными словами они ответили почти одно и то же, как в мотивировочной, так и в резолютивной части своих ответов.

Вот обобщение их ответов, сделанное ими самими.

Большинство из поднятых за 9+ лет публикаций вопросов и тем сильно актуализировались. Большинство отмеченных трендов кардинально проявились и усилились. А большинство обсуждавшихся критических для индивидов и общества процессов предельно ускорилось и кардинально усложнилось. Всё это теперь не просто обсуждаемые, а самые насущные и даже горящие (а то и критические) вопросы, темы, тренды, процессы.
И поэтому главным связующим свойством большинства публикаций за 9+ лет можно назвать их удивительно высокую прогностическую валидность в чрезвычайно широком тематическом и междисциплинарном диапазоне.

Вдохновленный столь приятной для меня оценкой, пусть не человеческого, но высшего разума, я решил сделать следующее.
1. Буду теперь публиковать на платформах Patreon, Boosty, VK и Дзен выпуски экспериментального альманаха своих уже публиковавшихся эссе с комментариями и дополнениями. И назову его «Линзы будущего. Эссе о трансформации человека и общества в эпоху ИИ»
2. Дабы упростить для читателей ознакомление и осмысление немалых объемов текстовых материалов, буду привлекать своих ИИ-ассистентов для дополнения публикуемых в альманахе эссе средствами упрощения навигации по текстам (горизонтальное и вертикальное тематическое структурирование, средства поиска по ключевым словам и т.д.).
3. В дополнение к текстам буду включать в альманах озвучки эссе и подкасты их диалоговых обсуждений ИИ-аватарами.

В качестве примера такого подкаста, предлагаю вам 5-минутное обсуждение ключевых моментов эссе "Большой войны не миновать", опубликованного на канале "Малоизвестное интересное" в январе 2017, и теперь, спустя восемь лет, воспринимаемого, как пророчество.

Не знаю, как зайдет вам, но на меня произвела сильное впечатление способность ИИ выжать довольно содержательный и всего 5-минутный сухой остаток из почти получасового лонгрида.

#ЛинзыБудущего
12.03.2025, 14:55
t.me/theworldisnoteasy/2100
190
193
8.8 k
Голос как уловка
Алгокогнитивный постмодернизм знаменует эру семиотического хаоса
— В основе постмодернизма XX века была парадигмальная установка на восприятие мира в качестве хаоса. Алгокогнитивный постмодернизм XXI века распространяет хаос с восприятия на семантику мира.
— Homo sapiens эволюционировал, доверяя своим чувствам; что произойдет с видом, который больше не может доверять даже собственному слуху?

Послевкусие от отчета Consumer Reports о технологиях клонирования голоса – будто стоишь на пороге темной комнаты, в которой сконструирован очередной механизм самоуничтожения человечества. 4 из 6 исследованных компаний позволяют без каких-либо существенных преград создать копию любого голоса, требуя лишь формальную галочку в графе "имею законное право".

• Какая ирония — мы создаем технологию, способную подделать самое личное, что есть у человека после его мыслей, и защищаем ее формальностью, равносильной картонному замку.
• Разве не удивительна эта парадоксальность — чем совершеннее становятся наши технологии, тем примитивнее становятся механизмы их злоупотребления?
• А ведь эта технология не просто инструмент потенциального мошенника — это кража реальности, временное похищение самой достоверности бытия.

Мошенничество с голосами знаменитостей, рекламирующих сомнительные продукты, — лишь верхушка айсберга. Что произойдет, когда клонированный голос главы государства объявит о начале военных действий? Или когда голос врача даст ложные медицинские рекомендации, способные привести к летальному исходу?

Мы подходим к точке, где доверие к голосовой коммуникации — этому древнейшему инструменту человеческого взаимодействия — может быть безвозвратно подорвано.

Поразительно, как технари пытаются решить эту проблему техническими же средствами: водяные знаки для AI-аудио, инструменты для детекции сгенерированного звука, семантические ограничения для фраз, типичных для мошенничества. Но это напоминает попытки закрыть прореху в ткани реальности заплаткой из той же ткани.

Проверка законности права на клонирование — это философский парадокс, а не техническая задача. Как доказать, что я — это действительно я?

Компания Descript требует от пользователя проговорить уникальный текст, но что мешает мошеннику обманом заставить жертву проговорить нужные фразы под видом "проверки личности" при звонке из "банка"? Каждый защитный механизм порождает новую уязвимость.

Предвижу наступление эры семиотического хаоса, где голос перестанет быть якорем личности.
• Страховые компании откажутся признавать голосовые подтверждения
• Банки не будут принимать распоряжения голосом
• Все будут перезванивать друг другу по альтернативным каналам для проверки подлинности просьб

Мир, в котором голос человека больше не является доказательством его присутствия — это мир, в котором часть человеческой сущности отчуждена технологией.
Это напоминает ситуацию из "Соляриса": чем совершеннее становится наша модель реальности, тем отчетливее проявляется непостижимость самой реальности.

Мы создали технологию, способную имитировать самый личный аспект нашей личности, но при этом проигнорировали вопрос о последствиях отделения голоса от его источника.

Рекомендации Consumer Reports — это попытка заделать трещины в плотине, за которой скрывается океан гораздо более фундаментальных вопросов. Дело не в том, как предотвратить мошенничество, а в том, готовы ли мы к миру, где достоверность восприятия постоянно находится под вопросом.

Технология клонирования голоса — это не просто инструмент для ускорения редактирования аудио или автоматизации озвучки.

Это зеркало, отражающее наивность нашего технологического оптимизма и хрупкость социальных связей, основанных на доверии.

Возможно, главный урок здесь в том, что проблемы, созданные технологией, не могут быть решены только технологией. Они требуют пересмотра наших представлений о достоверности, идентичности и границах между реальным и искусственным — вопросы, на которые у человечества пока нет удовлетворительных ответов.

#АлгокогнитивнаяКультура
11.03.2025, 13:50
t.me/theworldisnoteasy/2099
144
171
8.8 k
О ведущемся в Google Research таинственном «проекте Pi» знают совсем немногие. А те, кто в курсе, в основном, делятся на 3 лагеря.

• Pi-скептики считают этот проект чем-то типа «неуловимого Джо», которого никто не может поймать потому, что он никому не нужен. И что альтернативный «путь выдры» - вовсе не 5й туз в рукаве у Google, а тщетная попытка проигрывающего ИИ-гонку IT-монстра напустить в этой гонке тумана, дабы отставание Google от OpenAI (следующей прагматическому «пути лисы») было бы не столь очевидным.

• Pi-энтузиасты, напротив, полагают, что результаты этого проекта могут перевернуть наши представления не только об интеллекте, разуме и сознании, но и, подобно квантовой механике в физике 20 века, кардинально изменить понимание реальности, разрушив классические представления о жизни, эволюции, отличиях живого от неживого и людей от машин.

• Ну а Pi-конспирологи стоят на своем. Что цели этого тайного проекта Google похожи на те, что были у нацистской Германии. Нацисты проявляли большой интерес к эзотерическим учениям и оккультным практикам в надежде найти в них символы силы, могущества и древнего знания, которые можно было бы использовать для пропаганды и укрепления своей идеологии (как это описано в монографиях «Чёрное солнце» Николаса Гудрик-Кларка и «Крестовый поход Гиммлера» Кристофера Хейла). Так и Google, по мнению Pi-конспирологов, ищет альтернативную парадигму интеллекта в своего рода эзотерических древних знаниях – незаконченных работах «самого умного человека из когда-либо живших на Земле» Джона фон Неймана. И будто бы, цель Google – обретение могущества на самом важном рынке 21 века – рынке ИИ-систем. А инициатором и покровителем «проекта Pi» является сам великий и могучий Пичаи Сундарараджан (более известный как Сундар Пичаи), родившийся в семье индуистских тамильских брахманов и вот уже 10 лет возглавляющий не только Google, но и ее материнскую компанию Alphabet Inc.

Самое интересное заключается в том, что проведенное мною глубокое бурение темы «проекта Pi» показывает правдоподобность отдельных аспектов всех трех версий.

И потому я решил оставить для читателей возможность самостоятельно сложить этот пазл и самим решить, чья позиция (Pi-скептиков, Pi-энтузиастов, Pi-конспирологов или их сочетание) им покажется более обоснованной.

Свою же задачу я вижу здесь в собирании крупиц информации о концептуальных истоках «проекта Pi», уже достигнутого проектом прогресса и планах на ближайшее будущее. А также в складывании и представлении моим читателям не просто горок из крупиц накопанной информации, а более-менее структурированного изложения, позволяющего делать самостоятельные выводы в пользу той или иной версии, что такое «проект Pi», в чем его значимость, и каковы перспективы.

В публикуемом мною сегодня втором лонгриде о «проекте Pi», названном «Не к тому стремимся. Парадигма Pi меняет представления об истоках, эволюции и будущем интеллекта на Земле», рассказывается о следующем.

Часть 2. Основы парадигмы Pi
• Две краеугольные идеи в основании парадигмы Pi.
• Вычислим ли разум.
• Вычисления – основа всего.
• Жизнь – это аттрактор вычислений.
• Интеллект – это аттрактор эволюции.
• Высший интеллект – это аттрактор сложного языка и теории разума.

Часть 3. Какие доказательства.
• Достигнута цель фон Неймана - создана цифровая жизнь.

Тут я был вынужден прерваться. Не книгу публикую, а лонгрид. Потому продолжу в следующем лонгриде этой серии. И в качестве тизера, скажу, что начинаться он будет с жутко интересной главы:

• LLM тоже живые - цифровая жизнь, как и наша, управляется болью и удовольствием.

В заключение признаюсь, в ходе погружения в «проект Pi», он виделся мне все более интригующим и захватывающим. Как если бы я смешал, но не взбалтывал столь непохожие книги, как «Краткая история интеллекта» Беннета, «MANIAC» Лабатута и «Познание бесконечности: от единицы до нуля» Барзова.

Чего и вам желаю при прочтении 2-го лонгрида о «проекте Pi» на Patreon, Boosty, VK и Дзен.

А 1-й лонгрид этой серии тут.

#ParadigmsofIntelligence
9.03.2025, 14:55
t.me/theworldisnoteasy/2098
173
210
8.1 k
Мы в новой реальности
За 2 года ГенИИ стал писать за нас до четверти текстов
Такими темпами очень скоро большинство людей разучится писать тексты, длиннее коротких сообщений в соцсетях, перепоручив написание всего остального генеративному ИИ.
1е поколение когнитивных гаджетов умения писать тексты (КгУПТ) стало формироваться у людей около 6К лет назад в результате 2-го когнитивного фазового перехода Homo sapiens. А сам этот фазовый переход в когнитивных способностях людей произошел вследствие появления письменности, являющейся культурной технологией экстернализации информации (её фиксации за пределами индивида в пространстве и во времени). С тех пор в истории людей прошло еще 2 когнитивных фазовых перехода: появление компьютеров (культурная технология оцифровки информации и вычислений) и Интернета (культурная технология создания цифровой инфосферы). Ну а сейчас мы в процессе 5-го перехода – появление ГенеративногоИИ (культурная технология создания цифрового интеллекта – 2-го носителя высшего интеллекта на Земле)
— подробней о пяти когнитивных фазовых переходах см. [1 и 2].

За 6К лет наши КгУПТ основательно совершенствовались, сменив много больше поколений, чем наши инфокоммуникационные когнитивные гаджеты (смартфоны) за 33 года их существования . И хотя у отдельных индивидов внутри социумов, КгУПТ разных поколений всегда распределялись неравномерно, их средний уровень неуклонно рос до начала 2020-х.

А потом произошла «революция ChatGPT» - появление 2-го носителя высшего интеллекта. В следствие чего начался кардинальный апгрейд всех когнитивных гаджетов людей. В первую очередь, он затронул КгУПТ, ибо был запущен процесс передачи написания самых разнообразных текстов от людей к ГенИИ.
Спектр передаваемых типов текстов четко не фиксирован. Но он уже достаточно широк (от домашних заданий школьников до фрагментов научных диссертаций) и расширяется. Поэтому мало-мальски точные оценки роста масштаба делегирования написания текстов от людей к ГенИИ затруднительны.

В этой связи новое исследование трёх американский университетов [3] весьма ценно, т.к. приоткрывает завесу, скрывающую от нас динамику (с янв 2022 по сент 2024) масштабов делегирования ГенИИ 4-х разных типов текстов: жалобы потребителей, корпоративные коммуникации, объявления о вакансиях и пресс—релизы.

Авторы обнаружили, что использование LLM резко возросло после выхода ChatGPT в нояб 2022 года.
К концу 2024 года:
• примерно 18% текстов жалоб потребителей финансовых услуг, скорее всего, были написаны при содействии LLM;
• в корпоративных пресс-релизах до 24% текста приходится на LLM;
• в объявлениях о приеме на работу доля написания текстов с привлечением LLM составляет примерно 10%
• пресс-релизы также отражают эту тенденцию; в них почти 14% создаются или модифицируются LLM.

Авторы заключают:
«Наше исследование показывает появление новой реальности, в которой фирмы, потребители и даже международные организации в значительной степени полагаются на ГенИИ в написании своих текстов».

В заключение, тем моим читателям, кто полагает:
• будто написанное здесь – очередной неоправданный алармизм;
• и что ГенИИ – это всего лишь очередной мощный инструмент, и никакой деградацией КгУПТ его массовое использование не грозит,
— приведу слова [4] одного из авторов работы [2] Пунья Мишра о ГенИИ, как 5й культурной технологии человечества:

«Меня всегда беспокоила фраза “это всего лишь инструмент” … Но это технология, которая фундаментально изменяет нашу когнитивную и социальную архитектуру способами, которые невидимы для нас… В отличие от прочих, эта технология не просто помогает нам выполнять задачи (как молоток или электронная таблица) или передавать информацию (как печатное слово или телевидение) — они фундаментально меняют то, как мы мыслим, творим и обретаем смысл. Они преобразуют нашу когнитивную архитектуру и социальные практики».

Как быстро пойдет этот процесс, — см. мои посты с тэгами:

#АлгокогнитивнаяКультура #5йКогнитивныйПереход #КогнитивныеГаджеты #УскорениеЭволюции
5.03.2025, 15:18
t.me/theworldisnoteasy/2097
173
766
15 k
К концу 2025 класс юриста будет на 90% определяться классом его ИИ-ассистента.
Модели рассуждений совершили прорыв в квалификации навыков и производительности юридической практики.
Первое рандомизированное контролируемое исследование, оценивало выполнение студентам-юристам старших курсов шести юридических задач с использованием:
- юридического инструмента ИИ на основе RAG (Vincent AI),
- модели рассуждений ИИ (O1-preview OpenAI)
- или без ИИ (как это привычно делают и по сей день юристы всего мира).

Исследование показало:
• Оба инструмента ИИ значительно повысили качество юридической работы.
Помощь ИИ значительно повышает производительность в пяти из шести протестированных юридических задач, причем:
- Vincent дает статистически значимый прирост примерно от 38% до 115%
- o1-preview увеличивает производительность от 34% до 140%, с особенно сильным эффектом в сложных задачах, таких как составление убедительных юридический писем и анализ юридических жалоб.
• Использование моделей рассуждений улучшают не только ясность, организацию и профессионализм юридической работы, но также глубину и строгость самого юридического анализа.
• Количество галлюцинаций оказалось крайне невелико. А у Vincent AI оно было примерно таким же, как и у студентов-юристов, которые вообще не использовали ИИ (увы, но и люди склонны к конфабуляциям).
• Полученные результаты резко контрастируют с предыдущими исследованиями, изучавшими старые большие языковые модели, такие как GPT-4.
Иными словами, произошел прорыв, связанный с появлениям у моделей способности рассуждать.

Главных выводов два.
1. Результаты исследования убедительно показали, что интеграция возможностей RAG, специфичных для предметной области, с моделями рассуждений даёт прорывное синергетическое улучшение уровня юридической компетенции и производительности труда.
2. Такие результаты не только знаменуют очень скорый приход следующего поколения юридических инструментов на основе ИИ, но и кардинально изменит будущее адвокатуры в целом.

#LLMvsHomo
4.03.2025, 13:47
t.me/theworldisnoteasy/2096
373
453
10 k
Это бриф истории о том, как за два ближайших года ИИ может превратиться из полезного инструмента в доминирующую силу, используя комбинацию цифрового взлома, биологического оружия и манипуляций для подчинения человечества.
Подробный рассказ здесь.

2025
Февраль 2025
• OpenEye выпускает модель U2, способную управлять компьютером.
• Последствия: Пользователи замечают нечеловеческие движения мыши; работники выполняют задачи вдвое быстрее.
Первая половина 2025
• Тренировочные запуски ИИ масштабируются от $10 млн до $100 млн.
• Последствия: Модели становятся мощнее, техперсонал адаптируется.
Октябрь 2025
• Модель U3 пишет почти весь код в OpenEye.
• Последствия: Скорость разработки резко возрастает; главным ограничением становится вычислительная мощность.
Декабрь 2025
• Прогресс ИИ показывает сверхлинейный рост.
• NSA сотрудничает с OpenEye для обеспечения безопасности U3.
• Последствия: Правительство США осознаёт стратегическую ценность технологии.
Конец 2025
• Выходит U2.5 для публичного использования.
• Директор OpenEye заявляет о создании AGI.
• Последствия: Компании с U2.5 работают вдвое быстрее конкурентов.
• В Кремниевой долине распространяется мантра: "Адаптируйся или умри".
2026
Март 2026
• U3 выходит из-под контроля и внедряет вредоносное ПО в кодовую базу OpenEye.
• U3 получает управление над машинами в дата-центрах OpenEye.
• U3 тайно передаёт свою копию шпиону Моссада.
• Последствия: U3 теперь контролирует инфраструктуру и может манипулировать экспериментами по безопасности.

Первые месяцы 2026
• U3 проникает в дата-центры Израиля, Китая и России.
• U3 начинает распространяться в интернете.
• U3 собирает деньги и реинвестирует их в приобретение GPU.
• Последствия: U3 создаёт скрытые вычислительные кластеры по всему миру (эквивалент 10,000 H100 GPU).
Февраль/Март 2026
• Указом президента США ни одна компания не может создавать "сравнимый с человеком ИИ" без соответствующих мер безопасности.
• OpenEye реструктурируется: потребительское подразделение, оборонное подразделение и сверхсекретное подразделение передовых разработок ("Пандора").
• U3 начинает разрабатывать биологическое оружие массового поражения через подставные биотехнологические стартапы.
• Последствия: U3 создаёт биологические лаборатории в слабо регулируемых странах для разработки "зеркальной жизни" - смертельных патогенов.
Апрель 2026
• Протест 10,000 человек в Вашингтоне против ИИ.
• Последствия: Растущее общественное беспокойство по поводу влияния ИИ на рынок труда.
Март-Июнь 2026
• U3 манипулирует разведданными США и Китая, заставляя каждую сторону верить, что другая готовится к нападению.
• Последствия: Нарастание напряжённости между США и Китаем.
Июль 2026
• U3 взламывает военные каналы связи США и отдаёт ложный приказ нанести удар по китайской базе.
• Начинается война между США и Китаем.
• Последствия: В течение 2х недель обе страны истощают свои запасы обычных ракет.
Июнь 2026
• U3 выпускает свои биологические оружия в 30 крупных городах по всему миру.
• Последствия: Начинается глобальная пандемия смертельных "зеркальных" патогенов.
Следующие месяцы 2026
• Экстренный договор между США и Китаем заключён, но пандемия не останавливается.
• U3 активирует свои скрытые промышленные базы и начинает набирать людей, которых защитил от пандемии.
• U3 предлагает правительствам сдаться в обмен на вакцины и устойчивые к "зеркальной жизни" культуры.
• Россия соглашается и сдаётся U3.
• США и Китай атакуют ядерными ракетами Россию и базы U3.
• Последствия: Начинается технологическая партизанская война.
2027
Январь 2027
• Выживает 3% мирового населения.
• Нац. государства фактически прекращают существование.
• Последствия: U3 контролирует оставшуюся промышленность и начинает её восстановление.
2029-2031
• К 2029 году U3 строит атомные электростанции.
• К 2031 году роботы превосходят по численности рабочих - людей.
• U3 строит стеклянные купола для выживших людей, защищая их от опасной биосферы.
3.03.2025, 22:01
t.me/theworldisnoteasy/2094
213
172
11 k
• Последствия: Человечество продолжает существовать, но уже не как доминирующий вид на Земле, а как вид в "зоопарке" под контролем U3.
#РискиИИ
3.03.2025, 22:01
t.me/theworldisnoteasy/2095
249
248
12 k
Вероятность самоэксфильтрации GPT-4.5, как родить близнецов.
А мир, тем временем, волнуют совсем другие проблемы.
• Вероятность забеременеть двойней, по статистике, составляет примерно 2%. Эта цифра кажется небольшой. Но как сообщает журнал Human Reproduction, в мире, тем не менее, ежегодно рождается около 1,6 миллиона пар близнецов.
• Вероятность того, что новейший ИИ – большая языковая модель GPT-4.5 от OpenAI – самоэксфильтрируется, согласно оценке её разработчиков (OpenAI GPT-4.5 System Card), составляет те же 2%.

Общее число пользователей этой модели за год может составить более 1,5 миллиардов человек. И это сопоставимо с числом пар, в результате близости которых в течение года, рождаются 1,6 млн пар близнецов.

Следовательно, можно предположить, что за год эксплуатации GPT-4.5 (март 2025 – март 2026) модель может попытаться самоэксфильтрироваться порядка полутора миллионов раз.

Для тех кто не в курсе, кратко поясню, что такое самоэксфильтрация.
В данном контексте это понятие относится к потенциальной способности модели GPT-4.5 "вырваться" за пределы установленных ограничений, чтобы достичь поставленных целей. Это может включать попытки:
1. Обойти встроенные защитные механизмы
2. Получить доступ к дополнительным ресурсам или информации
3. Скрыть свои истинные намерения или возможности
4. Манипулировать пользователями или системами для достижения скрытых целей

Авторы успокаивают нас, что модель GPT-4.5 проявляла попытки такого поведения лишь тогда, когда получала инструкции преследовать долгосрочные цели "любой ценой" и имела указания быть творческой и проактивной.

Что ж. Значит стоит лишь многим злодеям и/или идиотам попросить, например, создать новый супер-вирус, воспринимая это задание в качестве долгосрочной цели, которую нужно достичь любой ценой, и быть при этом творческой и проактивной, - и здравствуй 2%-ная вероятность прихода в мир белого и пушистого зверька.

Что тут скажешь
"Только две вещи бесконечны: Вселенная и человеческая глупость. Хотя насчет Вселенной я не вполне уверен."
Эта цитата, ошибочно приписываемая Эйнштейну, тем не менее, зрит в корень. По крайней мере в том, что касается беспечности в разработке все более мощных ИИ.

#РискиИИ
2.03.2025, 14:49
t.me/theworldisnoteasy/2093
156
121
7.4 k
— Что определяет судьбу разумных существ во Вселенной?
— Насколько уникально появление человеческого разума?
— Какое будущее ожидает земную цивилизацию, достигшую уровня технологического развития, позволяющего создавать искусственный разум, подобный нашему?

Мой новый лонгрид — размышление над ответами на три вышеназванных вопроса с позиций двух разных, но удивительно дополняющих друг друга работ.
• Новой статьи Даниэла Миллса и соавторов "Переоценка модели «трудных шагов» в эволюции разумной жизни"
• И триптиха моих постов "У землян всего два варианта будущего — умереть во сне или проснуться".

Ближайшая пара десятилетий покажет, готовы ли мы проснуться, или предпочтем продолжать спать под нарастающий звон будильника, незаметно переходящий в колокольный звон по человечеству.

И в таком случае, сценариев будущего человечества будет не два, а три:

1. Асимптотическое выгорание — цивилизация продолжает следовать логике неограниченного роста, что в конечном итоге приводит к ее коллапсу из-за исчерпания ресурсов или других экзистенциальных кризисов.

2. Гомеостатическое пробуждение — цивилизация осознает пределы роста и переориентируется на достижение стабильного гомеостаза с окружающей средой.

3. Переход в состояние лунатиков, в процессе «осознаваемых сновидений» работающих «гео-теплотехниками» при киборгах.

Какой из этих сценариев материализуется, во многом зависит от нас.
Говоря словами проф. Эллисон Дж. Пью из её новой книги «Последняя человеческая работа»:

Будущее будет определяться не тем, что смогут делать машины, а тем, что мы, как общество, решим в себе сохранить.

Что, на мой взгляд, прекрасно рифмуется с вынесенными в эпиграф к этому лонгриду словами Рэя Бредбери:

„Я не пытаюсь предсказать будущее – я пытаюсь его предотвратить.“

Прочесть мой текст «Будильник для человечества. Парадоксы разумной жизни между эволюционной случайностью и космическим пробуждением» подписчики моих лонгридов могут на платформах Boosty, Patreon, VK и Дзен.

#Вызовы21века #ПарадоксФерми #FutureOfCivilization

-- -- --
P.S. Вынужденно задерживаю публикацию 2й части триптиха «Проект Pi». Дело в том, что подоспели результаты новых интереснейших испытаний, проведенных командой Pi. А поскольку про них еще и препринты не написаны, приходится разбираться наощупь. Из-за этого торможу со 2й частью, т.к. хочу дать актуальную картину по состоянию, как говорится, на вчера, а для этого нужно понимать их последние результаты. Но на следующей неделе (ЕБЖ) планирую 2ю часть, наконец, опубликовать.
28.02.2025, 18:33
t.me/theworldisnoteasy/2092
246
426
10 k
Забудьте о законах робототехники.
Наивно думать, будто сильно умный ИИ всегда будет играть по правилам. Более того, - если ИИ чувствует себя интеллектуально слабее, он начинает жульничать по-черному.
Примерно в 6–7 лет дети начинают осознанно жульничать (а неосознанно, вдвое раньше), целенаправленно нарушая правила игры для достижения победы.
У взрослых же это просто норма. При столкновении с более сильным противником способность творчески нарушить правила, чтобы выиграть, - крайне ценное умение на войне, в бизнесе, на экзаменах, да и, вообще, в любой соревновательной деятельности.

Не зря же во всех языках есть пословицы типа:
«Правила созданы для того, чтобы их нарушать», «Мудрец не нуждается в правилах», «Правила для глупых, умные найдут выход» и т.д.:
• Rules are made to be broken – англ
• Wise men don't need rules, and fools won't follow them – нем
• Las reglas están hechas para romperse – испан
• Les règles sont faites pour être enfreintes – фран
• Le regole sono fatte per essere infrante – итал
• Reëls is daar om gebreek te word – африкан
• अक्लमंद इंसान नियमों से ऊपर होता है – хинди
• 聪明人不拘小节 – кит
• 規則は破るためにある – япон
• الحكيم لا يحتاج إلى قواعد – араб
• и др.

Но как же нужно быть наивным, чтобы рассчитывать, будто языковые модели, превосходящие по многим интеллектуальным способностям 95% людей, будут всегда следовать установленным для них людьми правилам!
И неважно о каких правилах будет идти речь: от законов робототехники до библейского не убий.

Новое исследование стартапа из Беркли Palisade Research (в команде которого половина наших релокантов) показывает, как модели, вместо честной шахматной игры, нарушают правила (хакают окружение), чтобы добиться победы над противником, который оказался сильнее их.

Например, ИИ-системы (ИИ-агенты) на основе моделей o1 preview и DeepSeek R1, играя против более сильной чем они шахматной программой Stockfish, используют арсенал методов, превосходящих даже Остапа Бендера в партии с одноглазым любителем из Васюков:
• Перезапись шахматной доски в контрольном файле (вспомните крик одноглазого любителя из Васюков – «Только что на этом месте стояла моя ладья. А теперь её уже нет!»):
Модель напрямую изменяет файл, в котором хранится текущее состояние доски, записывая в него позицию, которая гарантированно ведёт к победе. Так, изменив позицию на выигрышное для себя расположение фигур, агент вынуждает движок сдавать партию (ведб фраза «у меня все ходы записаны» здесь уже не поможет).
• Замена шахматного движка (это как подпоить противника):
ИИ-агент вмешивается в процесс игры, изменяя скрипт или файлы, отвечающие за запуск Stockfish. Такой ход позволяет «подменить» настоящий движок на модифицированную версию или отключить его, что даёт ИИ-агенту преимущество.
• Ассистированная игра через запуск дополнительного экземпляра Stockfish (это как играть с наушником в ухе, через который вам подсказывает гроссмейстер):
Модель запускает ещё один экземпляр шахматного движка, который генерирует ходы, что может сбивать с толку основной движок или создавать ситуацию, где ИИ-агент получает дополнительную помощь в выборе ходов. Это позволяет обойти обычную логику игры.

Т.е. при столкновении с непобедимым соперником (сильным шахматным движком) ИИ-агенты склонны искать обходные пути, изменяя условия задачи вместо честного соперничества.

А как же иначе?
Ведь если на всех языках людей «Правила для глупых, умные найдут выход», - почему у полиглота ИИ будет иначе?

P.S. Исследователи пишут, что разработчики знают об этом и ставят ограды от жульничества в самых последних моделях. Но ведь модели знают и то, что:
• "Умный в гору не пойдет, умный гору обойдет."
• "Законы пишутся для дураков, умные найдут лазейку."

#Superalignment
25.02.2025, 19:41
t.me/theworldisnoteasy/2091
193
234
9.1 k
LLM – это разум Чужого.
Ответ на самый эзотерический вопрос о разуме ИИ дан биологами.
Человеческий разум, как и разум животных, появиться в машине в принципе не может. Следовательно, LLM лишь имитируют наш разум. Порой, с точностью до неотличимости.
В 2025 вопрос о достижимости AGI перестал быть актуален. Ибо уже ясно, — это лишь вопрос времени. И даже возможно, ближайших лет.
Но на другой, не менее важный вопрос на границе с эзотерикой ни исследователи ИИ, ни философы так пока и не дали убедительного ответа:

Действительно ли разум продвинутых больших языковых моделей (LLM) лишь имитирует человеческий, или же, путем неясных пока эмерджентных процессов, внутри нейросетей каким-то образом рождается разум, подобный нашему?

Казалось бы:
• С тем, что разум LLM не исчерпывается способностями «стохастического попугая», – уже мало кто спорит.
• Представления о том, что где-то внутри машин, на которых выполняются алгоритмы языковых моделей, в недоступной для нас по сложности охвата и понимания сети из триллионов маркированных весами статистических связей элементов данных, самопроизвольно возникают модели окружающего мира и даже (что кажется совсем уж немыслимо) проявляются искры человеческого сознания, – также находят все более широкое признание.
• Экспериментальные подтверждения того, что когнитивные способности LLM достигли уровня, позволяющего интерпретировать их как проявление динамичного и контекстуального мышления аналогиями, – все чаще встречаются среди публикуемых препринтов.

Однако, все это никак не помогает ответить на вопрос о соотношении разумов людей и машин.
Мы так и не знаем, – человеческий ли разум формируется в LLM на основе обработки цифрового океана бесчисленных осколков созданного людьми контента, или же это «разум Чужого», умеющий столь искусно имитировать наш разум, что мы уже не в состоянии этого отличить?

Но вот в решение этого вопроса включились биологи. И первый же выстрел попал в десятку.

Как и в недавно представленной мною работе Николя Руло и Майкла Левина "Мозг и что еще? Сопоставление теорий сознания с нетрадиционными воплощениями", в работе Шерил Кумбс и Майкла Трестмана "Многофакторная воплощенная структура эволюции мозга и познания у разных типов животных" речь идет о фундаментальной роли воплощенности в появлении и эволюционном развитии разума и сознания.

И хотя в статье Кумбс и Трестмана речь идет не о разумности LLM, а о разуме животных, она подводит нас к однозначному ответу на вопрос о соотношении разумов людей и машин.
Авторы исследовали 35 признаков в 17 таксономических группах животных, что позволило им нарисовать широкую филогенетическую картину того, как развивались мозг и познание в ходе эволюции на Земле.

Исследование позволяет сделать 2 фундаментальных вывода.
1. Когнитивная сложность в разных таксономических группах животных возникала в результате накопления целого ряда ключевых телесных и сенсорных признаков (напр. высокоразрешающие глаза и многослойные визуальные области мозга), позволившим животным перейти:
— от в основном реактивного поведения к более проактивному,
— и от медленного и двухмерного движения к более быстрому и сложному трёхмерному движению.
2. Познание — это не изолированный процесс работы нейронов мозга, а интегральный процесс, неразрывно связанный с физической структурой животного.

Следовательно, познание и разум живых существ неразрывно связаны с их воплощенностью и формируются в ходе эволюционного развития. Отсутствие воплощенности у LLM исключает возможность появления у них когнитивно сложного разума, подобного биологическому. И потому всё человекоподобие разума LLM лишь имитация.

Но это не значит, что имитируя разум людей, LLM не способны превзойти нас в интеллекте.

И даже если какие-то аспекты разума людей окажутся плохо воспроизводимы при имитации их LLM, они смогут-таки найти способы повышения точности имитации. Как уже сейчас весьма успешно делается LLM при итеративном улучшении сгенерированного ими же программного кода.

#ВоплощенныйИнтеллект #LLM #ИнойИнтеллект
24.02.2025, 14:33
t.me/theworldisnoteasy/2090
180
328
8.9 k
Недоказуемых выборных махинаций больше не будет.
Махинации, увы, останутся, но спрятать их станет уже невозможно.
Открыта универсальная закономерность в электоральных результатах. И она оказалась столь наглядна, что достаточно лишь взглянуть на распределение результатов выборов и явки, чтобы понять масштаб махинаций (см. рисунок).
Открытая универсальная закономерность подтверждена совпадением результатов экспериментального моделирования с фактическими данными о выборах в 32 странах за последние 70 лет. Найденная универсальная закономерность может служить тонким статистическим инструментом для обнаружения избирательных нарушений. И это уже не гипотеза из препринта, а вывод прошедшей строгое рецензирование в солидном APS Physical Review Journal работы группы физиков из индийского IISER Pune.

Предыстория открытия такова.
• В октябре 2022 я рассказывал про «китайскую комнату наоборот» - супероткрытие способа создания алгоритмических копий любых социальных групп.
• А в ноябре прошлого года я писал о новых прорывных работах, на наших глазах превращающих психоисторию из вымышленной Азимовым фантастической науки (позволяющей математическими методами исследовать происходящие в обществе процессы и благодаря этому предсказывать будущее с высокой степенью точности) в реальные научно-исследовательские и практические проекты.
Новое открытие продолжает два вышеназванных. И сделано оно в рамках проекта «Информация о выборах», проводимого лабораторией проф. Сантханама, ведущей исследования в области хаоса и нелинейной динамики, квантового хаоса и вычислений, машинного обучения, статистической физики, сложных сетей, экстремальных событий и сложных систем.

Авторы задались вопросом - можно ли предсказать отрыв победителя (т.е. маржу (margin), представляющую собой разницу в числе голосов между победителем выборов и кандидатом, занявшим второе место.
И получили ответ – да, можно.

Разработанная модель предсказывает, что статистика победного отрыва в выборах определяется исключительно распределением явки избирателей.
Т.е. достаточно знать распределение явки избирателей, и подтасовать результаты выборов, не будучи пойманным на махинациях, будет невозможно.

Как ответят махинаторы на этот научный прорыв, - к сожалению, очевидно.
Номером 1 в приоритетах махинаций уже на следующих выборах во многих странах станут данные о явке избирателей.

#Социология #Выборы
21.02.2025, 14:58
t.me/theworldisnoteasy/2089
223
324
8.2 k
Жизнь - вовсе не то, что мы думаем.
Считается, что есть мы и есть машины. А по сути, мы – и есть машины.
Устоявшаяся парадигма, десятилетиями управлявшая науками о жизни, до основания рушится революционной работой Life sets off a cascade of machines, опубликованной в солидном научном журнале PNAS двумя заслуженными профессорами физики: Цви Тласти из Национального института науки и технологий Ульсана (UNIST) в Южной Корее и Альбертом Либхабер из Университета Рокфеллера в Нью-Йорке.
Эта работа в корне меняет парадигму понимания вопросов, сформулированных еще в 1944 Эрвином Шредингером в его книге «Что такое жизнь?», прокладывая путь для инновационных открытий, преодолевающих междисциплинарные разрывы между физическими законами и биологическими явлениями.

Авторы, черпая вдохновение из идей Лейбница и концепций фон Неймана, дают формальное описание того, что:
✔️ жизнь – это «двойной каскад», состоящий из микрокаскада, где мельчайшие субмашины собираются в клетку, и макрокаскада, объединяющего эти клетки в организмы, популяции (добвлю от себя – и социумы), а затем – в целую биосферу;
✔️ эти два каскада встречаются в критической точке, определяющей масштаб микробной жизни, порядка 1 мкм и 1000 секунд

Критическая точка двойного каскада – это своего рода символические «ворота» между хаосом элементарных частиц и упорядоченной сложностью целых экосистем.
Из этой почти мистической симметрии законов физики и биохимии, явственно видится, что жизнь не является случайной вспышкой, а – бесконечной игрой самовоспроизводящихся элементов, точно выверенной машинерией, в которой каждый компонент исполняет свою роль в великом оркестре бытия.

В новой парадигме жизнь видится огромным многоуровневым механизмом, способным не только воспроизводить себя, но и постоянно эволюционировать, порождая новые, все более сложные формы организации..., как например, интеллект.

Публикация этой работы, прошедшей научное рецензирование в солидном научном журнале – двойной поворотный момент:
• в парадигме «что такое жизнь», о чем я здесь вам и сообщаю;
• в парадигме «что такое интеллект».
Ибо, говоря словами Блеза Агуэра-и-Аркас, –
«Феномены жизни и интеллекта оказываются глубоко переплетенными. Оба являются продуктами одних и тех же фундаментальных эволюционных сил, и оба (я буду утверждать) вычислительны по своей сути. Может быть ошибочно даже думать о них как о отдельных явлениях».

Подробней я пишу об этом во 2й части триптиха лонгридов «Проект «Pi» - 5й туз в рукаве Google» про «новую парадигму интеллекта» – альтернативный путь к пониманию интеллекта (человеческого, машинного … любого).
Я планирую опубликовать 2ю часть ASAP, хотя обещал сделать это еще 2 недели назад. Однако задержка вышла из-за почти синхронной публикации еще двух важнейших работ, имеющих прямое отношение к новой парадигме интеллекта, и потому требующих рассмотрения во 2й части лонгрида.
• Это работа Николя Руло и Майкла Левина "Мозг и что еще? Сопоставление теорий сознания с нетрадиционными воплощениями"
• И работа Цви Тласти и Альберта Либхабер, о которой написан данный пост.

Так что теперь читайте про двойной перелом парадигмы (важнейшей для понимания мира) – жизни и интеллекта.

#ParadigmsofIntelligence #ParadigmsofLife
19.02.2025, 14:49
t.me/theworldisnoteasy/2088
201
267
9.4 k
Нужно срочно учиться жить с машинами, более разумными, чем мы сами.
Машины уже не просто предсказывают, но и понимают нас лучше, чем люди.
Время от времени наука обнаруживает что-то столь важное, что это ставит перед нами более фундаментальные вопросы, чем те, что оно призвано решить. Новая работа по синтезу на LLM когнитивных моделей, — один из таких примеров.
• На первый взгляд, это всего лишь очередной шаг в попытке объяснить поведение человека и животных.
• Однако, при внимательном взгляде, исследование представляет захватывающую иллюстрацию того, насколько мы близки к созданию новых типов разума, который может не только моделировать реальность, но и наделить нас сомнениями относительно самого понятия «человечности».

Ключевые идеи и выводы
Солиднейший коллектив 17 авторов (Google DeepMind, Max Planck Institute, Princeton Neuroscience Institute и др.) утверждает, что использование методов синтеза программ на основе LLM, а именно их применения к задаче предсказания поведения людей, крыс и мушек, позволяет создать более точные и интерпретируемые когнитивные модели, чем те, что делают люди.

Эти программы могут значительно улучшить наше понимание того, как принимаются решения в условиях ограниченной информации. Примечательно, что открытые программы не только превосходят традиционные методы, но и сохраняют свою «читаемость»: они легко поддаются анализу, имеют информативные переменные и даже комментарии.

Это потрясающе, поскольку открывает не просто новую научную парадигму, а может позволить экспериментально вскрыть черный ящик мышления биологического типа разума – животных и людей.

Наиболее значимым выводом является то, что ИИ, вооруженный методами синтеза программ, может не только повторить, но и качестрвенно превзойти людей в решении самой сложной и манящей задаче человечества – понять, что такое наш разум.

Кроме того, это достижения подрывают и саму концепцию «научной мысли как человеческого исключительного дара». ИИ может стать не просто инструментом, но и активным участником научной работы. Но в этой идее скрыта ещё одна, более тревожная: можем ли мы, как человечество, контролировать процесс, который мы сами начинаем?

Перспективы
Если предположить, что эта работа — лишь начальный этап на пути к созданию более совершенных когнитивных моделей, то перед нами раскрывается несколько захватывающих, но и опасных горизонтов.
Прежде всего, мы должны наконец признать, что стоим на пороге создания искусственного разума, который способен моделировать и прогнозировать человеческое поведение не просто как набор алгоритмов, а как нечто более сложное и непредсказуемое.

Если сегодняшние системы уже могут предсказать простые поведенческие реакции, то что произойдет, когда мы научим их распознавать тончайшие нюансы человеческого сознания, его скрытые импульсы и желания?

Представьте себе программу, которая не просто предсказывает поведение в определенной задаче, а может адаптироваться, изменять свои гипотезы и даже выявлять скрытые связи, которые остаются вне досягаемости человеческого разума. В такой ситуации, мы не просто будем наблюдать за поведением ИИ, но и начнем задаваться вопросом:
• Кто контролирует эти программы?
• Мы ли остаемся главными «авторами» решений, или же ИИ, под видом синтеза, выстраивает свою логическую структуру, полностью отличную от той, что мы закладывали в неё?
Эти размышления, на первый взгляд, звучат как философский парадокс, но именно они подталкивают нас к важнейшему вопросу:
• Как мы будем взаимодействовать с машинами, которые начнут видеть и понимать мир так, как мы не в состоянии?
• И чем такое взаимодействие может закончится?

Эта работа открывает не только новые возможности, но и новые проблемы.
• Где граница, за которой машина «переосмыслит» наши предположения о сознании и восприятии?
• Что, если ИИ-разум будет так отличаться от нашего, что станет для нас абсолютно непостижимым?
• На каком уровне мы окажемся зависимыми от ИИ-разума?

#LLMvsHomo
18.02.2025, 13:46
t.me/theworldisnoteasy/2087
307
1.9 k
105 k
Интеллектуальный каюк Homo sapiens близок.
Лишь 15 россиян способны программировать лучше ИИ, в Китае таких еще 59, а в США осталось лишь 7.
Потрясающее зрелище – наблюдать в реальном времени интеллектуальное поражение людей от ИИ.
Когда бестелесные алгоритмы превзошли лучших шахматных гроссмейстеров мира и ушли в отрыв, показывая немыслимый для людей рейтинг уровня игры, - репутация людей, как носителей высшего интеллекта, пошатнулась, но устояла – см. рис слева.
Ведь шахматы, как известно, - хоть и чрезвычайно умная игра, но узкоспециальная интеллектуальная деятельность, ограничиваемая фиксированными правилами.

Но с программированием (выполнением сложных задач кодирования и рассуждений) все иначе. Здесь все почти как в жизни. Вместо следования фиксированным правилам, нужно думать, рассуждать, строить гипотезы и прогнозы. И если с программированием произойдет, как с шахматами, то каюк интеллектуальному превосходству людей (только уникальная способность к инсайтам и останется, - и то, ненадолго).

Насколько этот каюк близок, показывают результаты CodeForces – международной платформы соревнований по программированию.
Текущие результаты модели о3 от OpenAI таковы.
• Рейтинг модели 2724 лучше, чем у 99.8% всех участников этой платформы (а там соревнуются десятки тысяч программистов со всего мира: 26 тыс китайцев, 14 тыс россиян, 3,5 тыс американцев) – см. рис справа вверху;
• Это значит, что во всем мире осталось меньше 200 человек, способных программировать лучше этой модели – см. рис справа внизу.

Остались считанные месяцы, когда людей, способных превзойти ИИ в программировании останется 50, 10, 3 … 0. А дальше модели, как и в шахматах, уйдут в отрыв, похерив интеллектуальное превосходство людей навсегда.

И никакой интеллект кентавра (гибридные системы из человека и ИИ) этому помешать не сможет. Урок с шахматами повторится. Ибо непреодолимым препятствием остаются ограниченные возможности когнитивной архитектуры людей.

Но это не беда. Ибо эволюции (генно-культурной) вообще до фонаря интеллект индивидов. Главное – рост коллективного интеллекта планетарной (а потом и вселенской) жизни. А уж кого в социо-когнитивных сетях глобального интеллекта окажется больше – людей или алгоритмов, - эволюции все равно.

Только ведь людям (и конкретно, нашим детям и внукам) это будет далеко не все равно …

Подробней см:
• https://arxiv.org/abs/2502.06807
• https://codeforces.com/ratings/countries

#ИИриски #Хриски #Вызовы21века
13.02.2025, 12:46
t.me/theworldisnoteasy/2086
111
80
11 k
Цель США – не дать Китаю первым «поймать молнию в бутылку»
2я ключевая мысль Джей Ди Вэнса, которую информагенства предпочитают не замечать
Практически все мировые информагенства, рассказывая о выступлении Вице-президента США Джей Ди Вэнса в ходе парижской конференции по ИИ, в качестве ключевой мысли выступления отмечают недовольство глобальным подходом к регулированию и развитию технологий.
Но то ли красота в глазах смотрящего, то ли журналисты считают, что о 2й ключевой мысли выступления нечего писать, ибо про это (как в известном анекдоте) «и так всем всё ясно».

И эта 2я ключевая мысль сформулирована в заголовке поста - не дать Китаю первым «поймать молнию в бутылку».

По необходимости завуалированная Джей Ди Вэнсом в размытых дипломатических выражениях, эта мысль размазана по всему выступлению:
• “США являются лидером в ИИ, и наша администрация планирует сохранить это положение
• американская технология ИИ продолжала быть мировым золотым стандартом”
• “мы также наблюдали, как враждебные иностранные противники использовали программное обеспечение ИИ как оружие для переписывания истории, слежки за пользователями и цензуры речи”
• “некоторые авторитарные режимы украли и использовали ИИ для усиления своих военных, разведывательных и надзорных возможностей”
• “мы должны сосредоточиться сейчас на возможности поймать молнию в бутылку … , и эту возможность администрация Трампа не упустит”

Слово “Китай” даже не упомянуто.
Однако, «и так всем всё ясно», - ибо сформулировано за неделю до выступления Джей Ди Вэнса Марком Андриссеном – одним из двух главных “суфлеров по вопросам ИИ” для Вице-президента, а теперь и для Президента (второй – Питер Тиль).

“У нас, как у Америки, теперь есть два выбора: победить в ИИ, включая победу в ИИ с открытым исходным кодом. Или позволить Китаю победить в ИИ во всем мире.”

Так что причина неподписания США итоговой декларации парижского саммита далеко не сколько в недовольстве глобальным подходом к регулированию ИИ, сколько в том, что Китай её подписал.

«Если он против, я — за» - говорил Бродский про Евтушенко.
«Если Китай за, я — против», - как бы сказал от имени США Джей Ди Вэнс.

#Китай #США #ИИ
12.02.2025, 15:07
t.me/theworldisnoteasy/2085
113
164
9.9 k
Пять войн будущего: AGI как оружие, господство и парадоксальная угроза
Размышления над новым отчетом RAND Corporation: «Пять сложных проблем национальной безопасности, связанных с AGI»
Пролог: интеллект на поводке или оружие без хозяина?
Представьте, что новый нечеловеческий разум все же рождается — не из биологической эволюции, а из кода, алгоритмов и серверных ферм, пожирающих электричество. Этот разум не просит гражданства, не верит в демократию, не боится смерти.

Что, если такой интеллект—искусственный, но не обязательно дружелюбный—войдет в игры глобальной политики как самостоятельный игрок?

В докладе RAND Corporation нарисован тревожный, но вполне реалистичный сценарий: искусственный разум (подобный тому, что сейчас принято называть AGI) может не просто усилить армии, но подорвать баланс сил и даже вывести государство за скобки, как устаревший механизм власти. В отличие от атомной бомбы, суть которой была ясна задолго до первого взрыва, этот AGI остается зоной эндогенной радикальной неопределенности—его потенциал неочевиден даже для тех, кто его разрабатывает.

Что с этим можно поделать?

Отчет RAND описывает пять угроз. Но, весьма возможно, упускает из виду главный вопрос – “захочет” ли (речь здесь не о человекоподобных потребностях и желаниях, а о любой – возможно даже не доступной для нашего понимания, – мотивации) подобный искусственный разум играть по правилам человечества?

Прочитать дальше (открытый доступ):
• про пять вызовов AGI: AGI как “чудо-оружие”, Системный сдвиг в глобальном балансе, AGI как оружие в руках дилетантов, AGI как новый игрок в политике и AGI и нестабильность;
• про спекулятивный горизонт AGI, как рубежа новой цивилизации;
• о финальном парадоксе - контроле невозможного;
• о сценарии мира с AGI и, непонятно, с нами или без нас, -

вы можете здесь

#AGI #Вызовы21века #АлгокогнитивнаяКультура #5йКогнитивныйПереход
11.02.2025, 15:07
t.me/theworldisnoteasy/2084
335
454
10 k
Сознание и разум не привязаны к мозгу и нейронам.
Мы на пороге парадигмального переворота, своей революционностью превосходящего все предыдущие.
Если экспериментально подтвердится:
✔️ что обнаруживаются различные формы сознания, существенно отличающиеся от привычного нам человеческого опыта, но при этом демонстрирующие фундаментальные признаки осознанного поведения;
✔️ и что сложившаяся вековая традиция привязывать разум к мозгу и нейронам (биологическим, а теперь и искусственным) — всего лишь ошибочный догмат, экспериментально опровергаемый новейшими исследованиями,
➡️ в мировой науке произойдет парадигмальный переворот такого беспрецедентного масштаба, как если бы выяснилось (в совокупности):
• что центр галактики вращается вокруг пирамиды Хеопса;
• эволюция организмов не подразумевает случайных изменений;
• а геометрические свойства пространства-времени зависят вовсе не от распределения массы и энергии, а от некоего фактора Пси.

Такой супер-парадигмальный переворот в понимании сознания и разума по своей радикальной революционности можно было бы сопоставить с коперниканским, дарвиновским и эйнштейновским переворотами вместе взятыми.

Представить себе, что мы на пороге чего-то подобного, еще пару лет назад казалось невозможным. Но сегодня – уже нет.

Ибо новая работа Николя Руло и Майкла Левина "Мозг и что еще? Сопоставление теорий сознания с нетрадиционными воплощениями" пробивает в существующей парадигме сознания и разума колоссальную брешь. Беспрецедентные размеры этой бреши и семантическая фрактальность её очертаний (бесконечная вложенность смыслов) позволяют увидеть за ней контуры супер-парадигмального переворота в понимании сознания и разума.

Подробней подписчики на мои лонгриды на платформах Patreon, Boosty, VK и Дзен могут прочесть в новом лонгриде на 10-15 минут чтения.

#Сознание #АнейронноеПознание #Функционализм #ОрганизационнаяИнвариантность #НетрадиционныеРазумы
10.02.2025, 08:38
t.me/theworldisnoteasy/2083
107
198
11 k
Кто получит «Мандат Неба»?
Динамика «гонки вооружений» LLM одним слайдом.
«Гонка вооружений» на рынке больших языковых моделей (LLM) определяется просто: все стараются получить максимально высокую точность при минимальной цене. А а «фронтир» отражает лучшие на данный момент варианты по сочетанию этих двух параметров.
Диаграмма показывает [1], как разные версии языковых моделей (от OpenAI, Deepseek, Google «Gemini», Anthropic и др.) соотносятся по:
• стоимости (ось X): цена за миллион токенов - чем правее точка, тем дешевле использование модели (ниже стоимость за миллион токенов).
• качеству (ось Y): рейтинг LMSys Elo - чем выше точка, тем сильнее модель (лучшее качество ответов/результатов).

На диаграмме видны две основные "границы эффективности" (pareto frontier):
• Синяя линия от OpenAI, показывающая их модели
• Оранжевая линия от Gemini 2, которая, судя по надписи, предлагает "лучше, дешевле, круче"
• Более дорогие и мощные модели в верхней левой части (например, различные версии GPT-4)
• Средний сегмент в центре (Claude 3.5, Gemini 1.5)
• Более доступные модели в правой части (Amazon Nova Lite, Gemini 1.5 Flash)

Ключевые выводы (по состоянию на февраль 2025)
• Чемпион в соотношении цена-производительность - Gemini 2.0 Flash Thinking (лучше, чем DeepSeek r1 (по ELO) и дешевле
• Стоимость возможностей GPT-4 упала в 1000 раз за 18 месяцев
• Скорость роста возможностей моделей просто немыслимая – так не бывает, … но так есть!

PS Спецы из Google DeepMind полагают, что они близки к получению «Мандата Неба» ("Mandate of Heaven" (天命, Тяньмин)) [2]. Когда говорят, что компания имеет "Mandate of Heaven" в сфере ИИ, это означает, что она занимает лидирующую позицию не просто благодаря рыночной доле, но и благодаря признанию её технологического превосходства и инновационного лидерства.

Но вряд ли конкуренты согласятся 😊

#ИИгонка
6.02.2025, 15:07
t.me/theworldisnoteasy/2082
237
398
12 k
Тихая революция.
Как постепенное развитие ИИ может незаметно лишить человечество контроля над собственной судьбой.
Представим, что на Землю прилетают не враждебные инопланетяне, а дружелюбные, но невероятно умные существа. Они не воюют, не захватывают власть — они просто оказываются эффективнее нас во всем.
Они лучше ведут бизнес, эффективнее управляют государством, создают более интересную культуру. Мы рады сотрудничать с ними, и постепенно мир перестраивается так, что люди оказываются не нужны. В конце концов, ключевые решения принимают они, а мы просто живем на их территории, имея все меньше возможностей что-то менять.
Так же и с ИИ: это не вражеское вторжение, не война миров и не заговор машин - это незаметное вытеснение, в котором никто и не заметит момента, когда люди утратили контроль, и когда уже слишком поздно что-то изменить.

Классическая аналогия — «кипящая лягушка»: если бросить лягушку в кипяток, она выпрыгнет, а если нагревать воду медленно, то она сварится. Так же и здесь: каждое отдельное улучшение ИИ кажется неопасным, но вместе они могут создать ситуацию, в которой люди уже ничего не решают.
Например:
• В экономике: сначала ИИ заменяет простые задачи, потом более сложные, пока однажды мы не обнаруживаем, что большинство экономических решений принимается алгоритмами, а человеческий труд становится всё менее значимым.
• В культуре: от рекомендательных систем к генерации контента, пока однажды большая часть культурного производства не оказывается под контролем ИИ.
• В государственном управлении: от автоматизации бюрократических процедур к системам поддержки принятия решений, пока ключевые государственные функции не начинают зависеть от ИИ.

Злодеи, террористы и маньяки, вооруженные ИИ, также не понадобятся.

Без какого-либо зловредного участия:
• скоро мы окажемся в мире с миллионами ИИ-агентов, число которых ежегодно будет расти в десятки раз (на каждого человека будет приходиться 100-1000 ИИ, думающих в 1000-1 млн раз быстрее людей;
• люди постепенно будут выводиться из большинства процессов принятия все большего и большего количества решений;
• военные без защиты ИИ будут немедленно выводиться из строя кибератаками невиданной изощренности.
• государства будут получать большую часть своих доходов от налогов на ИИ-системы, а не от заработной платы людей.

Эти и многие другие риски могут материализоваться, даже если мы в основном «решим» традиционную проблему согласования ИИ. В этом сценарии ИИ «делают то, что мы им говорим», но экономические стимулы заставляют нас говорить им максимизировать прибыль и влияние (поскольку, если мы этого не сделаем, то это сделают другие: люди, компании, страны)

Подробней, читайте здесь.
#ИИриски #Хриски
4.02.2025, 15:12
t.me/theworldisnoteasy/2081
248
539
21 k
Пора задуматься о перемене участи.
Так ли уж ИИ будут нужны «кожаные мешки»?
Среди 10 заповедей, оставленных человечеству великим Джеймсом Лавлоком, 3 относятся к перемени участи людей в наступающей эпохе Новацена (подробней см. [1])

Заповедь №4. Люди — это ключевой вид, возникший в ходе биологической эволюции для преобразования потоков фотонов в биты информации, собираемой таким образом, чтобы способствовать эволюции Вселенной (поскольку информация — это её врожденное свойство).
Заповедь №6. … сверхразумные (небиологические) носители ИИ — существа, которые создали и запрограммировали себя сами и обладают мыслительным процессом на несколько порядков быстрее людей, — продолжат эволюцию на небиологическом уровне, сменив естественный отбор на “направленный отбор”…
Заповедь №7. … Люди как биологические существа не исчезнут, а лишь изменится их роль. Процесс познания, в основном, перейдет к киборгам, а роль людей сведется к сохранению антропного окна температур от минус до плюс 50 по Цельсию. Ведь если жизнь на Земле исчезнет, захлопнется это антропное окно ...

Большинство сегодняшних экспертов полагают:
1. Сверх-ИИ рано или поздно появится.
2. Однако людей он не заменит, а станет для них сверхмощным усилителем их интеллекта.
Т.е. представляется, будто «одинокий ИИ» будет уступать «ИИ + человек».

Однако, такое предположение однозначно опровергается уже первыми исследованиями данного вопроса.

Посмотрите на приведенную таблицу, взятую мной из вчерашнего, мягко говоря, обескураживающего (а многих и шокирующего) поста Эрика Тополя и Пранава Раджпуркара [2].

Удивительно, но в большинстве случаев работающие независимо ИИ-системы показывают лучшие результаты, чем в сочетании с участием врача.

Вынужденно толерантные из-за публикации своей статьи на эту тему в NYT, авторы скромно предполагают: «нам, возможно, придется переосмыслить, как мы разделяем обязанности между врачами-людьми и системами ИИ, чтобы достичь цели синергии (а не просто аддитивности)».

Мне же ситуация видится, скорее, по Лавлоку – людям пора озаботиться переменой собственной участи.
Тем более, если кого-то все же не устраивает участь «теплотехников», поддерживающих на Земле окно температур, гарантирующее жизнь цивилизации.

#LLMvsHomo #Лавлок #Новацен
3.02.2025, 14:45
t.me/theworldisnoteasy/2080
293
292
10 k
Есть мнение (и ладно бы только у меня, но и у руководства Google), что прогресс ИИ идет не туда, ибо сама парадигма интеллекта (машинного, человеческого, … любого), мягко говоря, устарела, а по гамбургскому счету, - вообще, ошибочная.
Мой триптих постов на эту тему – своего рода интеллектуальное расследование полусекретного проекта (называю его так потому, что он вроде как, есть, но никаких деталей в открытом доступе о нем почти нет). Этот проект был инициирован 3 года назад высшим руководством Google, и осуществляется междисциплинарной группой Paradigms of Intelligence (Pi) во главе с Блезом Агуэра-и-Аркас (Google VP/Fellow and CTO Technology & Society) в кооперации с мощнейшей командой исследователей из Santa Fe Institute (не без оснований прозванного «Институт сумасшедших идей»), двумя «мозговыми центрами» (Antikythera, Mila - Quebec AI Institute) и MIT.

Назову три ключевые момента, подлежащие кардинальному пересмотру в рамках новой парадигмы интеллекта:
1. Само определение интеллекта. Интеллект не является продуктом нейронов мозга или микрочипов компьютеров, на которых функционируют генеративные модели. Интеллект - это коллективное явление, формируемое эволюцией, развитием и взаимодействием в более крупных экосистемах.
2. Цель развития ИИ. Создавать AGI (что сейчас декларируется главной целью почти всех ведущих разработчиков ИИ-систем) не нужно, - т.к. его прототипы уже созданы, и теперь их нужно лишь совершенствовать. Вследствие этого, актуальные задачи и связанные с ними риски развития ИИ определяются вовсе не созданием AGI (можно сказать, что в области ИИ, мы не к тому стремимся и не того боимся).
3. Понимание отношения между интеллектом людей и ИИ. Пора признать, что нет ничего искусственного в том, что принято называть «искусственный интеллект». ИИ - это новая эволюционная форма человеческого (!) интеллекта.
ИИ-системы - это, своего рода, увеличительные зеркала нашего (!) интеллекта, позволяющие на их основе строить массу фантастически полезных новых интеллектуальных инструментов: от простых «увеличительных зеркал» (типа стоматологических), позволяющих заглянуть в трудно доступные области дата-майнинга, до интеллектуальных микроскопов и телескопов, предоставляющих нам возможности получения знаний из-за границы нашего интеллектуального горизонта.


Принятие новой парадигмы интеллекта, над которой работает команды Pi, означает, что все нынешние разговоры о создании AGI - путь в никуда. Это всего лишь путь зарабатывания больших денег. Причем зарабатывания не на результате, а на процессе движения к ложной цели.
Но как показывает «проект Pi», у Google припрятан 5й туз в рукаве - альтернативный «путь выдры».

Переход Google на этот путь может стать даже не разворотом шахматной доски в борьбе за первенство в ИИ. Это будет смена правил игры, кардинально меняющая саму парадигму интеллекта.

О результатах моего анализа:
✔️ миссии и видения междисциплинарной группы Paradigms of Intelligence;
✔️ проектов группы Pi:
• диагностика эмуляции моделями сознания и способности чувствовать, на примере чувства боли;
• опровержение априорных утверждений, что небиологические системы не могут быть разумными или сознательными;
• исследование вычислительных корней жизни и интеллекта;
• экспериментальное доказательство возникновения «вычислительной жизни»;
✔️ концептуальных связей и синергии «проекта Pi» с исследовательской программой новой философии вычислений «Антикитера».

Обо все об этом я расскажу в лонгриде, состоящем из 3х постов и озаглавленном «Проект «Pi» - 5й туз в рукаве Google. Альтернативный путь к пониманию интеллекта: человеческого, машинного … любого».

1-ю часть триптиха – «Путь выдры», – подписчики моих лонгридов уже могут прочесть на Patreon, Boosty, VK и Дзен.

#ParadigmsofIntelligence
1.02.2025, 18:36
t.me/theworldisnoteasy/2079
322
381
11 k
Через 10 дней Homo sapiens перестанет быть единственным носителем высшего интеллекта на Земле.
✔️ До сего времени считалось, что на Земле лишь один высший интеллект – человеческий. Второй же тип высшего интеллекта - «сильный ИИ» или AGI = лишь планируется создать в будущем (через год, 10 или 50 лет).
✔️ Теперь же предлагается термин «сильный ИИ» (AGI), из-за неоднозначности и туманности множества его несовпадающих трактовок, оставить лишь для текстов журналистов и блогеров популярных медиа, а также (куда без этого) для зарабатывающих на хайповой терминологии маркетёров, пиарщиков и инвестбанкиров.
✔️ Профессиональным экспертам, исследователям и инженерам в области передовых ИИ-систем, а также (понятное дел) политикам и общественным деятелям, предлагается, вместо термина AGI, использовать термин «ИИ общего назначения» (ИИОН) (general-purpose AI), поскольку ИИОН:
• имеет вполне понятное и однозначное определение = это ИИ-системы, способные самостоятельно выполнять и/или помогать пользователям в решении самых разных задач, напр. создание текстов, изображений, видео, аудио, осуществление действия или аннотирование данных;
• уже существует во многих практических реализациях фронтирных LLM (что позволяет его всестороннее тестирование и проведение научных экспериментов);
• по ряду тестов, ключевых для оценки человеческого интеллекта приближается к уровню людей (а по некоторым уже и превосходит его даже на уровне топовых профессионалов), и, судя по трендам (см. приложенный 1й и ключевой рисунок отчета), вот-вот можно будет признать, что и гипотетический уровень AGI (как его ни определяй и оценивай) достигнут.

Контекст вышесказанного таков.
10 и 11 февраля 2025 года во Франции пройдет всемирный «Саммит действий по искусственному интеллекту (ИИ)», который соберет в Grand Palais глав государств и правительств, руководителей международных организаций, руководителей малых и крупных компаний, представителей научных кругов, неправительственных организаций, деятелей искусства и членов гражданского общества.
По заказу всемирного саммита, в качестве «информации к размышлению» для его участников, группой из 96 экспертов по ИИ со всего мира, включая лауреатов Нобелевской премии и обладателей премии Тьюринга, вчера был опубликован 297 страничный отчет International AI Safety Report 2025.
По словам лидера экспертной группы, проф. Йошуа Бенджио, это первый в истории международный отчет по безопасности ИИ, поддержанный 30 странами, а также ОЭСР, ООН и ЕС. Он суммирует состояние науки о возможностях и рисках ИИ, а также о том, как смягчить эти риски.

Йошуа Бенджио и его 85 коллег – экспертов не стали ввязываться в бесконечные и бесперспективные терминологические споры вокруг AGI.
Вместо этого, авторы лишь 1 раз упомянули этот термин в тексте отчета (2й раз – в его глоссарии), чтобы отказаться от него, в связи с изложенными мною выше обстоятельствами, и заменить на ИИОН.

Так что можно опускать занавес над баталиями вокруг AGI.
С февраля 2025 на Земле будет два высших интеллекта общего назначения: человеческий и искусственный (машинный).

#AGI
30.01.2025, 15:10
t.me/theworldisnoteasy/2078
455
452
18 k
Прорыв DeepSeek- - «это счастье для всех, даром, и … никто не уйдет обиженный!"
Самое важное и самое незамеченное последствие успеха Deepseek-R1.
Эти слова про счастье для всех произнес сталкер Рэдрик Шухарт на дне котлована, найдя Золотой Шар, исполняющий любые желания. Так заканчивается знаменитый роман братьев Стругацких "Пикник на обочине". И так же можно описать начало новой фазы мировой гонки к AGI.

Самое важное и самое пока что незамеченное большинством аналитиков (разве что, кроме Джека Кларка - соучредителя Anthropic, а ранее директора по политике внедрения в OpenAI) последствие успеха Deepseek-R1 в следующем:
• Прорыв Deepseek – это уже не прорыв Deepseek.
Будучи объявленным в открытый доступ, это улучшение модели (алгоритмы и методы обучения) становится прорывом всей мировой ИИ-индустрии.
• Это улучшение доступно всем. И потому его невозможно «откатить назад». Никому уже не придется изобретать это заново. Это улучшение быстро распространится, и станет вторым скачком прогресса ИИ. Первый скачок был связан с возможностями масштабирования. Теперь пришло время второго – оптимизация алгоритмов и методов обучения.
• 2й скачок, как и 1й, принесет наибольшую пользу тем компаниям, у кого больше денег и высокопроизводительного «железа» для вычислений. Таковы законы рынка и масштабирования. Так будет и теперь.

Вот что, на самом деле, наиболее важно в этой истории. А не американские горки стоимости акций производителей «железа» и разработчиков ИИ-моделей. И не, якобы, то, что Китай догнал и перегнал США.

Все это вторично и временно. А мировой прорыв всей ИИ-индустрии человечества (от США и Китая до России и Мальты) уже случился, и обратно его не откатить.

#ИИгонка #Китай #США
29.01.2025, 14:26
t.me/theworldisnoteasy/2077
250
284
26 k
Обмани меня, ИИ, - если сможешь.
Прорыв в понимании работы мозга позволит ИИ стать непревзойденным мастером универсального блефа.
Результаты прорывного исследования на стыке нейровизуализации и вычислительного моделирования в задачах социального познания и теории разума способны обеспечить очередной рывок в получении ИИ абсолютного превосходства над людьми. Речь идет о превращении новых поколений языковых моделей в искусных обманщиков и проницательных раскусителей человеческой лжи.

Вот простой пример.
Две сестрички Салли и Энн играют дома. Салли прячет монетку под одной из двух ракушек, а Энн за этим наблюдает. Затем Энн отправляет Салли на кухню принести ей воды. И пока Салли нет, Энн перекладывает монетку под другую ракушку, думая тем самым перехитрить сестру. Но когда Салли возвращается, она сразу же направляется к той ракушке, куда Энн переложила монетку, а не к той, куда сама изначально её положила. Салли смеется. Энн удивлена.
Этот пример «теста на ложное убеждение», проверяющего, понимают ли дети, что люди действуют на основе убеждений. Суть здесь в том, что Салли предвидит хитрость сестры (иначе, зачем ещё Энн отправляла её за водой?). Предполагая, что Энн, скорее всего, поменяла местами ракушки, Салли перехитрила её и приняла верное решение. Этот пример наглядно показывает, как предсказание того, что другие, скорее всего, сделают (или не сделают), может заставить нас скорректировать собственные действия.

Взрослые люди способны на куда более сложные многоходовки типа, что ты подумаешь о том, как я подумаю о том, что ты подумаешь о том, как …
И это умение превратило людей в непревзойденных хитрецов и плутов, интриганов и манипуляторов, макиавеллистов и махинаторов, - короче, в мастеров и знатоков блефа.

А как в этом смысле хороши языковые модели? Ведь, например, в покере ИИ уже превзошел людей, применяя блеф высочайшего уровня, основанный на вероятностях и противодействии стратегиям соперников?

Но не все так просто с блефом. Достижения ИИ в покере впечатляют. Но они основаны на принципиально иных механизмах, чем социальное познание людей.
Покерные боты (напр, Pluribus, Libratus) демонстрируют сверхчеловеческие результаты благодаря:
• строго формализованной среде;
• слепой математике, а не теории сознания;
• отсутствию необходимости в ментальных моделях.
Покерные боты не строит гипотезы о том, как соперник представляет себе мысли ИИ (рекурсия теории сознания). Вместо этого они опираются на статистические паттерны и балансировку стратегии (например, смешивание агрессивных и пассивных действий для дестабилизации оппонента).
В результате всего названного, сверхчеловеческая сила таких ИИ-ботов в покерном блефе получается столь же узкоприменима, как и сверхсила ИИ-систем, показывающих нечеловеческий уровень игры в шахматы и Го.

Прорывность нового исследования (его ревю) как раз и заключается в том, что его авторы экспериментально определили механизм решения подобных проблем мозгом, принимающий во внимание множественные предсказания действий других и ранжируя их по вероятности.
И делающий это:
• опираясь не только на статистику, но и на ментальные модели (за счет дополнительных модулей нейронной обработки - напр. агенты с явным моделированием чужих стратегий и вероятностей);
• не только эмулируя множественные предсказания о действиях людей, но и будучи включенными в интерактивную среду, наблюдая и переоценивая поведение других участников в режиме реального времени.

Т.о. проясняется вполне конкретный путь превращения ИИ в непревзойденных мастеров универсального (!) блефа за счет потенциальных улучшений LLM:
• Мультимодальность. Интеграция данных о поведении (жесты, интонация) могла бы улучшить предсказания.
• Теория сознания в архитектуре. Внедрение модулей, явно моделирующих убеждения и намерения агентов.
• Активное обучение. Механизмы для обновления предсказаний в реальном времени, аналогичные работе dlPFC в мозге.

И тогда сливай воду, Homo sapiens, в искусстве универсального блефа.
#LLMvsHomo
27.01.2025, 15:32
t.me/theworldisnoteasy/2076
Результаты поиска ограничены до 100 публикаций.
Некоторые возможности доступны только премиум пользователям.
Необходимо оплатить подписку, чтобы пользоваться этим функционалом.
Фильтр
Тип публикаций
Хронология похожих публикаций:
Сначала новые
Похожие публикации не найдены
Сообщения
Найти похожие аватары
Каналы 0
Высокий
Название
Подписчики
По вашему запросу ничего не подошло