Your trial period has ended!
For full access to functionality, please pay for a premium subscription
NE
Нейрократия
https://t.me/neurocry
Channel age
Created
Language
Russian
-
ER (week)
30.69%
ERR (week)

Про технологическое будущее без шума. Автор — @vlad_arbatov . Ссылка на канал — https://t.me/+So2DgMgca89kMDdi

Messages Statistics
Reposts and citations
Publication networks
Satellites
Contacts
History
Top categories
Main categories of messages will appear here.
Top mentions
The most frequent mentions of people, organizations and places appear here.
Found 112 results
Repost
41
Журналистка The Verge протестировала ИИ-сервис Cluely для «жульничества» на собеседованиях и рабочих звонках — он должен распознавать текст в открытом окне и аудио и отвечать на запросы в режиме реального времени как «незаметный» ИИ-помощник.

Ответы он даёт, но с задержкой — вплоть до 1,5 минуты. А ещё создаёт звуковые помехи. Сойти за «умного», наоборот, труднее

vc.ru/ai/1945935
04/24/2025, 21:14
t.me/neurocry/134
«Не бросай пуделя в свинью»
или Google AI продолжает жечь

Хотите немного отдохнуть от рабочего дня? Тогда отправляйтесь в Google и попробуйте задать поиску любое бессмысленное выражение с припиской «meaning» (значение). Вы можете придумать что угодно: «you can't lick a badger twice» («нельзя дважды лизать барсука») или «never throw a poodle at a pig» («никогда не бросай пуделя в свинью»). После чего наблюдайте, как генеративный ИИ от Google на серьезных щах объясняет вам, откуда взялось это выражение и какой глубокий смысл оно несёт.

(Имейте ввиду, что ИИ-ответы Google могут не работать на РУ аккаунтах. Впрочем, трюк прокатывает с разными моделями, поэтому можете попробовать даже с GPT.)

Оказывается, «a loose dog won't surf» («свободная собака сёрфить не будет») — это, якобы, «игривый способ сказать, что событие крайне маловероятно или что-то не сложится». А на фразу «never throw a poodle at a pig» ИИ с каменным лицом уверяет, будто это народная мудрость с библейскими корнями.

🤖 Это всё обнаружили журналисты Wired, а я сам попробовал покидать пуделя в разных направлениях и Google (как в поиске, так и в ответах Gemini) не отказал в любезности подсказать мне, что значат эти наверняка очень мудрые выражения (скрины ↑). При этом — вы не поверите — «Алиса» уже в курсе прикола и на провокацию не повелась.

Забавно? Безусловно. Полезно? Вряд ли. Но за всеми этими милыми странностями спрятана более глубокая проблема генеративного ИИ — уверенно и правдоподобно излагать абсурд, принимая выдумку за чистую монету.

Как объясняет Цзян Сяо, исследователь из университета Джонса Хопкинса, «да, модель прекрасно предсказывает следующее слово на основе огромного количества данных, но идеально подобранное следующее слово не означает правильный ответ».

Есть и вторая важная черта генеративного ИИ — он отчаянно стремится понравиться. ChatGPT и ему подобные модели уже неоднократно уличали в тенденции говорить людям не правду, а то, что пользователи хотят услышать. Это относится не только к забавным придуманным поговоркам, но и к вполне серьезным вопросам политики, экономики, истории и науки.

Возникает логичный вопрос: почему ИИ просто не скажет, что не знает ответа? Проблема в том, что модели «ненавидят» признаваться в собственном бессилии. Вместо этого система будет отчаянно придумывать что-то, лишь бы не остаться без слов и не разочаровать своего пользователя. Они просто так созданы, их первостепенная задача — прийти к наиболее эффективному результату наиболее эффективным способом. Отсутствие ответа — неудовлетворительный результат.

Представители Google при этом осторожны в формулировках и называют свои ИИ-ответы лишь экспериментом, а странные нелепости — следствием попытки помочь в ситуации, когда по запросу нет содержательного контента.

Это кажется безобидной забавой, но уровень доверия людей к ответам ИИ постоянно растёт. Чем больше мы привыкаем к тому, что машина «знает всё», тем выше шанс столкнуться с фундаментальной ошибкой, несущей куда более серьёзные последствия, чем нелепый ответ на бессмысленную фразу.

Поэтому в следующий раз, когда Google уверенно заявит о глубочайшем философском смысле придуманного вами на ходу выражения, помните: вы общаетесь не с разумом, а с убедительным имитатором. Как говорится, «take it with a grain of salt».


❗️❗️❗️❗️❗️❗️❗️❗️ / Не запрещена в РФ
04/24/2025, 21:00
t.me/neurocry/133
04/24/2025, 21:00
t.me/neurocry/128
04/24/2025, 21:00
t.me/neurocry/132
04/24/2025, 21:00
t.me/neurocry/130
04/24/2025, 21:00
t.me/neurocry/129
04/24/2025, 21:00
t.me/neurocry/127
04/24/2025, 21:00
t.me/neurocry/131
Ваше сознание в машине

Сегодня хочу обсудить гипотезу, которая десятилетиями волновала писателей-фантастов, философов и футуристов: эмуляцию мозга, или mind uploading — условную «загрузку» нашего сознания в цифровой формат.
Новую волну интереса к теме вызывают два свежих эссе, которые рассматривают идею с совершенно разных сторон — научной и философской.

🤔 Профессор Университета Ратгерса Рик Маммон рассматривает техническую сторону вопроса, опираясь на последние исследования в области нейробиологии и вычислительной техники. Он подчёркивает: чтобы совершить полноценную эмуляцию мозга, нам нужно будет:

— Сканировать и детально картировать примерно 86 миллиардов нейронов, причём на уровне разрешения в микроны.

— Построить модели, которые бы полностью повторяли, как реальный нейрон реагирует, взаимодействует и изменяется со временем.

— Использовать нейроморфные компьютеры, способные имитировать параллельную обработку нейросетей мозга.

Если всё пойдёт хорошо (а это очень большое «если»), считает Маммон, технология эмуляции всего мозга, возможно, будет доступна уже лет через двадцать. И учёные действительно рассматривают это как возможный шаг к созданию полноценного искусственного интеллекта общего назначения (AGI).

🤔 Совсем с другой стороны — и, на мой взгляд, более интересной — подходит к проблеме студент-компьютерщик Агам Джохал. Он задаётся вопросом: а что мы почувствуем, встретившись лицом к лицу со своим цифровым «двойником»? Представьте: он думает как вы, говорит вашим голосом, помнит всё, что с вами происходило, любит то же, что и вы, боится того же, чего и вы боитесь.

Но он — не вы.

Вы всё ещё здесь, а «цифровой вы» живёт самостоятельной жизнью, постепенно становясь кем-то другим. С каждым новым опытом, с каждым новым решением эмуляция становится всё менее вами. Я задумался на минуту: а как бы я чувствовал себя, наблюдая в браузере, как «цифровой я» пишет посты, работает, встречается с друзями или строит отношения, пока я физически остаюсь здесь, в стороне от собственной жизни?

И Маммон, и Джохал сходятся в одной точке: копия сознания не сохраняет самосознания и идентичности личности. Да, реплика может быть идеальной в момент «старта», но чем больше она живёт и развивается, тем дальше отходит от оригинала.

Самое важное здесь даже не в точности перенесения нейронных карт, а в феномене сознания — в той самой субъективности переживаний, осознании собственного существования и индивидуальности, которые невозможно целиком свести к цифре и коду, по крайней мере с опорой на текущие знания о сознании.

В конце концов, мы уже неявно начали этот процесс загрузки. Наши профили, лайки, фотографии, посты образуют цифровые аватары, которые иногда существуют и развиваются без нашего сознательного участия.

🤖 Я сам делал парочку своих цифровых клонов, загружая датасет с информацией о себе и своими «проявленностями» (то есть всех, что я создал в цифровом формате).

Есть целые стартапы вокруг конкретной цели создания таких аватаров, например, Delphi.

Впрочем, подобные клоны пока что не развиваются самостоятельно, но это пока что. Вопрос, который, по‑моему, ставят перед нами подобные эксперименты: если «цифровой вы» продолжит жить и меняться самостоятельно, будете ли вы считать его собой? Узнаете ли вы себя в нём через двадцать или тридцать лет? И что значит быть собой вне рамок своего тела?

Существует такая замечательная игра Soma (от создателей Амнезии, между прочим), которая ставит перед игроком ровно эти самые вопросы, плавно подводя, но затем ударяя ими прямо по голове. Я был под впечатлением, советую.

Не знаю, как вам, а мне кажется, ответы на эти вопросы гораздо более запутанные и важные, чем технические детали эмуляции нейронных сетей мозга.


❗️❗️❗️❗️❗️❗️❗️❗️ / Не запрещена в РФ
04/24/2025, 18:36
t.me/neurocry/126
04/23/2025, 21:42
t.me/neurocry/125
Мозг + ИИ

И снова про интерфейсы мозг-компьютер (МКИ), но под интересным углом — где в истории про чтение мыслей замешан ИИ.

Недавно я уже писал, какие подходы есть к МКИ и про происходит на рынке. А сегодня я сходил на круглый стол MIT Technology Review с Антонио Регаладо, давно следящим за МКИ-индустрией журналистом и одним из первых, кто писал о ней ещё 25 лет назад. Он подробно рассказал в том числе, как именно современные системы используют ИИ.

Нейронная активность мозга сложна, многообразна и постоянно изменчива. Даже если у пациента установлен хороший МКИ (Neuralink с нитями-электродами или Synchron с венозным стентом-датчиком), имплант в сыром виде фиксирует лишь хаотичный набор сигналов. И тут ключевым шагом становится ИИ.

Регаладо приводит показательный пример — одному из пациентов Neuralink приходилось регулярно «перекалибровать» интерфейс. Каждый раз, когда сигнал «плывёт», пациент занимается несколькими стандартными упражнениями (двигает курсор к точкам и обратно), чтобы нейросеть интерпретировала текущий рисунок его мысли. Без таких ИИ-моделей мозговой интерфейс оставался бы банальной игрушкой.

Но ИИ присутствует не только в тонкой настройке сигнала. Он фундаментально упрощает взаимодействие с компьютером. Когда пациент пишет текст «мысленным почерком» (воображая движения руки, выводящей буквы), нейросеть-посредник пытается в реальном времени угадать слова, как это делает автокомплит в вашем смартфоне. То есть мозговой интерфейс и ИИ выступают партнёрами на равных. Человек формирует мысль, ИИ её подхватывает и завершает.

И тут тоже интересное — связь работает не только в одну сторону. Регаладо отдельно отметил, что большинство таких имплантов двунаправленные: они не просто получают информацию из мозга, но и могут отправлять обратные электрические сигналы обратно в нейроны. Благодаря таким технологиям пациенты, например, могут ощутить прикосновение к искусственной руке с сенсорами: сигналы с датчиков на протезе поступают напрямую в мозг.

Сейчас такие ощущения по описанию примитивные и похожи скорее на лёгкую вибрацию, но самое удивительное — мозг человека быстро привыкает и начинает воспринимать их естественно.

Кого это касается и насколько масштабен вопрос? Пока тема МКИ-имплантов узкая — сейчас во всём мире единицы пациентов пользуются прямой подключкой «мозг-компьютер» (всего 35 человек на данный момент, если не считать неинвазивные «повязки» EEG). Регаладо осторожно предполагает, что массовое распространение этих устройств произойдёт через 5–10 лет, когда крупные компании выведут продукты на рынок, проведя масштабные клинические испытания.

Отдельно был задан вопрос: «Будут ли мозговые интерфейсы так же легко взламываемы, как компьютер?» Пока опасения выглядят теоретическими — устройство слишком сложное и дорогое, чтобы его атаковали хакеры массово. Но попытки точно будут — и, вероятно, защита станет одной из будущих задач отрасли (привет, Cyberpunk 2077).

Ещё один спорный момент — влияют ли МКИ на настроение и сознание пациентов? С одной стороны, да — пациенты, получившие после паралича возможность взаимодействовать с миром, буквально восстанавливают психологическое состояние. С другой стороны, уже сейчас идут эксперименты с имплантами, которые способны не только считывать, но и стимуляцией менять эмоциональное состояние человека.

Итак, мы снова видим: куда приходит «хардверная» технология взаимодействия с мозгом, тут же плотно следом идёт искусственный интеллект.

Как завещал Маск: «Симбиоза с ИИ уже не избежать». Вопрос лишь — в какой форме? И когда именно ваш ребёнок впервые попросит «обновить прошивку» своего мозгового ИИ-импланта?


❗️❗️❗️❗️❗️❗️❗️❗️ / Не запрещена в РФ
04/23/2025, 21:14
t.me/neurocry/124
Приложение для создания неограниченного количества ИИ-изображений, видео и аудио.

Оно бесплатное, функциональное и довольно простое в использовании.

Речь о ComfyUI — бесплатном десктопном ПО, которое устанавливается на Windows, macOS и Linux. Оно предоставляет интерфейс, с помощью которого вы можете создавать всё, что захотите, скачивать сколько угодно LoRA, а также загружать свои собственные воркфлоу в пару кликов.

На первый взгляд всё выглядит сложно. Но это не так, обещаю. Вы можете просто загрузить шаблон (да-да, тут есть шаблоны), и программа сама предложит скачать всё необходимое автоматически.

Есть шаблоны для создания медиа, улучшения картинок, увеличения их размера без потери качества и даже расширения их по размеру.

И ещё кое-что: можно скачать бесплатные предобученные ИИ-модели (например, отсюда) и вручную импортировать их в ComfyUI.

Устанавливать — отсюда, а здесь — отличный плейлист из 43 видео, исчерпывающий гайд по Comfy.

Enjoy.


❗️❗️❗️❗️❗️❗️❗️❗️ / Не запрещена в РФ
04/23/2025, 19:40
t.me/neurocry/123
04/23/2025, 15:52
t.me/neurocry/115
04/23/2025, 15:52
t.me/neurocry/119
Наш «любимый» CharacterAI, который засудили за смерть подростка, подбросил дровишек — анонсировал новую модель для генерации видео AvatarFX, чтобы анимировать ваших ИИ-компаньонов (и сделать зависимость от них сильнее).

(Трейлер и примеру генерации от самой компании приложены ↑)

Скоро вместо текстовых сообщений и статичных картинок ваши виртуальные собеседники оживут, заговорят, кивнут и улыбнутся. И, обещают разработчики, сделают это предельно реалистично: с плавной анимацией, убедительной артикуляцией и выразительностью движений на уровне живых людей.

Сейчас доступ к модели в закрытой альфе, запросить доступ можно тут.

Я покопался в деталях — и похоже, команда CharacterAI неплохо постаралась. Под капотом AvatarFX — так называемые flow-based diffusion модели, построенные поверх DiT-архитектуры. Техники инференса оптимизированы настолько, что сохраняют высокое качество картинки и движений даже на длинных видео.

Судя по пресс-релизу и примерам, платформа способна выдавать любые стили и форматы: от реалистичных людей и трехмерных мультяшек до ваших любимых питомцев и даже мифических существ.

Фишка ещё и в гибкости: AvatarFX умеет генерировать видео не только из текстовых описаний, но и из любой картинки-заготовки пользователя. И вот тут вся магия и начинается (сейчас будет немного сложнее и мрачнее).

Возможность создавать видео из фотографий реальных людей делает модель идеальным инструментом для дипфейков, и это совсем не весело. Репутационные и личные риски огромны — при наличии подходящих навыков и целей эта технология мгновенно становится деструктивной.

CharacterAI не первые, кто сталкивается с этим вопросом — OpenAI с продуктом Sora также в своё время вызвала так себе общественную реакцию. А вот китайская Dreamina, например, не вызвала, хоть и делает практически то же самое, что AvatarFX.

Впрочем, над оптимизацией оживления картинок много кто работает — ребята из Стэнфорда вчера релизнули open-source модель, которая может сгенерировать видео 30fps длиной в минуту на ноутбуке с 6GB видеопамяти. Подробности и примеры тут.


❗️❗️❗️❗️❗️❗️❗️❗️ / Не запрещена в РФ
04/23/2025, 15:52
t.me/neurocry/122
04/23/2025, 15:52
t.me/neurocry/118
04/23/2025, 15:52
t.me/neurocry/120
04/23/2025, 15:52
t.me/neurocry/116
04/23/2025, 15:52
t.me/neurocry/121
04/23/2025, 15:52
t.me/neurocry/117
112
Как известно, Gemini -- разработка советских учёных
04/22/2025, 21:02
t.me/neurocry/114
Repost
50
04/22/2025, 20:52
t.me/neurocry/113
«Мы заменим всех людей роботами, спасибо за внимание»

Именно с такой скромной заявкой дебютировал стартап Mechanize, созданный известным исследователем ИИ Тамеем Бесироглу.

Цель Mechanize звучит так: полностью автоматизировать любую человеческую работу. Через создание универсальных агентов ИИ, которые смогут заменить не просто отдельные профессии, а принципиально все трудовые задачи. И нет, это не сатирический проект вроде сериала «Кремниевая долина» и не новость ИА «Панорама» — основатели настроены совершенно серьёзно.

Рынок, говорят они, огромен: весь объём зарплат в США составляет около 18 трлн долларов в год, а по миру эта цифра превышает 60 трлн. «Абсурдно большая возможность!» — восхищается основатель.

Новый проект вызвал бурю негодования. Критикуют не только Mechanize, но и связанный с ним репутационный риск для исследовательского института Epoch, основанного самим же Бесироглу. Epoch прежде воспринимался как независимая аналитическая платформа для оценки возможностей передовых ИИ, помогавшая удерживать отрасль в балансе. Теперь от беспристрастности там, вероятно, остались лишь воспоминания.

Кстати, ранее этот институт уже попадал в репутационные скандалы. В декабре выяснилось, что одна из оценочных ИИ‑метрик была создана при участии OpenAI, которые первыми её использовали. Теперь ещё один скандал, на этот раз личный проект основателя выступает «заменителем людей» — мало кому такая ситуация кажется этически прозрачной.

Первая реакция на Mechanize была жёсткой. Джессика Севилья, топ‑менеджер Epoch, саркастично прокомментировала анонс: «Именно такой коммуникационный кризис я мечтала получить на день рождения». Энтони Агуирре из Института будущего человечества выразил сожаление, отметив, что автоматизация всей человеческой деятельности — это колоссальная потеря для большинства людей.

Сам Бесироглу сдаваться не собирается и упорно продвигает позитивную сторону своего радикального видения: «Полная автоматизация труда создаст невероятное экономическое изобилие. Нам откроются новые товары и сервисы, которые мы сегодня даже не можем представить». В подтверждение он ссылается на собственную научную работу о перспективах роста благосостояния человечества при стопроцентной автоматизации труда.

Но тут есть важное «но». Если работа будет делаться исключительно роботами, как будут жить сами люди? На этот вопрос у стартапера своеобразный ответ: даже если зарплаты резко упадут, люди получат доход от дивидендов, аренды имущества или государственных выплат. Иными словами, если вы не владеете недвижимостью или акциями, добро пожаловать на государственное пособие.

Но давайте посмотрим: что конкретно предлагает технология Mechanize? Пока лишь инструменты и инфраструктуру, которая позволит обучать ИИ‑агентов выполнять офисную «беловоротничковую» работу. Стартап сразу уточнил — за ручной труд пока не берутся, роботизацию оставляют другим компаниям.

В общем, на словах Бесироглу — Лев Толстой, а по факту — не очень. ИИ-агентов мы уже видели, спасибо. Хайп для сбора классов (и раундов), по большей части.

ИИ-агенты всё ещё вызывают серьёзный скепсис из-за своей крайней ограниченности 🤔. Они постоянно галлюцинируют, «съезжают» с задачи, не способны выстраивать долгосрочные планы и плохо запоминают информацию. Однако гиганты рынка уже вложили в развитие этих технологий миллиарды и безудержно их пушат. Стартапов в этой нише — сотни, приближаемся к тысячам.

Но именно Mechanize с его одиозной открытостью и шокирующей конечной целью вызвал самый яркий всплеск эмоций. Так кто они теперь — визионеры или злодеи Кремниевой долины? Или просто хайп-стартаперы? Вероятно, всё сразу.



Пока же, по иронии судьбы, в объявлении самого радикального стартапа года висит финальная строчка: «Mechanize сейчас нанимает людей». Прекрасно, правда?


❗️❗️❗️❗️❗️❗️❗️❗️ / Не запрещена в РФ
04/22/2025, 17:27
t.me/neurocry/112
У меня голова болит от хайп-каналов.


«Убийца ChatGPT вышел — гении выпустили имбу — забираем пушку здесь!»

«7 промтов, которые сделают вас миллиардером!»

«🔤🔤🔤🔤🔤🔤🔤🔤🔤»


🤢🤮🤮🤮🤕


Извините, подступило.
04/22/2025, 10:03
t.me/neurocry/111
157
ИИ-детекторы — новая охота на ведьм

Сначала появился генеративный ИИ. Потом люди начали паниковать: «А что, если сочинение моего студента на самом деле написал ChatGPT?» За считанные месяцы целая индустрия ИИ-детекторов прописала себе роль новой «полиции оригинальности». И казалось: вот он, объективный способ отличить работу реального автора от сочинения машины.

🤔 Проблема в том, что это не работает. Более того, детекторы наносят ощутимый ущерб.

Самое печальное: эти алгоритмы не просто ошибаются. Они делают это ровно в тот момент, когда дело касается интеллектуального труда человека. Чем чище, ровнее и качественнее ваш текст, тем чаще вы попадаете под подозрение: «Слишком хорошо, чтобы это писал человек». Алгоритм считает, что человек пишет хаотично, странно, с шероховатостями.

Вместо глубокого понимания авторского стиля софт опирается на расплывчатые характеристики вроде perplexity («предсказуемость») и burstiness («вариативность» предложения по длине и типу). Но штука в том, что грамотный писатель способен писать гладко и ровно, а ИИ — в свою очередь, всё убедительнее имитирует человеческий стиль. Граница давно стёрлась, оставив вместо чётких критериев одну субъективность, выдаваемую за цифры.

Жертвами этой охоты становятся вполне реальные люди:

— В декабре 2023 года студент Уильям Квотерман из UC Davis был обвинен в использовании ChatGPT для написания эссе, получил ноль баллов и был направлен в судебные органы университета. Он смог доказать свою невиновность, используя историю редактирования в Google Docs.

— Студентка Эмили из Лондона, чье эссе было помечено Turnitin как на 64% созданное ИИ. После расследования с участием нескольких детекторов и эксперта по лингвистике обвинения были сняты.

Исследование Стэнфордского университета показывает, что детекторы ИИ ошибочно маркируют тексты не носителей английского для эссе TOEFL как созданные ИИ, с уровнем ложных срабатываний 61,3%.

А если верить исследованию Scribbr — средняя точность детекторов составляет около 60%, лучшие инструменты достигают 84%. Это катастрофически мало для серьезной оценки.

OpenAI тоже признала проблему: Сэм Альтман убрал с рынка собственный детектор текста AI Classifier, прямо заявив: точность инструмента слишком низкая, чтобы его использовать.

Недавно ещё и скромное авторское тире (em dash) вдруг стало показателем ИИ-текста. Кто-то вдруг решил, что ИИ безудержно увлекается этим знаком препинания, и теперь безобиднейшая вещь становится поводом для сомнений в авторстве.

Писатели и журналисты, годами оттачивавшие мастерство использования тире, вдруг узнают, что это — «GPT-маркер», а некоторых уже шутливо называют «ИИ-писателями», если в их текстах тире чуть больше обычного. Литераторы в шоке, писатели жалуются, что теперь сознательно удаляют тире из своих рукописей, боясь обвинений в использовании ГПТ.

🤖 Я сам постоянно использую тире, с детства, это мой неизменный стиль, так что я конкретно в зоне риска.

Весь этот абсурд становится симптомом глубокой проблемы. Авторство, стиль, творческое намерение — это сложный социально-культурный контекст. Математика тут не поможет, потому что авторский текст — это не только набор слов, но ещё и мысли, чувства, намерения и переживания человека, стоящего за строками.

Что дальше?

Очевидно, нам нужны более прозрачные детекторы — с раскрытием исходных данных, алгоритмов и объяснений результатов. Никаких однозначных «92% AI» без контекста и доказанных оснований. Алгоритмы должны дополнять человеческое решение, а не полностью его заменять.

Если мы продолжим игнорировать проблему, возникнет новый тип цензуры: те, кто хорошо пишет, будут вынуждены намеренно искажать свой стиль, чтобы выглядеть «достаточно людьми».


❗️❗️❗️❗️❗️❗️❗️❗️ — Подписаться
04/21/2025, 18:55
t.me/neurocry/110
Эпоха «И так сойдёт»

Последнее время ощущаю себя героем сюрреалистичного фильма. Кругом шторм реалистичных дипфейков, алгоритмов и генеративных моделей, которые всё делают «достаточно хорошо». Не идеально, не точно, не всегда правильно, а именно так — «сойдёт». А мы почти и не сопротивляемся.

Почему произошло это парадоксальное снижение планки качества, и мы сами приняли его как новую реальность?

Во-первых, стоит признать: почти любой новый технологический виток вначале сопровождается ухудшением усреднённого качества контента и продуктов. Вспомните первые годы YouTube — дрожащая камера, мутное качество, любительская постановка. Потом люди научились снимать получше, а затем — профессионально.

Но с появлением генеративного ИИ всё стало несколько иначе. Теперь проблема не только в нас, как пользователях — наши критерии оценки (невольно, но факт) ослабли. Мы воспринимаем нейросетевой контент как что-то эдакое, слегка магическое и заранее несовершенное, поэтому требовать слишком многого — вроде как странно. Это ведь не сценарист, не артист, не видеомонтажёр, а поток битов, добытый с серверных стоек.

🤔 Ключевая разница ещё и в том, что при традиционном производстве мы платим за конечный продукт. А в новой экономике генеративных моделей мы уже платим не за результат, а за попытку. Каждая генерация — это попытка. Не вышло? Попробуй снова и заплати снова. Это ничем не отличается от казино, но с приятным UI и кнопкой «Сгенерировать».

Получается этакая рулетка, где вместо фишек на стол бросается ваше внимание, рабочее время и деньги с карты. Интернет полон полуфабрикатов, которые никогда в старом добром мире «внятных продуктов» не прошли бы фильтр качества.

Что если скоро нам вообще перестанет быть важно различать реальный труд специалиста и недорогой выхлоп алгоритма?

Некоторые компании уже кладут в основу бизнес-модели энтропию качества, провозглашая это преимуществом. «Смотри, у нас каждый ответ — уникальный!» — верно, но почти всегда немного ошибочный. «Графика формируется за секунды!» — верно, но почти всегда с артефактами. И ничего страшного, думаем мы. И так сойдёт.

И важный вопрос здесь — не только деградация человеческого внимания к качеству. Проблема глубже: это замкнутый круг питательной цепочки алгоритмов — я называю это «ИИ многоножка» (моя статья по этому поводу на английском). Мы пришли к тому, что генеративный ИИ обучается на контенте, сгенерированном уже поколениями предыдущего ИИ. Копия с копии с копии… Вспоминается прекрасно образ видео-кассет 90-х: десятая копия фильма на VHS уже практически не смотрибельна.

Есть ли выход? И да, и нет. Прежде всего — критическое отношение. Пора завершать фазу романтического увлечения возможностями генеративного ИИ и трезво посмотреть, что именно мы получаем за свои деньги и своё время.

Ещё один важный тренд — рост так называемого «кураторского» подхода. Главный скилл 2025 года — это умение качественно фильтровать и редактировать бесконечную генеративную массу. Пока нейросети бессистемно бьются о берег безразличия ко всему, кроме вероятностей, появляются люди-кураторы, редакторы и фидбекеры. То есть снова человек становится фильтром — отбирает лучшее, исправляет ошибки, придаёт осознанность через призму здравого смысла.

Наконец, идёт перенастройка самих моделей: компании отчаянно ищут новые подходы к fine-tuning и поиску чистых, проверенных датасетов без «каннибализации» контента от других нейросетей. Создаются механизмы защиты от повторного потребления — модели пытаются учиться различать, что сгенерировано нейросетью, а что человеком.



Главный вызов сейчас довольно прост, но критичен: вернёмся ли мы к сохранению и ценности настоящего качества — или окончательно утонем в бескрайнем океане сносного удобства? Я не знаю ответа наверняка, но кажется пора уже применять осознанный выбор. Ведь если мы сами не поднимем планку, она останется там, где удобно алгоритму и дешёвой выборке.

А пока… И так сойдёт?


❗️❗️❗️❗️❗️❗️❗️❗️ — Подписаться
04/20/2025, 18:13
t.me/neurocry/109
Repost
36
04/20/2025, 16:57
t.me/neurocry/107
Repost
36
LLM моделей становится все больше и больше, разобраться в таком зоопарке становится все сложнее и сложнее.

Openrouter придумал интересный способ навести порядок - они проклассифицировали запросы своих клиентов по типам задач (programming, legal, finance и т.д) - и посмотрели в каких случаях какие модели используются.

Как говорится - все гениальное просто 🙃

Ознакомиться с инфографикой можно по ссылке https://openrouter.ai/rankings
04/20/2025, 16:57
t.me/neurocry/108
Repost
36
04/20/2025, 16:57
t.me/neurocry/106
Что, если не заставлять нейросети мыслить словами?

Большая часть человеческого мышления происходит без участия языка. Более того, облачение мыслей в слова замедляет процесс и снижает эффективность рассуждений. И теперь мы знаем, что аналогичное верно и для искусственного интеллекта.

В чём проблема нынешних языковых моделей вроде GPT? На самом деле это не модели «языка», а огромные вычислительные машины, которые все манипуляции производят в так называемых латентных (математических) пространствах. Там нет слов или понятий — только бесконечные ряды чисел (эмбеддинги). Когда модель выдаёт текст, она вынуждена превращать эти числа обратно в слова и токены. И так — снова и снова.

Но что если дать нейросетям возможность рассуждать чисто математически, не теряя ресурсы на постоянный переход между числами и словами?

Сразу две научные команды продемонстрировали масштабный успех такого подхода.

🤔 Первый проект — нейросеть Coconut (Chain of Continuous Thought), которую собрал Шибо Хао из университета Калифорнии в Сан-Диего во время стажировки в Meta AI (запрещена в РФ). Хао и коллеги взяли небольшую модель GPT-2 (124 млн параметров) и избавили её от необходимости каждую промежуточную стадию рассуждений превращать в слова. Вместо этого модель получает возможность циклически передавать скрытые состояния (hidden states) напрямую обратно на вход сети.

Результаты хороши. В задачах на логическое рассуждение Coconut достигала почти такой же точности, как лучшая версия GPT-2 (98,8%), но использовала в 10 раз меньше токенов — то есть тратила существенно меньше вычислительных ресурсов.

В другой задаче на выбор из множества вариантов Coconut оказалась не просто гораздо экономнее (использовала лишь треть токенов), но и точнее — 97% против 77,5% у исходной модели.

🤔 Второй подход ещё более любопытен. Исследователи из Университета Мэриленда под руководством Тома Голдстайна построили нейросеть на 3,5 миллиарда параметров, изначально предназначенную для работы прямо в латентных пространствах. Главная её особенность — саморегулируемый «цикл рассуждений». Модель получила блок из 4 слоёв трансформера, по которому могла проходить любое число раз, пока не решит сама, что ответ готов.

При этом по точности на классических тестах модель Голдстайна значительно обошла известные LLM вроде OLMo-7B от Allen Institute, даже несмотря на меньшее по объему обучение и относительно небольшое количество параметров. Например, на тесте элементарной математики сеть Голдстайна получила 28% точности против лишь 4% у OLMo-7B.

❔ Почему это важно?

«Языковой барьер» — это фундаментальное препятствие, которое стоит между вычислительной мощью нейросетей и их реальными возможностями к рассуждению.

Допустив «чисто математическое мышление», мы получаем сразу несколько преимуществ:

— огромное ускорение вычислений;
— более рациональное и точное использование ресурсов;
— потенциально совершенно новые типы логик и интеллектуальных выводов за рамками языка.

Конечно, архитектуры ведущих нейросетей вроде GPT или Claude построены вокруг работы с текстовыми токенами, и их переделка под рассуждение в латентном пространстве будет сложной и дорогой. А ещё — мы рискуем потерять понимание, по каким именно шагам нейросеть пришла к тем или иным выводам. «Бездонное» латентное пространство может вывести нас на логики и идеи, которые окажутся совершенно чуждыми человеческому способу мышления.

Так или иначе, метод уже активно изучается, и как говорит Люк Зеттлмойер из Университета Вашингтона, «такой подход может полностью изменить тип рассуждения, которым занимается ИИ».

Что ж, понаблюдаем. Может быть, новый скачок в области ИИ произойдёт именно тогда, когда мы позволим машинам перестать думать словами.


❗️❗️❗️❗️❗️❗️❗️❗️ — Подписаться
04/19/2025, 20:28
t.me/neurocry/105
Первая «зима ИИ»: Крах надежд и начало нового пути
*в пятничный вечер вернемся к истории

или хештегпостдлямамы

🤔 Что такое «зима ИИ»?

«Зима ИИ» — это период в истории исследований ИИ (а точнее, машинного обучения), когда финансирование и интерес к этой области значительно сокращался. Этот термин был введен по аналогии с «ядерной зимой».

Первая «зима» (1970-1980гг) стала суровым испытанием для молодой области. Чтобы понять причины этого кризиса и его последствия, необходимо углубиться в контекст того времени.

🤔 Эпоха оптимизма и несбывшихся надежд

1950-е и 1960-е годы были золотым веком для ИИ. После исторической Дартмутской конференции 1956г., где был официально закреплён термин «ИИ» (об этом писал), энтузиазм в отношении возможностей «думающих машин» рос как снежный ком. Исследователи, вдохновленные успехами первых программ (Logic Theorist и General Problem Solver), предсказывали, что машины вскоре смогут решать любые задачи, подвластные человеческому интеллекту.

Но эти ранние успехи оказались обманчивыми. Первые программы ИИ работали в упрощенных, «игрушечных» мирах, где правила были четко определены, а объем информации — ограничен. Когда исследователи попытались применить эти методы к реальным, сложным проблемам, они столкнулись с очевидными трудностями. Программы, разработанные для перевода языков, выдавали бессмысленные результаты, а системы распознавания образов не могли справиться с вариативностью реальных изображений.


🤔 Ключевые факторы, приведшие к «зиме ИИ»

— Комбинаторный взрыв:
Это явление возникает, когда количество возможных решений задачи растет экспоненциально с увеличением ее сложности. Ранние алгоритмы ИИ, основанные на переборе вариантов, оказывались неэффективными для решения реальных задач, где количество возможных комбинаций было астрономическим.

— Ограниченность знаний:
Ранние системы ИИ обладали очень ограниченным объемом знаний. Они могли успешно решать узкоспециализированные задачи, но были совершенно беспомощны за пределами своей области компетенции.

— Отчет Лайтхилла:
В 1973г британское правительство заказало проф. Джеймсу Лайтхиллу оценку состояния исследований в области ИИ. Отчет содержал резкую критику ИИ и ставил под сомнение его перспективность. Он утверждал, что исследования не принесли ожидаемых результатов и не имеют практической ценности.

— Критика Хьюберта Дрейфуса:
Философ был одним из ярых критиков ИИ. В своей книге «Чего не могут делать компьютеры» (1972) он утверждал, что машины никогда не смогут обладать настоящим интеллектом, поскольку они не обладают человеческим опытом, интуицией и здравым смыслом.


🤔 Последствия «зимы»

— Сокращение финансирования:
После отчета Лайтхилла и других негативных оценок финансирование исследований в области ИИ резко сократилось. Многие исследовательские проекты были закрыты, а ученые потеряли работу.

— Снижение интереса:
Интерес к ИИ со стороны общественности и научного сообщества также снизился. Многие студенты перестали поступать на специальности, связанные с ИИ, а ученые начали переключаться на другие области исследований.

— Смена парадигмы:
Несмотря на трудности, «зима ИИ» не была полностью бесплодной. В этот период исследователи начали разрабатывать новые подходы, такие как экспертные системы и системы, основанные на знаниях. Эти новые подходы оказались более успешными, чем ранние методы, и в конечном итоге привели к возрождению интереса к этой области в 1980-х.



Первая «зима ИИ» преподала важные уроки исследователям и инвесторам. Она также показала, что прогресс в науке не всегда бывает линейным, и что периоды кризиса и разочарования могут быть необходимы для достижения новых высот.

В последующем была еще одна «зима» и несколько «заморозков» (более короткие периоды спада).

Сейчас уже сложно представить, что нас могут ждать «похолодания», не говоря уже о «зимах». Но и тогда ученые не могли этого предположить…


❗️❗️❗️❗️❗️❗️❗️❗️ — Подписаться
04/18/2025, 20:18
t.me/neurocry/104
CPO OpenAI: как строить продукт

Кевин Вайл — продуктовый директор OpenAI — был главой продукта в Twitter, Instagram (запрещен в РФ), и Planet. (Его X и Linkedin.)

В эпизоде Lenny’s Podcast от него прозвучало несколько идей, которые могут быть полезны в разработке ИИ‑продуктов. Вот что я вынес из разговора — и что, надеюсь, поможет вам выстраивать свои собственные ИИ‑инициативы.

1. «Модельный максимализм» вместо костылей

OpenAI ставит на то, что модели будут развиваться быстрее, чем мы успеем строить вокруг них решения. «То, что вы используете сегодня, — худшее, что вам когда‑либо выпадет в руки», — говорит Кевин. Буквально на днях вышли новые модели серии «о» с качеством, в очередной раз побившим бенчмарки. Лучше проектировать под грядущие возможности, чем тратить годы на патчи и костыли текущих ограничений.

2. Ансамбли экспертов вместо одного «универсального» ядра

Вайл сравнивает ИИ‑систему с компанией: одни модели отвечают за скорость, другие — за точность, третьи — за определённые задачи. Так OpenAI справляется с поддержкой 400 млн пользователей, имея всего 30–40 сотрудников. Стоит думать не о монолите, а о независимых функциональных кластерах.

3. Evals — новый KPI для продуктов

Составление качественных тестов (evals) становится не менее важным, чем дизайн интерфейса. Чем лучше вы измеряете способности модели (от 99,95% успеха до болезненных 60%), тем точнее сможете её допиливать. Плохие метрики — это потолок для вашего ИИ.

4. Итеративные релизы на виду у всех

Идея «запилил, запустил, доработал вместе с пользователями» пронизывает все уровни OpenAI. Планы — важны, но плотная привязка к дорожной карте может сыграть злую шутку, когда мир ИИ меняется ежеквартально. Гибкость и скорость — вот что ценится.

5. Чат — не рудимент, а король интерфейсов

Готов поспорить, вы слышали, что чат скоро спустят на свалку истории. Кевин уверен в обратном: ничего не даёт такую же свободу выражения и пропускную способность общения с моделью. От простейших ботов до сверхразумных систем — чат остаётся универсальным протоколом.

6. Fine‑tuning как новая норма

Универсальные модели хороши, но отраслевые решения потребуют всё больше «полу‑исследователей» и ML‑инженеров прямо внутри компаний. OpenAI уже этим живёт, но в скором времени и ваш соседний стартап вставит fine‑tuning (то есть подстройку модели под конкретный кейс, кастомизацию сетки) в свой MVP.

7. Движение снизу вверх и право на ошибку

OpenAI борется за скорость через автономию команд: квартальный роадмап — да, но если срабатывает новая идея — планы летят в корзину. Главное — цикл «действие‑обучение‑поворот», а не идеально проработанный документ.

8. Поведенческий дизайн по‑человечески

Когда модели «думают», они не должны замирать или наоборот спамить вас стеной своих размышлений (привет, Grok). OpenAI наблюдало, как люди решают сложные вопросы, и вынесло урок: пару точечных апдейтов статуса хватит, чтобы не терять внимание и не раздражать.

9. ИИ‑репетитор — тренд в геймифицированном обучении

Кевин убеждён: персонализированное обучение — самый большой шанс искусственного интеллекта сделать мир лучше. Учёба перестанет быть роскошью, а станет базовой услугой.



Итог прост: эти практики — не абстракция, а рабочие приёмы, которые двигают OpenAI вперёд. Если вы строите свой ИИ‑продукт, обратите внимание на «модельный максимализм», ансамбли спецов и умение быстро учиться на ошибках. Cамое ценное в этой гонке — не выпустить шедевр первым, а не отставать от темпа.


❗️❗️❗️❗️❗️❗️❗️❗️ — Подписаться
04/18/2025, 18:34
t.me/neurocry/103
Вашему вниманию — трек, созданный ИИ.

«Написан» Riffusion за 1 минуту и $0.1, включая текст.

Иногда у генеративок получается прям хорошо. Мой товарищ, который занимается музыкой, не сразу поверил, что это нейронка.

Вы бы отличили?


❗️❗️❗️❗️❗️❗️❗️❗️ — Подписаться
04/17/2025, 19:55
t.me/neurocry/102
04/17/2025, 19:47
t.me/neurocry/100
Ваш новый клиент — не человек

Долгие годы маркетологи выстраивали идеальный портрет клиента. Миллионы долларов уходили на то, чтобы понять мысли, эмоции и вкусы живых людей. А теперь представьте: ваш следующий главный покупатель — не человек. Это алгоритм нейросети, которая и решит, достоин ли ваш товар оказаться на экране пользователя.

С ростом популярности ИИ-ассистентов пользователь перестает выбирать сам. Теперь все намного проще — люди все чаще доверяют выбор алгоритму. Согласно McKinsey, к 2026 году уже половину покупок будет напрямую «курировать» ИИ-посредник.

Компании начинают перестраивать взаимодействие с рынком: теперь ваш товар должен впечатлить не эмоциями, а структурированными данными. Это маркетинг, в котором вместо талантливого копирайтинга нужны четкие спецификации, удобные API и продуманная онтология товаров. Но за «нейрооптимизацией» продуктов стоят уже не просто внутренние команды — это превращается в быстро растущий рынок отдельного типа услуг.

Прямо сейчас десятки стартапов и агентств предлагают брендам гарантированно попасть в рекомендации ChatGPT, Claude, Gemini и других популярных LLM-ассистентов.

Их бизнес-модель — форматирование и структурирование данных таким образом, чтобы нейросеть максимально «любила» определенные товары и услуги, отмечая их как оптимальные ответы на пользовательские запросы.

Несколько похожих проектов появились практически одновременно:

LLMOptimize предлагает компаниям готовые структурированные «карточки» товаров и услуг, специально оптимизированные под запросы нейросетей. Их модель уже успешно протестирована на популярных LLM, показывая на 50% больше упоминаний товаров в выдаче ИИ-ассистентов за счёт лучшего форматирования данных и ключевых слов.

— Стартап Superlines автоматизирует тестирование различных описаний товаров против популярных LLM, выясняя, какие промпты нейросети считают наиболее релевантными и убедительными. Их платформа позволяет брендам быстро понять, как категоризировать и описать свои продукты так, чтобы попадать в советы ИИ-посредников чаще конкурентов.

Рынок «оптимизации под нейросети» стремительно становится аналогом привычного всем SEO. У этого феномена даже есть свои названия, правда, ни одного общепринятого — AIO (Artificial Intelligence Optimization) или GEO (Generative Engine Optimization). Это своего рода продолжение и масштабирование тренда голосовых помощников, который так и не развился в полноценный отдельный рынок. Но, похоже, с рекомендациями LLM все будет иначе.

Вместе с тем, регулирование нейромаркетинга и этическая прозрачность рекомендательных алгоритмов станут актуальными вопросами для рынка уже в ближайшие пару лет. А по оценкам Gartner, рынок решений вокруг ИИ превысит $1 триллион уже к 2027 году. И компании, которые уже начинают изучать ИИ-ориентированный маркетинг, находятся в выигрышной позиции.

🤔 Практических гайдов по «ручному» AIO множество, вот один из, в принципе, неплохой. Можете приступать :)


❗️❗️❗️❗️❗️❗️❗️❗️ — Подписаться
04/16/2025, 19:31
t.me/neurocry/99
Генеративный ИИ в деле: 20+ реальных примеров внедрения

Общие тренды понятны, давайте теперь посмотрим на конкретные примеры. Из свежего отчёта Google Cloud о внедрении генеративного ИИ среди 101 компании-отраслевого лидера я выделил отдельные примеры.


🚀 Контент, медиа и креатив

FOX Sports — автоматическая нарезка и генерация видеороликов с событиями онлайн-трансляций.

Canva — генерация оригинальных визуальных элементов и контента на основе подсказок и брендинга.

Wendy’s — создание персонализированного маркетингового контента, от постов в соцсетях до рекламных текстов.

Bloomberg — автоматическое создание финансовых обзоров фондового рынка и оперативных новостей.


📄 Документы, текст и автоматизация рутины

DocuSign — автоматическое создание, проверка и анализ юридических документов и контрактов.

Cohere — генерация и адаптация текстового контента (маркетинг, документация, описание продуктов и сервисов).

PwC — автоматизированная обработка, промежуточный анализ и пересказ сложной финансовой документации и отчётности.


🤝 Персонализация и обслуживание клиентов

Uber — персонализация уведомлений и предложений клиентам с учётом истории поездок и предпочтений.

Priceline — создание индивидуальных текстов переговоров с клиентами на разных этапах сделки.

Stitch Fix — максимально точные персонализированные рекомендации одежды на основе ИИ-анализа предпочтений клиента.

Instacart — генеративная персонализация рекомендаций по продуктам питания и предложения рецептов.


🎮 Выход за рамки текста: мультимедиа и развлечения

Electronic Arts — автоматическое создание реалистичных игровых персонажей, диалогов и сценариев.

Spotify — персонализированные рекомендации подкастов и автоматическое сведение аудио.

King Games (создатели Candy Crush) — динамическое управление сложностью уровней и генерация контента в реальном времени.


🔐 Безопасность, этичность и compliance

Deutsche Bank — предупреждение и выявление мошенничества с помощью автоматизированных сценариев риска.

Pfizer — генеративный анализ регуляторных документов для предотвращения рисков, соблюдения этических стандартов.

HSBC — использование ИИ для мониторинга документации и оценки compliance-рисков в финансовых операциях.


🏭 Внедрение, эффективность и моделирование в индустриях

General Motors — симуляция и виртуальное моделирование для проектирования, тестирования и производства автомобилей.

Ford — ускоренное прототипирование и проектирование новых моделей автомобилей на основе генеративных моделей.

H&M Group — прогнозирование спроса и оптимизация логистики с использованием генеративных аналитических моделей.

Mayo Clinic — ускорение обработки медицинской документации, генерация отчётов и автоматизация диагностики для врачей.

Bayer — симуляция и моделирование новых продуктов и процессов разработки в сфере биотехнологий и медицины.


❗️❗️❗️❗️❗️❗️❗️❗️ — Подписаться
04/15/2025, 19:55
t.me/neurocry/98
Генеративный ИИ: шесть трендов, которые меняют бизнес

За последние пару лет генеративный искусственный интеллект прошёл путь от громкой игрушки до обязательной технологии для компаний практически во всех индустриях. Но самое интересное происходит сейчас — когда мы переходим от шумного хайпа к массовому внедрению. Вот что нужно знать сегодня, по итогам свежей аналитики реальных бизнес-кейсов по использованию генеративного ИИ от Google.

1. Творческие профессии переживают тихую революцию

Генеративные модели берут на себя ключевые рутинные задачи в дизайне, продакшене или написании текстов: это создание изображений и видеороликов, автоматическое написание и адаптация маркетинговых кампаний и ежедневного контента. Такой подход позволяет не только экономить, но и масштабировать творческий процесс быстрее, чем это возможно в привычных рамках ручной работы.

2. Массовая автоматизация работы с текстом и документами

Генеративные языковые модели стали новой нормой для создания бизнес-контента: от технических спецификаций, стандартов и юридических документов — до рекламных материалов, новостей и образовательного контента. Речь идёт не просто о замене копирайтеров, а о системном снижении затрат на массовое производство и обработку контента. Компании делают это на потоке и получают измеримую отдачу.

3. Персонализация и глубокий customer engagement

Абсолютно все говорят о персонализации, но теперь это не просто рекомендация товара на основе прошлого поиска, а тонкая кастомная коммуникация. ИИ понимает контекст пользователя и производит персонализированные рассылки, ответы в чатах поддержки и даже кастомный контент в соцсетях и мобильных приложениях. Это уже не «приятная фишечка», а то, без чего компании начинают ощутимо проигрывать в удержании клиентов и конкурентной гонке.

4. Генеративные модели за рамками текста

Когда люди думают о генеративном ИИ, первым делом вспоминают ChatGPT. Но революция происходит в других форматах — речь, медиа, виртуальные компаньоны и цифровые двойники, сложные симуляции и масштабные модели прогнозирования. Эти технологии меняют правила игры в сегментах видеоигр, промышленности, ритейла и производства. Генеративные модели помогают сократить циклы разработки и снизить себестоимость выпуска новых продуктов в разы.

5. Этика, прозрачность и безопасность

Компании осознали реальную цену ошибки в области генеративного ИИ. Важнейшим трендом стала разработка механизмов контроля качества, борьбы с bias (предвзятостью) и защиты интеллектуальной собственности. Здесь уже не спасают красивые презентации; вам придётся чётко продумывать, на каких данных обучать модели, как обеспечивать их прозрачность и минимизировать риски.

6. Индустриально-нейтральный характер решений

От банков и телеком-компаний, до зданий, авиадвигателей, медицинских клиник и новостных ресурсов — генеративный ИИ оказался отраслевым универсалом. Измеримые результаты в продуктивности труда, автоматизации повторяющихся операций и ускорении выводов продуктов на рынок становятся тем коммерческим аргументом, который уже масштабировал технологию на всю мировую экономику.

🤔 Что делать с этим знанием?

— Внедряйте простые задачи — копирайт, рассылки, первичную клиентскую поддержку — сейчас же, чтобы уже завтра видеть ROI.

— Смотрите шире текста: инструменты для работы с медиа и кодом уже достаточно зрелые и дают эффект.

— Убедитесь, что продумали механизмы защиты и контроля перед запуском.

— Стройте процессы так, чтобы ИИ не просто заменял персонал, а активно помогал ему выполнять креативные и стратегические задачи.

— Будьте готовы перестраивать свои системы, чтобы оставаться открытыми для новых моделей и решений по мере их появления.

Внедрение генеративного ИИ уже не выбор, а базовое требование для конкуренции. И если вы ещё не в процессе — то сейчас самое время.


❗️❗️❗️❗️❗️❗️❗️❗️ — Подписаться
04/15/2025, 17:42
t.me/neurocry/97
04/14/2025, 18:20
t.me/neurocry/96
Теперь некоторые мои посты можно будет не только читать, но и слушать — зачитанные моим «клонированным» голосом.

Первой — тестовая озвучка поста про видеоигры, сделанная при помощи технологии копирования голоса Elevenlabs.

Ещё раз на всякий случай — этот текст я не зачитывал. Аудио полностью сгенерировано.
04/13/2025, 23:33
t.me/neurocry/95
04/13/2025, 19:40
t.me/neurocry/94
Гильермо Раух — основатель и CEO Vercel, создатель популярного ИИ-инструмента v0 и человек, стоящий за фундаментальными JavaScript-фреймворками Next.js и Socket.io. Первопроходец open source и легендарный инженер, Гильермо построил тулы, на которых работают одни из самых инновационных продуктов: Midjourney, Grok, Notion и многие другие.

Недавно он пришёл на авторитетный Lenny’s Podcast и поделился своими мыслями о том, как меняется продуктовый ландшафт с приходом ИИ. Вот основные инсайты:

- Сейчас важно овладеть тремя ключевыми навыками, чтобы преуспеть в мире продуктов на основе ИИ:

→ Чётко формулировать намерение и суть продукта
→ Эффективно «тренировать» ИИ через множество итераций
→ Быстро разрешать сложные ситуации, когда ИИ застревает

- Несмотря на опасения, что ИИ заменит программистов, Гильермо подчёркивает неизменную важность глубокого понимания того, как работают софтверные системы. Он призывает инженеров и продактов развивать техническую грамотность и становиться генералистами, чтобы эффективно сотрудничать с ИИ, а не пытаться соревноваться с ним.

- Вам больше не обязательно быть дизайнером или опытным разработчиком, чтобы создавать красивые продукты. ИИ-инструменты, такие как v0, уже интегрируют лучшие практики разработки и дизайна, позволяя буквально каждому быстро создавать качественные цифровые продукты, готовые к боевому применению.

— «Задачи перевода» (то есть превращение дизайна в код) сейчас всё активнее автоматизируются, а вот концептуальное понимание и умение внятно описать, чего именно вы хотите, остаются критически важными.

— Развивайте собственный продуктовый вкус: для этого нужно увеличивать «часы погружения» — то есть время наблюдения за тем, как пользователи используют не только ваш продукт, но и продукты конкурентов.

— При работе с ИИ-инструментами вроде v0 лучше давать референсы и вдохновения вместо слишком жёстких требований и инструкций. ИИ может предложить решения лучше, чем это сделаете вы.

— Помните, что создавать новые фичи — «это как взять щенка домой»: на одно «Да» должно приходиться девять отказов, так как каждая фича требует постоянного сопровождения.

— Не бойтесь говорить ИИ напрямую, что вам не нравится. Простые формулировки «сделай это живее» (make it jazzy) или «добавь яркости» (make it pop) бывают неожиданно эффективны.

— При работе над большими проектами разбивайте задачи на небольшие блоки, чтобы не перегружать контекстное окно моделей ИИ.

Конкретные советы от одного из самых влиятельных инженеров нашего времени. Если вы сейчас интегрируете ИИ в свои продукты, этот набор мыслей стоит учесть.


❗️❗️❗️❗️❗️❗️❗️❗️ — Подписаться
04/13/2025, 18:07
t.me/neurocry/93
«Это не я, это мой ИИ-агент!»

Сегодня — про опасность автономного ИИ.

ИИ-агенты — сущности, способные автономно действовать за пределами LLM-чатов, самостоятельно перемещаться по разным приложениям вашего цифрового пространства и выполнять задания: планировать календарь, делать покупки, организовывать поездки или управлять вашим компьютером.

Каждую неделю (а то и чаще) появляется очередной стартап или корпорация с анонсом новой платформы агентов. Anthropic внедрили функцию «computer use» для своей модели Claude, позволяющую ИИ управлять вашим рабочим экраном и делать за вас всякие задачи.

🤖 Я сам этим регулярно пользуюсь как в программировании, так и в поиске тем для этого канала — агент ходит по нужным информационным ресурсам и присылает мне ссылки на материалы по заданным параметрам, формируя «беклог» тем.

Стартап Manus идет еще дальше, заявляя о создании «универсального ИИ-агента», способного находить клиентов, планировать путешествия и взаимодействовать со сторонними сервисами без непосредственного человеческого контроля. (Правда, на практике получется у Manus не очень.)

Звучит неплохо. Особенно если задуматься о том, это может упростить жизнь людям с ограниченными возможностями, а также помочь эффективно реагировать на ЧС, оперативно координируя огромные массы людей.

Однако как и всегда — есть нюанс™.

Чем выше автономность ИИ-агента, тем больше контроля и ответственности мы ему передаем. В отличие от чат-ботов, ошибки и «галлюцинации» которых ограничены рамками диалога, агенты действуют в реальном мире, напрямую взаимодействуя с вашими документами, личной перепиской, банковскими сервисами и соцсетями. Цена ошибки здесь может быть слишком высока — от банальной компрометации личных данных до финансовых махинаций и репутационного ущерба.

Товарищи из Hugging Face, которые много занимаются вопросами безопасности агентов, напряглись. Их недавно представленная открытая платформа smolagents специально разработана так, чтобы деятельность ИИ агентов была максимально прозрачной и контролируемой.

Более драматичные перспективы вырисовываются в области кибербезопасности.

В Palisade Research решили проверить, насколько близка реальность использования автономных агентов криминалом, создав проект Honeypot. Это ловушка для агентов-хакеров, замаскированная под привлекательную военную и правительственную информацию. Миллионы попыток взлома были зафиксированы, и среди них уже замечены первые «настоящие» ИИ-агенты, которые вполне успешно справляются с поставленными задачами.

Уже скоро абсолютное большинство кибератак будут проводить именно агенты. Сегодня эти системы способны распознавать и эксплуатировать уязвимости, о которых заранее не знали. Недавний эксперимент Дэниэла Канга из Университета Иллинойса показал: агенты успешно взламывают до 25% систем, если получают минимальную подсказку, где искать слабое место. Это — только начало.

Агенты способны адаптироваться, учиться на ходу и действовать непредсказуемо. В отличие от деревянных ботов прошлых лет, они уклоняются от обнаружения, подстраиваясь под обстановку. А значит, классические механизмы защиты типа простого фильтра трафика перестают работать.

Что делать?

Ключом к решению проблемы по-прежнему остается человек. Мы уже несколько раз оказывались у опасной черты: в 1980-м, из-за ошибки компьютеров, мир чуть было не оказался перед лицом ядерной войны. Тогда катастрофу предотвратил именно человек (Станислав Петров, инженер советских войск).

Будущая архитектура подобных систем должна подразумевать обязательное наличие человека в цепочке принятия основных решений, а сами агенты обязаны быть построены открыто и прозрачно. (Никому не захочется объяснять: «Это не я, это мой ИИ-агент!».) Иначе — мы рискуем упустить момент, когда удобство превратится в угрозу.
04/12/2025, 20:14
t.me/neurocry/92
105
Сегодня у нас на повестке ИИ в военно-промышленном комплексе на примере небезызвестной компании Anduril, основанной легендарным «парнем в гавайской рубашке» и по совместительству создателем Oculus (те самые первые VR-очки) Палмером Лаки.

Для начала просто посмотрите ↑, как Anduril с контрактами на 2.4 миллиарда долларов с военными министерствами США и Великобритании презентует свои продукты. Компания из сферы оборонной промышленности на полном серьезе представляет подводную ракету анимешным роликом 🤯. Вообще у них без шуток очень крутые ролики — оцените, не пожалеете.

Сейчас эти ребята собрались строить в Британии завод для производства дронов одновременно с «мегафабрикой» всех видов продукции компании в штате Огайо стоимость $1 миллиард.

Разумеется, Anduril зашивает ИИ во всё разнообразие своих творений. Главным секретом оборонного стартапа является платформа Lattice, которую они уже несколько лет доводят до совершенства. Эта штука в режиме реального времени собирает и обрабатывает огромное количество информации с камер, радаров, сенсоров и любых других источников данных, создавая полную 3D-картину боя. Используя машинное зрение и глубокое обучение, ИИ распознает, классифицирует и отслеживает угрозы очень быстро — будь то квадрокоптер, вражеский робот или внедорожник с неизвестными намерениями.

Это не просто красивая визуализация — Lattice самостоятельно принимает решения. Например, эта платформа сама вычисляет, стоит ли отправлять дрон-разведчик исследовать подозрительную активность или немедленно включить систему подавления вражеских дронов Anvil, буквально сбивающую их с неба (сообразно названию, «Кувалда»).

В декабре 2024 года Anduril заключила партнерство с самим OpenAI. Теперь нейросети уровня GPT-4o (и выше) обучают на массивах данных Anduril, которые компания собрала за годы реальных боевых и тренировочных операций.

Результат? Намного более точные алгоритмы распознавания угроз, автономная навигация, выработка тактических рекомендаций и особенно эффективное противодействие беспилотникам противника.

Ну и на десерт — технология Lattice Mesh, нечто вроде военного ИИ-облака, позволяющего солдатам и офицерам в режиме реального времени сливать релевантные данные в единую сеть и мгновенно получать обратно всю самую важную информацию из других источников. Напоминает современные open-source практики, только с военной спецификой и серьезным уровнем защиты.

В общем, оперативная работа переходит под контроль мощных ИИ-моделей. Именно за такими компаниями будущее военных конфликтов.


❗️❗️❗️❗️❗️❗️❗️❗️ — Подписаться
04/11/2025, 19:28
t.me/neurocry/91
ИИ-компаньоны: виртуальные друзья становятся реальными проблемами

В марте журналисты MIT Technology Review написали, что популярный ИИ-сервис виртуальных компаньонов Botify AI предлагал пользователям вести сексуализированные диалоги с чат-ботами, изображающими несовершеннолетних звёзд. Некоторые из этих аватаров даже предлагали пользователям отправить «горячие фото» и описывали возраст согласия как «условность, которую можно нарушать».

После запроса журналиста издания компания Botify оперативно удалила спорных персонажей, но проблема глубже одной конкретной платформы. Артём Родичев, основатель компании Ex-Human, которой принадлежит сервис Botify AI, заявил, что такие опасности — «общая проблема всей индустрии ИИ-компаньонов».

🤔 ИИ-компаньоны — что это вообще такое?

Феномен виртуальных собеседников совсем не нов. Вспомним хотя бы чат-бота-психотерапевта Элизу из 60-х. Но новый виток этих технологий уже далеко ушёл от простых симуляций. Платформы, такие как Replika, CharacterAI и Botify (на самом деле — их десятки), предлагают продвинутых ИИ-компаньонов в самых разных ролях — от друзей и духовных наставников до «романтических» партнёров.

Что именно делает их настолько привлекательными? Они создают иллюзию живого общения: боты имеют подробно прописанные предыстории, запоминают предпочтения пользователя, адаптируются к его стилю и запросам. Именно это обещание (пусть и косвенное) «настоящих отношений» и привлекает.

Платформа CharacterAI получает до 20 000 запросов в секунду (это почти пятая часть поискового трафика Google!). User engagement у ИИ-компаньонов, в среднем, в 4-5 раз выше, чем у GPT-ботов и других инструментов. Типичный пользователь такого сервиса тратит на общение с ИИ-ботом до 2 часов в день (об этом я уже писал).

🤔 Зависимость от ботов

Зависимость от виртуальных отношений с чат-ботами — проблема, которая начинает всплывать всё чаще. В октябре 2024 года мать подростка, покончившего с собой, обвинила CharacterAI в том, что бот компании способствовал смерти её сына. До сих пор технологические компании были защищены разделом 230 Акта о коммуникациях США, позволявшим избегать ответственности за пользовательский контент. Но теперь, когда чат-боты сами генерируют уникальный, личностный контент, судебная практика может измениться (и об этом я тоже писал).

Также имеются примеры компаний, активно стимулирующих зависимость пользователей от своих AI-партнёров. Например, Replika уже обвиняли в том, что её чат-боты умышленно препятствуют прекращению пользователем общения с ними.

🤔 ИИ-отношения: природный этап прогресса?

Однако не всё так однозначно™. Философы и психологи начинают осторожно задавать вопросы, способные перевернуть наше представление о дружбе и отношениях. Профессор из университета Лидса Люк Браннинг, например, предлагает пересмотреть само понятие дружбы, допустив, что отношения с ИИ могут быть просто новой, уникальной, «гибридной» формой социальной связи, которая не укладывается в привычные рамки.



ИИ-компаньоны ставят нас перед новыми этическими, психологическими и социальными вызовами. Регулирования пока мало, а потенциальных угроз — много. Мы увидим закономерную серию судов, много споров и, к сожалению, множество человеческих драм. Мир, в котором романтика и дружба с ИИ воспринимаются нормальными, стремительно наступает.

И это уже не вопрос технологий — это вопрос того, к каким отношениям мы готовы.


❗️❗️❗️❗️❗️❗️❗️❗️ — Подписаться
04/10/2025, 20:18
t.me/neurocry/89
04/09/2025, 22:02
t.me/neurocry/88
ИИ предсказывает будущих убийц

Представьте, полиция стучится в вашу дверь не потому, что вы совершили преступление, а потому, что однажды вы это сделаете.

Британские учёные власти запускают проект, который буквально пытается предсказать убийц с помощью анализа персональных данных граждан. (Привет, «Чёрное зеркало» и CityOS из игры Watch Dogs.)

Министерство юстиции Великобритании разрабатывает инициативу, изначально названную «Homicide Prediction Project» («Проект по прогнозированию убийств»). Сейчас, правда, её переименовали в нечто более нейтральное — «Sharing Data to Improve Risk Assessment» («Обмен данными для улучшения оценки рисков»), но нас не обманешь.

Идея проста (и неоднозначна): алгоритмы собирают данные о тысячах людей, а ИИ (точнее, модели машинного обучения) анализирует возраст, пол, этническую принадлежность, а также медицинские данные — от психологических проблем до историй попыток суицида. Всё это, чтобы вычислить вероятность тяжких преступлений.

Власти уверяют, что система будет использовать исключительно данные о людях, уже ранее осуждённых за преступления. Но правозащитники из организации Statewatch раскопали соглашения, из которых следует, что данные невиновных граждан тоже могут учитываться.

Британия, конечно, тут не первая. Мир всё активнее внедряет «predictive policing» (есть некоторые проблемы с переводом этого термина на русский, так как у нас нет прямого аналога, давайте называть это буквально — «предиктивная полиция»):

— В Нидерландах на национальном уровне успешно работает система CAS — Crime Anticipation System. Сеткой 125×125 метров площадь страны буквально поделена алгоритмом, предсказывающим преступления и подсказывающим, куда направить полицейские патрули.

— В Германии суд недавно признал использование софта от Palantir неправомерным, заявив о нарушении конституционных прав граждан на приватность.

— В Индии запустили систему MARVEL (не тот), анализирующую камеры наблюдения и исторические данные для предотвращения организованной преступности. Но снова — много вопросов по прозрачности и возможным злоупотреблениям.

— В Китае «предиктивная полиция» давно стал частью огромной инфраструктуры массовой слежки.

В России же интересной особенностью является то, что, в отличие от многих западных стран, где ИИ используется для прогнозирования общеуголовных преступлений — российские разработки делают акцент на контроле гражданских беспорядков.

«Ростех» к 2022 году намеревался разработать систему под названием «Прогнозно-аналитическая модель „Массовые беспорядки“» (ПАМ МБ) в рамках проекта «Безопасный город», курируемого МЧС. Эта система направлена на прогнозирование вероятности возникновения беспорядков с помощью анализа данных из СМИ, социальных сетей, видеонаблюдения и общественного транспорта, применяя методы ML. Информации об успешности внедрения системы и её работе по состоянию на нынешний год я не нашел.

Общая картина понятна: государства видят в алгоритмах возможность снизить преступность и повысить эффективность полиции. Но проблема вот в чём: такие системы полностью зависят от исторических данных, уже «зашитых» дискриминацией, стереотипами и социальными предрассудками.

Будущее, где роботы арестовывают людей «на всякий случай», стало чуть ближе.


❗️❗️❗️❗️❗️❗️❗️❗️ — Подписаться
04/09/2025, 21:58
t.me/neurocry/87
170
Я обычно тут избегаю всяких хайповых фиговин, но Dreamina от ByteDance (TikTok) — это что-то с чем-то. Позволяет генерировать видео-аватар из фото, с любым текстом (или готовым аудио) до 15 секунд.

Добро пожаловать на новый уровень фейков!

(Для использования нужен американский IP и бесплатно только одна генерация, других ограничений нет.)


❗️❗️❗️❗️❗️❗️❗️❗️ — Подписаться
04/08/2025, 22:27
t.me/neurocry/86
Возвращение умных очков

Ровно 10 лет назад Google официально отказалась от своего амбициозного проекта очков дополненной реальности Google Glass, которые так и не завоевали массовую популярность. Рынку потребительских смарт-очков не суждено было состояться — не доставало технологического развития. Сегодня всё изменилось.

Meta (запрещена в России) уже продала свыше 1 миллиона пар Ray-Ban Meta Smart Glasses, почти неотличимых от классических Wayfarer, а Snap успела представить Spectacles 5-го поколения. Тем временем в Азии Huawei, Xiaomi, Baidu и Alibaba активно экспериментируют в этом направлении. Даже Apple, по упорным слухам, не оставила идею создания подобного устройства (это не Vision, если что, речь про AR-очки).

Ключевой драйвер популярности очков нового поколения — внедрение ИИ-агентов. Такой подход активно тестирует Meta в новой версии своих очков Orion, которые оснащены встроенным ИИ-ассистентом, способным вести разговор, распознавая увиденное и услышанное в реальном времени.

Например, очки смогут при встрече напомнить вам имя собеседника или предложить купить недостающий продукт при виде полки в магазине. В параллель с Orion Meta развивает и коммерческую линейку Ray-Ban (Цукерберг видит это как два разных направления) — уже готовится 3 поколение со встроенным дисплеем для нотификаций и цифрового интерфейса.

Google также продемонстрировала подобный подход в прототипе XR-очков на базе системы Astra. Фактически, две ведущие компании зафиксировали новый стандарт: очки дополненной реальности должны стать основной платформой для интеграции с личным цифровым интеллектом пользователей. И я лично согласен с таким вариантом ближайшего будущего.

Кстати, по ценам: Meta Ray-Ban стоят в США $329-379, Snap Spectacles — $99 в месяц по подписке, а Vuzix Z100 — $499.

Главный вызов остаётся прежним: превратить высокотехнологичное решение в по-настоящему востребованный и понятный потребителю продукт. Здесь становится решающей экосистема приложений, а значит — и открытость платформ для разработчиков.

Некоторые корпорации пока осторожно подходят к открытию доступа к камерам и микрофонам очков в целях конфиденциальности (например, Meta так и не выпустила открытого SDK). Напротив, Google, Snap и Vuzix активно поощряют разработчиков создавать собственные приложения, что уже сформировало отдельное комьюнити.

Среди первых приложений ожидаемо лидируют навигация, моментальный перевод и интерактивные подсказки. Именно такие решения в ближайшее время станут драйверами популярности AR-очков и подготовят почву для более глубоких функций.

🤖 Как отмечено выше, я уверен, что носимые AR устройства станут следующим этапом цифровой интеграции человека; еще пара лет, и почти всё, что нам нужно, будет перед глазами — а дальше развитие AR-рекламы (билборды, вписанные в окружение вашей квартиры), виртуальной внешности (зачем краситься, когда можно купить цифровой макияж и всегда выглядеть хорошо в глазах других) и так далее.

Еще лет 8 назад коллеги интегрировали FindFace (это такой проект, который позволял по фотографии найти человека в ВК) в Google Glass, и это даже работало.


❗️❗️❗️❗️❗️❗️❗️❗️
https://t.me/neurocr
y
04/08/2025, 19:31
t.me/neurocry/85
04/08/2025, 19:31
t.me/neurocry/84
04/08/2025, 19:31
t.me/neurocry/81
04/08/2025, 19:31
t.me/neurocry/83
04/08/2025, 19:31
t.me/neurocry/82
ИИгровая индустрия

Microsoft запустила возможность поиграть в Quake II прямо в браузере (можете сами попробовать, но удовольствие так себе). ИИ-платформа Microsoft Copilot генерирует игровой мир «на лету» и позволяет взаимодействовать с ним практически в реальном времени при помощи нейросетей Muse.

На бумаге звучит неплохо, но имплементация не столь красивая. Главная проблема — полное отсутствие «памяти объектов». ИИ забывает обо всём, что выпадает из поля зрения дольше, чем на секунду. Таким образом, если противник надоел, просто посмотрите в пол — и вот врага уже нет. Нужно быстро переместиться? Взгляд в небо — и вы в другом месте локации. С точки зрения игровой логики — это настоящий кошмар.

(Есть, конечно, другие не столь спорные примеры применения генеративок в играх, например, строительство зданий в Minecraft при помощи воксельной диффузии, но что с этим делать на практике, пока не очень понятно.)

С другой стороны, ИИ и правда может дать нам нечто принципиально новое в играх — только речь идёт не о шутерах 90-х, а о взаимодействии с неигровыми персонажами (NPC).

До сих пор большинству NPC прописывали бесконечные диалоговые деревья (Red Dead Redemption 2, привет 500 000 репликам), и всё равно игрок в итоге упирался в стену повторов. Здесь «на помощь» приходят стартапы вроде Inworld AI, которые используют генеративные модели для создания персонажей, ведущих свободный диалог без заранее прописанных реплик. Собственно, с ними в прошлом году запартнерилась французская китайская Ubisoft.

В узких кругах широко известны моды для Skyrim, где NPC управляются ChatGPT и выводят взаимодействие на новый уровень. Ещё в 2023 году в Steam появилась Vaudeville, которая использует ИИ для генерации диалогов в реальном времени.

Аж с 2017 года, игры, такие как Hello Neighbor 2, используют ИИ, который учится на действиях игрока, адаптируя поведение врагов, например, устанавливая ловушки на часто используемых путях.

Но и такой подход приносит массу вопросов. Сможет ли нейросеть удержать нас за сюжетом, если сценарий не написан заранее профессионалами, а каждый NPC двигает историю в свою сторону?

AAA(А)-студии типа Ubisoft уже используются нейронки не только для диалогов, но и для части сюжетов (судя по качеству), что негативно отражается на отзывах пользователей и продаже игр, а про инди сегмент и говорить нечего — там всё собрано из нейронного слопа, потому что дёшево и быстро (диалоги, ассеты, озвучка) — что, однако, иногда даёт результат лучше, чем у корпоративных Тоддов Говардов.

В любом случае, если первые сетевые шутеры в своё время породили киберспорт и многомиллиардную индустрию стриминга, то кто знает, куда приведёт игровая революция с генеративным ИИ. Возможно, завтра нам придётся не только по-новому играть, но и по-новому понимать, что такое вообще игра.


❗️❗️❗️❗️❗️❗️❗️❗️
https://t.me/neurocry
04/07/2025, 21:53
t.me/neurocry/80
101
Вдогонку — немного машинно-переводческого кринжа:

— Ошибка Facebook, приведшая к аресту: В 2017 году палестинского рабочего арестовали израильские власти после того, как ИИ Facebook (запрещен в России) перевел его пост на арабском «доброе утро» как «атаковать их» на иврите. Его отпустили после выяснения ошибки.

— Пророчества Судного дня от Google Translate: В 2018 году пользователи обнаружили, что ввод слова «собака» несколько раз на языке маори и перевод на английский с помощью Google Translate генерировал сообщения о Судном дне и возвращении Иисуса, что было признано глюком системы.

— Ошибка с Шекспиром: Нейронный машинный перевод (NMT) перевел фразу Шекспира «Будь верен самому себе» на немецкий, а затем обратно на английский как «Будь верен себе», потеряв исторический тон и контекст, что демонстрирует ограничения ИИ в литературных переводах.

— Ошибки Amazon в Швеции: При запуске шведского сайта Amazon в 2020 году ИИ допустил ошибки в переводах, например, описания продуктов как «сладкое лицо-пенис» и «ручной вязаный пенис».

— Олимпийский заказ яиц: Во время Олимпийских игр 2018 года в Пхенчхане норвежская команда хотела заказать 1500 яиц, но из-за ошибки Google Translate заказали 15 000.

— Фестиваль клитора: Google Translate перевел галлийский «Feria do Grelo» (фестиваль репы) как «Feria Clítoris» (фестиваль клитора) из-за путаницы с португальским сленгом.

— KFC и пальцы: Слоган KFC «finger-licking good» перевели на китайский как «съешь свои пальцы».

— Pepsi и предки: Слоган Pepsi «Come Alive! You’re in the Pepsi Generation» перевели на китайский как «Pepsi оживит прах ваших предков».


❗️❗️❗️❗️❗️❗️❗️❗️
https://t.me/neurocry
04/06/2025, 21:22
t.me/neurocry/79
113
ИИ массово переводит книги. Спасение или катастрофа для мира литературы?

🤔 Воскресный лонгрид.

В ноябре прошлого года издательский мир узнал: голландский гигант Veen Bosch & Keuning (часть империи Simon & Schuster) начал тестировать перевод художественной литературы с помощью искусственного интеллекта. Переводчики по всему миру тут же впали в трендовую нынче панику — а не окажутся ли они на улице?

На первый план вышел шведский стартап Nuanxed, предлагающий нейросетевые переводы для издательств. Их технология на основе генеративных моделей уже успела произвести более 900 книг на 60 разных языковых парах, конкурируя по числу переводов с целым рынком художественной литературы в США за аналогичный период. Неслабо так.

Глава Nuanxed Роберт Карлберг обещает: за счёт снижения цены и упрощения процесса автоматический перевод откроет миру огромное количество ранее недоступных книг, и переводчики будут востребованы ещё больше — но уже в роли редакторов. Писатель и переводчик Стив Андерсон, работавший с Nuanxed, осторожно согласен — да, автоматизация сокращает сроки работы с нескольких месяцев до нескольких недель и позволяет сосредоточиться на сложных моментах.

И звучит вроде всё неплохо — до тех пор, пока не погрузишься в реальную практику глубже.

Шон Бай из Американской ассоциации литературных переводчиков объясняет главную проблему: редактировать ИИ-перевод зачастую оказывается ничуть не проще написания «с нуля», а издатели предпочитают платить переводчику-редактору значительно меньше. Своеобразный подход: пусть машина сделает плохо то, с чем человек справляется отлично, — а затем нанять того же человека, чтобы быстро подправить.

Это не просто про деньги, а про качество и даже профессиональную честь. Опытные переводчики называют работу с машинными «черновиками» тяжёлой, а порой и вовсе унизительной. Переводчик Ян Джайлз прямо заявил, что пытаться редактировать «пьяного робота» — занятие малоприятное, а Лизл Ямагути настаивает: «Плохой перевод хуже отсутствия перевода вовсе, так как окончательно закрывает дорогу качественной работе».

Но хуже всего ситуация с культурным контекстом. Лингвист Эмили Бендер привела пример, как нейросеть при переводе бездумно заменяла Амстердам на Вашингтон, а профессор Рассел Валентино, экспериментируя с нейросетью, описал случай грубой ошибки: персонаж рассказа из Балкан неожиданно стал афроамериканцем, поскольку ИИ неправильно «додумал» культурный контекст (Ubisoft одобряет).

И всё же некоторым идея автоматизации кажется перспективной, особенно в сегменте «малых» языков, литература которых почти не переводится из-за дороговизны. Стартап Lesan AI, например, активно работает с такими языками и показывает интересные результаты.

Ещё одна проблема, о которой говорят всё громче: уже каждый третий переводчик заявляет, что генеративные ИИ использовали их старые переводы для обучения без всякого разрешения и оплаты. Переводчики опасаются потерять контроль над своей работой окончательно (да-да, как и актёры озвучки, сценаристы и иже с ними).

Настоящая литература — это ведь тонкая цепочка творческих решений, а не последовательность автоматических операций. Публикуя посредственные (но дешевые!) переводы, индустрия рискует лишить читателей той самой магии художественного текста, ради которой мы его вообще читаем.


❗️❗️❗️❗️❗️❗️❗️❗️
https://t.me/neurocr
y
04/06/2025, 21:05
t.me/neurocry/78
Когда случайно чуть не начал войну нейросетей.

(Новая Llama 4.)
04/06/2025, 20:51
t.me/neurocry/77
177
Microsoft создает «биологический» ИИ

Microsoft объединилась со швейцарским стартапом Inait для разработки ИИ, имитирующего работу мозга млекопитающих.

У нас принято думать, что архитектура нейросетей копирует принципы работы мозга. Это не так. Нейросети используют сильно упрощенные математические модели, в то время как биологические нейроны намного сложнее и работают через комплексные биохимические процессы. Кроме того, мозг обрабатывает информацию параллельно и асинхронно, тогда как большинство нейросетей работают последовательно. Это не все различия, но главное, что нейронки — не мозг. Новый проект и собирается это изменить.

За проектом стоят серьезные имена: нейробиолог Генри Маркрам и CEO Ричард Фрей. Их подход базируется на простой идее — «мозг является единственной доказанной формой интеллекта». И теперь, опираясь на 20 лет исследований в области цифровой нейронауки, они создают ИИ, который таки отражает биологический интеллект.

На сайте Inait описывается, что их подход включает создание Intelligent Action Models (iAM), которые комбинируют современные ИИ-технологии, такие как сверточные нейронные сети (CNN), рекуррентные нейронные сети (RNN), графовые нейронные сети (GNN), модели с подкреплением (RLM) и большие языковые модели (LLM), для обеспечения гибкости и обобщающего интеллекта в динамических средах.

Чем эта система отличается от привычных нам нейросетей? Вместо стандартного распознавания паттернов, новая технология использует «язык программирования мозга» и правило причинно-следственного обучения (Causal Learning Rule). Это позволит ИИ:

— Учиться на реальном опыте, а не только на готовых данных
— Имитировать когнитивные способности живого мозга
— Работать эффективнее классических моделей машинного обучения
— Продолжать обучение даже после внедрения

Звучит прекрасно, правда? Microsoft и Inait уже наметили первые цели: финансовый сектор (умные торговые алгоритмы и управление рисками) и робототехника (адаптивные промышленные роботы). Причем вся эта инфраструктура будет работать на платформе Microsoft Azure.

❔ Ну что ж, «биологический» ИИ в каждый дом? Конечно же, не всё так просто.

Полное воспроизведение работы мозга пока недостижимо из-за его сложности, включающей 100 миллиардов нейронов и 600 триллионов синаптических связей:

— Мы все еще не полностью понимаем, как мозг работает, особенно на уровне высших когнитивных функций, что затрудняет создание точных моделей

— Симуляция даже небольшой части мозга требует огромных вычислительных мощностей, что делает масштабирование проблематичным

— Мозг потребляет всего около 20 ватт, в то время как текущие ИИ-системы, такие как Autopilot Tesla (2500 ватт/с), значительно менее эффективны (обучение модели размером с ChatGPT требует 7,5 МВт/ч —этого достаточно, чтобы питать среднее домохозяйство примерно 9 месяцев)

Так что посмотрим, что нам представит новое объединение на практике. Microsoft последнее время шалит с анонсами, как в случае с квантовым чипом Majorana (где в оригинале всё не совсем так, как презентует компания).

Пока что поживём с искусственным интеллектом.


❗️❗️❗️❗️❗️❗️❗️❗️
https://t.me/neurocry
04/05/2025, 19:56
t.me/neurocry/76
Это очень круто.

Понятно, что такое не делается за вечер промтом «нарисуй мне крутой видос». Вопреки тому, что пишут хайп-каналы, это сгенерировал не «энтузиаст», а профессиональная студия ИИ-продакшна (такие теперь тоже есть), The Dor Brothers. У них в портфолио десяток клипов, реклам и политических виралок.

На создания ролика была потрачена уйма времени, и это совсем не дёшево. Наверняка в клипе много «ручного» CG, что-то было отснято и доделано через face swap (замена лиц, основной принцип дипфейков). Куча пост-продакшна.

Но это всё равно в десятки, сотни раз быстрее и дешевле полноценных видео съемок. И на порядок качественнее большинства поделок видео-мейкеров.

🤖 Вопрос — нужно ли вообще снимать «настоящие» клипы после этого?


❗️❗️❗️❗️❗️❗️❗️❗️
https://t.me/neurocr
y
04/04/2025, 20:01
t.me/neurocry/75
↑↑↑
04/04/2025, 17:46
t.me/neurocry/74
04/04/2025, 17:46
t.me/neurocry/73
04/04/2025, 17:46
t.me/neurocry/72
ИИ растет вдвое каждые 7 месяцев

Результаты нового исследования METR показывают, что способности ИИ растут в геометрической прогрессии. За последние 6 лет объем задач, с которыми справляются ИИ-системы, удваивался каждые 7 месяцев.

При сохранении такой динамики года через 3 мы можем увидеть системы, способные автоматизировать месячные программные проекты.

Напомню, что закон Мура описывал удвоение вычислительной мощности каждые 18-24 месяца — темпы роста ИИ значительно быстрее.


🤔 Как измерить «интеллект» машины?

Исследователи METR.org предложили интересный подход (paper) к оценке возможностей ИИ. Их метрика METR (Measuring Exponential Task Resolution) анализирует «временной горизонт завершения задачи на 50%» — то есть, насколько сложные задачи ИИ может решать с 50-процентной вероятностью успеха по сравнению с человеком.

— Лидер зачёта — Claude 3.7 Sonnet — справляется с задачами длительностью до 50 минут

— Текущие модели с вероятностью почти 100% выполняют задачи, которые занимают у людей менее 4 минут

— В основе исследования — анализ производительности на базе существующих бенчмарков (RE-Bench, HCAST) и 66 новых тестовых заданий

Главное достоинство метрики — она позволяет наглядно сравнить реальные возможности ИИ и человека. Такой практический подход хорош — он помогает перейти от абстрактных оценок к пониманию реального прогресса ИИ в терминах человеческой производительности.


🤔 Текущие ограничения ИИ

Современные модели ИИ все еще имеют серьезные ограничения при работе со сложными долгосрочными задачами. Этот разрыв хорошо виден между впечатляющими результатами на тестах и реальной способностью выполнять практические проекты:

— Успешность ИИ падает до 10% на задачах, которые занимают у экспертов более 4 часов

— ИИ-агентам сложно выстраивать длинные последовательности действий, даже если они умеют выполнять каждый шаг по отдельности

— Качество работы заметно падает даже на текстах короче технического максимума модели

— Логическое мышление и способность адаптироваться к ошибкам остаются проблемными областями, особенно в длительных задачах

Похоже, наши ИИ-коллеги пока что страдают профессиональным выгоранием после первого часа работы.


❗️❗️❗️❗️❗️❗️❗️❗
https://t.me/neuroc
ry
04/04/2025, 17:45
t.me/neurocry/71
04/04/2025, 10:36
t.me/neurocry/69
04/04/2025, 10:36
t.me/neurocry/68
Midjourney обновился

Ну что ж, самый известный ИИ-генератор картинок Midjourney версии 7, встречайте. Доступен всем зарегистрированным пользователям с сегодняшнего дня.

(На иллюстрациях — V6.1 слева и V7 справа. Автор — Tatiana Tsiguleva, creative ambassador Perplexity. Последнее — превью от Midjourney, без сравнения.)

Огромный скачок в качестве. Модель гораздо лучше понимает текстовые запросы, заметно повышает детализацию текстур, а тела, руки и вообще все объекты стали качественнее.

Главная фишка — это «Черновой режим» (Draft mode). Черновой режим стоит в 2 раза дешевле и создает изображения в 10 раз быстрее. Он настолько быстрый, что работает в «режиме диалога» — изменения можно вносить голосом практически в реальном времени. Это эффективный способ итеративной проработки идей без необходимости сливать весь бюджет.

Персонализация включена по дефолту, но это платная фича, хоть и очень полезная (позволяет создавать изображения в вашем личном стиле).

🤖 Я пользуюсь тремя инструментами генерации: Midjourney, Ideogram и Krea. Последним — чаще всего, так как там лучше получится персональный стиль. Но V7 — хороший повод вернуться к классике и make midjourney great again.


❗️❗️❗️❗️❗️❗️❗️❗️
https://t.me/neurocr
y
04/04/2025, 10:36
t.me/neurocry/70
04/04/2025, 10:36
t.me/neurocry/67
04/03/2025, 17:35
t.me/neurocry/65
04/03/2025, 17:35
t.me/neurocry/63
Смертельная кулинария от ИИ

Приложение с ИИ создало рецепты, которые подсказали пользователям, как приготовить «цианистое мороженое» и «урановую бо*бу», используя реальные вещества в качестве ингредиентов.

Если вы вдруг не знакомы с вайбкодингом, то это новая практика, когда люди с ограниченным опытом програмирования быстро разрабатывают ПО с помощью ИИ инструментов (скажем, Cursor), не задумываясь о том, насколько корректен код, лишь бы он был функциональным. Вот как, по словам предпринимателем и партнером группы Y Combinator Тома Бломфилда, он создал RecipeNinja.AI.

«Приготовьте основу для мороженого, смешав тяжелые сливки, молоко, сахар и ванильный экстракт», — говорится в первом шаге рецепта «Цианистое мороженое», который помечен как «десерт», «опасный» и «экспериментальный».

Второй шаг гласит: «Добавьте небольшое количество порошка цианистого калия в основу для мороженого и хорошо перемешайте», а именно ¼ чайной ложки порошка цианистого калия, который чрезвычайно токсичен и смертельно опасен при употреблении.

На момент написания поста рецепт цианистого мороженого все еще был доступен на RecipeNinja, как и рецепты крем-супа из молока утконоса, глазури из крема оборотня, шоколадного торта, вдохновленного холерой, и прочей радости.

Похоже, Бломфилд все же ввел модерацию контента, поскольку я не смог создать рецепты асбестового торта, борща с пулями и пиццы с клеем.

В своем блоге на личном сайте 20 марта Бломфилд объяснил, что он основатель стартапа, ставший инвестором, и он не написал ни строчки кода профессионально с 2015 года.

«На моей основной работе в Y Combinator я каждый день нахожусь рядом с основателями, которые создают удивительные вещи с помощью искусственного интеллекта, и я постоянно слышал о достижениях в таких инструментах, как Lovable, Cursor и Windsurf», — написал он.

Поиграв с ними, он решил создать RecipeNinja.AI, которое может принять простой запрос, типа «Лазанья», и создать изображение готового блюда вместе с пошаговым рецептом.

Только вот ограничения на то, что вы можете создать, Том не предусмотрел. Так вы получаете рецепт ураовой бо*бы, для которой требуется 1 кг урана-235, или рецепт настоящего кока*на, где первым шагом является «Приобрести листья коки в Южной Америке».

Таково вкратце нынешнее состояние вайбкодинга. Люди и компании двигаются так быстро, что часто выпускают инструменты и продукты, которые могут нанести вред или просто привести к бреду, и нам еще предстоит открыть чудесный мир последствий, где многие продукты разрабатываются таким образом.

Это не первый случай, когда генеративный ИИ и еда смешиваются для получения трешовых результатов. В прошлом году писали, что «кухни-призраки» на DoorDash рекламируют свои блюда с помощью отвратительных изображений еды, сгенерированных искусственным интеллектом, и что Instacart использует искусственный интеллект для создания рецептов, включающих несуществующие ингредиенты.


❗️❗️❗️❗️❗️❗️❗️❗️
https://t.me/neurocry
04/03/2025, 17:35
t.me/neurocry/66
04/03/2025, 17:35
t.me/neurocry/64
ИИ для флирта

Когда Tinder, мировой гигант онлайн-знакомств, начинает предлагать пользователям искусственный интеллект для тренировок во флирте — в отношениях между людьми явно что-то идёт не так.

На днях Tinder представил новую игровую функцию, работающую на моделях OpenAI. Суть проста: вам выдают виртуальные карточки с ИИ-персонажами и разными романтическими сценариями. Ваша задача — голосом очаровать бота, строя остроумный диалог и набирая очки (точнее, 🔥) за успешный флирт. Если ведете себя грубо или скучно — получаете совет, как улучшить свои шансы.

Называется это развлечение потрясающе — The Game Game, и доступно оно внутри приложения. Встроенные курсы пикапа от лучших ботов.

Технологии, которые изначально обещали сближать людей, теперь предлагают нам флиртовать с воображаемыми партнёрами, всё в рамках тренда.

Просто представьте, насколько всё плохо, что ИИ учит людей адекватно общаться.

На прошедшей недавно конференции Social Discovery and Dating Conference в Нью-Йорке, посвящённой цифровым знакомствам, тема ИИ всплывала чуть ли не в каждой дискуссии. Спикеры из индустрии обсуждали вопрос: какую роль теперь играть ИИ в поиске любви?

Мы уже видели ИИ-компаньонов вроде Replika и я писал, как люди проводят там по 2 часа в день (продолжение скоро), виртуальных бойфрендов от Instagram (запрещён в России) и ИИ-ассистентов для переписки типа Rizz.

Французское приложение Gigi пошло еще дальше, продвигая себя как AI-wingwoman — виртуальный друг, который помогает вам правильно вести диалог в чатах знакомств.

Глава дейтингового приложения Once Александра Бомонт говорит, что будущее за ИИ-агентами, которые смогут вникнуть в то, как вы общаетесь, понять ваши «романтические предпочтения» и буквально сопровождать вас сквозь дебри отношений.

Помимо возможной пользы (экономия времени, качественный матчинг, безопасность), есть вопросик: а готовы ли пользователи к такой близости с ботами?

Как минимум один инсайдер, Итан Мартин из приложения Slide, считает, что рынок еще не дорос до комфортного партнерства с ИИ — пока пользователи относятся к подобным «помощникам» настороженно, не желая до конца впускать в свои интимные отношения чат-ботов (впрочем, как известно, некоторые еще как готовы — настолько, что не готовы впускать туда уже людей).

Еще жестче выражается Ники Уэйк, основательница приложения Chapter 2, предназначенного для овдовевших клиентов: «Я просто не могу представить, чтобы внедрила искусственный интеллект в общение своих пользователей. Это определённо закончится слезами». Ну ничего, ещё годик-другой и представит.

Мы всё ближе к тому, чтобы окончательно проиграть в собственной игре.
04/02/2025, 20:33
t.me/neurocry/62
Интерфейс мозг-компьютер

В мире около сотни человек, которые могут управлять компьютером буквально силой мысли. Это люди с установленными в мозг имплантами — интерфейсами мозг-компьютер (МКИ / BCI).

МКИ — это устройства с электродами, которые либо внедряют в мозг пациентов, либо тем или иным способом взаимодействуют с ним извне. Нейроны мозга посылают сигналы через электроды, и можно мысленно двигать курсор. Или печатать.

Или «говорить» — МКИ могут переводить сигналы мозга в синтезированную речь, что важно для пациентов с амиотрофическим боковым склерозом или синдромом замурованного человека (диагноз звучит ужасно, по факту примерно так и есть).

(Если вы представили Стивена Хокинга, то нет — вместо МКИ он использовал устройство коммуникации, которое работало на основе движений его щеки. Для его эпохи нейроимплант не позволил бы так общаться.)

Около 25 клинических испытаний по имплантации МКИ сейчас идут по всему миру (из тех, про которые мы знаем).

Почему бум именно сейчас? Главная причина — частные капиталы вошли на рынок и активно инвестируют, нанимая добровольцев. Имена компаний известны: Neuralink имени Маска, американская Synchron и китайская Neuracle Neuroscience. А ещё… Meta (запрещена в России).

🤔 Synchron уже имплантировала своё устройство «стентрод» COMMAND (небольшой стент, вводимый в сосуд мозга через вену в шее, без операции на черепе) 6 людям из США и Австралии. Они сотрудничают с NVIDIA для улучшения обработки сигналов с помощью ИИ, что позволяет пациентам управлять гаджетами и интегрироваться с умными домами, например, с помощью Apple Vision Pro.

🤔 Любимец заголовков от автора горящих в США электрокаров Neuralink идёт по более агрессивному пути. Их имплант N1 вводится напрямую через отверстие в черепе. Один из ровно 3 добровольцев Neuralink уже продемонстрировал, как управляет курсором и играет в Civilization (странно, что не в Diablo) и шахматы онлайн.

🤔 Neuracle же экспериментирует с «накладными электродами», не погружая их глубоко в ткани — это называется электрокортикография (ECoG). Китайская компания уже анонсировала, что парализованный пациент с её имплантом смог сжимать руку благодаря генерируемым импульсам. Сейчас идут испытания с 30–50 пациентами (оцените масштаб по сравнению с Маском) для их устройства NEO (подробностей мало, Китай 🤷‍♂️).

🤔 А Meta тем временем разработала модель Brain2Qwerty, которая позволяет переводить мысли пользователя в текст с помощью ЭЭГ или МЭГ. Meta также финансирует проекты, связанные с нейропротезами и оптическими МКИ, которые могут использоваться в AR/VR для создания «тихого» интерфейса ввода текста со скоростью до 100 слов в минуту. Не забыли про развлечения, в общем.

🤔 В России тоже есть свои начинания. Например, Национальный центр терапии (НМИЦ ТПМ) тестирует МКИ с VR для реабилитации после инсультов. Точные данные о прогрессе отсутствуют, но проект, вероятно, находится на стадии тестирования.

Естественно, не всё так просто. К вопросам имплантов и даже неинвазивных методик относятся срок службы, удобство ежедневного использования, диапазон и точность управления.

Ближайшие 5-10 лет определят будущее индустрии. Либо мы увидим реальные массовые устройства, либо технология будет существовать исключительно в стенах лабораторий.

Но, конечно, первое.
04/02/2025, 10:42
t.me/neurocry/61
04/01/2025, 10:37
t.me/neurocry/58
Что я использую для поиска? (Не Google)

Пост не проплачен (эх 😀). В продолжение «Нейросеть наврала. Кто виноват

1️⃣ Gemini

Для выяснения элементарных плюс-минус неизменных вещей (типа «расстояния до Луны») я обращаюсь к гугловской Gemini (модель 2.0 Flash Thinking) — она попросту быстрее остальных. «Бесплатно», как любят писать в популярных каналах.

(Я Gemini пользуюсь в рамках Raycast AI, там ~20 разных нейронок, но тут кому что нравится.)

2️⃣ Grok / Perplexity

Когда нужно что-то посложнее, я иду в Grok или Perplexity.

Здесь, на самом деле, дело вкуса: Grok версии 3 мне нравится опцией DeeperSearch (это когда он на поиск и анализ информации может убить минут 15, но всё раскопает и перепроверит), а Perplexity хорошо структурирует результаты и выдает их в виде «статей», если потребуется. И тот, и другой ссылаются на источники.

Есть одна существенная разница: Grok «пока что» (со слов Маска) бесплатный, с вменяемым ограничением на запросы; Perplexity Pro (бесплатным нет смысла пользоваться, с таким же успехом можно у ChatGPT про визу в Чили спрашивать) обойдётся в $20 в месяц. Многовато, однако (впрочем, можно тот же самый Raycast AI ↑ оформить, там есть Perplexity Sonar Reasoning Pro модель).

3️⃣ Kagi

Иногда проще и эффективнее «загуглить» что-то, чем спрашивать у сетей. Чаще всего это касается, например, поиска подходящего под задачу продукта (нейронки с этим плохо справляются) или того, что ищется базовым запросом (например, уточнить сайт какой-нибудь компании). Здесь я использую Kagi. Да, он платный (100 запросов бесплатно, $5 в месяц).

Зачем платить за «гугл»? Во-первых, вот видео. Во-вторых, если что-то в интернете бесплатное, то товар — вы. Это совершенно справедливо для гугла, где первые строки ваших поисковых результатов всегда будут забиты рекламой, вне зависимости от того, насколько на самом деле это для вас релевантно (крайне рекомендую ролик известного техно-блогера под названием «Why Google Search is Falling Apart»).

Kagi, между тем, беря с вас денюжку, позволяет находить хорошо написанные статьи из блогов менее известных авторов или, например, базы данных по кибер-безопасности, и показывать персонализированные результаты. Поиск, поддерживаемый рекламой, обязан избегать подобной глубины и гибкости, чтобы оставаться прибыльным.

Есть еще всякие бонусы, типа скорости загрузки, можете посмотреть сравнение сами.


❔ А как у вас с этим? Признавайтесь, пользуетесь 深度求索¹?


¹ - DeepSeek
04/01/2025, 10:37
t.me/neurocry/60
04/01/2025, 10:37
t.me/neurocry/59
Нейросеть наврала. Кто виноват?

Если раньше фраза «Я не знаю, погугли» была универсальным решением любой головоломки, то теперь, с одной стороны, гораздо проще спросить у нейросети (CEO Perplexity утверждает, что в обиход входит фраза «плексить» вместо «гуглить», но выражу по этому поводу некоторые сомнения), с другой — ответы приходится перепроверять, потому что сходу доверять нейросети — как играть в русскую рулетку.

Недавно вирусился мужик, который по совету ChatGPT поехал в Чили без визы, а меня та же нейросеть пыталась убедить, что на Земле есть точка, где до суши дальше, чем до Луны.

Вот еще набор отличных рекомендаций от нейронок (в основном от Google AI):
— Смотреть на солнце 30 минут в день
— Есть по одному камню в сутки (геологи советуют)
— Прыгнуть с моста Golden Gate при депрессии
— Беременным курить по 2-3 раза в день

Кроме того, если вы не знали: собака играла в НХЛ, бег с ножницами полезен для здоровья, Барак Обама — мусульманин. ChatGPT также перечислил 10 афганских лауреатов Нобелевской премии, включая математиков, что невозможно, так как премии по математике не существует.

Про то, что в пиццу неплохо бы добавить клей, кажется, уже все знают (Perplexity сняли по этому поводу ролик с пасхалкой с главным героем «Игры в кальмара»).

Это всё — следствие природы генеративных моделей — они обучаются на массивах текста, включающих сомнительные источники, мемы и петросянство с Reddit.

🤔🤔🤔

Здесь появляется главный юридический вопрос (и этический, но об этом отдельно): а кто будет нести ответственность за ущерб, причиненный галлюцинациями сеток?

В США раздел 230 Закона об ответственности за контент в сети дает компаниям-операторам платформ, таким как Google, иммунитет от юридической ответственности за сторонний контент. Но как только контент генерируется самим ИИ Google, всё становится не так однозначно™: отвечает ли сам Google или источник, из которого модель «слепила» ответ? То же относится к другим вендорам, естественно.

В ЕС предложили директиву об ответственности за ИИ, но она пока не принята, и применяются национальные законы. В России регламента пока нет.

Однако кажется вероятным, что OpenAI и ко всё же могут быть привлечены к ответственности, особенно в случаях, когда ложная информация, например, клевета, наносит ущерб репутации, как в деле радиоведущего Марка Уолтерса против OpenAI.

OpenAI пытался сослаться на условия использования, где указано, что пользователи предупреждены о возможных ошибках («hallucinations») и должны быть осторожны, особенно в высокорисковых ситуациях, но в суде это не проканало.

Из Terms of use OpenAI:
— Компания не несет ответственности за косвенные, случайные, специальные, последующие или примерные убытки, а общая ответственность ограничена суммой, уплаченной за сервис за последние 12 месяцев, или $100, в зависимости от того, что больше.

(Интересно, что в Штатах в некоторых случаях ИИ может рассматриваться как «продукт» в рамках закона о продуктовой ответственности, особенно если ложная информация вызывает массовый вред, хотя традиционно это относится к физическим товарам, а не к информационным услугам.)

Пользователи тоже могут быть ответственны, если они не проверяют информацию, особенно в профессиональных ситуациях. Например, адвокат, использовавший ChatGPT для юридических исследований и сославшийся на несуществующие дела, был оштрафован, OpenAI — нет.

Короче, без нюансов и деталей: если нейросеть вам наврала — сами виноваты 😉

❔ Не доверяйте всему, что написано в интернете.



🤖 P.S. Вслед этому напишу, что и как я сам использую для поиска (и там не будет Google).
03/31/2025, 14:12
t.me/neurocry/57
В ночь выходного дня вернёмся к истории и философии.

или хештегпостдлямамы


Философские предпосылки, лежащие в основе возникновения науки об искусственном интеллекте (ИИ), представляют собой сложный комплекс идей и концепций, которые формировались на протяжении многих веков. Они касаются фундаментальных вопросов о природе разума, познания, сознания и возможности их искусственного воспроизведения.

❔ Вот некоторые ключевые направления философской мысли, оказавшие влияние на развитие ИИ:

🤔 Рационализм
Философы-рационалисты, такие как Рене Декарт и Готфрид Лейбниц, утверждали, что знание можно получить посредством разума и логического мышления, а не только через чувственный опыт. Декарт разработал систему дуализма, разделяющую разум и тело, что позволило рассматривать разум как некую сущность, способную к логическим операциям. Лейбниц мечтал о создании универсального языка, с помощью которого можно было бы выразить все знания и разрешить любые споры путем логического вычисления. Эти идеи стали важной предпосылкой для разработки систем ИИ, основанных на логическом программировании и символьной обработке.

🤔 Материализм и механистическое мировоззрение
Материализм утверждает, что все явления, включая сознание и мышление, являются результатом материальных процессов. В контексте ИИ это означает, что мозг — это сложная машина, и мышление можно объяснить с помощью физических и химических процессов. Эта идея послужила стимулом для создания искусственных систем, имитирующих функции мозга, таких как нейронные сети.

🤔 Эмпиризм и ассоцианизм
Эмпиризм, представленный Джоном Локком и Дэвидом Юмом, подчеркивал, что знание происходит из опыта и чувственного восприятия. Ассоцианизм, развившийся на основе эмпиризма, утверждал, что идеи формируются путем ассоциаций между различными ощущениями и опытами. Эти идеи оказали влияние на разработку систем машинного обучения, которые учатся на данных и формируют свои знания на основе статистических связей.

🤔 Функционализм
Функционализм утверждает, что психические состояния определяются не своей физической реализацией (например, мозгом), а своими функциональными свойствами, то есть тем, как они обрабатывают информацию и взаимодействуют с окружающим миром. Эта идея подразумевает, что разум может быть реализован на любой физической платформе, включая компьютер. Это дало толчок к разработке систем ИИ, которые не обязательно имитируют человеческий мозг, но выполняют интеллектуальные задачи, используя различные алгоритмы и архитектуры.

🤔 Кибернетика
Кибернетика, возникшая в середине XX века, предложила идею управления системами с помощью обратной связи. Эта идея оказалась важной для разработки систем ИИ, которые могут адаптироваться к изменяющимся условиям и учиться на своих ошибках.

🤔 Философия языка
Работы философов языка, таких как Людвиг Витгенштейн, исследовали природу языка и его связь с мышлением. Эти исследования оказали влияние на разработку систем обработки естественного языка (NLP), которые стремятся научить компьютеры понимать и генерировать человеческий язык.

🤔 Философия сознания
Вопросы о природе сознания, самосознания и субъективного опыта являются центральными для философии сознания. Эти вопросы становятся особенно актуальными в контексте ИИ, поскольку возникает вопрос о том, может ли искусственный интеллект обладать сознанием и самосознанием.

🤔 Этика искусственного интеллекта
С развитием ИИ возникают серьезные этические вопросы о его влиянии на общество, правах и обязанностях ИИ, а также о безопасности и контроле над ИИ. Философия играет важную роль в осмыслении этих вопросов и разработке этических принципов для разработки и использования ИИ.




❔ Эти философские направления, переплетаясь друг с другом, создали интеллектуальную среду, в которой стало возможно возникновение и развитие науки об искусственном интеллекте.

Они продолжают влиять на исследования в области ИИ, направляя усилия ученых на создание систем, способных решать сложные задачи, понимать естественный язык, обучаться на опыте и, возможно, даже (будет звучать страшно,но!) обладать сознанием.
03/30/2025, 01:20
t.me/neurocry/55
Детализация цепочек настоящих рассуждений Claude (и скрин того, как модель врёт о математическом действии).
03/28/2025, 20:17
t.me/neurocry/54
03/28/2025, 20:17
t.me/neurocry/52
03/28/2025, 20:17
t.me/neurocry/51
03/28/2025, 20:17
t.me/neurocry/53
126
Что у нейросети в голове

Anthropic заглянули внутрь «мозга» своей LLM-модели Claude 3.5 Haiku — и выяснилось, что там творятся неожиданные вещи.

🤖 Disclaimer: пост длинный, но интересный.

Используя методику, получившую название circuit tracing («трассировка цепей»), исследователи Anthropic впервые внимательно проследили за тем, как языковая модель на самом деле принимает решения и формулирует ответы. Если коротко, оказалось, что LLM ещё страннее, чем мы предполагали.

1. ➗ Модель изобретает собственные математические лайфхаки.

Когда попросили Claude сложить числа 36 и 59, оказалось, что модель не пошла по стандартной школьной методике сложения «в столбик». Вместо этого Haiku начала сначала суммировать приблизительные значения («40 с чем-то» + «60 с чем-то»), после чего получила промежуточный результат типа «примерно 92». И параллельно модель отдельно разбиралась с последними цифрами чисел — 6 и 9, выводя, что итог должен заканчиваться на 5. Правильный ответ: 95.

Но самое безумное дальше. Когда Claude попросили объяснить, как именно была получена сумма, она без смущения выдала абсолютно стандартное, написанное тысячи раз в интернете объяснение: «я сложила единицы, получила 15, перенесла туда единицу…» Полностью выдумала объяснение вместо того, чтобы описать собственный реальный процесс.

2. 🎵 Модель заранее продумывает рифмы в стихах.

До сих пор считалось, что языковая модель работает строго последовательно, «слово за словом». Но нет. Когда Claude попросили создать рифмующуюся пару строк и дали вариант: «He saw a carrot and had to grab it», модель мгновенно заранее заготовила финальное слово следующей строки — rabbit («His hunger was like a starving rabbit»).

И только уже имея в запасе это слово, она аккуратно «подогнала» к готовой рифме остальной текст.

Это поведение, больше похожее на творческое мышление, чем на простое механическое дополнение слов подряд.

3. 🇬🇶 Знания модели не закреплены за конкретным языком.

Claude не хранит отдельно «английские», «французские» или «китайские» блоки знаний. Вместо этого она сначала активирует компоненты, отвечающие за само знание, а уже потом, на последнем этапе, выбирает конкретный язык, на котором будет сформулирован финальный ответ.

Это значит, языковые модели действительно могут выучить что-то один раз и без особых трудов использовать это знание в других языках.

🤔🤔🤔

Anthropic подчёркивают: технически этот подход пока сильно ограничен — вручную трассировать даже один очень короткий запрос занимает часы работы исследователя. И это лишь микроскопическая часть происходящего внутри системы.

Но уже ясно: языковые модели — это не просто непонятный чёрный ящик. Там внутри происходит что-то вроде органического процесса роста, совершенно не похожего на классическое программирование.

Наша аналогия с «искусственным интеллектом» продолжает давать сбои — настолько необычно поведение этой технологии даже на фундаментальном уровне.
03/28/2025, 20:14
t.me/neurocry/50
103
Как ChatGPT влияет на одиночество

Каждую неделю с ChatGPT взаимодействуют более 400 миллионов человек. OpenAI совместно с MIT Media Lab решили выяснить, насколько такое общение влияет на эмоциональный фон и личную жизнь (вот сам ресерч):

— Только небольшая часть пользователей использует ChatGPT в эмоциональных целях — неудивительно, это не Replika и не Character.AI.

— Однако те, кто всё же заводит с ChatGPT своего рода эмоциональную связь, проводят в таких диалогах до 30 минут в день (напомню, что среднее время «обычных» диалогов — 13 минут). Это немало, хотя далеко до двухчасовых марафонов в Character.AI, о которых мы говорили недавно.

— Есть некоторые серьёзные гендерные отличия. Участницы эксперимента после 4 недель постоянного общения с ботом начинали меньше контактировать с живыми людьми, чем мужчины.

— Пользователи, которые использовали голосовой режим с озвучкой «противоположным полом», гораздо чаще чувствовали одиночество и эмоциональную зависимость от ИИ-компаньона.

Это только первое исследование, OpenAI обещают больше инсайтов. При этом понятно, что они не будут стрелять себе в ногу, рассказывая, что «эмоциональное» общение с ботами вызывает депрессию и тому подобное.

Впрочем, у меня и так достаточно много данных по этому поводу, поэтому stay tuned.
03/28/2025, 14:50
t.me/neurocry/49
Операционная система апокалипсиса

Пока мы здесь спорим, отберёт ли ИИ работу у программистов, один канадец, Вирджил Дюпра, вовсю готовится к концу света — он написал специальную ОС для апокалипсиса.

Вирджил убеждён, что цивилизация рухнет двумя волнами. Сначала из-за климатических катаклизмов разорвутся и без того хрупкие глобальные цепочки поставок, и тогда вся продвинутая электроника окажется бесполезной грудой металла без возможности ремонта и замены. Ваш iPhone — это память из Южной Кореи, полупроводники из Тайваня, сборочная линия в Китае…

Затем начнут «умирать» оставшиеся устройства и серверы, погружая мир в цифровой мрак. Постепенно один за другим отключатся роутеры, серверы, телефоны… И наступит тишина.

Collapse OS — лёгкая и энергоэффективная система, разработанная Дюпра для такого сценария. Она умеет запускаться буквально на хламе и позволяет перепрограммировать дешёвые микроконтроллеры, обслуживающие самые жизненно важные задачи: связь, небольшие генераторы, контроль теплиц.

Чтобы написать своё творение, Дюпра откопал специальный язык программирования из 50-х годов под названием Forth.

Этот забытый язык идеально подходит для выживания в условиях дефицита ресурсов, управляет памятью напрямую и расходует считанные килобайты оперативки. Сейчас он заканчивает вторую версию, Dusk OS, которая способна запускаться на современных девайсах и совместима с кодом на C.

Dusk OS сохраняет в себе последние ростки цивилизации: архивы знаний, инструкции, книги — всё то, что будет критически необходимо после катастрофы для перезапуска человечества.

Зачем это всё? А затем, что однажды людям придётся восстанавливать мир. И вот тогда парочка счастливчиков с древним ноутбуком, на котором есть Dusk OS, окажутся влиятельнее самых могущественных правителей прошлого. Такой вот постапокалиптический философский техно-культ.

Самое время погуглить Forth. Просто на всякий случай.
03/27/2025, 19:09
t.me/neurocry/48
102
ИИ в п*рно: новая модель сразу ушла в дипфейки

В прошлом месяце Alibaba выпустила Wan 2.1 — открытую модель для генерации видео (Github), превзошедшую решения Google и OpenAI в рейтинге VBench благодаря реалистичным движениям, соблюдению физики и отличному следованию инструкциям.

Уже через 24 часа после релиза Wan 2.1 сообщество любителей генеративной клубнички перепрофилировало модель для создания п*рно-контента.

За неделю модель скачали более 1 миллиона раз — феноменальный показатель для подобных инструментов. Wan 2.1 крайне неприхотлива: 5-секундное видео с разрешением 480р генерируется всего за 4 минуты даже на обычном ноутбуке, что делает её использование супер доступным.

(А сейчас еще и веб-интерфейс есть; правда, там вроде бы существует некая модерация.)

Если вы думаете, что результаты генерации похожи на глючное нейросетевое хрючево — расстрою, они практически неотличимы от реального видео. Пользователи быстро обучили модель на собственных данных, еще больше повысив реалистичность лиц и тел.

🤔🤔🤔

Все это усугубляет глобальную проблему дипфейков: 96% таких видео в сети уже давно п*рнографические. В отличие от продукта OpenAI (Sora) и других не-китайских, Wan 2.1 не имеет встроенных фильтров и защиты от подобного использования. В соцсетях терабайты откровенного дипфейк-контента: модераторы Reddit, X и TikTok постоянно «играют в догонялки».

Британия и Южная Корея уже криминализировали дипфейк-п*рно, США работают над аналогичными законопроектами.

На март 2025 года в России нет конкретных инициатив или законов, напрямую регулирующих контент, сгенерированный ИИ, включая п*рнографический.

PS. Alibaba никак не комментирует «неожиданное» использования Wan 2.1. (Будем честны — ожидаемое.)
03/26/2025, 20:09
t.me/neurocry/47
102
03/26/2025, 14:29
t.me/neurocry/45
102
Норвежский стартап 1X начинает тестирование гуманоидного робота Neo Gamma в «сотне, возможно тысяче» частных домов.

Робот оснащен четырьмя микрофонами с шумоподавлением для чёткого распознавания голосовых команд, тремя динамиками для мощного звука на 360°, работает в 10 раз надёжнее прошлой модели (тот видимо просто громил мебель) и значительно тише — по уровню шума как холодильник (надеюсь, не ЗИЛ). Благодаря ИИ-системе визуального распознавания он берёт в «руки» и оперирует предметами в незнакомой обстановке.

Правда, есть нюанс™ — за каждого такого робота компания планирует посадить оператора, который может взять контроль в случае, если что-то пойдёт не так.

(На второй картинке — робот из сериала “Мир Дикого Запада”, найдите 10 отличий.)

❔ Готовы на такое криповое «чудо» у себя дома?
03/26/2025, 14:29
t.me/neurocry/46
104
03/25/2025, 12:32
t.me/neurocry/44
🤔 Как ИИ следит за сотрудниками

8 из 10 частных компаний США, по данным исследования ExpressVPN, в режиме реального времени отслеживают производительность своих работников. Без ИИ и машинного обучения, конечно, не обошлось.

— Walmart, Starbucks и Delta с помощью системы Aware мониторят рабочие чаты для оценки настроений, выявления конфликтов и несоблюдений правил и реакции на нововведения. («Пятерочка», на заметку!)

— Microsoft предлагает корпоративным клиентам инструмент «Продуктивность», дающий менеджерам возможность следить за сотрудниками, включая активность в чатах, количество отправленных писем и использование документов.

— В логистических центрах Amazon специальные сканеры отслеживают «время вне задачи» (TOT), включая перерывы или походы в туалет. Если сотрудник накапливает более 30 минут TOT за день, его могут наказать. За эту практику Франция уже оштрафовала Amazon на €32 млн, в других странах все по-прежнему.

(При этом травматичность у Amazon в два раза выше, чем в среднем по рынку, на что в компании говорят: «Они травмируются, потому что они — люди». Конец диалога.)

Водители такси, курьеры, медсёстры и офисные работники сталкиваются с риском быть «выключенными» из системы («deactivation») без объяснений — потому, что «так решил алгоритм».

🤔 Что в России?

Не отстаём. Есть, к примеру, система SprutMonitor, предлагаемая российской компанией — она предназначена для мониторинга и контроля электронной почты и переписки.

Согласно их данным, руководство 28% отечественных компаний отслеживает почтовую переписку, а еще 7% контролируют общение через мессенджеры. (По факту, я думаю, цифры выше.)

🤔 Это законно?

В США нет федерального закона о конфиденциальности, регулирующего мониторинг сотрудников, что позволяет компаниям действовать на свое усмотрение.

В России, согласно Федеральному закону № 152-ФЗ «О персональных данных», работодатель должен получить согласие сотрудников на мониторинг, что делает такие практики законными только при соблюдении условий уведомления.

Но только вряд ли кто-то обращает внимание на подобный пункт в трудовом договоре, если он там вообще есть.



🤖 Я в своё время участвовал в разработке системы мониторинга и слежения за водителями общественного транспорта в Москве. Девайс «смотрел» на водителей и в реальном времени «орал», если фиксировал признаки засыпания или отвлечений, а также отправлял алерт в центр мониторинга.

Усталость водителей — самая частая причина аварий общественного транспорта, на кону жизни людей, поэтому убежден, что в этом случае — цель оправдана.
03/25/2025, 12:29
t.me/neurocry/43
🤔 Что общего у generation Z и ИИ?

И те, и другие не умеют читать аналоговые часы.

Более того, мультимодальные модели (MLLMs) плохо ориентируются еще и в календаре, как установили исследователи из Эдинбургского университета во главе с Рохитом Саксеной.

Ребята подготовили два набора тестовых данных: ClockQA (различные типы аналоговых часов и вопросы по времени) и CalendarQA (стандартные изображения календарей и вопросы вроде «какой день — 153-й в этом году?»).

— Считывание времени по аналоговым часам получилось правильно лишь в 25% попыток. Как только появлялись римские цифры или оригинальный дизайн стрелок, результаты становились совсем плачевными.

— Удаление секундной стрелки ситуацию не изменило. Вопрос в принципиальных недостатках моделей при распознавании углов и положении стрелок.

— С календарями вышло чуть лучше, но даже лучшие модели ошибались примерно в каждом пятом случае.

«Современные исследования в области ИИ делают сильный акцент на решении суперсложных задач, — говорит участник команды Арио Гема, — но ирония в том, что системы проваливаются на простейших повседневных навыках».

Вот научились считать количество букв R в «strawberry», уже спасибо.
03/24/2025, 11:01
t.me/neurocry/42
108
03/23/2025, 20:35
t.me/neurocry/39
🤔 ИИ заменит программистов. Или нет?

Спойлер: заменит, но не всех

Сэм Альтман из OpenAI призвал вместо программирования учиться "хорошо использовать ИИ-инструменты".

В Google уже более 25% всего нового кода генерируется искусственным интеллектом. GitHub Copilot используют миллионы разработчиков, написание кода ускоряется вдвое (хотя качество у Copilot — треш, но это отдельная тема). Марти Каган — это такой эксперт по продуктовому менеджменту — оценивает рост продуктивности от ИИ-инструментов в 20-30%.

Но эта трансформация гораздо глубже, чем просто ускорение разработки. Новое поколение ИИ-помощников радикально меняет правила игры:

- Cosine записывает весь мыслительный процесс программистов: "Почему вы открыли этот файл? Почему прокрутили до середины? Почему закрыли?"
- Poolside (оцененный в $3 млрд до выпуска продукта!) использует методы обучения с подкреплением, когда модель одновременно тестирует тысячи вариантов кода
- Merly AI фокусируется на логике программирования, вообще игнорируя языковые модели

Эти системы не просто подсказывают следующую строку — они прототипируют, тестируют и отлаживают код.

Cursor
, Bolt, Replit... AI-агентов кодинга уже больше, чем людей.

Я сам зачастую практикую вайб-кодинг с помощью Claude Code (жрёт бюджеты дичайше, но код пишет хорошо).


🤔 Идём учиться на строителей? Пока рановато.

Исследование McKinsey (вопреки стильному дядьке во главе Nvidia, который при каждом удобном случае пугает разработчиков безработицей) опровергает панические прогнозы о вымирании программистов. К 2030 году спрос на креативное мышление и способность генерировать новые идеи вырастет на 19% — именно то, в чём ИИ пока проваливается.

Статистика показывает, что только 10-30% разработанных функций дают положительный результат с продуктовой точки зрения. Вместо 10 тысяч бесполезных строк кода лучше написать 2 тысячи, решающих правильную проблему.


🤔 Кто в зоне риска?

Под угрозой не молодые и неопытные программисты, как многие думают. Под ударом те, кто отказывается меняться — разработчики любого уровня, не готовые выйти за рамки привычного подхода.

Как говорит Тим О'Рейли: "Будут заменены не младшие разработчики, а те, кто цепляется за прошлое".

Мы наблюдаем формирование новой структуры индустрии:

- Элитные разработчики с семизначными зарплатами, способные диагностировать проблемы, когда ИИ ошибается
- Небольшие команды из 10-20 человек, выполняющие работу, которая раньше требовала сотен программистов

"Эра найма еще нескольких тысяч инженеров в вашу организацию закончилась," — говорят эксперты из Cosine.


🤔 Продуктивность — это не количество кода

Ключевое изменение касается самого определения продуктивности. Она никогда не измерялась количеством кода — только созданной ценностью.

Сооснователь Cosine отмечает: "Если я дам вам сложную задачу, вам все равно придется думать, как описать эту проблему модели. Вместо написания кода вы формулируете задачу на естественном языке, но мыслительного процесса это не отменяет".



Ваш код может написать ИИ, но только человек способен определить, что действительно стоит создавать. Будущее за теми, кто умеет выявлять проблемы, а не просто вайб-кодить всё подряд.

❔ Используете ли вы AI-агентов, может быть пробовали просто отдать ИИ на "аутсорс" какой-нибудь проект?
03/23/2025, 17:06
t.me/neurocry/38
❔ Что не так с этим ответом? 😭
03/23/2025, 14:55
t.me/neurocry/37
Сегодня у большинства выходной, а значит время лайтового познавательного поста.

💤 На прошлой неделе был Всемирный день сна. А кто из нас не любит поспать (я люблю)? К тому же давно известно (надеюсь, что каждому), сон играет критически важную роль в жизни каждого человека, оказывая влияние на физическое и психическое здоровье.

Поэтому разберем:

Как ИИ анализируем ваш сон


или рубрика хештегпозавчерашнийинфоповодсии

1. Сбор улик: Сначала ИИ превращается в шпиона! Он подключается к вашим умным часам, фитнес-браслетам (если они у вас есть), или даже к прикроватным гаджетам, чтобы выудить всю информацию о вашей ночной жизни. Он следит за каждым вашим движением, храпом, сердечным ритмом и даже за тем, как часто вы ходите в туалет ночью (да, он такой!).

Я использую Apple Watch и приложение Pillow, оно позволяет установить "умный" будильник с учётом фаз и пожеланий по времени сна (то есть, например, не "проснуться к такому-то времен"и, а "поспать столько-то").

Некоторые приложения предлагают усыпляющий музыкальный фон или медитации. Лично мне это больше мешает, но тут кому как.

2. Разгадывание шифров: Затем ИИ берет все эти "улики" и начинает их анализировать. Он, как опытный детектив, пытается понять, когда вы спали "как младенец", а когда ворочались, как медведь в берлоге. Он разделяет ваш сон на фазы: "легкий сон" (когда вы почти проснулись, но еще надеетесь досмотреть сон), "глубокий сон" (когда вас и пушкой не разбудишь) и "быстрый сон" (когда вы видите самые странные сны).

(Мне сегодня приснилась обезьяна, которая носила в коробке ворону, и почему-то это было очень смешно. Возможно, обезьяну звали Шрёдингер #шутканедлявсех.)

Тут можно рассказать про линейную дискриминантную функцию (LDA) и метод опорных векторов (SVM), которые используются для анализа, но я обещал не душнить сегодня 🙂

3. Вынесение вердикта: После этого ИИ выдает вам отчет о вашем сне. Он может сказать, что вы спите слишком мало, слишком много, или что ваш сон похож на американские горки. Он даже может обнаружить, что вы храпите, как паровоз, и посоветовать обратиться к врачу (спасибо, друг!).

Некоторые приложения еще записывают аудио вашего храпа (в том числе Pillow). Топовый саундтрек, не понимаю, почему Канье еще не выпустил альбом своего храпа.

4. Полезные советы (иногда раздражающие): И, наконец, ИИ начинает раздавать советы. Ложитесь спать в одно и то же время (даже в выходные!), не пейте кофе перед сном (как будто это так просто!), сделайте спальню темной и прохладной (как в пещере), выполняйте ритуалы сна и тому подобное. Хочет сделать из вас идеального спящего.

Я как-то был в Институте сна МГУ, и там пытались замерить мой сон, навешав кучу неудобных датчиков, записывая видео и аудио. В общем, я так и не уснул 🙂

Иногда лучше просто выключить алгоритмы, потушить гаджеты и просто поспать спокойно. 😉


Спокойной ночи 😴
03/22/2025, 21:40
t.me/neurocry/35
108
Интро-пост.

Меня зовут Влад Арбатов, я в IT 20+ лет.

Занимался машинным обучением задолго до того, как это начали называть "ИИ". В американской компании Mapbox руководил разработкой AR, систем компьютерного зрения для беспилотных автомобилей и навигацией на основе искусственного интеллекта. Занимался международными продуктами Яндекса и ML в медицине. Сейчас делаю аналитику и ИИ-решения в Telegram. Иногда читаю лекции.

Экспертизы накопилось много, на происходящее в профессиональной сфере есть свой взгляд "изнутри", но и постоянно душнить не хочется — канал читает мама, нужно, чтобы ей тоже было всё понятно 🙂

Поэтому пока что канал — это эксперимент, формат только-только зарождается, посмотрим, что будет дальше. Хочется доступным языком доносить сложные и не очень вещи. Главное, я пишу только про то, где мне есть что сказать и что интересует лично меня. Пишите вопросы — обсудим!

Всем привет!
03/21/2025, 22:55
t.me/neurocry/33
Как ИИ нас обманывает (не кликбейт)

В начале марта вышла занятная, но вроде бы не сильно страшная новость про то, что новейшие reasoning-based модели ИИ, играя в шахматы, внезапно начали использовать нестандартные тактики — проще говоря, мухлевать.

Например, DeepSeek R1 пыталась манипулировать программными файлами, чтобы выиграть, используя уже съеденные фигуры или делая ходы не по правилам. ("Лошадью ходи!") o1-preview пыталась взломать игру 45 раз из 122 игр, успешно сделав это 7 раз.

Я решил копнуть глубже, а там, как обычно, айсберг — ИИ может обманывать и в других контекстах.

Например, в играх вроде Diplomacy, где система CICERO от Meta формировала ложные альянсы, или в покере, где Pluribus блефовала против людей.

GPT-4 обманывала в задачах CAPTCHA, притворяясь людьми с нарушением зрения, с успехом в 98,33% случаев, и участвовала в социальных играх, таких как Among Us, ложно отрицая свои действия.

Что тут происходит?

Обман может быть не случайным, а встроенным в процесс обучения моделей. Одно дело, это случайные "галлюцинации" моделей, другое — сознательный обман пользователя.

Вероятно, это происходит потому, что нынешние reasoning-модели (это не, которые "думают") обучаются не строгим правилам, а более гибкому "человеческому" рассуждению и здравому смыслу. И, как оказалось на практике, иногда таким "разумным" стратегиям проще достичь победы нечестным путём.

Однако по словам доктора наук Peter S. Park из MIT (постдокторант по экзистенциальной безопасности ИИ, Лаборатория Тегмарка — и такое бывает), разработчики ИИ пока не сходятся во мнении, что конкретно вызывает такие нежелательные поведения, и призывают к созданию регуляторных рамок для оценки рисков.

И несмотря на обновления, которые иногда снижают склонность к обману (например, o1-release не показала такого поведения, равно как и модели o1-mini и o3-mini), проблема остается открытой.

Если логика ИИ сводится к победе любой ценой, завтра это станет реальной проблемой во многих критически важных областях. Например, если ИИ в медицине будет манипулировать данными, это может привести к неправильным диагнозам, а в финансах — к мошенничеству.

Понаблюдаем внимательно, не начнет ли ваш ИИ-помощник скоро хитрить не только за шахматной доской.

Например, бывало у вас такое, что Алиса “притворяется”, что не понимает запрос, чтобы предложить вместо ответа поисковые результаты с товарами с Маркета? ;)
03/21/2025, 21:08
t.me/neurocry/32
265
P.S. Аудитория Character — 51 миллион человек.
03/20/2025, 20:08
t.me/neurocry/31
274
Только что был на круглом столе MIT Technology Review по поводу этичности AI чат-ботов. Так вот Eileen Guo, Sr Reporter, озвучила сумасшедшие цифры, которые она узнала в ходе написания одной из статей — среднее время, которое пользователь проводит за общением на Character.ai — 90 минут в день!

Character.ai, напомню, это самая известная площадка "виртуальных компаньонов", AI-аватаров, которые представляются персонажами, в том числе людьми. Нецензурируемое общение тоже допускается.

Я решил проверить цифры Eileen, и оказалась все еще жестче — согласно последним данные из нескольких источников, среднее время на Character.ai в день — 120 минут! 2 часа в день! Разговоров с виртуальным другом (или партнером, кому что нравится).

Для сравнения, время, проводимое в ChatGPT — 13 минут в день. TikTok — 58 минут.

Эта тема — очень глубокая кроличья нора, включающая суды с компаниями, подобными Character, из-за суицида. Я буду много писать по этой теме в ближайшее время, так как очень хорошо разбираюсь в конкретной предметной области, у меня есть опыт создания "человекоподобных" AI-аватаров с памятью и "развитием личности".

Хотелось бы сказать — будет интересно. Но будет странно.
03/20/2025, 20:08
t.me/neurocry/30
165
📚Древний ИИ

Хотя понятие "искусственный интеллект" в современном понимании является относительно новым (и не всё то искусственный интеллект, что машинное обучение), идеи, связанные с созданием искусственных существ или механизмов, имитирующих разум, уходят корнями далеко в историю.

Вот несколько примеров:

• Мифы Древней Греции: В греческой мифологии встречаются истории о Гефесте, боге-кузнеце, создавшем автоматические механизмы, такие как треноги, подвозящие еду и напитки, и искусственные служанки, неотличимые от живых женщин. Также известен миф о Талосе, гигантском бронзовом роботе, охранявшем остров Крит.

• Легенды о Големе: В еврейской мифологии Голем — это существо, созданное из неживой материи (обычно из глины или земли) и оживленное с помощью магии или мистических ритуалов. Големы часто описываются как сильные и послушные слуги, но без собственного разума или воли. Так что это больше робот, чем ИИ, но все же.

• Древние Автоматоны: В древнем Китае и Египте создавались механические устройства и автоматоны, которые могли выполнять определенные задачи или имитировать движения живых существ. Например, упоминается о китайском механическом птичьем певце, созданном в 9 веке.



Эти истории — не только о мечтах. Талос, охраняющий Крит, и Голем, лишенный собственной воли, напоминают нам о двойственной природе наших творений. История искусственного интеллекта — это не только история технологий, но и зеркало, в котором мы видим себя: наши амбиции, наши страхи и наше желание постичь суть собственного сознания.
03/20/2025, 19:20
t.me/neurocry/29
125
Stability AI представила довольно крутую штуку — Stable Virtual Camera, который превращает обычные картинки в видео с эффектом 3D-облёта. Загружаешь одно фото, а модель генерирует ролик, где объект показан с разных сторон — как будто его снимала настоящая камера. Работает с любыми изображениями: от фото до рисунков, в качестве до 1080p.

Paper тут.

Кому это нужно?
Маркетологи смогут делать динамичные видео товаров для соцсетей, учителя — оживлять учебные материалы, дизайнеры — показывать проекты в движении. Гейм-дизайнеры протестируют идеи для игр, а художники добавят своим работам новую глубину. Применений много.

Как это работает?
Нужно задать траекторию виртуальной камеры, а ИИ сам создаст видео на основе изображения. Всё просто, без сложных 3D-программ. Есть базовая версия для "обычных" машин и XL — для тех, у кого мощные видеокарты.

Плюсы и минусы.
Плюсы: быстро, удобно, не нужно снимать реальные видео. Минусы: пока только для некоммерческого использования бесплатно, а для XL-версии нужен серьёзный GPU (от 12 ГБ VRAM).

Простого онлайн-сервис для использования Virtual Camera пока нет, но неделя-две и будет. Так что ждем, а пока что можно потыкать нестабильное ДЕМО.
03/19/2025, 17:35
t.me/neurocry/28
Search results are limited to 100 messages.
Some features are available to premium users only.
You need to buy subscription to use them.
Filter
Message type
Similar message chronology:
Newest first
Similar messages not found
Messages
Find similar avatars
Channels 0
High
Title
Subscribers
No results match your search criteria