У вас закончился пробный период!
Для полного доступа к функционалу, пожалуйста, оплатите премиум подписку
Возраст канала
Создан
Язык
Русский
29.86%
Вовлеченность по реакциям средняя за неделю
6.19%
Вовлеченность по просмотрам средняя за неделю

Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

Сообщения Статистика
Репосты и цитирования
Сети публикаций
Сателлиты
Контакты
История
Топ категорий
Здесь будут отображены главные категории публикаций.
Топ упоминаний
Здесь будут отображены наиболее частые упоминания людей, организаций и мест.
Найдено 817 результатов
AI
Machinelearning
156.3K подписчиков
1
1
23.04.2025, 14:00
t.me/ai_machinelearning_big_data/7438
AI
Machinelearning
156.3K подписчиков
1
1
🌟 Describe Anything: сегментное аннотирование изображений и видео.

Describe Anything Model (DAM) - архитектура, разработанная Nvidia, для генерации точных и детальных описаний для конкретных областей на изображениях и видео. Традиционные VLM-модели как отдельная сущность или в связке с SAM-помощниками часто теряют ньюансы, особенно при наличии мелких объектов или динамичных сцен на целевом источнике.

DAM справляется с этим за счет 2 инноваций в своей архитектуре:

🟢Фокальный промпт — комбинация полного изображения и его маски с обрезанной областью интереса, расширенной для захвата контекста (например, увеличение bounding box в 3 раза).

🟢Локализованный визуальный бэкбон — два параллельных энкодера: глобальный (обрабатывает все изображение) и региональный (анализирует фокальный промпт). Они объединяются механизм cross-attention, позволяя сохранять детали объекта и его связь с окружением.

Модель принимает изображение или видео и бинарную маску целевой области интереса. Глобальный энкодер извлекает общие признаки, региональный — фокусируется на деталях выбранной зоны. Через адаптеры с кросс-вниманием признаки объединяются, после чего LLM генерирует описание. Для видео маски применяются к каждому кадру, а признаки агрегируются во времени.

▶️В релизе DAM представлены 3 модели:

🟠DAM-3B - базовая модель для аннотирования изображений;

🟠DAM-3B-Video - модель для работы с видео;

🟠DAM-3B-Self-Contained - автономная версия базовой модели для интеграций без сторонних зависимостей.


▶️Локальный инференс с интерактивным Gradio WebUI:

# Clone the repo
git clone https://github.com/NVlabs/describe-anything
cd describe-anything

# Create a conda env
conda create -n describe-anything
conda activate describe-anything

# Install dependencies
pip install -v

# Gradio Demo for Image Descriptions
python demo_simple.py

# Gradio Demo for Video Descriptions
python demo_video.py

📌Лицензирование моделей: NVIDIA Noncommercial License.

📌Лицензирование кода : Apache 2.0 License.


🟡Страница проекта
🟡Набор моделей
🟡Demo
🟡Arxiv
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #DAM #NVIDIA #Annotation
23.04.2025, 14:00
t.me/ai_machinelearning_big_data/7436
AI
Machinelearning
156.3K подписчиков
1
2
23.04.2025, 14:00
t.me/ai_machinelearning_big_data/7437
AI
Machinelearning
156.3K подписчиков
1
✔️ OpenAI добавляет невидимые символы в инференс моделей o3 и o4-mini.

Платные подписчики ChatGPT получили доступ к обновлённым моделям o3 и o4-mini в середине апреля, но пользователи быстро заметили странности: в длинных текстах появляются невидимые Unicode-символы - "Неразрывные пробелы" (U+202F). Они выглядят как обычные пробелы, но обнаруживаются через специальные инструменты.

Стартап RumiAI проанализировал ситуацию и предположил, что это попытка добавить водяные знаки для отслеживания ИИ-генерации. Однако символы легко удалить через поиск-замену, что ставит под вопрос их эффективность. Альтернативная версия — модели просто переняли форматирование из обучающих данных, где неразрывные пробелы используются для предотвращения разрывов строк.

OpenAI пока не дала никаких комментариев о причинах появления непечатных символов в результатах генерации.
winbuzzer.com

✔️ CharacterAI запускает AvatarFX: генерация видео с ИИ.

CharacterAI представила AvatarFX — систему, которая превращает изображения в говорящие, поющие и эмоционирущие видео за пару кликов. Технология сочетает фотореализм, синхронизацию движений губ, тела и рук, а также поддержку длинных роликов.

Под капотом — модифицированная архитектура DiT с flow-based диффузионными моделями, которые обучаются на разнообразных данных: от реалистичных людей до анимированных объектов. От конкурентов систему отличает работа с готовыми изображениями (не только текстовыми описаниями), поддержка нескольких говорящих в кадре и стабильность анимации.
Первыми доступ к AvatarFX получат подписчики CAI+. Остальным придется подождать или записаться в лист ожидания.
blog.character.ai

✔️ Dia: открытая ИИ-модель для генерации речи с контролем над интонацией и невербальными элементами.

Два корейских студента без глубокого опыта в ИИ разработали Dia — модель для создания подкаст-диалогов, способную конкурировать с Google NotebookLM. Используя TPU от Google, они обучили модель на 1,6 млрд. параметров, которая позволяет настраивать тон голоса, добавлять паузы, смех и клонировать голоса.

Dia доступна на Hugging Face и GitHub, для запуска на ПК нужен GPU от 10 ГБ VRAM. В отличие от аналогов, Dia даёт пользователям контроль над сценарием: можно прописать реплики, выбрать «характер» говорящего или загрузить образец для клонирования. Короткое тестирование, проведенное редакцией TechCrunch показало, что Dia справляется с диалогами на любые темы, а качество голосов не уступает коммерческим решениям.
techcrunch.com

✔️ Physical Intelligence выпустила модель для робототехники π-0,5.

Physical Intelligence представила модель π0.5 — шаг к роботам, которые справляются с задачами в совершенно новых условиях. В отличие от предшественников, эта система на базе VLA обучалась на разнородных данных: от распознавания объектов до демо движений роботов. Это позволяет ей понимать не только как действовать, но и что именно делать в незнакомой среде — например, класть посуду в раковину, даже если раньше её не видела.

Модель анализирует семантику задачи, разбивает её на шаги и генерирует команды для моторных систем. π0.5 умеет реагировать и на голосовые команды разной детализации — от «убери посуду» до точечных указаний. В планах — улучшение автономного обучения и запросов помощи в сложных ситуациях.
physicalintelligence.company

✔️ Фильмы с ИИ смогут претендовать на «Оскар».

Академия киноискусств официально разрешила номинировать на «Оскар» фильмы, созданные с использованием ИИ. Как заявили организаторы, технологии генеративного ИИ не станут преимуществом или препятствием при оценке. Но теперь, чтобы голосовать в финале, члены Академии обязаны посмотреть все номинированные работы — это часть новых правил.

Несмотря на прогресс, споры вокруг ИИ не утихают. Актеры и сценаристы опасаются, что алгоритмы заменят их в создании сценариев или дубляжа. Хотя некоторые студии уже внедряют ИИ, аниматоры и режиссеры сомневаются: технологии пока не способны конкурировать с эмоциональной глубиной человеческой работы.
bbc.com

@ai_machinelearning_big_data

#news #ai #ml
23.04.2025, 10:56
t.me/ai_machinelearning_big_data/7435
AI
Machinelearning
156.3K подписчиков
120
8.8 k
22.04.2025, 15:05
t.me/ai_machinelearning_big_data/7433
AI
Machinelearning
156.3K подписчиков
120
8.3 k
22.04.2025, 15:05
t.me/ai_machinelearning_big_data/7430
AI
Machinelearning
156.3K подписчиков
120
8.2 k
22.04.2025, 15:05
t.me/ai_machinelearning_big_data/7431
AI
Machinelearning
156.3K подписчиков
122
8.7 k
22.04.2025, 15:05
t.me/ai_machinelearning_big_data/7432
AI
Machinelearning
156.3K подписчиков
120
8.8 k
22.04.2025, 15:05
t.me/ai_machinelearning_big_data/7434
AI
Machinelearning
156.3K подписчиков
57
123
6.7 k
🌟 CoMotion: одновременное отслеживание движения нескольких людей в видео.

CoMotion - метод, разработанный Apple для одновременного отслеживания 3D-движений нескольких людей, который принципиально отличается от покадрового обнаружения и классических способов трекинга.

CoMotion использует рекуррентную модель, которая поддерживает набор отслеживаемых 3D-поз и обновляет их при поступлении нового кадра, непосредственно анализируя пиксели изображения. Способность использовать визуальные подсказки вкупе с парадигмой tracking by attention позволяет CoMotion эффективно отслеживать перекрывающихся и временно исчезающих из виду людей.

Архитектура CoMotion состоит из модуля обнаружения (он определяет кандидатов на новые треки) и модуля обновления поз (корректирует позы существующих треков). Оба модуля работают с признаками изображения, извлеченными с помощью стандартной модели ConvNextV2. Модуль обновления поз использует cross-attention к признакам изображения для каждого трека, опираясь на предыдущие состояния, и применяет GRU для рекуррентного обновления скрытых состояний.

Прогнозирование 3D-поз выполняется путем параметризации модели SMPL, а управление треками основано на эвристических правилах, использующих модифицированную метрику Object Keypoint Similarity (OKS).

Модель CoMotion обучается в 3 этапа. Первый - предварительное обучение энкодера и модуля обнаружения на больших наборах данных отдельных изображений (псевдо-размеченные InstaVariety, COCO, MPII и синтетический BEDLAM). Второй - обучение модуля обновления поз на коротких видео из BEDLAM, WHAC-A-MOLE и размеченных PoseTrack и DanceTrack. На финальном этапе обучение модуля обновления поз продолжается на более длинных видеопоследовательностях.

Экспериментальная оценка CoMotion проводилась на стандартных бенчмарках для отслеживания и оценки поз. На PoseTrack21 CoMotion показал значительное улучшение метрик (MOTA на 14% и IDF1 на 12%). При этом CoMotion работает на порядок быстрее, чем сопоставимая система 4DHumans.

▶️Локальный инференс:

# Clone the repo
git clone https://github.com/apple/ml-comotion.git
cd ml-comotion

# Create a conda env
conda create -n comotion -y python=3.10
conda activate comotion

# Install dependencies
pip install -e

# Download models
bash get_pretrained_models.sh

# Run CoMotion
python demo.py -i path/to/video.mp4 -o results/

📌Лицензирование: Apple License.


🟡Модель
🟡Техотчет
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #3DTracking #CoMotion #Apple
22.04.2025, 15:05
t.me/ai_machinelearning_big_data/7429
AI
Machinelearning
156.3K подписчиков
179
9.7 k
22.04.2025, 12:03
t.me/ai_machinelearning_big_data/7428
AI
Machinelearning
156.3K подписчиков
179
9.7 k
22.04.2025, 12:03
t.me/ai_machinelearning_big_data/7427
AI
Machinelearning
156.3K подписчиков
69
183
8.9 k
📌 Miras: как улучшить модели через память и внимание.

Google Research опубликовал интересную статью «It’s All Connected», в которой предлагают решение проблемы квадратичной сложности трансформеров в обработке последовательностей : фреймворк Miras, который объединяет онлайн-оптимизацию, управление памятью и внимание в единую систему, что в итоге позволяет создавать более эффективные модели.

Miras — это 4 компонента: архитектура памяти, целевая функция (смещение внимания), регуляризация удержания и алгоритм обучения. Miras позволяет экспериментировать с loss-функциями (Huber loss для устойчивости к выбросам) и регуляризацией (KL-дивергенция, Elastic Net).

С помощью Miras были созданы 3 тестовые модели — Moneta, Yaad и Memora. Moneta использует Lp-нормы для баланса между запоминанием и устойчивостью, Yaad комбинирует L1 и L2 через Huber loss, а Memora применяет Softmax с KL-регуляризацией.

В экспериментах тестовые модели обошли трансформеры и современные RNN на задачах языкового моделирования и поиска информации в длинных контекстах. На тесте «иголка в стоге сена» (8K токенов) Moneta достигла точности 98.8%, тогда как Mamba2 — лишь 31%.

Статья не просто теоретическое изыскание — это практическое руководство для разработки моделей. Четкая структура Miras помогает систематизировать существующие подходы и экспериментировать с компонентами. Например, замена регуляризации на Elastic Net или Bregman divergence может улучшить управление памятью в нишевых задачах.

Miras — шаг к более осмысленному проектированию архитектур. Если трансформеры — это «кувалда» для масштаба, то описанный в статье подход Google Research - хирургический инструмент, где каждый компонент настраивается под конкретную задачу.

🟡Arxiv

@ai_machinelearning_big_data
22.04.2025, 12:03
t.me/ai_machinelearning_big_data/7426
AI
Machinelearning
156.3K подписчиков
44
39
8.8 k
Занимаетесь робототехникой или искусственным интеллектом? Тогда вам точно стоит посетить ROS Meetup 2025! 🤖

26 апреля в Москве соберётся всё ROS-сообщество, чтобы обменяться опытом в области робототехники, искусственного интеллекта и практического применения ROS. Вас ждут актуальные доклады от ведущих специалистов, увлекательные дискуссии и выставка роботов. Не упустите возможность завести новые знакомства среди единомышленников.

Обязательно добавьте в календарь 26 апреля — будет познавательно и захватывающе!
22.04.2025, 11:02
t.me/ai_machinelearning_big_data/7425
AI
Machinelearning
156.3K подписчиков
64
99
9.9 k
✔️ Модели Stable Diffusion получили оптимизацию для AMD.

Stability AI совместно с AMD оптимизировали линейку моделей Stable Diffusion для работы на GPU Radeon и APU Ryzen AI. Инженеры использовали ONNX-формат, чтобы повысить скорость генерации без потери качества изображений.

Оптимизация SD3.5 и SDXL и их Turbo-версий показала прирост производительности до 2,6x и 3,8x соответственно — по сравнению с базовыми реализациями на PyTorch. Обновленные модели совместимы со средами, поддерживающими ONNX Runtime, имеют суффикс amdgpu в названии и доступны на Hugging Face.
stability.ai

✔️ Intel презентовала техпроцесс 18A.

Intel представила долгожданный техпроцесс 18A, который может стать поворотным моментом для ее foundry-подразделения. Согласно техотчету, новинка обходит Intel 3 по ключевым параметрам: прирост плотности на 30%, повышение скорости на 25% и сокращение энергопотребления на 36% для ядер Arm. Основой успеха стали RibbonFET (транзисторы с gate-all-around) и PowerVia — технология обратного питания, которая стабилизирует подачу напряжения и освобождает место для компактного размещения элементов.

18A демонстрирует плотность SRAM, аналогичную TSMC N2, что выводит Intel в прямые конкуренты тайваньскому гиганту. Уже в 2025 году процесс планируют использовать в SoC Panther Lake, а к 2026-му — в серверных Xeon Clearwater Forest. Пока же инженеры и аналитики ждут первых образцов — проверить, оправдаются ли заявленные характеристики в реальных продуктах.
wccftech.com

✔️ Apple представила функцию Clean Up для удаления объектов на фото.

Несмотря на перенос части функций Apple Intelligence, компания активно продвигает готовые решения. В новом рекламном ролике Apple показала работу инструмента Clean Up в приложении Photos: он позволяет убрать элементы фона, сохранив основной объект.

Функция уже доступна на iPhone 16, 15 Pro/Pro Max, iPad с чипами A17 Pro/M1 и новее, а также Mac на M1 и позднее. Требуются iOS 18.1, iPadOS 18.1 или macOS Sequoia 15.1.
9to5mac.com

✔️ ОАЭ будут использовать ИИ для законотворчества.

Объединенные Арабские Эмираты (ОАЭ) станут первой страной в мире, где ИИ будет использоваться для разработки новых и пересмотра существующих законов. Ожидается, что эта инициатива повысит эффективность законодательного процесса на 70 %.

Правительство ОАЭ одобрило создание Управления по регулированию и интеллекту - нового органа, которому поручено использовать ИИ для анализа существующих федеральных и местных законов, судебных решений, исполнительных процедур, государственных услуг и социально-экономических последствий законодательства.
ft.com

✔️ Magi-1: модель генерации полнометражного видео с 24B параметров.

Sand AI выпустила Magi-1, первую в истории Text-to-Video модель с 24 млрд. параметров, разработанную специально для создания видео. Magi-1 опубликована в открытом доступе и позволяет создавать высококачественные полнометражные видеоролики с исключительной реалистичностью, плавностью и тонким контролем над видеосценами.
Черрипики и результаты тестов в популярных бенчмарках превосходны. Попробовать можно в демо-спейсе.
sand.ai

✔️ Dia — это новая открытая модель текст‑в‑речь от Nari Labs с 1.6 млрд параметров, способная генерировать полноформатный диалог с богатой звуковой экспрессией за один проход

Эмоции и тон. Можно задавать тональность и интонацию через udio prompt, а также управлять «невербалкой»: смех, кашель, вздохи и т. д. Для запуска нужно ≈10 GB VRAM, на A4000 GPU, ~40 токенов/с.
Demo / Github / HF

@ai_machinelearning_big_data

#news #ai #ml
22.04.2025, 09:22
t.me/ai_machinelearning_big_data/7424
AI
Machinelearning
156.3K подписчиков
55
12 k
21.04.2025, 20:21
t.me/ai_machinelearning_big_data/7422
AI
Machinelearning
156.3K подписчиков
55
12 k
21.04.2025, 20:21
t.me/ai_machinelearning_big_data/7423
AI
Machinelearning
156.3K подписчиков
75
56
9.9 k
✨ «Values in the Wild»: глубокое погружение в ценностные ориентиры ИИ

В новом исследовании Anthropic команда провела первый в своём роде анализ «выхлопа» языковой модели Claude 3/3.5, чтобы понять, какие именно нормативные ценности она проявляет в реальных диалогах. Вот суть для специалистов по машинному обучению:

✔️ Задача
Выявить и таксономизировать ценности, на которых основаны ответы Claude, когда модель без прикрас взаимодействует с запросами пользователей.

🌟 Методология

Проанализировано 308 210 анонимизированных сессий Claude (18–25 февраля 2025).

Ценности извлекались автоматически «защитным» пайплайном, без прямого доступа людей к чату.

Собрана таксономия из 3 307 уникальных понятий, сгруппированных в пять крупных доменов: практические, эпистемические, социальные, защитные и личностные.

🌟 Ключевые выводы

Практика и знание. Более 50 % упоминаний — «эффективность», «точность», «прозрачность» и «профессионализм».

Контекстуальная гибкость. В разговоре об отношениях модель ценит «личные границы», в этических дискуссиях — «автономию человека».

Типы реакции. В большинстве случаев Claude поддерживает ценности пользователя, однако в ~3 % диалогов она «сопротивляется», отстаивая «предотвращение вреда» выше нарушений инструкций.

💡 Значение для ML‑практики

Составлена карта ценностей, которая позволяет выявлять «узкие места» alignment‑стратегий.

Таксономия и статистика реакций помогают прогнозировать поведение LLM в разных сценариях и проектировать более надёжные системы.

Подход демонстрирует, как можно сочетать автоматический анализ и приватность данных для глубокой оценки качественных характеристик модели.

🔜 Подробнее в полном тексте исследования:
https://anthropic.com/research/values-wild

🔜 Это ссылка на открытый датасет, в котором собраны все «ценности», выявленные у модели Claude 3/3.5 в исследовании «Values in the Wild».

@ai_machinelearning_big_data


#Anthropic #Claude
21.04.2025, 20:21
t.me/ai_machinelearning_big_data/7421
AI
Machinelearning
156.3K подписчиков
117
354
13 k
🔥 Text‑to‑FILM становится реальностью!

SkyReels‑V2 - опенсорс генератор видео из текста, который не только соперничает с лучшими закрытыми решениями, но и предлагает уникальное преимущество — теоретически неограниченную длину генераций.

✔️ Что умеет SkyReels V2:

- Story Generation: полный конвейер от генерации текста до последовательного сюжета для видео.
- Image‑to‑Video
- Camera Director: управление виртуальной камерой — смена углов, зум, трекинг.
- Elements‑to‑Video: генерация отдельных объектов или эффектов, которые затем интегрируются в общий видеоряд.

🌟 Режимы инференса: поддерживаются как синхронный (full‑sequence diffusion), так и асинхронный (Diffusion Forcing) режимы для гибкой работы на разных GPU-конфигурациях

На бенчмарках SkyReels V2 лидирует среди открытых моделей на VBench с 83.9%, оставляя позади Wan2.1, HunyuanVideo и OpenSora 2.0.


Попробовать
Github
Technical Report
Hugging Face
ModelScope

@ai_machinelearning_big_data


#AI #TextToFilm #VideoGeneration #SkyReelsV2 #MachineLearning
21.04.2025, 14:05
t.me/ai_machinelearning_big_data/7417
AI
Machinelearning
156.3K подписчиков
346
14 k
21.04.2025, 14:05
t.me/ai_machinelearning_big_data/7420
AI
Machinelearning
156.3K подписчиков
344
14 k
21.04.2025, 14:05
t.me/ai_machinelearning_big_data/7419
AI
Machinelearning
156.3K подписчиков
344
14 k
21.04.2025, 14:05
t.me/ai_machinelearning_big_data/7418
AI
Machinelearning
156.3K подписчиков
139
68
13 k
А ничего тот факт, что Сбер приглашает тебя на One Day Offer для DS/ML/DE специалистов? 😏

Ты будешь работать над рекомендательной платформой: масштабируемой, способной каждый день удивлять пользователей и предлагать им релевантные рекомендации.

Добавляй в свой календарь 26 апреля, регистрируйся по ссылке и готовься пройти отбор в команду мечты за один день!
21.04.2025, 13:04
t.me/ai_machinelearning_big_data/7416
AI
Machinelearning
156.3K подписчиков
278
14 k
21.04.2025, 10:43
t.me/ai_machinelearning_big_data/7415
AI
Machinelearning
156.3K подписчиков
98
278
12 k
📌Обучение с подкреплением: как языковые модели учатся рассуждать.

Объемная и интересная статья Sebastian Raschka, автора книги "Build a Large Language Model From Scratch" о тенденциях и проблемах современных методов обучения LLM через призму RL.

В мире LLM последние месяцы стали переломными. Релизы GPT-4.5 и Llama 4, вопреки ожиданиям, не вызвали ажиотажа — все потому, что эти модели остались «классическими», без продвинутых методов обучения для рассуждений. Их конкуренты - xAI и Anthropic уже добавили кнопки «расширенного мышления», а OpenAI представила o3 — модель, где упор сделан на стратегическое применение вычислений через обучение с подкреплением. Становится ясно: масштабирование данных и параметров почти исчерпало себя, и будущее за RL.

Основной инструмент RLHF (обучение с подкреплением на основе человеческой обратной связи) давно используется для настройки LLM под предпочтения людей. Но для задач, требующих логики, этого недостаточно.

Здесь на сцену выходит GRPO — модификация алгоритма PPO, которая экономит ресурсы, убирая «критика» (модель оценки вознаграждения). Так создавалась DeepSeek-R1-Zero, ее обучали вообще без этапа SFT, используя только автоматические проверки ответов. Если математическая задача решена верно, модель получает «плюс», если нет — «минус». Такой подход не только дешевле, но и снижает риск «обмана» модели (reward hacking).

Но и RL — не панацея. Исследования показывают, что PPO и GRPO неявно поощряют длинные ответы, даже если те ошибочны. Например, при отрицательном вознаграждении штраф распределяется по токенам, и модель учится растягивать текст, чтобы смягчить наказание.

Решения уже есть: одни команды вводят штрафы за длину, другие меняют расчет преимуществ. А модель L1 от Kaggle и вовсе позволяет пользователям задавать желаемую длину ответа, балансируя между точностью и затратами.

Способность к рассуждениям может возникать и без RL. DeepSeek V3 демонстрирует мыслительные «озарения», хотя ее не обучали специально. Этот факт всерьез ставит под вопрос исключительную роль RL — возможно, все дело в данных, где уже есть цепочки логических шагов.

Тем не менее, RL усиливает эти способности: модели начинают самокорректироваться, использовать внешние инструменты (калькуляторы, поиск) и даже переносить навыки между доменами — от математики до медицины.

Некоторые заявления о прогрессе оказались преувеличены: улучшения на мелких моделях часто нестабильны, а результаты зависят от случайных факторов вроде выбора сида. Кроме того, RL требует внушительных ресурсов (o3 от OpenAI потратила при обучении в 10 раз больше вычислений, чем предыдущая версия)

В итоге, RL остается ключевым направлением, но важно избегать «эйфории». Сочетание RL с автоматической проверкой ответов, контроль длины и гибридные подходы (как в DeepSeek-R1) — вот что приближает нас к моделям, которые не просто генерируют текст, а действительно думают.

🔜 Читать статью в оригинале


@ai_machinelearning_big_data

#AI #ML #LLM #RL
21.04.2025, 10:43
t.me/ai_machinelearning_big_data/7414
AI
Machinelearning
156.3K подписчиков
77
56
13 k
Учите машины учиться? Тогда вам на IML

🗓️16–17 мая
📍 Питер + онлайн

IML — конференция для всех, кто использует ML в проектах. Здесь собираются ML-инженеры, дата-сайентисты, исследователи, аналитики и разработчики.

В этот раз вас ждет двухдневный технологический хардкор об NLP, RecSys, MLOps и Computer Vision. С докладами выступят спикеры из Яндекса, Positive Technologies, Т-Банка, Точки и других известных компаний.

А вот что с билетами:
→ Дают скидку 15% на билет для частных лиц по промокоду MACHINELEARNING
→ Есть билет для студентов и преподавателей вузов — в два раза дешевле персонального
→ Можно попросить руководство приобрести корпоративный билет

Бонус: в соседних залах пройдет Python-конференция PiterPy. Участники IML смогут послушать доклады PiterPy бесплатно.

За подробностями и билетами
21.04.2025, 09:44
t.me/ai_machinelearning_big_data/7413
AI
Machinelearning
156.3K подписчиков
139
201
14 k
🌟 HunyuanPortrait

Новая технология от Hunyuan, превращающая статичные изображения в реалистичную анимацию с беспрецедентной чёткостью и стабильностью!

🆕 Что нового?
1⃣ Статичное изображение превращается → живое видео
2⃣ Высокая реалистичность: Implicit Control + Stable Video Diffusion
3⃣ Плавность и сверхчёткая детализация в анимации лица и головы

Легко адаптируется под любые стили изображений.

Анимация создается по одному фото, нужен только видео-референс в качестве шаблона для генерации.

✅ Работает в один клик
✅ Синхронные мимика и движения головы
✅ Сохраняется черте даже при смене стиля

🟡 Проект
🟡 ArXiv
🟡Github (Коммент от разработчиков - проходим внутреннюю проверку перед открытым исходным релизом и загрузим код и веса сразу после её завершения.)

#Hunyuan
20.04.2025, 19:03
t.me/ai_machinelearning_big_data/7412
AI
Machinelearning
156.3K подписчиков
121
163
14 k
✔️ o3 и o4-mini могут определять местоположение на фотографиях.

Пользователи ChatGPT применяют новые возможности анализа изображений o3 и o4-mini для определения местоположения, изображенного на фотографиях. Модели позволяют проводить детальный визуальный анализ изображений, чтобы определить местоположение на основе визуальных признаков без метаданных.

Тенденция, набирающая популярность в соцсетях, заключается в том, что пользователи загружают фотографии в ChatGPT и предлагают ИИ сыграть в игру, похожую на GeoGuessr, где он угадывает местоположение по изображению. Способность ИИ точно определять местоположение вызывает тревогу по поводу возможного злоупотребления и риска домогательства к людям через их фото в социальных сетях.
techradar.com

✔️ Google Gemma 3 QAT: мощный ИИ теперь на домашних GPU.

Google представила Gemma 3 QAT — новое поколение открытых моделей с квантованием, которое позволяет запускать их на обычных GPU. Благодаря Quantization-Aware Training (QAT) параметры моделей сжимаются в 4 раза (до 4 бит) без серьезной потери качества. Например, 27B-версия занимает всего 14 ГБ памяти вместо 54 ГБ, что делает ее доступной для RTX 3090, 12B работает на ноутбучных GPU RTX 4060, а компактные 4B и 1B версии — даже на смартфонах.

Модели совместимы с Ollama, LM Studio, MLX для Apple Silicon и llama.cpp. На Hugging Face и Kaggle доступны квантованные варианты в форматах Q4_0 и int4.
developers.googleblog.com

✔️ Netflix тестирует ИИ-поиск, который подбирает контент по настроению.

Netflix экспериментирует с новой функцией поиска на базе OpenAI, способной понимать естественный язык. Вместо стандартных запросов по жанрам или актерам пользователи смогут искать контент, описывая свое настроение или конкретные предпочтения простыми словами, например, «фильмы для грустного вечера». Тест запущен в Австралии и Новой Зеландии для iOS-устройств, а в ближайшие месяцы дойдет до США.
macrumors.com

✔️ IBM представила серию моделей Granite 3.3 с распознаванием речи.

IBM выпустила новое поколение моделей Granite 3.3, в котором нибольший интерес представляет Granite Speech 3.3 8B — компактная система для преобразования речи в текст (ASR) и перевода (AST). Модель, построенная на базе Instruct 8B, показала повышенную точность и меньшее количество ошибок в транскрипции, обгоняя даже закрытые аналоги вроде GPT-4o и Gemini 2.0 Flash.

В опенсорс опубликованы версии 8B и 2B, которые можно дорабатывать под конкретные задачи. Granite Speech поддерживает перевод с английского на 7 языков, а для интеграции RAG-функций IBM выпустила LoRA-адаптеры в рамках проекта Granite Experiments на Hugging Face.

Пока аудиоэнкодер работает только с английским, но в планах — мультиязычная поддержка, улучшение качества данных и добавление распознавания эмоций в речи. Параллельно компания уже тренирует Granite 4.0 с увеличенной скоростью и длиной контекста.
ibm.com

✔️ Together AI выпустила Open Deep Research, инструмент для структурированного анализа данных в вебе.

Together AI представила Open Deep Research — фреймворк для многошагового веб-поиска с открытым кодом. В отличие от обычных поисковиков, инструмент генерирует структурированные отчеты с цитатами, а не списки ссылок. Архитектура системы прозрачна: код, датасеты и модели доступны всем, а в основе — решения от Alibaba, Llama и DeepSeek.

Работает инструмент в 4 этапа: планирование, сбор данных через API Tavily, проверка и формирование ответа. Готовые отчtты выводятся в HTML с графиками (Mermaid JS) и иллюстрациями, созданными в Flux. Есть даже режим подкаста — текст озвучивается моделями Cartesia’s Sonic.

Together AI сделала систему модульной — разработчики могут менять модели, источники данных или добавлять форматы.
together.ai

@ai_machinelearning_big_data

#news #ai #ml
20.04.2025, 12:39
t.me/ai_machinelearning_big_data/7411
AI
Machinelearning
156.3K подписчиков
372
13 k
19.04.2025, 11:03
t.me/ai_machinelearning_big_data/7408
AI
Machinelearning
156.3K подписчиков
151
373
12 k
🔥 ​Google представила InstructPipe — AI‑редактор ML‑пайплайнов, работающий через текстовые запросы.

❔ Что такое InstructPipe?
InstructPipe — это AI-ассистент, который преобразует текстовые команды в визуальные блок-схемы, представляющие собой пайплайны машинного обучения.

Система использует два модуля больших языковых моделей (LLM) и интерпретатор кода для генерации псевдокода и его визуализации в редакторе графов.​

Это low-code подход: вы просто соединяете готовые компоненты (ноды) без написания кодп.

🌟 Как это работает?
1️⃣Пользователь вводит текстовую инструкцию, описывающую желаемый пайплайн.

2️⃣ LLM модули обрабатывают инструкцию и генерируют соответствующий псевдокод.

3️⃣Интерпретатор кода преобразует псевдокод в визуальную блок-схему, которую можно редактировать и настраивать.​

✔️ Преимущества InstructPipe

🟡 Доступность: Позволяет новичкам в программировании создавать сложные ML пайплайны без необходимости писать код.

🟡Гибкость: Принимает на выход текстовое описание в любом виде, нет строго формата.

🟡Снижение порога входа: Упрощает процесс обучения и прототипирования мл проектов.

🔜 Подробнее

@ai_machinelearning_big_data

#Google #InstructPipe
19.04.2025, 11:03
t.me/ai_machinelearning_big_data/7407
AI
Machinelearning
156.3K подписчиков
373
14 k
19.04.2025, 11:03
t.me/ai_machinelearning_big_data/7410
AI
Machinelearning
156.3K подписчиков
372
14 k
19.04.2025, 11:03
t.me/ai_machinelearning_big_data/7409
AI
Machinelearning
156.3K подписчиков
805
11 k
18.04.2025, 19:40
t.me/ai_machinelearning_big_data/7402
AI
Machinelearning
156.3K подписчиков
807
12 k
18.04.2025, 19:40
t.me/ai_machinelearning_big_data/7404
AI
Machinelearning
156.3K подписчиков
127
808
11 k
🔥 Kaggle и Google выпустили мини-курс генеративному ИИ!

С 31 марта по 4 апреля 2025 года на Kaggle прошел ряд интенсивов по генеративному ИИ, теперь все материалы с доступны для самостоятельного обучения.

✔️ Что внутри:
🟡День 1: Основы генеративного ИИ и инженерия промптов

Изучите эволюцию больших языковых моделей (LLM), от трансформеров до методов ускорения инференса.

Описание техник создания эффективных промптов для взаимодействия с ИИ.​

🟡День 2: Интеграция с API и практическое применение

Вы научитесь использовать API LLM, для создания интерактивных приложений.

Реализуйте проекты с использованием Retrieval-Augmented Generation (RAG) и семантического поиска.​

🟡День 3: Работа с векторными базами данных

Настройте векторные базы данных для эффективного хранения и поиска информации.

Примените эмбеддинги для улучшения качества генерации текста.​

🟡День 4: Создание персонализированных ИИ-ассистентов

Разработайте персонализированных ИИ-ассистентов, способных отвечать на сложные запросы.

Используйте передовые методы генерации для создания реалистичных диалогов.​

🟡День 5: Проект

Примените полученные знания в финальном проекте, продемонстрировав свои навыки в области генеративного ИИ.​

🧠 Примеры проектов:
- AI Health Assistant: - Персонализированный медицинский помощник, использующий RAG и семантический поиск для предоставления точной информации. ​
Kaggle
- NewsGenius AI: Интеллектуальный агрегатор новостей, анализирующий и обобщающий актуальные события. ​

🔗 Курс
18.04.2025, 19:40
t.me/ai_machinelearning_big_data/7401
AI
Machinelearning
156.3K подписчиков
806
13 k
18.04.2025, 19:40
t.me/ai_machinelearning_big_data/7405
AI
Machinelearning
156.3K подписчиков
806
13 k
18.04.2025, 19:40
t.me/ai_machinelearning_big_data/7406
AI
Machinelearning
156.3K подписчиков
806
11 k
18.04.2025, 19:40
t.me/ai_machinelearning_big_data/7403
AI
Machinelearning
156.3K подписчиков
76
43
12 k
Большие языковые модели (LLM) — это не будущее, а настоящее бизнеса. Пока одни спорят, заменит ли ИИ людей, другие уже активно внедряют его в процессы.

В МТС тоже прошли этот путь и уже внедрили LLM в 30 продуктов экосистемы, а теперь превратили опыт в готовую платформу, которая позволяет тестировать языковые модели.

На вебинаре эксперты MWS расскажут, почему разработка платформы для инференса LLM с нуля не всегда лучший выбор и как MWS GPT может упростить и ускорить работу с большими языковыми моделями.

А еще обсудим:

🔴Что нужно для построения надёжной промышленной платформы для инференса LLM

🔴Какие специалисты требуются для создания такой платформы

🔴Как развивалась платформа внутри МТС

🔴Какие подводные камни возникают при создании собственной платформы для инференса LLM

🔗 Регистрируйтесь и приходите на эфир!
🎁 Задавайте вопросы в чате трансляции — за лучший вопрос будет подарок от команды!
18.04.2025, 18:40
t.me/ai_machinelearning_big_data/7400
AI
Machinelearning
156.3K подписчиков
139
11 k
18.04.2025, 17:00
t.me/ai_machinelearning_big_data/7398
AI
Machinelearning
156.3K подписчиков
92
143
8.9 k
⚡️ FAIR опубликовала новые инструменты для восприятия и взаимодействия ИИ с миром.

Команда Fundamental AI Research (FAIR) компании Марка Цукерберга представила серию новых разработок: методики и модели, улучшающие компьютерное зрение, 3D-локализацию объектов и совместное обучение языковых агентов. Все модели, техотчеты, датасеты и код этих проектов уже доступны на платформах Hugging Face и GitHub.

🔜 Perception Encoder: «Глаза» для ИИ нового поколения

Perception Encoder - новый виток развития в сфере обработки визуальной информации. Модель, обученная с помощью этой методики на масштабных данных, превосходит аналоги в задачах классификации изображений и видео, включая сложные сценарии — распознавание ската, зарывшегося в морское дно, или крошечной птицы на заднем плане снимка. Благодаря интеграции с LLM, Encoder улучшает ответы на визуальные вопросы, описание сцен и понимание пространственных отношений между объектами.
🟡Модель 🖥Github🟡Датасет🟡Техотчет

🔜 Perception Language Model: Расширенное понимание задач визуального восприятия.

Для задач, требующих анализа видео и текста, Meta выпустила Perception Language Model (PLM). Ее обучали на 2,5 млн. новых аннотированных видеозаписей — это крупнейший датасет для понимания действий и контекста в динамике. PLM доступна в трёх вариантах (1, 3 и 8 млрд параметров). Дополнительный бонус — PLM-VideoBench, бенчмарк для оценки тонкого понимания сцен, который заполняет пробелы существующих тестов.
🟡Модель 🖥GitHub 🟡Датасет 🟡Техотчет

🔜 Locate 3D: Роботы учатся «слышать» запросы.

Как заставить робот найти красную чашку на столе или вазу возле телевизора? Locate 3D решает эту задачу через анализ 3D-точечных облаков и текстовых подсказок. Модель учитывает пространственные связи и контекст, отличая «вазу у TV» от «вазы на столе». В основе — трехэтапный пайплайн: предобработка данных, кодирование 3D-сцены и декодирование запроса. Для обучения использовали 130 тыс. аннотаций из ARKitScenes и ScanNet, что вдвое увеличило объём доступных данных для локализации объектов.
🟡Модель 🟡Демо 🟡Датасет 🟡Техотчет

🔜 Dynamic Byte Latent Transformer: Эффективность без токенизации.

Dynamic Byte Latent Transformer - архитектура, которая работает на уровне байтов, а не токенов, что повышает устойчивость к ошибкам, ускоряет обработку и "отменяет" необходимость токенизации для масштабирования. На тесте CUTE модель показывает преимущество в +55 пунктов против традиционных подходов.
🟡Модель 🖥GitHub 🟡Техотчет

🔜 Collaborative Reasoner: ИИ-агенты учатся работать в команде.

Совместное решение задач — следующий этап развития ИИ. Collaborative Reasoner — это фреймворк, где два агента ведут диалог, чтобы прийти к общему решению. Они могут спорить, аргументировать и согласовывать ответы на сложные вопросы. Для обучения используют синтетические диалоги, которые генерирует сама модель. Результаты впечатляют: на некоторых задачах совместная работа даёт прирост эффективности до 29% по сравнению с одиночным агентом.
🖥GitHub 🟡Техотчет


🟢Статья


@ai_machinelearning_big_data

#AI #ML #LLM #CV #NLP #FAIR
18.04.2025, 17:00
t.me/ai_machinelearning_big_data/7394
AI
Machinelearning
156.3K подписчиков
140
12 k
18.04.2025, 17:00
t.me/ai_machinelearning_big_data/7397
AI
Machinelearning
156.3K подписчиков
139
11 k
18.04.2025, 17:00
t.me/ai_machinelearning_big_data/7399
AI
Machinelearning
156.3K подписчиков
139
11 k
18.04.2025, 17:00
t.me/ai_machinelearning_big_data/7395
AI
Machinelearning
156.3K подписчиков
140
11 k
18.04.2025, 17:00
t.me/ai_machinelearning_big_data/7396
AI
Machinelearning
156.3K подписчиков
40
27
9.5 k
Что лучше: получить 500 000 ₽ или пропуск в одно из крупнейших сообществ web3-энтузиастов и блокчейн-разработчиков? 😏

Победители блокчейн-хакатона DeFi Hack 2025 получат и то и другое. Для этого нужно только решить реальную бизнес-задачу Сбера и предложить лучшее инновационное решение.

🏆 Призовой фонд хакатона в 1 000 000 ₽ разделят между собой 3 участника/команды: 500 000 ₽, 300 000 ₽ и 200 000 ₽.

Приём заявок продлится до 12 мая — успейте собрать команду до 5 человек или принять участие соло! 👌
18.04.2025, 16:01
t.me/ai_machinelearning_big_data/7393
AI
Machinelearning
156.3K подписчиков
1
18.04.2025, 14:37
t.me/ai_machinelearning_big_data/7391
AI
Machinelearning
156.3K подписчиков
1
18.04.2025, 14:37
t.me/ai_machinelearning_big_data/7389
AI
Machinelearning
156.3K подписчиков
1
18.04.2025, 14:37
t.me/ai_machinelearning_big_data/7390
AI
Machinelearning
156.3K подписчиков
1
18.04.2025, 14:37
t.me/ai_machinelearning_big_data/7392
AI
Machinelearning
156.3K подписчиков
114
10 k
18.04.2025, 12:59
t.me/ai_machinelearning_big_data/7387
AI
Machinelearning
156.3K подписчиков
114
10 k
18.04.2025, 12:59
t.me/ai_machinelearning_big_data/7386
AI
Machinelearning
156.3K подписчиков
78
116
8.7 k
🌟 InstantCharacter — новый фреймворк от Hunyuan (Tencent) для стилизации любых персонажей.

Традиционные методы файн‑тюнинга моделей под конкретный образ персонажа обычно либо:
💬 деградируют качество генерации при сохранении идентичности (UNet‑подходы),
💬 либо требуют отдельного, ресурсоёмкого обучения для каждого персонажа

InstantCharacter решает обе проблемы сразу:
Высокое качество
- Построен на базе DiT-моделей, которые по качеству превосходят классические UNet‑архитектуры.

🔥 Гибкая персонализация.
Китайцы сделали адаптер с каскадными энкодерами‑трансформерами, который модулирует признаки персонажа и взаимодействует с латентным пространством DiT.

✔️ Масштабируемость
Фреймворк обучен и на огромном датасете - более 10 миллионов примеров, поделённых на парные и непарные (текст+изображение) примеры.

Трёхэтапное обучение:
🟢Предварительное обучение на низком разрешении без пар.
🟢Дообучениена парных примерах для консистентности.
🟢Финальная донастройка для текстового управления генерациями.

Результаты:
🟢на демке выдает высокое качество, персонажи плавно переходят в различыне стили и меняют позы.
🟢высокая консистентность и сохранение мелких деталей персонажа.
🟢легко управляется промптами без потери качества.

В сравнении с предыдущими подходами InstantCharacter задает высокую планку качества в задачах character-driven image generation.

🔜Попробуйте демку
🔜Project
🔜Аrxiv
🔜Github

@ai_machinelearning_big_data

#Hunyuan #Tencent #InstantCharacter
#OpenSource #AI #CharacterCustomization
18.04.2025, 12:59
t.me/ai_machinelearning_big_data/7383
AI
Machinelearning
156.3K подписчиков
114
9.6 k
18.04.2025, 12:59
t.me/ai_machinelearning_big_data/7384
AI
Machinelearning
156.3K подписчиков
114
11 k
18.04.2025, 12:59
t.me/ai_machinelearning_big_data/7388
AI
Machinelearning
156.3K подписчиков
114
10.0 k
18.04.2025, 12:59
t.me/ai_machinelearning_big_data/7385
AI
Machinelearning
156.3K подписчиков
68
60
9.5 k
🌟 Школа аналитиков данных от Big Data MWS признана лучшим образовательным проектом в области Data Science

О победе в премии «Data Fusion Awards 2025» в номинации «Data Fusion в образовании» сообщает МТС. Награда досталась проекту «Школа аналитиков данных», который уже три года успешно готовит специалистов в сфере Data Science.

Программа включает углубленное изучение Python, основы классического машинного обучения и методы создания ML-моделей для различных отраслей: геоаналитики, рекламы и финтеха. Обучение проходит через онлайн-вебинары, домашние задания и итоговые проекты под руководством экспертов центра Big Data MWS. Курс бесплатен и открыт для всех — от школьников до опытных IT-специалистов.

За 10 месяцев обучения студенты получают практические навыки и теоретические знания уровня Junior, необходимые для успешного старта карьеры. На третий поток поступило почти 5 тысяч заявок, а многие выпускники уже работают в Big Data MWS.

@ai_machinelearning_big_data
18.04.2025, 12:01
t.me/ai_machinelearning_big_data/7382
AI
Machinelearning
156.3K подписчиков
81
647
11 k
15 бесплатных книг по Data Science (часть 1)*

1. *Veridical Data Science*
👩‍🔬 Авторы: Bin Yu & Rebecca L. Barter
Описание: Введение в науку о данных (data science): как область возникла, как она развивается и какую роль играет в современном мире.
🔗 https://vdsbook.com/

2. *Data Science: Theories, Models, Algorithms, and Analytics*
📘 Автор: Sanjiv Ranjan Das
Описание: Учебник по DS с упором на алгоритмы и аналитику.
🔗 https://srdas.github.io/Papers/DSA_Book.pdf

3. *Think Python 3E*
🐍 Автор: Allen B. Downey
Описание: Современное введение в Python с нуля.
🔗 https://greenteapress.com/wp/think-python-3rd-edition/

4. *Python Data Science Handbook*
📊 Автор: Jake VanderPlas
Описание: Практика работы с NumPy, pandas, sklearn и визуализациями.
🔗 https://jakevdp.github.io/PythonDataScienceHandbook/

5. *R for Data Science*
📈 Авторы: Hadley Wickham и др.
Описание: Современный подход к анализу данных в R.
🔗 https://r4ds.hadley.nz/

6. *Think Stats 3E*
📐 Автор: Allen B. Downey
Описание: Статистика через Python и практику.
🔗 https://allendowney.github.io/ThinkStats/

7. *Statistics and Prediction Algorithms Through Case Studies*
📙 Автор: Rafael A. Irizarry
Описание: Кейсы по статистике и прогнозированию с кодом на R.
🔗 https://rafalab.github.io/dsbook/

8. *Bayesian Methods for Hackers*
🧠 Автор: Cameron Davidson-Pilon
Описание: Визуальное введение в байесовский анализ с PyMC.
🔗 https://github.com/CamDavidsonPilon/Probabilistic-Programming-and-Bayesian-Methods-for-Hackers

9. *Think Bayes 2E*
🔢 Автор: Allen B. Downey
Описание: Пошаговый байесовский подход на Python.
🔗 https://allendowney.github.io/ThinkBayes2/

10. *Data Science at the Command Line*
💻 Автор: Jeroen Janssens
Описание: Unix-инструменты как основа для анализа данных.
🔗 https://datascienceatthecommandline.com/

🔜 Математика для Data Scientist
11. Теория вероятностей
👩‍🔬 Автор: Чернова Н. И.
Описание: Понятное введение в теорию вероятностей, основа для изучения математической статистики.
🔗 http://www.nsu.ru/mmf/tvims/chernova/tv/tv_nsu07.pdf

12. * Математическая статистика*
👩‍🔬 Автор: Чернова Н. И.
Описание: Продолжение курса по теории вероятностей (НГУ), покрывающее основы математической статистики: оценки параметров, проверка гипотез, регрессионный анализ.
🔗 http://www.nsu.ru/mmf/tvims/chernova/ms/ms_nsu07.pdf

13. * Курс дифференциального и интегрального исчисления (Том 1)*
👩‍🔬 Автор: Фихтенгольц Г. М.
Описание: Фундаментальный и классический учебник по основам математического анализа.
🔗 http://math.ru/lib/book/djvu/fichtengolz/f_1.djvu

14.*Векторные исчисления для инженеров*
👩‍🔬 Автор:Jeffrey R. Chasnov
🔗 http://math.ru/lib/book/djvu/fichtengolz/f_1.djvu

15 .*Theory—Theoretical & Mathematical Foundations ;
👩‍🔬Daniel A. Roberts, Sho Yaida, Boris Hanin
Описание: Эта книга предлагает теоретический подход к анализу глубинных нейросетей с практической значимостью
🔗https://arxiv.org/abs/2106.10165

📘 Еще больше книг здесь

Сохраняйте себе, чтобы не потерять

@ai_machinelearning_big_data

#books #opensource #freebooks
18.04.2025, 11:37
t.me/ai_machinelearning_big_data/7381
AI
Machinelearning
156.3K подписчиков
92
45
11 k
✔️ Tesla показала суперкомпьютер Dojo.

Tesla опубликовала изображения своего суперкомпьютера Dojo - системы, созданной на заказ для обучения ИИ-моделей проекта полного автономного вождения (FSD). Фото были опубликованы 17 апреля не случайно - это совпало с недавним заявлением Илона Маска о расширении крупного вычислительного кластера в Giga Texas. Dojo полностью работает на чипах, разработанных Tesla.
TeslaAI в Х (ex-Twitter)

✔️ Chatbot Arena трансформируется в отдельную компанию Arena Intelligence Inc.

Популярная платформа для оценки ИИ-моделей Chatbot Arena, которую используют ведущие лаборатории ИИ, официально становится компанией Arena Intelligence Inc. Это позволит команде расширить ресурсы для развития сервиса, сохранив нейтралитет тестирования. Проект, запущенный в 2023 году исследователями из UC Berkeley, давно стал ключевым инструментом для сравнения языковых моделей — его рейтинги влияют на маркетинг и развитие ИИ.

До сих пор Chatbot Arena работала на грантах и спонсорской поддержке от Kaggle, Google, Andreessen Horowitz и Together AI.
bloomberg.com

✔️ Anthropic инвестирует 1 млн. долларов в Goodfire.

Anthropic впервые инвестировала в стартап, поддержав Goodfire. Инвестиционный раунд, возглавляемый Menlo Ventures, собрал в общей сложности 50 миллионов долларов, а Anthropic внесла 1 миллион долларов.

Goodfire специализируется на механистической интерпретации - методе, который помогает разработчикам понять, как работают системы ИИ, причем методы Goodfire считается более продвинутым, чем существующие инструменты, используемые Anthropic.
theinformation.com

✔️ Википедия выпустила датасет для обучения ИИ.

Википедия представила структурированный датасет на платформе Kaggle, чтобы облегчить разработчикам ИИ доступ к данным и снизить нагрузку на свою инфраструктуру. Вместо парсинга сырого текста ботамы, теперь доступны JSON-файлы на английском и французском языках с разделами статей, краткими описаниями, инфобоксами и ссылками на изображения.

Датасет оптимизирован для ML-задач: файнтюна моделей, анализа и тестирования. Это часть стратегии Викимедии, которая не только экономит ресурсы Википедии, но и упрощает работу с контентом — вместо борьбы с ботами разработчики получают готовый инструмент.
enterprise.wikimedia.com

✔️ Количество полностью сгенерированной ИИ-музыки выросло в 2 раза на платформе Deezer.

Deezer, французский музыкальный стриминговый сервис, сообщил, что около 18 % песен, загружаемых на его платформу, создаются ИИ. Этот показатель непрерывно растет: ежедневно на платформу загружается около 20 000 композиций, созданных искусственным интеллектом, что почти вдвое больше, чем 4 месяца назад.

Deezer внедрил инструмент обнаружения ИИ для выявления музыки, созданной с помощью Suno и Udio в январе 2025 года, когда ежедневное количество загружаемых песен, созданных ИИ, составляло около 10 000.
billboard.com

@ai_machinelearning_big_data

#news #ai #ml
18.04.2025, 09:49
t.me/ai_machinelearning_big_data/7380
AI
Machinelearning
156.3K подписчиков
264
16 k
17.04.2025, 22:52
t.me/ai_machinelearning_big_data/7379
AI
Machinelearning
156.3K подписчиков
186
267
17 k
🔥 Google только что выпустил Gemini 2.5 Flash

Ключевые особенности:

В 25 раз дешевле, чем Claude Sonnet 3.7 и Grok-3 и в 5–10 раз дешевле, чем Gemini‑2.5‑Pro.

Новая функция динамического «размышления» над сложными задачами.

Настраиваемый «бюджет мышления» (вы сами решаете, сколько токенов выделить на этап «размышлений»)

Делит #2, место на Арене вместе с GPT 4.5 Preview и Grok‑3.

🏆 Делит первое место в задачах Hard Prompts, Coding и Longer Query
💠 Входит в топ‑4 по всем категориям

Gemini Flash 2.5 — это лучшее соотношение цена/производительность. Google снова на высоте.

Бегом тестить

@ai_machinelearning_big_data

#Gemini
17.04.2025, 22:52
t.me/ai_machinelearning_big_data/7378
AI
Machinelearning
156.3K подписчиков
268
15 k
17.04.2025, 20:31
t.me/ai_machinelearning_big_data/7376
AI
Machinelearning
156.3K подписчиков
110
274
13 k
🔥 Wan2.1‑FLF2V 14B — это первая в серии Wan модель генерации видео, которая работает по принципу «First‑Last‑Frame»: достаточно задать начальный и конечный кадр, чтобы сгенерировать полноценный плавный плавный ролик.

✔️ Главное
🟢 Открытые код и веса.

🟢Полный контроль над сюжетом и композицией видео.

🟢 Точное следование инструкциям: модель умеет очень чётко.
«понимать» промпты и визуальные референсы.

🟢Плавные переходы с учётом физики: кадры переходят друг в друга без рывков, с реалистичной трактовкой законов движения и освещения.

🟢 Качество 720 p: готовый не требует дополнительной пост‑обработки.

🔜GitHub: https://github.com/Wan-Video/Wan2.1
🔜Hugging Face: https://huggingface.co/Wan-AI/Wan2.1-FLF2V-14B-720P
🔜Modelscope: https://modelscope.cn/models/Wan-AI/Wan2.1-FLF2V-14B-720P

@ai_machinelearning_big_data

#wan #AIGC #alart
17.04.2025, 20:31
t.me/ai_machinelearning_big_data/7375
AI
Machinelearning
156.3K подписчиков
268
15 k
17.04.2025, 20:31
t.me/ai_machinelearning_big_data/7377
AI
Machinelearning
156.3K подписчиков
94
95
12 k
Cloud․ru представил первый в России управляемый сервис для инференса больших языковых моделей в облаке с разделением GPU

Главные преимущества:
1️⃣ Shared GPU — вы можете разделять GPU-ресурсы и потреблять то количество vRAM (видеопамяти), которое необходимо для эффективной работы самой модели без задержек. Можно динамически перераспределять ресурсы в зависимости от текущих потребностей.

2️⃣ Простота и гибкость управления сервисом дают возможность, как запускать модели как напрямую из Hugging Face, так и запускать собственные образы со своим окружением.

3️⃣ Высокая степень адаптации и рациональное использование доступных ресурсов: на одной видеокарте можно одновременно запускать несколько моделей.

4️⃣ Режим скайлирования — тарификация за использование модели начинается только в момент обращения к ней.

Evolution ML Inference подойдет для тех, кто разрабатывает AI- и ML-решения и хочет быстро и с минимальными затратами запустить собственную ML-модель.

Это полностью управляемый сервис — пользователь только настраивает конфигурацию, модель и тип масштабирования. Cloud․ru предоставляет доступ к мощным графическим процессорам, а также выполняет полное администрирование и обслуживание инфраструктуры.
17.04.2025, 19:31
t.me/ai_machinelearning_big_data/7374
AI
Machinelearning
156.3K подписчиков
77
115
12 k
🌟 FramePack  — это надстройка над любым «next‑frame prediction» видеогенератором, которая превращает работу с длинными роликами в задачу постоянной, а не растущей стоимости

Модель поэтапно предсказывает следующий кадр или блок кадров, обеспечивая плавную и контролируемую генерацию. При этом FramePack позволяет создавать видео длительностью более 60 секунд.

Вместо хранения полного контекста он распределяет между кадрами разное число патч‑токенов и поддерживает общее количество токенов постоянным. Благодаря этому нагрузка остаётся O(1) относительно длины ролика — даже 13 B‑модель может генерировать тысячи кадров на обычной GPU.

Распределение «места» между кадрами задаётся расписанием (FramePack Scheduling): линейным, экспоненциальным, равномерным или кастомным. Например, можно сделать первый кадр самым детальным для задач image‑to‑video или отдавать приоритет последним кадрам.

Дополнительно применяется двусторонняя sampling‑схема — генерация кадров «вперёд‑назад»: модель чередует прямой и обратный проход по временной оси, что минимизирует накопление ошибок и сохраняет качество даже на полноценных минутных видео.

🔥Особенности:
🟢Заявленный минимальный объём GPU: всего 6 GB для генерации 1‑минутного видео @ 30 fps (1800 кадров) на 13 B‑модели — запускается даже на ноутбучных GPU.
.🟢Скорость генерации (RTX 4090):
~2.5 с/кадр без оптимизаций
~1.5 с/кадр с TeaCache
🟢Контекст фиксированной длины: накладные расходы (память и время) не растут при увеличении числа кадров — сложность остаётся O(1) по длине видео.

Эти метрики делают FramePack одним из самых практичных решений для генерации длинных видео даже на относительно слабом железе.

🔜Project Page:https://lllyasviel.github.io/frame_pack_gitpage/
🔜Paper:https://lllyasviel.github.io/frame_pack_gitpage/pack.pdf
🔜Code:https://github.com/lllyasviel/FramePack

@ai_machinelearning_big_data
17.04.2025, 17:06
t.me/ai_machinelearning_big_data/7373
AI
Machinelearning
156.3K подписчиков
1
1
demo (14).mp4
🌟 FramePack — генерация видео по кадрам с моментальной визуализацией

FramePack — это свежая реализация next-frame prediction, позволяющая создавать длинные видео (до 60 секунд и больше) с мгновенной обратной связью. Модель поэтапно предсказывает следующий кадр или блок кадров, обеспечивая плавную и контролируемую генерацию.

🧠 Особенности:
• Видео как картинки — результат видно сразу
• Большие модели работают даже на 6 GB GPU
• Контекст фиксированной длины, скорость не падает
• Поддержка Flash/xFormers/SageAttention

🚀 Поддержка GUI на Gradio. Можно быстро протестировать свои промпты или использовать встроенные пресеты.

🔜Project Page:https://lllyasviel.github.io/frame_pack_gitpage/
🔜Paper:https://lllyasviel.github.io/frame_pack_gitpage/pack.pdf
🔜Code:https://github.com/lllyasviel/FramePack

@ai_machinelearning_big_data
17.04.2025, 16:01
t.me/ai_machinelearning_big_data/7372
AI
Machinelearning
156.3K подписчиков
101
314
14 k
🔥 ArXiv MCP Server

arxiv‑mcp‑server — это MCP‑сервер (открытый протокол Anthropic для обмена сообщениями и инструментами между LLM‑клиентом и сервером.), который «оборачивает» arXiv.org в набор инструментов, доступных ИИ‑ассистентам (Claude Desktop, ChatGPT‑плагины, собственные агентовые фреймворки).

Благодаря этому ассистент может искать, скачивать и читать научные статьи, а также запускать готовые промпты для глубокого анализа работы, все в одном чате. 

Ключевые возможности
- Поиск статей search_papers — фильтры по запросу, диапазону дат, категориям.
🟢 Загрузка статьи download_paper — хранит PDF/метаданные локально, чтобы не дергать arXiv повторно.
🟢Список локальных статей list_papers.
🟢Чтение содержимого read_paper — отдаёт текст постранично.
🟢Готовые исследовательские промпты — например, deep-paper-analysis, который строит полное ревью (summary, методология, импликации, дальнейшая работа и т.д.). 

🌟 Установка:

Для установки и запуска сервера можно использовать следующие команды:​


git clone https://github.com/blazickjp/arxiv-mcp-server.git
cd arxiv-mcp-server
uv venv
source .venv/bin/activate
uv pip install -e ".[test]"
python -m arxiv_mcp_server


Github

#arXiv #llm #mcp
17.04.2025, 13:06
t.me/ai_machinelearning_big_data/7371
AI
Machinelearning
156.3K подписчиков
50
44
12 k
🤖 Ты Дата инженер? Мечтаешь, чтобы твоя работа по-настоящему влияла на будущее?

😎 В Navio мы делаем это возможным. В команде BigData мы разрабатываем уникальную технологию автономного вождения. Наши данные имеют реальный физический смысл — это километры пути и секунды времени.

Наши задачи – вызов: как обработать 10⁹ строк за 15 минут, как оценить качество траектории и предотвратить возможную аварию? Каждый оптимизированный датасет – это шаг к будущему без ДТП.

Хочешь к нам?

Приходи на One Day Offer 26 апреля! На онлайн-мероприятии ты пройдёшь все этапы отбора, познакомишься с командой и, если всё сложится, получишь предложение о работе уже вечером.

📈 Оставляй заявку и резюме на сайте, и наш рекрутер свяжется с тобой.

Построим будущее вместе!
17.04.2025, 12:02
t.me/ai_machinelearning_big_data/7370
AI
Machinelearning
156.3K подписчиков
88
109
12 k
✔️ OpenAI ведет переговоры о приобретении Windsurf.

OpenAI ведет переговоры о приобретении компании Windsurf, ИИ-инструмента для программирования, ранее известного как Codeium, за 3 млрд. долларов. Если сделка будет завершена, это станет крупнейшей покупкой для OpenAI на сегодняшний день и укрепит ее позиции на конкурентном рынке ИИ-кодинга.
bloomberg.com

✔️ Microsoft опубликовала веса крупнейшей 1-битной модели.

Microsoft представила BitNet b1.58 2B4T — модель с квантованием весов до трех значений (-1, 0, 1). Она может работать на CPU и доступна на HuggingFace под MIT-лицензией. Это первая модель такого типа с 2 млрд. параметров, обученная на 4 трлн. токенов (примерно 33 млн книг).

По заявлению разработчиков, BitNet превосходит модели Lllama, Google и Alibaba в тестах на решение математических задач (GSM8K) и проверку логики (PIQA). При этом скорость инференса вдвое выше, а память расходуется экономнее.

Но есть нюанс: для работы требуется фреймворк bitnet.cpp, который пока не поддерживает GPU.
techcrunch.com

✔️ Huawei презентовала серверную ИИ-систему CloudMatrix.

Huawei представила новую стоечную систему AI CloudMatrix 384, которая должна конкурировать с GB200 NVL72 от Nvidia. Хотя CloudMatrix 384 менее энергоэффективна, а ее производительность в 2,6 раза ниже в показателе FLOP на ватт, это не считается ограничивающим фактором в Китае, поскольку страна располагает достаточными энергетическими ресурсами.

Система использует ускоритель Huawei Ascend 910C AI и позиционируется как мощное внутреннее решение в китайском технологическом ландшафте. Появление CloudMatrix 384 - результат продолжающейся технологической войны между США и Китаем.
scmp.com

✔️ Дрон, управляемый ИИ впервые победил чемпионов-людей в гоночных соревнованиях.

Автономный дрон от Делфтского университета выиграл чемпионат A2RL, а затем в напряжённом турнире одолел 3 экс-чемпионов DCL, развив скорость до 95,8 км/ч на сложной трассе.

Ключевым аспектом победы стала нейросеть, которая управляла моторами напрямую, минуя традиционные контроллеры. Технология, которая была разработана ESA для космических аппаратов, позволила дрону работать с ограниченными ресурсами — всего одна камера и минимум вычислений. Как и люди, ИИ учился методом проб и ошибок, что помогло приблизиться к физическим пределам системы.
techxplore.com

✔️ MIT разработал метод машинного обучения для решения сложных логистических задач.

Исследователи MIT разработали метод L-RHO, объединяющий машинное обучение с традиционными методами оптимизации в задачах планирования. Система учится «замораживать» повторяющиеся переменные в подзадачах, сокращая время решения на 54% и повышая качество результатов до 21%.

Технология анализирует данные предыдущих решений, выделяя элементы, которые не требуют пересчёта. Оставшиеся переменные обрабатываются стандартным решателем, ускоряя процесс без потери точности. Метод уже проверен на реальных сценариях, включая сбои оборудования и перегрузки, показав стабильную эффективность.

L-RHO адаптивен к изменяющимся условиям: от расписания поездов до планирования медперсонала. В планах — интеграция метода в задачи управления запасами и маршрутизацией транспорта.
news.mit.edu

@ai_machinelearning_big_data

#news #ai #ml
17.04.2025, 10:10
t.me/ai_machinelearning_big_data/7369
AI
Machinelearning
156.3K подписчиков
89
354
13 k
🔥 Classifier Factory от Mistral

Classifier Factory — это интуитивно понятное руководство для создания и обучения собственных моделей классификации на базе компактных LLM от Mistral AI.

С его помощью — как через веб‑интерфейс La Plateforme, так и через API — можно быстро разворачивать решения для модерации контента, детекции намерений, анализа тональности, кластеризации данных, обнаружения мошенничества, фильтрации спама, рекомендательных систем и других задач

Classifier Factory поможет упростить весь цикл работы с custom‑классификаторами: от подготовки данных до развёртывания готовой модели в продакшене.

🔜 Docs
🔜Cookbook: Moderation Classifier
🔜Cookbook: Intent Classification
🔜Cookbook: Classification of Food

@ai_machinelearning_big_data


#Mistral #api
16.04.2025, 22:56
t.me/ai_machinelearning_big_data/7368
AI
Machinelearning
156.3K подписчиков
126
544
13 k
🚀 Codex CLI

"Модели o3 и o4-mini настолько сильны в программировании, что мы решили упростить их использование и выпустить новый продукт"" — Codex CLI - написал в своем аккаунт Альтман

💻 Codex CLI — это мощный программирующий агент, который работает локально на вашем компьютере.

- Чат-ориентированная разработка: Позволяет взаимодействовать с вашим репозиторием через диалоговый интерфейс.​

- Выполнение кода: Способен запускать код, манипулировать файлами и выполнять итерации прямо в терминале.​

- Интеграция с системами контроля версий: Обеспечивает работу под управлением систем контроля версий, таких как Git.​

🌟 Полностью open source и уже доступен для скачивания!

npm install -g @openai/codex

https://github.com/openai/codex

@ai_machinelearning_big_data

#AI #OpenSource #CodexCLI #Coding #LLM #DevTools
16.04.2025, 20:47
t.me/ai_machinelearning_big_data/7367
AI
Machinelearning
156.3K подписчиков
89
121
14 k
🖥 OpenAi представлют новые модели o-серии (o3 и o4-mini)

OpenAI утверждает, что эти модели способны генерировать новые и полезные идеи.

Обе будут добавлены с сегодняшнего дня в ChatGPT и API.

Впервые модели рассуждений могут использовать и комбинировать все инструменты ChatGPT, включая веб-поиск, Python, анализ изображений, работу с файлами и генерацию изображений.

Модель o3 установила новый рекорд на AIME 2025 с точностью 98.4%.

А вот o4-mini, набрала 99.5% — лучший результат среди всех моделей.

На Codeforces модели набирают более 2700 баллов, что помещает их в число 200 лучших программистов в мире!

На Humanity Last Exam её показатели находятся на уровне флагманской модели Deep Research.

API — о3 сильно дешевле о1: 10/40$ вместо 15/60$, а o4-mini будет доступна для БЕСПЛАТНЫХ пользователей

С помощью внутренних инструментов модель также умеет рассуждать и работать с изображениями (например, использовать Python для их преобразования).

Эти способности к рассуждению достигнуты благодаря масштабированию как во время обучения, так и во время инференса.

Трансляция: https://www.youtube.com/watch?v=sq8GBPUb3rk

@ai_machinelearning_big_data

#openai
16.04.2025, 20:01
t.me/ai_machinelearning_big_data/7366
AI
Machinelearning
156.3K подписчиков
138
419
14 k
🔥 ReZero — маленькая модель, которая никогда не сдаётся

🧠 ReZero — это LLM на базе Llama 3.2B, обученная не просто находить ответы, а упорно искать лучший.

🔁 Вместо того чтобы оптимизировать на скорость или recall, ReZero обучается пробовать снова и снова, пока не найдёт правильный ответ.

Модель намеренно поощряется за настойчивость — если она делает retry и улучшает результат, это считается успехом.

Использует синтетические поисковые движки, которые заставляют модель перезапрашивать и улучшать свои ответы.

Обучается с помощью RL — формируя привычку "не сдаваться".


🔜Github
🔜 Модель

@ai_machinelearning_big_data


#LLM #Search #RL #AI #Meta #ReZero #NeverGiveUp #Llama3
16.04.2025, 19:39
t.me/ai_machinelearning_big_data/7365
AI
Machinelearning
156.3K подписчиков
106
42
11 k
🌟Демис Хассабис попал на обложку Times и вошел в TIME100 самых влиятельных людей 2025 года​

TIME включил Демиса Хассабиса, генерального директора Google DeepMind, в список 100 самых влиятельных людей мира в 2025 году. Это признание его выдающегося вклада в развитие искусственного интеллекта и науки.​

В 2024 году Хассабис был удостоен Нобелевской премии по химии за создание AlphaFold — ИИ-системы, способной предсказывать структуру белков, что значительно ускорило научные исследования в области медицины и биологии. ​

Однако Хассабис не останавливается на достигнутом. Он активно работает над созданием AGI, который сможет решать сложнейшие задачи, такие как борьба с болезнями, изменение климата и дефицит ресурсов. Хассабис считает, что AGI может быть разработан в течение ближайших 5–10 лет. ​
Time

Тем не менее, он осознаёт риски, связанные с развитием AGI, включая возможные угрозы демократии и потенциальное использование технологий в военных целях. Хассабис призывает к международному сотрудничеству и созданию надёжных механизмов безопасности для обеспечения того, чтобы AGI служил на благо человечества. ​
Time

🔜 Подробнее об этом можно прочитать в статье TIME: Demis Hassabis Is Preparing for AI's Endgame​

@ai_machinelearning_big_data


#AI #AGI #DeepMind #DemisHassabis #TIME100 #Наука #Технологии
16.04.2025, 18:40
t.me/ai_machinelearning_big_data/7364
AI
Machinelearning
156.3K подписчиков
67
116
13 k
🔥 FireEdit — новая методика редактирования изображений по инструкции

🌟 В основе FireEdit — усовершенствованная Vision Language Model (VLM), способная выполнять тонкое и точное редактирование изображений на основе текстовых промптов.

🌟 Что внутри:
🟢Region Tokens
Позволяют VLM точно определять редактируемые объекты даже в сложных сценах, не затрагивая остальное изображение.
🟢Time-Aware Target Injection
Динамически регулирует степень редактирования на разных этапах шумоподавления, интегрируя информацию о времени с текстовыми эмбеддингами.
🟢Hybrid Visual Cross-Attention
Позволяет сохранить высокочастотные визуальные детали и семантическую согласованность изображения.

✔️Результаты
FireEdit превосходит другие SOTA-методы на датасете Emu Edit — как по точности локализации, так и по качеству результата.

✔️ Визуальные сравнения показывают, что FireEdit:
🟢Лучше локализует редактируемые области
🟢Меньше искажает фон и окружающие детали
🟢Сохраняет высокую семантическую точность

🔜 Статья
🔜Проект

@ai_machinelearning_big_data


#AI #VLM #Diffusion #ImageEditing #FireEdit #ML
16.04.2025, 17:36
t.me/ai_machinelearning_big_data/7360
AI
Machinelearning
156.3K подписчиков
114
14 k
16.04.2025, 17:36
t.me/ai_machinelearning_big_data/7362
AI
Machinelearning
156.3K подписчиков
113
14 k
16.04.2025, 17:36
t.me/ai_machinelearning_big_data/7361
AI
Machinelearning
156.3K подписчиков
114
13 k
16.04.2025, 17:36
t.me/ai_machinelearning_big_data/7363
AI
Machinelearning
156.3K подписчиков
121
39
12 k
VK Видео Meetup: заглянем под капот видеосервиса №1 в стране!

VK приглашает обсудить стриминг, видеотехнологии и хайлоад на митапе для разработчиков. Топ-менеджеры поделятся инсайдами о развитии продукта сегодня и завтра. А техлиды VK Видео расскажут, как устроена единая видеоплатформа, лежащая в основе сервиса, и что за лаборатория замеряет эффективность адаптивного стриминга.

Будет интересно бэкендерам, мобильным разработчикам и ML-инженерам.

📍 Москва, Ленинградский проспект, 39, БЦ Skylight, Б1.
Для всех, кто не сможет прийти, будет онлайн-трансляция.

Регистрация на сайте митапа.
16.04.2025, 16:35
t.me/ai_machinelearning_big_data/7359
AI
Machinelearning
156.3K подписчиков
77
60
12 k
✔️ OpenAI разрабатывает собственную соцсеть

По данным нескольких источников, OpenAI работает над собственной социальной платформой.
Внутренний прототип уже существует — он включает социальную ленту с генерацией изображений от ChatGPT. Сэм Альтман также собирает обратную связь от внешних тестировщиков.

Собственная соцсеть даст OpenAI прямой доступ к реальным пользовательским данным — как у X, которые используют их для обучения своих ИИ.
Один из мотиваторов — интеграция Grok в X, с которой пользователи создают вирусный контент прямо в реальном времени.

✔️ Groq запускает ИИ-систему Compound Beta с функциями поиска в Интернете и выполнения кода.

Groq объявила о предварительном запуске Compound Beta, своей первой системы искусственного интеллекта, размещенной на GroqCloud. Она позволяет пользователям осуществлять поиск в Интернете и выполнять программный код. Система предназначена для разработки агентов с расширенным функционалом и ее хвалят бета-тестеры, получившие ранний доступ. Попробовать Compound Beta можно в Groq Console.
Groq в X (ex-Twitter)

✔️ Anthropic анонсировала голосовой режим для Claude и интеграцию с Google Workspace.

Anthropic анонсировала 2 обновления для Claude, ориентированных на корпоративных пользователей. Первое — интеграция с Google Workspace, которая позволяет Claude работать с Gmail, Google Calendar и Google Docs. Функция доступна в бета-режиме для подписчиков планов Max, Team, Enterprise и Pro.

Второе — режим «Исследование», меняющий подход к поиску информации. Вместо стандартных запросов Claude автономно проводит цепочку взаимосвязанных поисков, формируя детальные ответы. Сейчас функция тестируется в США, Японии и Бразилии для планов Max, Team и Enterprise, а вскоре станет доступна и для Pro.

Также Anthropic готовит голосовой режим с 3 вариантами озвучки: Airy, Mellow и Buttery. Он появится для подписчиков премиум-плана Max.
bloomberg.com

✔️ Cohere выпустила Embed 4.

Cohere объявила о релизе Embed 4 — эмбединг-модели, которая упрощает поиск в сложных бизнес-документах. Технология поддерживает мультимодальность: анализирует текст, изображения, графики и рукописные заметки, избавляя компании от ручной обработки данных.

Модель работает с документами до 128 тыс. токенов (это примерно 200 страниц) и понимает 100+ языков. Embed 4 также оптимизирована для регулируемых отраслей: в финансах она анализирует отчеты, в здравоохранении — медицинские карты, а в производстве — спецификации. Embed 4 уже доступна на платформах Cohere, Azure AI Foundry и Amazon SageMaker.
cohere.com

✔️ OpenAI обновила Preparedness Framework и вводит трехкомпонентный режим инцидентов ИИ.

OpenAI внесла существенные изменения в свою систему Preparedness Framework, предназначенную для отслеживания и подготовки к продвинутым возможностям ИИ, которые могут привести к серьезному ущербу.

В результате пересмотра была исключена категория убеждения и введен новый мониторинг рисков, связанных с самовоспроизведением и "sandbagging". Обновленная структура поясняет, как OpenAI классифицирует риски ИИ на основе определенных критериев, подчеркивая, что риски должны быть правдоподобными, измеримыми, серьезными, новыми и либо мгновенными, либо неустранимыми.
openai.com

✔️ Adobe инвестирует в ИИ-стартап Synthesia.

Adobe Ventures сделала стратегическую инвестицию в Synthesia, британский стартап, разрабатывающий ИИ-аватары для корпоративных видео. Решение последовало после того, как компания преодолела отметку в $100 млн годовой выручки.

Synthesia позволяет создавать реалистичные видео с цифровыми персонажами (готовыми или записанными с реальных людей). Платформа уже используется 60 тыс. компаний, включая 70% из Fortune 100, для обучения, маркетинга и коммуникаций.

Synthesia планирует развивать новые продукты — AI-ассистент для видео, мультиязыковой дубляж, кастомизируемые аватары и готовит платформу Synthesia 2.0 для масштабируемых решений. С поддержкой Adobe и растущей клиентской базой стартап намерен перейти от экспериментов с ИИ к устойчивому бизнесу.
maginative.com

@ai_machinelearning_big_data

#news #ai #ml
16.04.2025, 10:15
t.me/ai_machinelearning_big_data/7358
AI
Machinelearning
156.3K подписчиков
102
13 k
15.04.2025, 19:04
t.me/ai_machinelearning_big_data/7357
AI
Machinelearning
156.3K подписчиков
82
104
11 k
🌟 Cемейство гибридных моделей Nemotron-H от NVIDIA.

NVIDIA выпустила новое семейство языковых моделей Nemotron-H, сочетающих архитектуры Mamba и Transformer. Эти гибриды обещают до 3х ускорения инференса по сравнению с чистыми Transformer-моделями аналогичного размера (Qwen или Llama).

Семейство поддерживает английский, немецкий, испанский, французский, итальянский, корейский, португальский, русский, японский и китайский языки.

Основной фокус Nemotron-H — баланс между эффективностью и интеллектом: даже при меньшем числе параметров (47–56 млрд.) модели демонстрируют точность, близкую к DeepSeek-V3-671B.

Особенность Nemotron-H — использование FP8 для претрейна. 56B-версию обучали на 20 трлн. токенов с квантованием тензоров «на лету», а сжатую в FP4 модель c 47B можно запускать на потребительской RTX 5090 с поддержкой контекста до 1 млн. токенов. Правда, пришлось пожертвовать частью слоев самовнимания — их заменили на более легкие Mamba-блоки, чтобы ускорить генерацию.

NVIDIA не стала тренировать компактные версии модели с нуля. Вместо этого использовали дистилляцию: 47B-модель получили из 56B, удалив половину «тяжелых» слоев и дообучив на 63 млрд токенов. Результат — почти та же точность, но на 1.2x быстрее.

В бенчмарках Nemotron-H обходит конкурентов в математике и коде: на GSM8k 56B-версия дает 93.7% против 90.9% у Qwen-72B. А 8B-модель, хоть и уступает в MMLU, вырывается вперёд в HumanEval+ (56.1%) — ожидаемо, с учетом ее instruct-оптимизации.

Пока модели доступны на HF как базовые, но NVIDIA обещает добавить инструктивные и мультимодальные версии.

▶️В опенсорсный релиз были выпушены чекпоинты с контекстом 8 тыс. токенов:

🟢Nemotron-H-56B-Base-8K

🟢Nemotron-H-47B-Base-8K

🟢Nemotron-H-8B-Base-8K


📌 Лицензирование: NVIDIA Internal Scientific Research and Development Model License.


🟡Страница проекта
🟡Коллекция на HF
🟡Arxiv


@ai_machinelearning_big_data

#AI #ML #LLM #NemotronH #NVIDIA
15.04.2025, 19:04
t.me/ai_machinelearning_big_data/7355
AI
Machinelearning
156.3K подписчиков
102
13 k
15.04.2025, 19:04
t.me/ai_machinelearning_big_data/7356
AI
Machinelearning
156.3K подписчиков
63
18
10 k
Мы слишком много знаем!

И просто обязаны этим поделиться. За 5 лет существования школы karpovꓸcourses мы обучили более 95 000 человек, и 80% наших выпускников уже работают в VK, Яндексе, Авито и других известных компаниях. И мы решили сделать для вас Karpov.Conf — чтобы поделиться знаниями не только с нашими студентами, но и с каждым, кто интересуется аналитикой данных и другими направлениями Data Science.

Будем обсуждать особенности работы с Power BI и практическое применение ML-моделей в крупных компаниях, разберем пользовательский опыт и реализацию аналитики на базе Yagpt, узнаем, как дерево метрик помогает принимать решения, и какие ошибки совершают крупные компании в контексте аналитики.

Мы собрали действительно звездный состав спикеров, мы очень старались сделать это мероприятие максимально полезным — вам осталось только не пропустить его!

Регистрируйтесь на KARPOV.CONF 2025 — включите Data-driven на полную!
15.04.2025, 18:03
t.me/ai_machinelearning_big_data/7354
AI
Machinelearning
156.3K подписчиков
188
477
16 k
🌟 TARIFF — инструмент, который вы реально ждали, Python-пакет, который делает импорты «Великими» снова.

Инструмент позволяет вводить "пошлины" на Python-библиотеки, замедляя загрузку определённых пакетов, чтобы подчеркнуть идею "экономического протекционизма" в коде.​

✔️ Основные особенности
Имитация тарифов на импорты: пользователь может установить "тарифы" (в процентах) на определённые пакеты, например:​



import tariff

tariff.set({
"numpy": 50, # 50% тариф на numpy
"pandas": 200, # 200% тариф на pandas
"requests": 150 # 150% тариф на requests
})

▪ Замедление импорта: при импорте указанных пакетов время загрузки увеличивается пропорционально установленному тарифу.​

Вывод сообщений: при каждом "обложенном тарифом" импорте выводится сообщение в стиле политической риторики, например:​

JUST IMPOSED a 50% TARIFF on numpy! Original import took 45000 us, now takes 67500 us. American packages are WINNING AGAIN! #MIPA

Библиотека использует monkey-patching для перехвата и модификации процесса импорта.​

Github

@ai_machinelearning_big_data

#fun #python
15.04.2025, 16:57
t.me/ai_machinelearning_big_data/7353
AI
Machinelearning
156.3K подписчиков
88
11 k
15.04.2025, 16:15
t.me/ai_machinelearning_big_data/7352
AI
Machinelearning
156.3K подписчиков
58
93
7.8 k
🌟 HoloPart: генеративная 3D-сегментация.

3D-сегментация объектов на семантические части — задача не новая, но большинство методов до сих пор работают только с видимыми поверхностями, игнорируя скрытые области. Это ограничивает их применение в задачах анимации и редактирования геометрии, где нужны полные части.

HoloPart — модель, разработанная VastAI, которая решает проблему амодальной сегментации для 3D-объектов, восстанавливая скрытые фрагменты. С HoloPart можно, например, изменить размер колес у машины, добавить детали или перераспределить материалы между частями. Для художников и инженеров это экономит часы ручной работы.

Модель работает в 2 этапа: сначала стандартная сегментация выделяет видимые части, а затем HoloPart достраивает их до полных 3D-форм, используя комбинацию из локального и глобального внимания. Локальные механизмы фокусируются на деталях каждой части, а контекстное внимание следит, чтобы восстановленные элементы не конфликтовали с общей структурой объекта.

Эксперименты на датасетах ABO и PartObjaverse-Tiny показали, что HoloPart обходит конкурентов - PatchComplete и DiffComplete по всем метрикам. Средний Chamfer Distance (показывает точность совпадения форм) у HoloPart — 0.026 против 0.087 у DiffComplete на ABO. А F-Score, оценивающий полноту восстановления, достигает 0.848 против 0.371 у аналогов.

⚠️ Перед тем, как загрузить целевой glb-файл в HoloPart ytj необходимо выполнить сегментацию сторонними средствами. Разработчики рекомендуют SAMPart3D и SAMesh.


▶️Локальный инференс:

# Clone the repo
git clone https://github.com/VAST-AI-Research/HoloPart.git
cd HoloPart

# Create a conda env
conda create -n holopart python=3.10
conda activate holopart

# Install dependencies
pip install torch torchvision --index-url https://download.pytorch.org/whl/{your-cuda-version}
pip install -r requirements.txt

# Step 1: Prepare segmented mesh with a mesh file and mask
import trimesh
import numpy as np
mesh = trimesh.load("mesh.glb", force="mesh")
mask_npy = np.load("mask.npy")
mesh_parts = []
for part_id in np.unique(mask_npy):
mesh_part = mesh.submesh([mask_npy == part_id], append=True)
mesh_parts.append(mesh_part)
mesh_parts = trimesh.Scene(mesh_parts).export("input_mesh.glb")

# Step 2: Decompose the 3D mesh into complete parts:
python -m scripts.inference_holopart --mesh-input assets/example_data/file.glb

📌Лицензирование: MIT License.


🟡Страница проекта
🟡Модель
🟡Arxiv
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #3D #HoloPart #Segmentation #VastAI
15.04.2025, 16:15
t.me/ai_machinelearning_big_data/7349
AI
Machinelearning
156.3K подписчиков
89
11 k
15.04.2025, 16:15
t.me/ai_machinelearning_big_data/7351
AI
Machinelearning
156.3K подписчиков
89
9.3 k
15.04.2025, 16:15
t.me/ai_machinelearning_big_data/7350
AI
Machinelearning
156.3K подписчиков
64
64
10 k
Открыт приём работ в научный журнал престижной Международной конференции по искусственному интеллекту AI Journey.

Победителей ждёт:
• 1 000 000 рублей за лучшую статью
• Публикация ключевых работ в спецвыпуске журнала «Доклады РАН. Математика, информатика, процессы управления» и его англоязычной версии Doklady Mathematics
(индексируется в Scopus/WoS)
• Возможность презентовать свою работу на площадке конференции AI Journey 2025

Требования к работам:
▸ Полная оригинальность (плагиат не допускается)
▸ Принимаются статьи на русском и английском языках
▸ Крайний срок подачи — 20 августа 2025 года

Подать заявку и узнать подробности:
Официальный сайт AI Journey
15.04.2025, 15:05
t.me/ai_machinelearning_big_data/7348
AI
Machinelearning
156.3K подписчиков
112
109
11 k
🌟 Яндекс запускает бета-версию reasoning-модели YandexGPT 5

В бета-тесте — новая версия YandexGPT 5 с режимом рассуждений. В отличие от режима CoT в YandexGPT 4, YandexGPT 5 reasoning — это отдельная модель, обученная отвечать через цепочки рассуждений.

✔️Зачем это нужно:
Ризонинг — это не про обычный чат. Это про сложные задачи, где LLM должна не просто ответить, а продумать цепочку действий. Такие модели работают медленнее, но точнее в задачах, где важна логика.

🔍 Что под капотом:
🟢на претрейн-модели делают SFT на ответах YandexGPT 5 Pro
🟢 online-RL GRPO на реворде с однозначными ответами
🟢 offline-RL-фаза: сравнение и дообучение на лучших генерациях (порядок определяется экспериментами)
🟢разношерстный датасет — например, кроме задач на математику еще добавили B2B-задачи: классификацию, извлечение данных, суммаризацию
🟢 обучение идёт быстрее благодаря YaFSDP — библиотеке, ускоряющей обучение моделей

🔥В бете сейчас есть две модели

🟡Задача — собрать датасет и понять поток запросов на рассуждение, а также понять: где пользователю действительно нужны размышления, а где хватит базовой LLM
🟡 Использование и своих решений, и опенсорса — кажется верной стратегией. Похоже на то, что делает Perplexity — использует сразу несколько SOTA-моделей, предоставляя пользователям выбор.
15.04.2025, 14:42
t.me/ai_machinelearning_big_data/7347
AI
Machinelearning
156.3K подписчиков
73
90
10 k
✔️ THUDM представила новое поколение моделей семейства GLM.

Китайская THUDM выпустила обновление семейства GLM: базовую GLM-4-32B-0414, оптимизированную для инференса GLM-Z1-32B-0414 и GLM-Z1-Rumination-32B-0414 с ризонингом. Новая архитектура с 32 млрд. параметров обгоняет DeepSeek-R1 (671 млрд. параметров) в математических задачах, выдавая до 200 токенов в секунду — это в 8 раз быстрее, чем R1.

GLM-Z1-Rumination умеет искать данные в сети, анализировать их и проверять гипотезы, как человек. Попробовать новые модели можно в демо-спейсе на новом продуктовом домене ChatGLM - Z.ai.
ChatGLM в X (ex-Twitter)

✔️ Fabula интегрирует Runway AI в производство фильмов и рекламы.

Fabula объявила о партнерстве с Runway, чьи технологии будут использоваться на всех этапах: от разработки концепций и раскадровок до визуальных эффектов. В Fabula заверили: несмотря на скепсис в киноиндустрии вокруг ИИ, технологии будут внедрятся ответственно, с акцентом на контроль со стороны режиссеров.

По словам CEO Runway Кристобаля Валенсуэлы, сотрудничество с Fabula — часть стратегии по интеграции ИИ в кино без ущерба для авторского видения. Уже сейчас инструменты помогают создавать питч-материалы, которые раньше требовали больше времени и ресурсов.
deadline.com

✔️ Nvidia разворачивает производство ИИ-чипов в США.

Nvidia объявила о масштабной экспансии в США: сборка чипов Blackwell уже стартовала на заводах TSMC в Фениксе, а в Хьюстоне и Далласе совместно с Foxconn и Wistron строятся новые мощности. К 2028 году компания планирует создавать инфраструктуру для ИИ на $500 млрд.

«Двигатели мирового ИИ теперь впервые создаются в Штатах», — заявил CEO Nvidia, подчеркнув укрепление цепочек поставок. Решение частично связано с экспортными ограничениями: недавно администрация Белого дома смягчила санкции на чип H20 для Китая после обещаний Nvidia инвестировать в американские дата-центры.
wsj.com

✔️ Alphabet и Nvidia инвестируют в компанию SSI Ильи Суцкевера.

Alphabet и Nvidia присоединились к группе венчурных инвесторов, чтобы поддержать Safe Superintelligence (SSI), стартап, один из основателей которого - бывший главный научный сотрудник OpenAI Илья Суцкевер, быстро ставший одним из самых ценных стартапов в области ИИ спустя несколько месяцев после запуска.
Финансирование свидетельствует о возобновлении интереса крупных технологических и инфраструктурных компаний к стратегическим инвестициям в стартапы, разрабатывающие передовой ИИ, требующий огромных вычислительных мощностей.
reuters.com

✔️ Apple будет обучать ИИ на данных пользователей без ущерба для приватности.

Apple объявила о новом методе обучения своих ИИ-моделей: теперь анализировать данные пользователей будут прямо на устройствах, не передавая их на серверы. Это позволит улучшить алгоритмы сохраняя конфиденциальность. Вместо файлов система сравнивает синтетические данные — искусственно созданные тексты с примерами из приложений вроде «Почты».
Хотя конкуренты активно используют реальные данные из открытых источников, Apple делает ставку на гибридный метод. Это может помочь компании догнать лидеров рынка без рисков для репутации.
machinelearning.apple.com

✔️ Kling AI 2.0 — теперь видео не отличить от реальности!

Multy-Elements 1.6 — качественно редактирует всё в кадре: добавляй.

Motion Control 1.6 — анимирует персонажей по одному промпту.

KOLORS 2.0 — генератор картинок с фотореалистичной детализацией.
Kling

✔️ OpenAI опубликовала новое руководство по промптингу для GPT-4.1.

В руководство включен подробный "агентный промпт" (Agentic Prompt).

Именно этот промпт OpenAI использовала для достижения рекордно высокого балла в сложном бенчмарке по разработке ПО SWE-bench Verified.
Руковосдтво

@ai_machinelearning_big_data


#news #ai #ml
15.04.2025, 12:48
t.me/ai_machinelearning_big_data/7346
AI
Machinelearning
156.3K подписчиков
135
124
13 k
✔️ DeepSeek выпустила в оперсорс механизмы инференса для DeepSeek-V3 и R1.

DeepSeek объявила о публикации в открытый доступ кода своего механизма инференса, построенного на vLLM. Компания будет предоставлять отдельные функции и оптимизации из своей внутренней инфраструктуры, специально разработанные для ее моделей DeepSeek-V3 и R1.
Этот шаг - часть стратегии поддержки будущих моделей с доступом к улучшениям в сообществе разработчиков с открытым исходным кодом. Кроме того, DeepSeek опубликовала дорожную карту, в которой подробно описана стратегия использования открытого кода и планы сотрудничества с существующими оперсорс-проектами для расширения экосистемы инфраструктуры ИИ.

🔜 DeepSeekAI на Github

@ai_machinelearning_big_data


#DeepSeek #opensource
15.04.2025, 10:38
t.me/ai_machinelearning_big_data/7345
AI
Machinelearning
156.3K подписчиков
115
174
17 k
🔥 OpenAI выкатили сразу три новые модели — 4.1, 4.1 mini и 4.1 nano!

📏 Контекст — до миллиона токенов
💡 Обещают значительные Улучшения в коде
⚡Модели уже доступны через API

GPT-4.1, набрал 55% на бенчмарке SWE-Bench Verified, это — хоороший результат, особенно с учётом того, что GPT-4.1 не оптимизировалась конкретно под задачи логического или многошагового рассуждения.

💬 На презентации одним промптом собрали веб-приложение для изучения языков.

Честно говоря, выглядит не супер. Практически та же цена, что у Gemini 2.5 Pro (у Gemini дешевле входные токены, что важно), и, судя по всему, она не превосходит модели Гугла ни на одном бенчмарке.

Попробовать бесплатно можно здесь и в Cursor.

💲 Цены

@ai_machinelearning_big_data

#openai #chatgpt
14.04.2025, 20:26
t.me/ai_machinelearning_big_data/7344
AI
Machinelearning
156.3K подписчиков
134
155
13 k
🐬 DolphinGemma — это проект Google, направленный на расшифровку коммуникации дельфинов на архитектуре Gemma (кто бы мог подумать), оптимизированной под open-source задачи.

Разработанный в сотрудничестве с учёными из Georgia Tech и исследовательской группой Wild Dolphin Project (WDP), этот проект использует возможности больших языковых моделей для анализа и генерации звуков, характерных для , характерных для дельфинов

🔍 Исследование коммуникации дельфинов

С 1985 года WDP ведёт долгосрочные наблюдения за популяцией атлантических пятнистых дельфинов (Stenella frontalis) на Багамах. Их подход "В их мире, на их условиях" позволяет собирать уникальные данные: подводные видео и аудиозаписи, связанные с конкретными особями, их жизненным циклом и поведением. Это включает в себя:​

- "Подписи-свистки", используемые для идентификации и связи между матерями и детёнышами.​

- Импульсные звуки во время конфликтов.​

- Щелчки, сопровождающие ухаживание или охоту.​

🌟 Модель DolphinGemma
DolphinGemma — это аудио-модель с ~400 миллионами параметров, способная обрабатывать и генерировать последовательности звуков дельфинов.

В модели используются данные за40 лет из уникальной коллекции доктора Дениз Герцин.

Она использует токенизатор SoundStream для эффективного представления аудиосигналов и может работать непосредственно на смартфонах Pixel, используемых исследователями в полевых условиях.

Модель обучена на данных WDP и способна предсказывать последовательности звуков, аналогично тому, как языковые модели предсказывают слова в предложении.​

🌊 Основная цель DolphinGemma — выявить структуру и возможное значение звуков дельфинов, что может приблизить нас к межвидовой коммуникации.

Этот проект объединяет передовые модели Гугла и многолетние биологические исследования, открывая новые горизонты в понимании морских млекопитающих.​

Теперь осталось только научить дельфинов понимать лицензионное соглашение на использование моделей! 🐬📜🤖

🔜 Подробнее о проекте можно узнать в официальном блоге Google: DolphinGemma: How Google AI is helping decode dolphin communication.

@ai_machinelearning_big_data

#Gemma #google #ml #science
14.04.2025, 17:16
t.me/ai_machinelearning_big_data/7343
AI
Machinelearning
156.3K подписчиков
77
121
12 k
🔥 Короткое видео от
Hunyuan, которое объясняет архитектуру гибридного трансформера Mamba, лежащего в основе моделей Hunyuan T1 и Turbo S.

🔜 Оригинал

#mamba #Hunyuan
14.04.2025, 16:55
t.me/ai_machinelearning_big_data/7342
AI
Machinelearning
156.3K подписчиков
1
1
🔥 ​В статье на Хабре фронтенд-разработчица из финтех-компании Точка поделилась опытом создания приложения, которое самостоятельно предлагает варианты обеда, учитывая имеющиеся дома продукты.

Здесь подробно описан процесс разработки: от идеи и определения функционала до реализации алгоритма подбора блюд.

✔️ Основные моменты, полезные для разработчиков:​

Идея и функциональность: Создание приложения, которое предлагает рецепты на основе доступных ингредиентов, решает проблему ежедневного выбора блюд.​

🟠Алгоритм подбора рецептов: Разработка алгоритма, учитывающего наличие продуктов у пользователя, позволяет предлагать релевантные рецепты и улучшает пользовательский опыт.​

🟠Пользовательский интерфейс: Интуитивно понятный и удобный интерфейс облегчает взаимодействие с приложением, повышая его привлекательность для пользователей.​

Для вдохновения можно ознакомиться с приложением SuperCook, которое предлагает рецепты на основе выбранных ингредиентов. ​

Статья может быть полезна тем, кто задумывается о собственном пет-проекте, предоставляя практические советы и вдохновение для реализации подобных идей.

🔜 Читать
14.04.2025, 16:14
t.me/ai_machinelearning_big_data/7341
AI
Machinelearning
156.3K подписчиков
81
225
12 k
🌟 Sonic от Hunyuan — модель анимации портретов с озвучкой 🎶

Sonic генерирует говорящих аватаров (или даже поющих!) с выразительной мимикой и качественным липсинком.

👉 Что нового?
1️⃣ Оживляем статичные изображения на вход подается одна фотография + любое аудио → речь, пение
2️⃣ Temporal Audio Learning — использует аудио дорожку для точной синхронизации губ и естественной мимики
3️⃣ Decoupled Motion Control — управляет движением головы и выражениями лица отдельно
4️⃣ Time-aware Fusion — обеспечивает плавный переход между кадрами для непрерывного видеоряда

▪ Модель демонстрирует очень качественный липсинк, разнообразие движений головы и мимики, натуральность и стабильность анимаций
▪ Поддерживает генерацию длинных видео (подойдет для влогов, реклаы) в один клик
▪ Кинематографичное качество: реалистичные позы, эмоции и сохранение идентичности референса

🔜Демо: http://demo.sonic.jixiaozhong.online/
🔜Проект: https://jixiaozhong.github.io/Sonic/
🔜 Github: https://github.com/jixiaozhong/Sonic
🔜 Статья: https://arxiv.org/pdf/2411.16331

#ml #lipsync #opensource #hunyuan
14.04.2025, 15:25
t.me/ai_machinelearning_big_data/7340
AI
Machinelearning
156.3K подписчиков
109
332
15 k
🤖 Fourier Intelligence выпустила Fourier N1 — первого полностью open-source гуманоидного робота!

Fourier N1 — это компактный робот ростом 1.3 м и весом 38 кг, способный развивать скорость до 3.5 м/с.

За плечами более 1000 часов полевых испытаний.

🌟 Всё открыто: → список комплектующих (BOM)
→ CAD-чертежи и 3D-модели
→ спецификации приводов
→ управляющий код — на GitHub

⚙️ В основе робота — фирменные приводы FSA 2.0, обеспечивающие высокую устойчивость и манёвренность даже на пересечённой местности.

🔜 Github
🔜Документация (включайте автоперевод)

#ai #robots #opensource
14.04.2025, 13:05
t.me/ai_machinelearning_big_data/7339
Результаты поиска ограничены до 100 публикаций.
Некоторые возможности доступны только премиум пользователям.
Необходимо оплатить подписку, чтобы пользоваться этим функционалом.
Фильтр
Тип публикаций
Хронология похожих публикаций:
Сначала новые
Похожие публикации не найдены
Сообщения
Найти похожие аватары
Каналы 0
Высокий
Название
Подписчики
По вашему запросу ничего не подошло