Your trial period has ended!
For full access to functionality, please pay for a premium subscription
MA
Machine learning Interview
https://t.me/machinelearning_interview
Channel age
Created
Language
Russian
1.68%
ER (week)
2.3%
ERR (week)

Разбираем вопросы с собеседований по Machine Learning, Data Science, Deep Learning и Нейронным сетям, Python.

Вопросы - @notxxx1

Messages Statistics
Reposts and citations
Publication networks
Satellites
Contacts
History
Top categories
Main categories of messages will appear here.
Top mentions
The most frequent mentions of people, organizations and places appear here.
Found 281 results
Repost
21
873
04/25/2025, 13:11
t.me/machinelearning_interview/1770
Repost
11
20
815
🌟 Математические датасет OpenMathReasoning и модели OpenMath-Nemotron - победители олимпиады AIMO-2.

NVIDIA представила новый подход к обучению моделей для сложных математических задач, заняв первое место в конкурсе Kaggle AIMO-2.

Секрет — в огромном датасете OpenMathReasoning, который состоит из 540 тыс. уникальных задач с Art of Problem Solving, 3,2 млн. многошаговых решений (CoT) и 1,7 млн. примеров с интеграцией кода (TIR).

Для сравнения: это в разы больше, чем в популярных аналогах MATH и GSM8K. Все это дополнено 566 тыс. примеров для обучения генеративному выбору решений (GenSelect) — методу, который лучше, чем классическое голосование большинством.

OpenMathReasoning создавался тщательно и ответственно. Сначала задачи фильтровались через Qwen2.5-32B, чтобы убрать простые или дублирующие бенчмарки. Затем DeepSeek-R1 и QwQ-32B генерировали решения, а итеративная тренировка с жесткой фильтрацией улучшала качество. Например, код в TIR-решениях должен был не просто проверять шаги, а давать принципиально новые вычисления — вроде перебора вариантов или численного решения уравнений.

Модели OpenMath-Nemotron (1,5B–32B параметров), обученные на этом наборе данных показали SOTA-результаты. 14B-версия в режиме TIR решает 76,3% задач AIME24 против 65,8% у базового DeepSeek-R1. А с GenSelect, который анализирует 16 кандидатов за раз, точность взлетает до 90%. Даже 1,5B-модель с GenSelect обгоняет 32B-гиганты в отдельных тестах.


📌Лицензирование: CC-BY-4.0 License.


🟡Набор моделей
🟡Arxiv
🟡Датасет
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #Math #Dataset #NVIDIA
04/25/2025, 13:11
t.me/machinelearning_interview/1768
Repost
21
871
04/25/2025, 13:11
t.me/machinelearning_interview/1769
5
30
1.4 k
МТС приглашает разработчиков на масштабную ИТ-конференцию True Tech Day 6 июня. Участие бесплатно

Ключевая тема конференции в этом году — искусственный интеллект. Тебя ждут доклады ученых, выступления зарубежных спикеров по AI и экспертов крупных ИТ-компаний.

В программе:
— 4 трека и больше 40 докладов.
— Выступления зарубежных спикеров с индексом Хирша более 50.
— Концентрация практических кейсов: как создаются большие ML-проекты.
— Доклады по архитектуре, бэкенд-разработке и построению ИТ-платформ.
— AI-интерактивы и технологические квесты.
— Пространство для нетворкинга,
…а еще after-party со звездным лайн-апом.

Когда: 6 июня
Где: Москва, МТС Live Холл и онлайн
Участие бесплатно. Регистрация по ссылке.
04/25/2025, 11:00
t.me/machinelearning_interview/1766
Repost
8
60
1.4 k
📎 X-AnyLabeling — профессиональный инструмент для автоматической разметки данных с интегрированным ИИ. Он представляет собой расширенную версию популярного AnyLabeling, дополненного промышленными функциями для профессионального использования.

Проект поддерживает работу как с изображениями, так и с видеофайлами, включая сложные задачи трекинга объектов в потоковом режиме. Все благодаря встроенной интеграции с более чем 20 современными моделями компьютерного зрения, а также гибкой системе работы с форматами аннотаций, охватывающая все основные стандарты отрасли

🤖 GitHub

@data_analysis_ml
04/24/2025, 19:03
t.me/machinelearning_interview/1765
7
1.8 k
👩‍💻 Docker — один из самых мощных инструментов для создания эффективных, масштабируемых и изолированных окружений.
Его применяют во всех современных data-проектах, и его знание критически важно для инженера данных.

Сегодня Docker стал неотъемлемой частью стека Data-инженера. Он используется для развертывания ETL- и ML-решений, работы с микросервисной архитектурой и создания воспроизводимых рабочих сред.
Не зная Docker, вы ограничиваете свои возможности.

📌На открытом вебинаре 29 апреля в 20:00 мск вы узнаете, как использовать Docker для решения data-задач.
Мы разберём практические кейсы, научим вас создавать Docker-образы для data-проектов, а также переводить решения в продакшн.

♾ Регистрируйтесь на вебинар и получите скидку на программу обучения «Data Engineer»: https://otus.pw/Jmc5/

Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ", ИНН: 9705100963
04/24/2025, 17:03
t.me/machinelearning_interview/1764
17
156
2.0 k
🔥 Репозиторий kaggle-solutions содержит различные решения задач и конкурсов на платформе Kaggle. В нем собраны материалы, созданные для работы с данными, машинного обучения и анализа данных

🌟 Эти решения предоставляют готовые примеры использования алгоритмов и методов для решения практических задач в области Data Science. Репозиторий может быть полезен как для обучения, так и для применения на практике

🔐 Лицензия: MIT

🖥 Github

@machinelearning_interview
04/24/2025, 13:31
t.me/machinelearning_interview/1763
28
115
2.2 k
🔬 Исследователи MIT создали периодическую таблицу машинного обучения — как у Менделеева, но для алгоритмов 🤖

В таблице показано, как связаны более 20 методов ML, а пустые ячейки намекают на алгоритмы будущего, которые ещё предстоит открыть.

«Это не просто красивая метафора. Мы начинаем видеть машинное обучение как структурированную систему, которую можно исследовать — а не просто действовать вслепую»,
— Шаден Альшаммари, аспирантка MIT и главный автор работы.

https://news.mit.edu/2025/machine-learning-periodic-table-could-fuel-ai-discovery-0423
04/23/2025, 14:12
t.me/machinelearning_interview/1762
Repost
26
1.5 k
04/23/2025, 14:02
t.me/machinelearning_interview/1760
Repost
26
1.5 k
04/23/2025, 14:02
t.me/machinelearning_interview/1761
Repost
7
27
1.2 k
🌟 Describe Anything: сегментное аннотирование изображений и видео.

Describe Anything Model (DAM) - архитектура, разработанная Nvidia, для генерации точных и детальных описаний для конкретных областей на изображениях и видео. Традиционные VLM-модели как отдельная сущность или в связке с SAM-помощниками часто теряют ньюансы, особенно при наличии мелких объектов или динамичных сцен на целевом источнике.

DAM справляется с этим за счет 2 инноваций в своей архитектуре:

🟢Фокальный промпт — комбинация полного изображения и его маски с обрезанной областью интереса, расширенной для захвата контекста (например, увеличение bounding box в 3 раза).

🟢Локализованный визуальный бэкбон — два параллельных энкодера: глобальный (обрабатывает все изображение) и региональный (анализирует фокальный промпт). Они объединяются механизм cross-attention, позволяя сохранять детали объекта и его связь с окружением.

Модель принимает изображение или видео и бинарную маску целевой области интереса. Глобальный энкодер извлекает общие признаки, региональный — фокусируется на деталях выбранной зоны. Через адаптеры с кросс-вниманием признаки объединяются, после чего LLM генерирует описание. Для видео маски применяются к каждому кадру, а признаки агрегируются во времени.

▶️В релизе DAM представлены 3 модели:

🟠DAM-3B - базовая модель для аннотирования изображений;

🟠DAM-3B-Video - модель для работы с видео;

🟠DAM-3B-Self-Contained - автономная версия базовой модели для интеграций без сторонних зависимостей.


▶️Локальный инференс с интерактивным Gradio WebUI:

# Clone the repo
git clone https://github.com/NVlabs/describe-anything
cd describe-anything

# Create a conda env
conda create -n describe-anything
conda activate describe-anything

# Install dependencies
pip install -v

# Gradio Demo for Image Descriptions
python demo_simple.py

# Gradio Demo for Video Descriptions
python demo_video.py

📌Лицензирование моделей: NVIDIA Noncommercial License.

📌Лицензирование кода : Apache 2.0 License.


🟡Страница проекта
🟡Набор моделей
🟡Demo
🟡Arxiv
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #DAM #NVIDIA #Annotation
04/23/2025, 14:02
t.me/machinelearning_interview/1759
22
1.6 k
04/23/2025, 12:00
t.me/machinelearning_interview/1758
22
1.5 k
04/23/2025, 12:00
t.me/machinelearning_interview/1755
22
1.6 k
04/23/2025, 12:00
t.me/machinelearning_interview/1757
22
1.6 k
04/23/2025, 12:00
t.me/machinelearning_interview/1756
21
22
1.5 k
Поступление в ШАД: даже одна попытка откроет путь к большим возможностям!

Попробовать поступить в Школу анализа данных Яндекса может каждый, кто увлечён Data Science: неважно, учитесь вы в вузе, работаете в IT или просто любите разбираться в сложном. Если вас тянет к задачам, над которыми ломают голову лучшие умы, — попробовать точно стоит!

В ШАДе вас ждёт не просто теория — здесь с первого дня погружаются в практику: осваивают сложные концепции машинного обучения, решают ИИ-задачи, которые вчера казались невозможными, и получают мощный буст для карьеры.

Создавать инновационные решения, продвигать науку, запускать стартапы или делиться опытом — всё это доступно выпускникам ШАДа! Если хотите стать одним из них, не теряйте времени — подайте заявку до 4 мая!

Классные плюшки: обучение бесплатное, а если в вашем городе нет филиала, заниматься можно онлайн. Не упустите шанс: попробуйте поступить и откройте перед собой новые горизонты!
04/23/2025, 12:00
t.me/machinelearning_interview/1754
Repost
1
04/22/2025, 23:50
t.me/machinelearning_interview/1749
Repost
1
04/22/2025, 23:50
t.me/machinelearning_interview/1752
Repost
1
04/22/2025, 23:50
t.me/machinelearning_interview/1751
Repost
1
04/22/2025, 23:50
t.me/machinelearning_interview/1750
Repost
1
04/22/2025, 23:50
t.me/machinelearning_interview/1753
Repost
1
🌟 CoMotion: одновременное отслеживание движения нескольких людей в видео.

CoMotion - метод, разработанный Apple для одновременного отслеживания 3D-движений нескольких людей, который принципиально отличается от покадрового обнаружения и классических способов трекинга.

CoMotion использует рекуррентную модель, которая поддерживает набор отслеживаемых 3D-поз и обновляет их при поступлении нового кадра, непосредственно анализируя пиксели изображения. Способность использовать визуальные подсказки вкупе с парадигмой tracking by attention позволяет CoMotion эффективно отслеживать перекрывающихся и временно исчезающих из виду людей.

Архитектура CoMotion состоит из модуля обнаружения (он определяет кандидатов на новые треки) и модуля обновления поз (корректирует позы существующих треков). Оба модуля работают с признаками изображения, извлеченными с помощью стандартной модели ConvNextV2. Модуль обновления поз использует cross-attention к признакам изображения для каждого трека, опираясь на предыдущие состояния, и применяет GRU для рекуррентного обновления скрытых состояний.

Прогнозирование 3D-поз выполняется путем параметризации модели SMPL, а управление треками основано на эвристических правилах, использующих модифицированную метрику Object Keypoint Similarity (OKS).

Модель CoMotion обучается в 3 этапа. Первый - предварительное обучение энкодера и модуля обнаружения на больших наборах данных отдельных изображений (псевдо-размеченные InstaVariety, COCO, MPII и синтетический BEDLAM). Второй - обучение модуля обновления поз на коротких видео из BEDLAM, WHAC-A-MOLE и размеченных PoseTrack и DanceTrack. На финальном этапе обучение модуля обновления поз продолжается на более длинных видеопоследовательностях.

Экспериментальная оценка CoMotion проводилась на стандартных бенчмарках для отслеживания и оценки поз. На PoseTrack21 CoMotion показал значительное улучшение метрик (MOTA на 14% и IDF1 на 12%). При этом CoMotion работает на порядок быстрее, чем сопоставимая система 4DHumans.

▶️Локальный инференс:

# Clone the repo
git clone https://github.com/apple/ml-comotion.git
cd ml-comotion

# Create a conda env
conda create -n comotion -y python=3.10
conda activate comotion

# Install dependencies
pip install -e

# Download models
bash get_pretrained_models.sh

# Run CoMotion
python demo.py -i path/to/video.mp4 -o results/

📌Лицензирование: Apple License.


🟡Модель
🟡Техотчет
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #3DTracking #CoMotion #Apple
04/22/2025, 23:50
t.me/machinelearning_interview/1748
Repost
13
51
1.4 k
📌 Miras: как улучшить модели через память и внимание.

Google Research опубликовал интересную статью «It’s All Connected», в которой предлагают решение проблемы квадратичной сложности трансформеров в обработке последовательностей : фреймворк Miras, который объединяет онлайн-оптимизацию, управление памятью и внимание в единую систему, что в итоге позволяет создавать более эффективные модели.

Miras — это 4 компонента: архитектура памяти, целевая функция (смещение внимания), регуляризация удержания и алгоритм обучения. Miras позволяет экспериментировать с loss-функциями (Huber loss для устойчивости к выбросам) и регуляризацией (KL-дивергенция, Elastic Net).

С помощью Miras были созданы 3 тестовые модели — Moneta, Yaad и Memora. Moneta использует Lp-нормы для баланса между запоминанием и устойчивостью, Yaad комбинирует L1 и L2 через Huber loss, а Memora применяет Softmax с KL-регуляризацией.

В экспериментах тестовые модели обошли трансформеры и современные RNN на задачах языкового моделирования и поиска информации в длинных контекстах. На тесте «иголка в стоге сена» (8K токенов) Moneta достигла точности 98.8%, тогда как Mamba2 — лишь 31%.

Статья не просто теоретическое изыскание — это практическое руководство для разработки моделей. Четкая структура Miras помогает систематизировать существующие подходы и экспериментировать с компонентами. Например, замена регуляризации на Elastic Net или Bregman divergence может улучшить управление памятью в нишевых задачах.

Miras — шаг к более осмысленному проектированию архитектур. Если трансформеры — это «кувалда» для масштаба, то описанный в статье подход Google Research - хирургический инструмент, где каждый компонент настраивается под конкретную задачу.

🟡Arxiv

@ai_machinelearning_big_data
04/22/2025, 12:18
t.me/machinelearning_interview/1745
Repost
49
1.5 k
04/22/2025, 12:18
t.me/machinelearning_interview/1747
Repost
49
1.6 k
04/22/2025, 12:18
t.me/machinelearning_interview/1746
16
59
1.4 k
🧪 DeepEval — open-source фреймворк для оценки работы языковых моделей, вдохновленный принципами Pytest. Проект решает ключевую проблему LLM-разработки: как объективно измерить качество ответов ChatGPT, RAG-пайплайнов или AI-агентов без ручных проверок.

В отличие от разрозненных метрик вроде RAGAS или G-Eval, DeepEval объединяет 20+ критериев оценки от релевантности контекста до токсичности и SQL-инъекций в промптах. Инструмент также имеет встроенную облачную платформу для сравнения разных версий LLM — она визуализирует, как изменения влияют на accuracy и безопасность.

🤖 GitHub

@machinelearning_interview
04/18/2025, 19:01
t.me/machinelearning_interview/1744
🧪 DeepEval — open-source фреймворк для оценки работы языковых моделей, вдохновленный принципами Pytest.


Проект решает ключевую проблему LLM-разработки: как объективно измерить качество ответов ChatGPT, RAG-пайплайнов или AI-агентов без ручных проверок.

В отличие от разрозненных метрик вроде RAGAS или G-Eval, DeepEval объединяет 20+ критериев оценки от релевантности контекста до токсичности и SQL-инъекций в промптах. Инструмент также имеет встроенную облачную платформу для сравнения разных версий LLM — она визуализирует, как изменения влияют на accuracy и безопасность.

🤖 GitHub

@machinelearning_interview
04/18/2025, 17:04
t.me/machinelearning_interview/1743
13
24
1.6 k
Что сложнее: пройти собеседование в MANGA или поступить в ШАД?

В новом выпуске MLinside — Алексей Толстиков, кандидат физико-математических наук, руководитель Школы анализа данных Яндекса (ШАДа) и эксперт в олимпиадах по программированию рассказывает:

▪️Как устроен отбор в Школу и зачем нужен сложный экзамен
▪️Как готовиться к интервью и почему важна честность
▪️ Насколько важен нетворк и коммьюнити

Переходите к выпуску

По сути, это готовый мануал к поступлению и если вы сейчас выбираете трек развития в машинном обучении — обязательно к прослушиванию.
04/18/2025, 17:01
t.me/machinelearning_interview/1742
14
55
1.4 k
🔥 ArXiv MCP Server

arxiv‑mcp‑server — это самостоятельный MCP‑сервер¹, который «оборачивает» arXiv.org в набор инструментов, доступных ИИ‑ассистентам (Claude Desktop, ChatGPT‑плагины, собственные агентовые фреймворки).

Благодаря этому ассистент может искать, скачивать и читать научные статьи, а также запускать готовые промпты для глубокого анализа работы, не покидая чата. 


¹ MCP (Message Control Protocol) — открытый протокол Anthropic для обмена сообщениями и инструментами между LLM‑клиентом и сервером.

Ключевые возможности
- Поиск статей search_papers — фильтры по запросу, диапазону дат, категориям.

- Загрузка статьи download_paper — хранит PDF/метаданные локально, чтобы не дергать arXiv повторно.

- Список локальных статей list_papers.

- Чтение содержимого read_paper — отдаёт текст постранично.

- Готовые исследовательские промпты — например, deep-paper-analysis, который строит полное ревью (summary, методология, импликации, дальнейшая работа и т.д.). 

Github
04/17/2025, 12:16
t.me/machinelearning_interview/1741
1
2
1.4 k
⚡️Хотите стать востребованным экспертом в области рекомендательных систем?

Курс OTUS «Рекомендательные системы» — это практические занятия, живые лекции от ведущих DS/ML-специалистов и актуальные инструменты, которые используют крупнейшие компании. Вы научитесь создавать персонализированные рекомендации, внедрять системы под задачи e-commerce и стриминговых сервисов, эффективно сегментировать пользователей и проводить A/B-тесты.

После курса вы сможете реализовывать решения, которые принесут пользу бизнесу.

👉Оставьте заявку и получите скидку на обучение: https://otus.pw/BAE8/?erid=2W5zFHU8PEp

Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
04/17/2025, 11:15
t.me/machinelearning_interview/1740
Repost
18
45
1.2 k
🔥 ReZero — маленькая модель, которая никогда не сдаётся

🧠 ReZero — это LLM на базе Llama 3.2B, обученная не просто находить ответы, а упорно искать лучший.

🔁 Вместо того чтобы оптимизировать на скорость или recall, ReZero обучается пробовать снова и снова, пока не найдёт правильный ответ.

Модель намеренно поощряется за настойчивость — если она делает retry и улучшает результат, это считается успехом.

Использует синтетические поисковые движки, которые заставляют модель перезапрашивать и улучшать свои ответы.

Обучается с помощью усиленного обучения (RL) — формируя привычку "не сдаваться".


🔜Github
🔜 Модель

@ai_machinelearning_big_data


#LLM #Search #RL #AI #Meta #ReZero #NeverGiveUp #Llama3
04/16/2025, 20:04
t.me/machinelearning_interview/1739
Repost
5
1.6 k
04/16/2025, 18:01
t.me/machinelearning_interview/1738
Repost
5
1.5 k
04/16/2025, 18:01
t.me/machinelearning_interview/1734
Repost
5
1.6 k
04/16/2025, 18:01
t.me/machinelearning_interview/1737
Repost
9
5
1.4 k
У разработчиков и аналитиков свои игрушки 👾

Конечно, с ИИ-уклоном и те, которые им помогают в работе. Когда дело доходит до вайб-кодинга, многие обращаются к инструментам вроде Copilot. На бумаге — это волшебная палочка, которая должна разгружать спецов. А как на деле? 🪄

Коллеги из Т1 отвечают на этот вопрос — упаковали ответы в карточки. И их самих тоже — конечно же, с помощью искусственного интеллекта.

Больше про ИИ узнаем 16 и 17 апреля в Москве на конференции Data Fusion. Здесь спикеры от Т1 примут участие в сессиях, где обсудят:

🔘 выход российских компаний на зарубежные рынки;
🔘 человекоцентричный транспорт;
🔘 нейросети;
🔘 AI-native банки;
🔘 тренды в бизнесе;
🔘 инженеров нового поколения.

Генеральный директор ИТ-холдинга Т1 Алексей Фетисов также наградит победителей соревнования Data Fusion Contest.
04/16/2025, 18:01
t.me/machinelearning_interview/1732
Repost
5
1.5 k
04/16/2025, 18:01
t.me/machinelearning_interview/1735
Repost
5
1.5 k
04/16/2025, 18:01
t.me/machinelearning_interview/1733
Repost
5
1.6 k
04/16/2025, 18:01
t.me/machinelearning_interview/1736
16
8
1.7 k
❓ Что выведет следующий код на Python (модуль statistics)?


import statistics as stats
import math

data = [1, 2, 2, float('nan'), 3, 4]

print("Mean:", stats.mean(data))
print("Median:", stats.median(data))
print("Mode:", stats.mode(data))


🔢 Варианты ответа:

A)

Median: 2.5
Mode: 2


B)

Median: 2.5
Mode: 2


C)ValueError: nan is not a valid number


D)

Median: nan
Mode: 2


✅ Правильный ответ: C

💡 Почему?
- Модуль statistics не умеет работать с NaN.
- stats.mean() и stats.median() вызовут StatisticsError или ValueError.
- В отличие от numpy.nanmean, здесь всё падает.
📌 Подвох — в float('nan') в списке.
04/16/2025, 14:10
t.me/machinelearning_interview/1731
8
14
1.8 k
❓ Алгоритмическая торговля и количественный анализ: успех зависит от точного тестирования. Как избежать убытков и ошибок в логике торговых стратегий?

На открытом уроке 28 апреля в 20:00 мск научим вас, как правильно тестировать торговые стратегии с помощью самых популярных инструментов. Применение таких инструментов, как pandas, backtrader и backtesting, поможет вам избежать переобучения и непредсказуемых рыночных условий.

Используя полученные знания, вы сможете точно оценивать эффективность своих стратегий, настраивать метрики, такие как доходность и Sharpe ratio, и улучшать результаты с минимальными рисками.

➡️ Присоединяйтесь к открытому уроку и получите скидку на большое обучение «ML для финансового анализа»: https://otus.pw/R9kR/?erid=2W5zFHw5cK2 

Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
04/16/2025, 13:08
t.me/machinelearning_interview/1730
20
102
2.1 k
🖥 OpenAI опубликовала новое руководство по промптингу для GPT-4.1.

Это полезный ресурс для улучшения работы с моделью.

В руководство включен подробный "агентный промпт" (Agentic Prompt).

Именно этот промпт OpenAI использовала для достижения рекордно высокого балла в сложном бенчмарке по разработке ПО SWE-bench Verified.

Что представляет собой этот агентный промпт?

Это, по сути, детальная инструкция для GPT-4, нацеленная на автономное решение задач по исправлению кода в репозиториях. Ключевые принципы, заложенные в нем:
- Глубокое понимание: Сначала тщательно изучить проблему.
- Исследование: Проанализировать кодовую базу.
- Планирование: Разработать четкий пошаговый план.

- Тестирование: Часто запускать тесты после каждого шага.
- Итерация: Повторять процесс до полного решения проблемы.
- Строгая верификация: Убедиться в корректности и надежности решения
- Автономность: Работать с предоставленными проектами без доступа к интернету и не завершать работу до полного решения.

Этот подход демонстрирует, как структурированные, пошаговые инструкции с акцентом на тестирование и итерацию могут значительно повысить эффективность ИИ в сложных задачах программирования.

📚 Руководство
04/15/2025, 10:48
t.me/machinelearning_interview/1729
26
61
1.9 k
🎲 Задача со стажировки ШАД по вероятности: сколько участников добежит до вершины?

Представим забег 100 человек по узкому скользкому эскалатору. У каждого есть шанс поскользнуться и упасть — тогда он и все, кто бежал за ним, соскальзывают вниз. Добираются до вершины только те, кто был впереди последнего упавшего.

Мы можем настраивать вероятность падения p. Вопрос: какое значение `p` нужно выбрать, чтобы в среднем до вершины добегало ровно 20 человек из 100?

Обозначения:
N = 100: общее количество участников.
K = 20: желаемое среднее количество участников, достигших вершины.
p: вероятность того, что один участник поскользнется и упадет (эту величину нужно найти).

q = 1 - p: вероятность того, что один участник не упадет.
X: случайная величина, равная количеству участников, достигших вершины. Мы хотим, чтобы E[X] = 20.

Логика процесса:
Участник i (где i от 1 до 100) доберется до вершины тогда и только тогда, когда ни один из участников перед ним (включая его самого) не упадет.

То есть, участники 1, 2, ..., i должны успешно пройти свой путь.

Вероятность того, что участник 1 достигнет вершины = P(участник 1 не упал) = q.
Вероятность того, что участник 2 достигнет вершины = P(участник 1 не упал И участник 2 не упал) = q * q = q^2.

Вероятность того, что участник i достигнет вершины = P(участники 1, ..., i не упали) = q^i.

Математическое ожидание E[X]:

Математическое ожидание количества добравшихся до вершины можно вычислить как сумму вероятностей того, что каждый конкретный участник доберется до вершины. Это связано со свойством линейности математического ожидания и использованием индикаторных переменных (I_i = 1, если i-й участник добрался, 0 иначе; E[X] = E[sum(I_i)] = sum(E[I_i]) = sum(P(I_i=1))).
E[X] = P(участник 1 добрался) + P(участник 2 добрался) + ... + P(участник N добрался)
E[X] = q^1 + q^2 + q^3 + ... + q^N
Это сумма первых N членов геометрической прогрессии с первым членом a = q и знаменателем r = q. Формула суммы:
S_N = a * (1 - r^N) / (1 - r)
Подставляем наши значения:
E[X] = q * (1 - q^N) / (1 - q)
Решение уравнения:
Мы хотим, чтобы E[X] = K = 20, при N = 100.
20 = q * (1 - q^100) / (1 - q)
Вспомним, что q = 1 - p. Значит, 1 - q = p.
20 = (1 - p) * (1 - (1 - p)^100) / p
20p = (1 - p) * (1 - (1 - p)^100)

Это уравнение довольно сложно решить аналитически из-за члена (1 - p)^100. Однако мы можем сделать разумное предположение.

Приближение:
Поскольку мы ожидаем, что только 20 из 100 человек доберутся до вершины, это означает, что падения должны происходить относительно часто, и вероятность того, что все 100 человек не упадут (q^100), должна быть очень мала. То есть, q^100 ≈ 0.
Если q^100 пренебрежимо мало по сравнению с 1, то формула для E[X] упрощается:

E[X] ≈ q * (1 - 0) / (1 - q)
E[X] ≈ q / (1 - q)
Теперь подставим желаемое значение E[X] = 20:

20 ≈ q / (1 - q)
20 * (1 - q) ≈ q
20 - 20q ≈ q
20 ≈ 21q
q ≈ 20 / 21
Теперь найдем p:
p = 1 - q
p ≈ 1 - (20 / 21)
p ≈ 1 / 21

Проверка приближения:
Давайте проверим, насколько мало значение q^100 при q = 20/21:
q^100 = (20/21)^100 ≈ (0.95238)^100

Используя калькулятор, (20/21)^100 ≈ 0.0076. Это действительно мало по сравнению с 1.

Посчитаем E[X] с этим приближением:

E[X] = (20/21) * (1 - (20/21)^100) / (1 - 20/21)
E[X] = (20/21) * (1 - 0.0076) / (1/21)
E[X] = 20 * (1 - 0.0076)
E[X] = 20 * 0.9924
E[X] ≈ 19.848

Это очень близко к целевому значению 20.

Ответ:
Чтобы в среднем вершины достигали 20 ребят из 100, вероятность падения p для каждого участника нужно подобрать примерно равной 1/21 (или около 0.0476).

👇 Пишите свое решение в комментариях

@machinelearning_interview
04/14/2025, 14:00
t.me/machinelearning_interview/1728
2
7
1.8 k
MLечный путь: митап, коммьюнити, знания

В программе:
- подбор инфраструктуры для ML под запрос бизнеса,
- деплой инференса в рентген-вагоне,
- развертывание Edge-AI в буквально (!) полевых условиях.

А ещё — активное участие вместо пассивного слушания: питчи, нетворкинг и мерч за лучшие идеи.

23 апреля в 18:00 приходите в офис Selectel в Санкт-Петербурге и подключайтесь онлайн.

Регистрация и детали по ссылке: https://slc.tl/tgb6o

Реклама. АО «Селектел», ИНН 7810962785, ERID: 2VtzqwdfLKT
04/14/2025, 12:02
t.me/machinelearning_interview/1727
Repost
77
1.5 k
04/13/2025, 10:06
t.me/machinelearning_interview/1724
Repost
30
79
1.3 k
🌟 NVIDIA добавила нативную поддержку Python в CUDA.

Python уже несколько лет уверенно лидирует среди языков программирования, а теперь стал ещё ближе к железу. На GTC 2025 NVIDIA объявила о полноценной интеграции Python в свой CUDA-стек.

Это значит, что писать код для GPU можно будет напрямую на Python — без погружения в C++ или Fortran. Как подчеркнул Стивен Джонс, архитектор CUDA, цель — сделать инструмент естественным для Python-разработчиков: «Это не перевод синтаксиса C на Python. Все должно работать так, как привыкли разработчики».

Раньше CUDA требовала глубокого понимания низкоуровневых языков и это здорово ограничивало аудиторию. Сейчас, когда Python стал стандартом в ML и DS, NVIDIA открывает двери для миллионов программистов. По данным The Futurum Group, в 2023 году CUDA использовали 4 миллиона человек — теперь их число может резко вырасти.

Техническая часть такая же обширная, как и ожидания этого события профессиональным сообществом.

🟢Во-первых, появилась библиотека cuPyNumeric — аналог NumPy, который переносит вычисления с CPU на GPU буквально заменой импорта.

🟢Во-вторых, CUDA Core переосмыслен для Python: здесь сделан упор на JIT-компиляцию и минимизацию зависимостей.

🟢В-третьих, добавлены инструменты для профилирования и анализа кода, а ускоренные C++-библиотеки теперь доступны из Python без потерь в производительности.

Но главное — новый подход к параллельным вычислениям. Вместо ручного управления потоками, как в C++, NVIDIA предлагает модель CuTile, которая оперирует массивами, а не отдельными элементами. Это упрощает отладку и делает код читаемым, не жертвуя скоростью. По сути, разработчики получают высокоуровневую абстракцию, скрывающую сложности железа, но сохраняющую гибкость.

Пока CuTile доступен только для Python, но в планах — расширение для C++. Это часть стратегии NVIDIA по поддержке новых языков: Rust и Julia уже на походе.

Python-сообщество уже может экспериментировать — например, интегрировать CUDA-ядра в PyTorch или вызывать привычные библиотеки. Теперь даже те, кто никогда не писал на C++, смогут использовать всю мощь GPU — осталось проверить, как это скажется на скорости создания прекрасных LLM светлого будущего.

🔜 Посмотреть полную презентацию на GTC 2025


@ai_machinelearning_big_data

#AI #ML #Python #CUDA #NVIDIA
04/13/2025, 10:06
t.me/machinelearning_interview/1722
Repost
77
1.5 k
04/13/2025, 10:06
t.me/machinelearning_interview/1726
Repost
77
1.4 k
04/13/2025, 10:06
t.me/machinelearning_interview/1723
Repost
77
1.5 k
04/13/2025, 10:06
t.me/machinelearning_interview/1725
14
1.3 k
04/11/2025, 14:22
t.me/machinelearning_interview/1720
14
1.3 k
04/11/2025, 14:22
t.me/machinelearning_interview/1719
15
1.3 k
04/11/2025, 14:22
t.me/machinelearning_interview/1721
14
1.3 k
04/11/2025, 14:22
t.me/machinelearning_interview/1713
14
1.3 k
04/11/2025, 14:22
t.me/machinelearning_interview/1718
14
1.3 k
04/11/2025, 14:22
t.me/machinelearning_interview/1715
11
14
1.2 k
📄 Scaling Laws for Native Multimodal Models

📌 Исследователи из Sorbonne и Apple проанализировали 457 мультимодальных моделей, чтобы понять, как масштабируются нативные мультимодальные архитектуры (NMM) — обученные с нуля, а не через “приклейку” vision-энкодеров к LLM.

🔍 Главное:
▪ Late-fusion (классика с vision encoder + LLM) ≠ обязательно лучше.
▪ Early-fusion модели, в которых всё учится совместно с нуля — обгоняют по качеству при меньшем количестве параметров, обучаются быстрее и проще в продакшене.
▪ Добавление Mixture of Experts (MoE) даёт прирост — модели учат модальность-специфичные веса, сохраняя ту же цену инференса.
▪ Scaling laws (законы масштабирования) у NMM — почти те же, что у LLM. Можно планировать бюджеты и рост моделей аналогично.

⚠️ Ограничения:
— Пока неясно, как точно это поведение переносится на downstream-задачи.
— Нужно больше экспериментов с разными пропорциями мультимодальных данных.
— Для early-fusion на высоких разрешениях нужны новые подходы к работе с токенами (контекст, пуллинг и т.д.).

📎 Вывод:
Early-fusion — не просто рабочий вариант, а оптимальный выбор для мультимодальных моделей при ограниченных ресурсах. Отказ от “склеек” делает обучение проще, быстрее и дешевле.

Читать

#ai #multimodal #scalinglaws #moe #llm #mlresearch #arxiv
04/11/2025, 14:22
t.me/machinelearning_interview/1712
14
1.3 k
04/11/2025, 14:22
t.me/machinelearning_interview/1716
14
1.3 k
04/11/2025, 14:22
t.me/machinelearning_interview/1717
14
1.3 k
04/11/2025, 14:22
t.me/machinelearning_interview/1714
10
14
1.6 k
⚡️ Flashbax - удобный ускоритель для reinforcement learning в JAX-экосистеме. Проект предлагает свежий взгляд на проблему с буферами воспроизведения, переосмысливая работу с данными.

Библиотека выделяется тем, что превращает буферы из пассивных хранилищ в интеллектуальные компоненты, которые можно встраивать в полностью скомпилированные JIT-функции. Удобно, что разработчики прописали оптимизированные версии для разных сценариев: от простых переходов (как в DQN) до сложных траекторий для R2D2, причём с поддержкой приоритетного семплирования.

🤖 GitHub

@machinelearning_interview
04/10/2025, 13:50
t.me/machinelearning_interview/1711
8
53
1.9 k
🔥 Открыта регистрация на Летнюю школу машинного обучения Сколтеха.

SMILES-2025 — это 12-дневный интенсивный курс, посвященный генеративным методам в ИИ. Школа организована Сколтехом в сотрудничестве с Харбинским технологическим институтом в Китае. SMILES-2025 пройдет с 14 по 27 июля 2025 года.

Соорганизатор летней школы — HIT, генеральный партнер — Альфа-Банк, научный партнер — Институт AIRI.

👉 Участие бесплатное на основе конкурсного отбора. Подробности и подача заявки.

Реклама. СКОЛКОВСКИЙ ИНСТИТУТ НАУКИ И ТЕХНОЛОГИЙ, СКОЛТЕХ. ИНН 5032998454.
04/10/2025, 12:46
t.me/machinelearning_interview/1710
21
204
2.3 k
⚡️ Вышел мощный ИИ-ресерчер от AlphaXiv

С ним можно сделать всё: от контрольной до научной статьи в журнал.🔥

Нововведения:

🔎 ИСКАТЬ любые научные источники по любой теме
🧠 ПОНЯТНО объяснять даже самые сложные статьи — просто загрузи PDF и задавай вопросы
📚 СОВЕТОВАТЬ, что почитать дальше, выделять тренды и разбирать каждый источник по полочкам
💻 РАБОТАТЬ с кодом из статьи прямо в окне — правь, оптимизируй, получай объяснения
📝 ДЕЛАТЬ автоконспекты — чёткие и подробные
🚀 ПОСТОЯННО обновляется — фичи прилетают регулярно

А теперь самое главное:
🧬 Deep Research — встроенный ИИ-агент, который за 1 минуту создаёт системный обзор по любой научной теме. Статьи, выводы, тренды — всё на месте.

Гениального ассистента забираем отсюда 👉 https://www.alphaxiv.org/assistant
04/09/2025, 14:01
t.me/machinelearning_interview/1709
5
2.0 k
Что не так с кодом в Капибаровске?

Узнайте на T-CTF — соревновании от Т-Банка для опытных ИТ-специалистов. Решайте задания по спортивному хакингу с шансом выиграть приз до 420 000 ₽.

Вот как все устроено:

— Выберите Лигу Разработки или Лигу Безопасности по своим навыкам. Если участвуете впервые, можно потренироваться на демозаданиях.
— Соревнуйтесь один или в команде до 3 человек. Вам помогут найти команду, если нет своей.
— Участвуйте онлайн или приходите в ИТ-хаб Т-Банка в одном из 6 городов России.
— Используйте время на решение заданий и общение с участниками — у вас будет 36 часов.

Задания будут интересны разработчикам, QA- и SRE-инженерам, аналитикам и другим ИТ-специалистам уровня middle и senior.

Успейте зарегистрироваться до 18 апреля.

Реклама. АО «ТБанк», лицензия ЦБ РФ № 2673, erid: 2Ranykc4ety
04/09/2025, 12:01
t.me/machinelearning_interview/1708
12
30
3.5 k
🚀 Релиз от NVIDIA: Llama-Nemotron-Ultra 253B!

Llama-Nemotron-Ultra — модель с 253B параметрами, специально заточенная под задачи reasoning .

📦 Что внутри:

- LLaMA 405B, радикально преобразованная с помощью NAS pruning

- Пост-тренинг с фокусом на reasoning: SFT + RL

- Вычисления в FP8 для производительности без потери качества

- Open weights + открытые данные

🧠 Подходит для сложных задач рассуждения, настройки под кастомные пайплайны и исследований в области AGI.

🔗 Попробовать: https://huggingface.co/nvidia/Llama-3_1-Nemotron-Ultra-253B-v1

#LLM #NVIDIA #OpenWeights #Reasoning #RLHF #FP8 #AIresearch #HuggingFace

@machinelearning_interview - подписаться
04/08/2025, 16:53
t.me/machinelearning_interview/1706
29
3.6 k
04/08/2025, 16:53
t.me/machinelearning_interview/1707
Repost
18
56
1.8 k
📕 Андрей Карпаты опубликовал новый пост- необычный путь распространения LLM, их влияние на людей и организации, причины разрыва и взгляд в будущее.

В нем он анализирует необычное распространение больших языковых моделей (LLM).

Вот его содержание:
В отличие от традиционных технологий, которые обычно проходят путь от государственных и военных структур через корпорации к индивидуальным пользователям, LLM сразу стали широко доступны обычным людям.

Это позволило моделям значительно расширить свои возможности в таких областях, как программирование, анализ данных и создание контента, без необходимости привлекать узких специалистов.

ChatGPT — самое быстрорастущее приложение в истории, у него 400 миллионов активных пользователей в неделю.

Люди используют его для написания текстов, программирования, перевода, обучения, анализа, исследований и генерации идей

Это не просто улучшение жизни— это мощный бустер возможностей человека.

И барьер для входа использования LLM невероятно низкий: модели бесплатны или дешевы, быстры, доступны всем через API или локально, и говорят на любом языке, включая сленг и эмодзи.

Никогда еще человек не получал такого технологического скачка так быстро.

Почему же эффект для корпораций и государственных институтов не такой весомый?

Во-первых, LLM дают "квази-экспертные" знания: широкие, но неглубокие и ненадежные. Для организаций, где уже есть эксперты (инженеры, юристы, аналитики), это лишь слегка повышает эффективность.

А вот для человека, который обычно эксперт лишь в одном, LLM открывают новые горизонты: программировать, разбираться в юриспруденции, анализировать данные или создавать контент — все это теперь возможно без посторонней помощи.

Во-вторых, организации решают более сложные задачи: интеграции, устаревшие системы, безопасность, регуляции, координация.

Ошибки LLM тут куда опаснее — "вайб кодить" не выйдет.

В-третьих, есть инерция: бюрократия, культура компаний, переобучение — все это тормозит внедрение.

Пока LLM радикально меняют жизнь людей, а не организаций.

Мэри, Джим и Джо получают больше, чем Google или правительство США. Но что дальше? Если топовые модели станут сильно дороже и лучше, крупные игроки смогут "купить интеллект", и элита снова уйдет в отрыв.

Сегодня Билл Гейтс использует тот же GPT-4o, что и вы, но завтра его ребенок может учиться у GPT-8-pro-max, а ваш — у GPT-6-mini.

Сейчас мы находимся в уникальном моменте: будущее уже здесь, и технологии удивительно равномерно распределены. Будущее тут, и оно доступно для всех. Власть людям!

🔗 Оригинал

@ai_machinelearning_big_data

#AndrejKarpathy #influencer
04/07/2025, 21:40
t.me/machinelearning_interview/1705
29
16
2.1 k
Российская языковая модель A-Vibe от Авито возглавила рейтинг легких ИИ-решений (до 10 млрд параметров) в независимом бенчмарке MERA.

Разработка команды классифайда обошла признанных зарубежных конкурентов — GPT-4o mini от OpenAI, Gemma 3 27B от Google, Claude 3.5 Haiku от Anthropic и Mistral Large.

Модель демонстрирует впечатляющие результаты работы с русским языком. В тестах генерации кода A-Vibe показала результат на 25% лучше, чем Gemini 1.5. При ведении диалогов она оказалась на 32% точнее Llama 3.1. А в анализе смысла текста превзошла Claude 3.5 Haiku на 23%.

Технические возможности A-Vibe позволяют ей одновременно обрабатывать до 32 тысяч токенов контекста. Это дает модели серьезное преимущество при работе с объемными документами и поддержании длительных осмысленных диалогов. Уже сегодня технология активно используется в сервисах Авито, помогая продавцам создавать качественные описания товаров и ускоряя коммуникацию в мессенджере платформы.

«Первое место доказывает, что оптимизированная архитектура и качественные данные могут обеспечить отличные результаты даже при небольшом размере модели. A-Vibe создавалось оптимальной по соотношению между качеством, скоростью работы и затратой ресурсов. Такой баланс позволяет обеспечивать быструю обработку запросов даже в периоды пиковой нагрузки и масштабировать технологию на всю аудиторию платформы», — отметил Андрей Рыбинцев, старший директор по данным и аналитике Авито.

До конца года Авито внедрит в свою нейросеть еще 20 сценариев, а в будущем может сделать ее общедоступной.

Познакомиться с рейтингом можно на сайте MERA. В фильтре «Размер модели» выберите «≥5B — 10B», чтобы получить рейтинг среди небольших моделей. Цифры Human Benchmark — это результат тестирования реальных людей.
04/07/2025, 19:03
t.me/machinelearning_interview/1703
17
2.2 k
04/07/2025, 19:03
t.me/machinelearning_interview/1704
23
335
2.2 k
🔥 «Упражнения по машинному обучению»

В этой книге более 75 упражнений. И она абсолютно БЕСПЛАТНА.

🔗 Книга
🔗 GitHub

@machinelearning_interview
04/06/2025, 17:51
t.me/machinelearning_interview/1701
334
2.2 k
04/06/2025, 17:51
t.me/machinelearning_interview/1702
16
156
2.3 k
⚡️ Implement minimal-GPT from scratch.

MinimalGPT — это небольшое учебное пособие (гайд), в котором демонстрируется «упрощённая» реализация архитектуры GPT. На странице раскрываются основные принципы работы модели и приводится минимально необходимый код для её запуска. Основная идея заключается в том, чтобы показать, как устроена GPT‑модель на базовом уровне, без избыточного усложнения и обилия вспомогательных библиотек.

Внутри гайда обычно можно найти:

▪ Описание основных слоёв GPT (внимание, Feed-Forward блоки и т.д.)
▪ Минимальные примеры кода (часто на Python с использованием PyTorch или аналогичных фреймворков)
▪ Краткие пояснения к каждому этапу (инициализация слоёв, механизм attention, обучение/инференс)
▪ Рекомендации по расширению и дальнейшему совершенствованию кода

Таким образом, MinimalGPT служит отправной точкой для понимания того, как работает GPT, и даёт возможность собрать простейшую версию модели своими руками.

🔗 Читать

@machinelearning_interview
04/06/2025, 12:11
t.me/machinelearning_interview/1700
Repost
13
29
1.5 k
🦙 Встречайте, дамы и господа, LLaMA 4: мультимодальные MoE модели!

Llama 4 Omni разработана для понимания и обработки информации модальностей, а не только текста.

Доступна в 3х вариантах: Llama 4 Scout и Llama 4 Maverick и анонсированный Llama 4 Behemoth.

У Llama 4 Scout (109B) контекстное окно размером 10 М, 17B активных параметров, 16 экспертов, может быть запущена на 1ом GPU!

Llama 4 Maverick (400B) окно в 1M, 128 экспертов, 17B активных параметров.

У зверюги бегемота обещают окно в 2T!!! 16 экспертов, 288B активных параметров.

Сейчас выпущены только Scout и Maverick.

- Model Card
- Веса
- Релиз

@ai_machinelearning_big_data
04/05/2025, 22:15
t.me/machinelearning_interview/1699
13
29
1.7 k
✔️ Google запускает функцию 'Discover Sources' в NotebookLM.

Google представила новую функцию "Discover Sources" для сервиса NotebookLM, позволяющую пользователям искать в Интернете релевантную информацию по запросу. Она позволяет задать целевую тему, после чего NotebookLM формирует коллекцию из 10 релевантных источников со всего интернета.

Discover Sources доступно для всех пользователей. Оно расширяет функциональность NotebookLM, интегрируя веб-поиск непосредственно в проекты пользователя.

📌 blog.google

@machinelearning_interview
04/04/2025, 11:29
t.me/machinelearning_interview/1698
Repost
19
1.3 k
04/03/2025, 22:05
t.me/machinelearning_interview/1696
Repost
19
1.3 k
04/03/2025, 22:05
t.me/machinelearning_interview/1697
Repost
19
1.3 k
04/03/2025, 22:05
t.me/machinelearning_interview/1694
Repost
19
1.3 k
04/03/2025, 22:05
t.me/machinelearning_interview/1695
Repost
13
19
1.2 k
✔️ ECLECTIC: взгляд Google на то, как LLM понимают разные языки

Исследователи из Google Research представили ECLeKTic — новый бенчмарк, предназначенный для оценки способности больших языковых моделей (LLM) переносить знания между языками.

Исследование направлено на выявление того, насколько эффективно модели могут применять информацию, полученную на одном языке, для решения задач на другом.​

Бенчмарк включает вопросы, сформулированные на одном языке, ответы на которые содержатся в соответствующих статьях Википедии. Эти вопросы затем переводятся на другие языки, для которых аналогичных статей нет. Таким образом, модели должны демонстрировать способность извлекать и применять знания, отсутствующие в целевом языке.​

Оценка моделей: Испытания восьми современных LLM показали, что даже передовые модели испытывают трудности с межъязыковым переносом знаний. Это подчеркивает необходимость дальнейших исследований и улучшений в этой области.​

Вместо простых вопросов используются тесты с множественным выбором, где неправильные ответы (дистракторы) специально сделаны очень похожими на правильный и правдоподобными. Чтобы выбрать верный вариант, модели нужно действительно понять нюансы на целевом языке, а не угадывать.

Минимизация "артефактов перевода": Вопросы тщательно создавались экспертами на 10 различных языках (включая арабский, хинди, японский, русский и др.). Они адаптированы культурно и лингвистически так, чтобы стратегия "перевести-решить-перевести обратно" работала плохо.

ECLECTIC – сложный тест: Он выявляет слабости в понимании, которые могут быть не видны на других бенчмарках.

🌟 Лучшие результаты у Gemini 2.5 Pro: до 52,6% общего успеха и 77,0% коэффициента удачного переноса знаний. ​
В отличие от OpenAI Google на своих же бенчмаркх занимают первые места 😂

Результаты показывают, что текущим LLM еще предстоит улучшить способность по-настоящему переносить и применять знания между языками.

🟡Подробнее
🟡Paper

@ai_machinelearning_big_data


#AI #ml #google #benchmark
04/03/2025, 22:05
t.me/machinelearning_interview/1693
1
3
1.7 k
Растите сильную команду. Топ-5 курсов Яндекс Практикума для IT

👾 Технологии меняются каждый день — проверено Яндексом.

Мы ощущаем перемены на своих проектах. Постоянные вызовы, новые инструменты, штормы на рынках. Знаем, как важно, чтобы команда быстро развивалась и адаптировалась к изменениям. Поэтому создаём актуальное обучение, которое соответствует реальным задачам IT-сферы.

Нам доверяют: 5000+ компаний уже обучили 36 000+ сотрудников в Яндекс Практикуме.

👉 Вот топ-5 курсов, которые выбирали компании для развития IT-команд в 2025 году:

— SQL для работы с данными и аналитики
— DevOps для эксплуатации и разработки
— Python-разработчик
— Архитектура программного обеспечения
— Управление командой разработки
— Навыки аргументации

👉Подобрать курс

Реклама, АНО ДПО “Образовательные технологии Яндекса”, ИНН 7704282033, erid: 2VtzqvjtMhs
04/03/2025, 19:03
t.me/machinelearning_interview/1692
15
180
2.0 k
🖥 Топ 17 GitHub-репозиториев для изучения Python:

1. 30-Days-Of-Python — 30-дневный челлендж по основам Python.
2. Python Basics — азы Python для новичков, просто и с примерами.
3. Learn Python — справочник с кодом, пояснениями и практикой.
4. Python Guide — гайд по практикам, инструментам и сложным темам.
5. Learn Python 3 — руководство по Python 3 с практикой для начинающих.
6. Python Programming Exercises — 100+ задач по Python.
7. Coding Problems — алгоритмы и структуры данных для собесов.
8. Project-Based-Learning — Python через реальные проекты.
9. Projects — идеи проектов для прокачки навыков.
10. 100-Days-Of-ML-Code — ML на Python шаг за шагом.
11. TheAlgorithms/Python — алгоритмы и структуры данных на Python.
12. Amazing-Python-Scripts — полезные скрипты: от утилит до автоматизации.
13. Geekcomputers/Python — скрипты для сети, файлов и задач.
14. Materials — код и проекты от Real Python.
15. Awesome Python — топ фреймворков, библиотек и ресурсов.
16. 30-Seconds-of-Python — короткие сниппеты для быстрых решений.
17. Python Reference — скрипты, туториалы и лайфхаки.

#python #github #learning
04/03/2025, 14:38
t.me/machinelearning_interview/1691
5
11
1.9 k
🤖 Освойте продвинутые методы NLP и работайте с LLM на высоком уровне

Хотите разбираться в архитектуре LLM, дообучать модели под свои задачи и применять самые передовые NLP-методы?

Курс «NLP. Advanced» научит вас работать с трансформерными моделями, адаптировать GPT, BERT, LangChain и RAG под реальные бизнес-кейсы, а также развертывать AI-решения.

Вы освоите передовые методики машинного обучения для NLP, получите опыт работы с cutting-edge технологиями и расширите карьерные перспективы.

🎁 Успейте записаться до старта курса и получите скидку до 15% по промокоду nlp_adv5

➡️ Оставьте заявку прямо сейчас и присоединяйтесь к группе: https://otus.pw/KzgT/

#реклама
О рекламодателе
04/03/2025, 13:29
t.me/machinelearning_interview/1690
15
88
2.0 k
📚 Prompt-in-context-learning — это открытый проект от EgoAlpha Lab, собирающий актуальные методики работы с LLM, превращая разрозненные знания в структурированную систему. Здесь вы найдете множество интересных проверенных техник— от базовых промтов до продвинутых стратегий in-context learning.

📌 Репозиторий включает не только теоретические работы по prompt engineering, но и готовые примеры для ежедневных задач: от генерации кода до анализа данных. Материалы обновляются ежедневно, включая свежие исследования и кейсы из реальных проектов.

🤖 GitHub

@machinelearning_interview
04/02/2025, 16:04
t.me/machinelearning_interview/1689
4
13
2.0 k
🦾 Курс искусственный интеллект (ML) в медицине

Научитесь создавать качественные мультимодальные медицинские датасеты и осуществлять техническую поддержку разметки данных

Ориентирйтесь в зоопарке современных подходов к машинному обучению и умейте анализировать результаты машинного обучения

✅ Выпускной проект: Разработка и внедрение модели от появления данных и размеченных датасетов до машинного обучения, анализа результатов и выбора моделей. 

👇 Проверить свой уровень и пройти тест на курс: 
https://otus.pw/eSBA/?erid=2W5zFJho1HJ

#реклама
О рекламодателе
04/02/2025, 14:50
t.me/machinelearning_interview/1688
19
65
2.1 k
🕊️ Hummingbird — инструмент от Microsoft, позволяющий преобразовывать классические ML алгоритмы в тензорные вычисления.

📝 Как это работает?
— Суть в том, что вместо привычного последовательного выполнения условий в деревьях Hummingbird использует матричные операции, что открывает доступ к GPU-ускорению и оптимизациям нейросетевых движков. При этом API остаётся знакомым любому, кто работал с scikit-learn — можно просто подменить модель без переписывания кода инференса.

Пока проект поддерживает не все алгоритмы, но уже охватывает ключевые сценарии ⚙️

🤖 GitHub

@machinelearning_interview
04/02/2025, 13:40
t.me/machinelearning_interview/1687
Repost
16
9
1.4 k
✔️ Qwen3, по слухам, будет представлена на следующей неделе.

Китайский медиапортал Sina.com.cn сообщил, что в его распоряжении есть информация, указывающая на то, что Alibaba Group планирует выпуск новой модели Qwen3 следующей неделе (7- 11 апреля). По словам экспертов медиаресурса Huxiu.com , это будет самый важный модельный продукт Alibaba в первой половине 2025 года, после выпуска DeepSeek-R1 команда Alibaba Cloud Basic Model Team еще больше сместила вектор разработки в сторону способности модели к рассуждениям.

Sina Technology обратилась за подтверждением к Alibaba Cloud, но на момент публикации официального ответа не последовало.
sina.com.cn

✔️ Microsoft закрывает ИИ-лабораторию в Шанхае.

Microsoft свернула работу своей лаборатории IoT и ИИ в технологическом кластере Чжанцзян (Шанхай), следуя стратегии сокращения присутствия в Китае. Объект, открытый в 2019 году для поддержки местных стартапов уже опустел: логотип демонтирован, оборудование вывезено. За 5 лет лаборатория помогла реализовать 258 проектов, привлекла 9,4 млрд юаней инвестиций и обучила около 10 тыс. специалистов.

Решение закрыть центр стало частью плана ухода Microsoft с китайского рынка. В 2023 году компания предложила сотрудникам, работающим над ИИ, переехать за рубеж, а также закрыла все розничные магазины в стране. По словам президента Microsoft Брэда Смита, на Китай приходится всего 1,5% глобальной выручки.
scmp.com

✔️ Руководитель отдела исследований FAIR Жоэль Пино покинет свой пост в мае.

Жоэль Пино, вице-президент по исследованиям в области ИИ компании Марка Цукерберга и глава группы FAIR, объявила о своих планах покинуть компанию в мае после почти 8 лет работы. Пино возглавляла FAIR с начала 2023 года и курировала разработку моделей Llama.

Ожидается, что уход Пино приведет к появлению вакансии высокого уровня в подразделении ИИ компании, но непосредственный преемник пока не назван.
wsj.com

✔️ Все SOTA-модели провалились на матолимпиаде-2025.

Тесты топовых LLM, проведенные matharena.ai на сложных задачах математической олимпиады США (USAMO-2025) показали печальные результаты. Модели решали 6 доказательных задач — каждая оценивалась в 7 баллов, высший балл - 42. Лидеры теста (DeepSeek-R1 и Gemini-2.0-flash-thinking) набрали меньше 5%, что ставит под сомнение их способность к глубокому математическому анализу.

Несмотря на провал, часть специалистов уверена — прогресс LLM в математике всё же есть, и он не сводится к «загрязнению» данных. Исследование, в рамка которого проводилось тестирование - «Proof or Bluff? Evaluating LLMs on 2025 USA Math Olympiad» подытоживает: LLM, даже лучшим, пока далеко до уровня человека в соревновательных дисциплинах.
matharena.ai

✔️ OpenAI представила новый голос ChatGPT "Shade".

OpenAI добавила новую голосовую опцию для ChatGPT под кодовым названием "Shade". Этот голос, описанный как "Поговори с понедельником", имеет характерную визуализацию "угрюмого черного" в расширенном голосовом режиме.

Новая опция доступна в приложении для iOS, и пользователи отмечают его уникальное звучание и эстетику "тяжелого понедельника".
OpenAI в X (ex-Twitter)

@ai_machinelearning_big_data

#news #ai #ml
04/02/2025, 09:59
t.me/machinelearning_interview/1686
25
154
2.2 k
⚡️ Проект llama-3.2-from-scratch, созданный пользователем rasbt (Себастьян Рашка), представляет собой реализацию модели Llama 3.2 на языке PyTorch с нуля.

Цель проекта — предоставить понятный и минималистичный код для изучения и исследования архитектуры больших языковых моделей (LLM).​

Основные особенности проекта:

- Простота и доступность кода: Реализация оптимизирована для читаемости, что делает её подходящей для образовательных целей и исследований.​

- Минимальные зависимости: Для работы требуются только библиотеки torch, tiktoken и blobfile, что упрощает установку и использование.​

- Предоставление предобученных весов: В репозитории доступны веса моделей, конвертированные из официальных весов, предоставленных компанией Meta. Это позволяет пользователям сразу приступить к экспериментам без необходимости обучать модели с нуля.​

- Гибкость в выборе моделей: Поддерживаются различные версии моделей Llama 3.2, включая базовые и инструкционные варианты с 1 и 3 миллиардами параметров.​

- Примеры использования: Включены примеры кода для загрузки моделей, настройки токенизатора и генерации текста, что облегчает начало работы с проектом.​

Важно отметить, что предоставленные веса моделей были конвертированы из официальных весов Meta. Для получения оригинальных весов и информации о лицензии рекомендуется обратиться к официальным репозиториям Meta на Hugging Face.​

В целом, llama-3.2-from-scratch — это ценный ресурс для разработчиков и исследователей, желающих глубже понять внутреннее устройство современных языковых моделей и экспериментировать с их архитектурой.

https://huggingface.co/rasbt/llama-3.2-from-scratch

@machinelearning_interview
03/31/2025, 22:03
t.me/machinelearning_interview/1685
11
15
1.8 k
⚡️Анализируем продажи на маркетплейсах с помощью Python

С каждым днем все больше бизнесов выходят на маркетплейсы, а значит еще более ценными становятся аналитики, которые умеют с ними работать. Хотите научиться использовать Python для анализа продаж и создания эффективных стратегий?

Андрон Алексанян - CEO Simulative в прямом эфире проанализирует продажи на маркетплейсах с помощью Python. Никаких первоапрельских розыгрышей, только полезные знания! 🧡

Что будем делать:

🟠Напишем скрипт на Python, который каждый час собирает статистику о ранжировании карточки на WB по ключевым запросам;
🟠Построим наглядные визуализации для отслеживания динамики ранжирования;
🟠Обсудим, как упаковать этот проект в идеальное портфолио.

🕗 Встречаемся 01 апреля 18:30 по МСК

😶Зарегистрироваться на бесплатный вебинар
03/31/2025, 20:19
t.me/machinelearning_interview/1684
35
296
2.1 k
📹 Топ-15 технических YouTube-каналов для изучения ИИ с нуля:

1) Andrej Karpathy — сочетание общего и технического контента, плейлист "Zero to Hero" обязателен к просмотру

2) Uproger — доступные уроки по программированию и ИИ, идеально для начинающих и тех, кто хочет углубить свои знания.

3) Umar Jamil — технический блог, где автор реализует методы ML и LLM с нуля

4) Simon Oz — технические видео по низкоуровневому машинному обучению

5) Tunadorable — отличные обзоры научных статей, реализация

6) GPU Mode — технические интервью и разборы всего, что связано с GPU

7) AI Jason — эксперименты с ИИ, дизайн ПО и новые модели, с понятным и полным разбором.

8) Ferdinand Mom — всё о распределённом обучении и выводах

9) Welch Labs — уникальный глубокий взгляд на комплексность алгоритмов машинного обучения.

10) Artem Kirsanov — нейронаука и машинное обучение с необычного авторского взгляда + отличная визуализация контента.

11) David Ondrej — новые модели, создание приложений с ИИ, практично для разработчиков https://t.co/BEOr0MgHag @DavidOndrej1

12) 3Blue1Brown
Потрясающие визуализации, которые делают абстрактные математические концепции понятными и интуитивными.

13) Lex Fridman
Глубокие беседы с лидерами индустрии ИИ, позволяющие получить широкий взгляд на современные тенденции.

14) Machine Learning Street Talk
Технические погружения и обсуждения с ведущими исследователями в области ИИ и машинного обучения.
Ссылка:

15) StatQuest with Joshua Starmer PhD
Доступные и понятные объяснения основ машинного обучения и статистики для начинающих.

Этот список для технической аудитории. Очень сложно выбрать всего 15 каналов, ведь есть множество других, создающих отличный контент.

Если знаете ещё каналы, дайте пишите в комментариях!

@machinelearning_interview
03/30/2025, 19:01
t.me/machinelearning_interview/1683
13
110
1.6 k
🔥 Пошаговый гайд создания системы автоматического распознавания речи с помощью PyTorch и Hugging Face

С эти гайдом вы сможете:
- Загружать и обрабатывать речь данные
- Настраивать предварительно обученную модель Wav2Vec2
- Оценивать производительность модели с помощью коэффициента ошибок слов (WER)
- Развертывать модель для перевода речи в текст в режиме реального времени

🔗 Читать
03/27/2025, 19:02
t.me/machinelearning_interview/1682
21
132
1.9 k
🖥 Подготовка к собеседованию на Python разработчика: нашел сборник самых частых вопросов с ответами и примерами кода.

Это квинтэссенция примеров кода и паттернов, охватывающая 99% возможных вопросов на собеседовании.

Шпаргалка объемная, время чтения - 96 минут.

На русском языке.

🟢Github
🟢Видео
🟢Полный список

@machinelearning_interview
03/26/2025, 18:29
t.me/machinelearning_interview/1681
4
11
1.9 k
20250326-31397-qwx6zi.mp4
🦾 Тест по NLP 🦾

📌Пройдите тест из 15 вопросов и проверьте, насколько вы готовы к обучению на углубленном курсе «NLP / Natural Language Processing» от OTUS. Сможете сдать - пройдете на курс по спеццене!

Курс научит вас работать с LLM, LangChain, RAG, BERT, GPT, разбирать тексты, разрабатывать чат-ботов и применять передовые трансформерные модели.

Вы освоите ключевые методы обработки естественного языка и станете востребованным специалистом в области Data Science.

🎁 Весенние скидки в Отус!🦉 Скидка 10% до 01.04

👉ПРОЙТИ ТЕСТ

#реклама
О рекламодателе
03/26/2025, 17:15
t.me/machinelearning_interview/1680
17
102
2.0 k
🖥 OpenAI открывает бесплатное обучение по работе с нейросетями

OpenAI запустила "Академию OpenAI", которая претендует на роль главного учебника по ИИ. Платформа поможет освоить нейросети, понять их возможности и научиться эффективно использовать ChatGPT и Sora в повседневной жизни и работе.

▪ Обширная база обучающих материалов доступна на отдельном сайте.
▪ Живые трансляции и офлайн-мероприятия помогут глубже разобраться в технологиях.
▪ Бесплатный доступ — OpenAI стремится расширить аудиторию, а не ограничивать её ценником.

📌Начать обучение
📌 Блог
03/26/2025, 13:21
t.me/machinelearning_interview/1679
Repost
24
123
1.4 k
✔️ СuML от NVIDIA: Scikit-learn на скорости GPU – без единой строчки нового кода!

Все мы любим scikit-learn за его простоту и мощь. Но что если ваши модели обучаются слишком долго на больших данных? 🤔 NVIDIA предлагает решение!

Вы берете свой обычный скрипт cо scikit-learn, добавляете всего две строки в начало, и он начинает работать в 10, 50, а то и 100+ раз быстрее на NVIDIA GPU! 🔥

✨ Как это работает?

Библиотека cuml от NVIDIA содержит супероптимизированные для GPU версии многих алгоритмов машинного обучения. С помощью простого вызова cuml.patch.apply() вы "патчите" установленный у вас scikit-learn прямо в памяти.

Теперь, когда вы вызываете, например, KNeighborsClassifier или PCA из sklearn:

▶️Патч проверяет, есть ли у вас GPU NVIDIA.
▶️Проверяет, есть ли в cuml быстрая GPU-версия этого алгоритма.
▶️Если да – запускает ускоренную версию на GPU! 🏎️
▶️Если нет (нет GPU или алгоритм не поддерживается) – спокойно запускает обычную CPU-версию scikit-learn.

Ключевые преимущества:

✔️ Нулевые изменения кода: Ваш scikit-learn код остается прежним. Добавляете только 2 строчки:
import cuml.patch и cuml.patch.apply().
✔️ Колоссальное ускорение: Получите прирост производительности на порядки для поддерживаемых алгоритмов (KNN, PCA, линейные модели, Random Forest (инференс), UMAP, DBSCAN, KMeans и др.) за счет мощи GPU.
✔️Автоматическое переключение между GPU и CPU. Ваш скрипт будет работать в любом случае.

Топ инструмент для всех, кто работает с scikit-learn на задачах, требующих значительных вычислений, и у кого есть GPU от NVIDIA.

👇 Как использовать:

Установите RAPIDS cuml (лучше через conda, см. сайт RAPIDS):


python
conda install -c rapidsai -c conda-forge -c nvidia cuml rapids-build-backend

Добавьте в начало скрипта:


import cuml.patch
cuml.patch.apply()

Используйте scikit-learn как обычно!

Попробуйте и почувствуйте разницу! 😉

Блог-пост
Colab
Github
Ускоряем Pandas

@ai_machinelearning_big_data


#python #datascience #machinelearning #scikitlearn #rapids #cuml #gpu #nvidia #ускорение #машинноеобучение #анализданных
03/26/2025, 11:45
t.me/machinelearning_interview/1678
189
1.9 k
03/22/2025, 14:47
t.me/machinelearning_interview/1673
183
1.7 k
03/22/2025, 14:47
t.me/machinelearning_interview/1675
208
2.2 k
03/22/2025, 14:47
t.me/machinelearning_interview/1677
189
1.9 k
03/22/2025, 14:47
t.me/machinelearning_interview/1674
183
1.7 k
03/22/2025, 14:47
t.me/machinelearning_interview/1676
188
1.8 k
03/22/2025, 14:47
t.me/machinelearning_interview/1669
28
188
1.9 k
🖥 Что под капотом у PyTorch

Подробный блог-пост о том, как на самом деле работает внутренняя часть PyTorch.

📌 Читать
📌Видео объяснения базы по тензорам

@machinelearning_interview
03/22/2025, 14:47
t.me/machinelearning_interview/1668
188
1.9 k
03/22/2025, 14:47
t.me/machinelearning_interview/1671
Search results are limited to 100 messages.
Some features are available to premium users only.
You need to buy subscription to use them.
Filter
Message type
Similar message chronology:
Newest first
Similar messages not found
Messages
Find similar avatars
Channels 0
High
Title
Subscribers
No results match your search criteria