O seu período de teste terminou!
Para acesso total à funcionalidade, pague uma subscrição premium
NO
Refat Talks: Tech & AI
https://t.me/nobilix
Idade do canal
Criado
Linguagem
Russo
-
ER (semana)
51.75%
ERRAR (semana)

Заметки про технологии, GenAI и глобал стартапы, прагматично и без лишнего хайпа Co-founder devstark.com и spreadsimple.com, рисерчу и пишу код лс @refatametov

Mensagens Estatísticas
Repostagens e citações
Redes de publicação
Satélites
Contatos
História
Principais categorias
As principais categorias de mensagens aparecerão aqui.
Principais menções
Não foram detectadas menções significativas.
Encontrado 45 resultados
Сегодня наткнулся на aiengineerpack.com - сборник бесплатных ништяков для девелоперов и энтузиастов, которые возятся с AI. Там можно получить кучу бесплатных крЕдитов и скидок для популярных AI-сервисов одним кликом. Просто логинишься через GitHub и все (почти - кое-где еще форму просят заполнять).

Что там есть сейчас:
- До 6 месяцев с безлимитным Notion AI ($6000 - серьезно?)
- $1000 компьют-кредитов на Daytona (годнота, про них запланирован пост)
- 50% скидка на DeepReel Pro на 12 месяцев
- $50 кредитов на Upstash - там есть KV, MQ и векторная БД
- и еще около 30 сервисов со скидками или бесплатно.

Уже третий батч пошел, какие-то офферы, правда, sold out, но большинство еще доступно. Судя по всему, будут и следующие.

Кстати, попутно выяснил что у ElevenLabs есть неплохая стартап-программа: elevenlabs.io/startup-grants

Репостни: карму поднимешь, другу поможешь, и мне будет мотивация чаще таким делиться 🤜🤛
23.04.2025, 23:19
t.me/nobilix/50
Разбираемся с бенчмарками.

Перед тем, как погрузиться в Evaluation AI-приложений, важно понять, как мы вообще меряем производительность больших языковых моделей. И тут нас встречает целый зоопарк бенчмарков с непонятными названиями: MMLU, HumanEval, GSM8K, HellaSwag, TruthfulQA, SWE-bench, LMarena leaderboard... список можно продолжать бесконечно. Их реально очень много.

Давайте разберемся, что это за зверь такой - LLM-бенчмарк, зачем их так много, какие из них реально помогают понять, хороша ли модель и почему бенчмарки не панацея.

Бенчмарки для AI моделей — это стандартизированные тесты, которые оценивают способности моделей решать различные задачи. По сути, это экзамены для AI.

Типичный бенчмарк включает набор заданий с правильными ответами и систему оценки. Например, MMLU (Massive Multitask Language Understanding) содержит вопросы с множественным выбором по 57 предметам — от математики до юриспруденции. Модель получает вопрос, выбирает ответ, а система подсчитывает процент правильных ответов.

Бенчмарки нужны для:
- Стандартизированного сравнения моделей
- Отслеживания прогресса технологий
- Выбора подходящей модели для конкретных задач

Полный список не поместился бы в пост, но вот вам неплохой обзор 20 самых популярных бенчмарков: https://www.evidentlyai.com/llm-guide/llm-benchmarks

Я давно не особо обращаю внимание на очень популярные бенчмарки вроде MMLU или SWE-bench...
Потому что:
1. Загрязнение данных. Модели тренируются на огромных корпусах текста из интернета. Угадайте, что там есть? Правильно, тесты и ответы из популярных бенчмарков!
2. Быстрое устаревание. Как только выходит новая модель, которая "решает" бенчмарк, он теряет смысл как средство оценки.
3. Отрыв от реальных задач. Многие бенчмарки проверяют узкие, хорошо определенные задачи, которые не отражают сложность реальных сценариев.

Но все же есть ряд бенчмарков и сайтов, на которые я советую обратить внимание (а вы делитесь своими в комментах):

- Aider Leaderboard - хороший и практичный, для оценки кодинга
- EQBench для оценки креативного письма (там много категорий)
- LiveBench - довольно качественный и в освновно соответствует моему опыту работы с конкретными моделями (похожий на него и тоже хороший SimpleBehch)
- Kagi LLM Benchmark- один из самых инновационных подходов, бенчмарк, который постоянно обновляется, чтобы предотвратить "запоминание" моделями тестов.

Еще два сайта заслуживают отдельного упоминания, они в категории агрегатов, это:
- https://artificialanalysis.ai - это аналитическая платформа, которая делает рентген всей экосистеме AI-моделей, тестирует модели по стандартным бенчмаркам, строит лидерборды и графики сравнения а также по собственной методике. Также есть аналитические статьи и обзоры.
- https://llm-stats.com - это простой удобный агрегатор данных об LLM, который собирает в одном месте информацию, позволяя быстро сравнивать (прям как в маркетплейсах) модели по показателям и ценам. Цены, кстати удобно сравнивать еще на OpenRouter

Практические советы
1. Используем бенчмарки как ориентир, а не как истину
2. Обращаем внимание на специализированные бенчмарки для конкретных областей, задач, языков - они точнее.
3. Cамый надежный бенчмарк — это твой собственный (как такие делать разберем в следующих постах этой серии).
4. Сохрани этот пост, пригодится.

А какими бенчмарками или сравнительными сайтами пользуетесь вы? Делитесь в комментариях.
22.04.2025, 23:36
t.me/nobilix/49
Получил доступ к Manus. Да, это тот самый автономный AI-агент, про который шумели последние месяцы. Пока что впечатления чисто поверхностные, но уже есть что рассказать.

Что это вообще такое?
Manus.im – автономный AI-агент нового поколения. Его основная фишка – он реально работает сам, в облаке, без твоего постоянного участия. Просто даёшь задачу, закрываешь ноут и идёшь пить кофе (или спать, если ты нормальный человек). Manus в это время:
- планирует и разбивает задачу на подзадачи,
- кликает, скролит, анализирует как пользователь сайтов,
- пишет код, делает аналитику, собирает данные,
- показывает промежуточные результаты в реальном времени, давая возможность вмешаться, если нужно.

Проще говоря, это полноценный AI-ассистент, который вместо ответов в стиле GPT выдаёт готовый рабочий результат – от сайта до глубокого финансового анализа.

Недавно ценник был космический, но сейчас уже можно зайти без кредита на машину. Спасибо Тимуру за инвайт (вот его канал), теперь буду активно тестить!

Что уже успел узнать:
- Manus круто вытягивает сложные задачи, особенно технические. Кто-то с Reddit запустил сайт некоммерческой организации, тупо попросив Manus сделать всё от и до. Другой чел заставил Manus проанализировать счета за мобильную связь, нашёл ошибки почти на $1000, получил полный сценарий звонка в саппорт и отбил деньги.
- Агент использует подход "код как API", то есть реально пишет код, а не просто говорит об этом. Уже нашёл проект, где Manus по одной строке промта клонировал сайт Apple (смотри, как у них получилось: https://bxzlhlmm.manus.space/).

Пока ждёте инвайт, ловите инсайт, как быстро подсмотреть, что делают другие:
1. Идёте на google.com
2. Пишите в поиске: site:manus.im/share или site:manus.space
3. Изучаете уже созданные проекты.

Из прикольного, что уже нарыто:
- Дашборд AI B2B-компании: https://bcpgqobc.manus.space
- Анализ крупнейших агентств недвижимости с детализацией по транзакциям и комиссиям: https://manus.im/share/qinzRC0m770weHZbbLkmjk

Короче, потенциал огромный, но надо тестировать глубже. У меня есть два инвайта – пишите в комментарии, кому дать!

Буду держать в курсе и делиться кейсами. Stay tuned!
21.04.2025, 22:24
t.me/nobilix/48
20.04.2025, 12:28
t.me/nobilix/47
#ReDigest

Продолжаем субботнюю рубрику. Куча апдейтов от OpenAI - причем не только модели, но еще гайды и даже соцсеть; а еще 4chan взломали.

Дайджест недели:

Блок OpenAI:
- выпустили o3 и o4-mini — мультимодальные модели с улучшенным ризонингом. o3 дешевле o1 (инпут $10/1M, аутпут $40/1M), а o4-mini — еще дешевле ($1.1/1M и $4.4/1M). На AIME 2025 o3 показывает 98.4%, а o4-mini — рекордные 99.5%.

- также выпустили GPT-4.1, GPT-4.1 mini и GPT-4.1 nano через API (не в чате). Впервые у всех трех контекст 1M токенов. На SWE-bench обгоняют даже o1-high при меньшей цене. Четко слушаются инструкций, но ничего космического.

- Они же выпустили флекс-процессинг в API — скидка 50% если согласны ждать ответ чуть дольше. Идеально для асинхронной обработки или разметки. Активируется параметром service_tier="flex".

- В опенсорс выложили агента Codex для командной строки (лицензия Apache 2.0). Превращает терминал в среду программирования на естественном языке. Установка: npm install -g @openai/codex

- Выпустили гайд по промпт-инжинерингу GPT-4.1. Советуют размещать промпты в начале и конце, использовать XML вместо JSON и напоминания в системных промптах для агентов.

- OpenAI разрабатывает соцсеть! Прототип уже доступен как галерея сгенерированных изображений. Вспоминается ответ Альтмана на предложение Маска купить OpenAI: "Мы бы лучше купили X".

- OpenAI преодолели отметку в 800 млн пользователей (10% населения Земли). За 2024 выросли в 4 раза по WAU. К концу 2025 планируют достичь 1 миллиарда.

- OpenAI покупают Windsurf (бывший Codeium) — один из главных конкурентов Cursor. Сделка оценивается в $3 млрд.

- Тестируют водяные знаки для бесплатных пользователей генерации изображений в 4o. Plus-подписчики смогут скачивать без водяных знаков.

Другие новости:

- Google выпустили Gemini 2.5 Flash — гибридную модель с автоматическим ризонингом (можно настроить бюджет в API). Лучше Claude 3.7 и R1, дешевле o4-mini и Grok-3. Цены: $0.15/M инпут, $0.6/M аутпут ($3.5/M с ризонингом).

- Выпустили Gemma-3 для домашних видеокарт. Gemma 3 27B теперь требует всего 14GB vRAM вместо 54GB, а Gemma 3 1B запустится на 0.5GB (почти на утюге). Используется Quantization-Aware Training вместо обычного квантования.

- Google представили TxGemma — семейство моделей для разработки лекарств. Модели обрабатывают белки, малые молекулы, нуклеиновые кислоты и прочее. Есть версии на 2B, 9B и 27B. На Humanity's Last Exam по химии и биологии — 81.7% против 64.5% у предшественников. Всё в опенсорсе.

- Midjourney превращается в ИИ-фигму — обновили редактор изображений с новым интерфейсом, инструментами выделения и послойным редактированием.

- HuggingFace купили робо-стартап Pollen Robotics — создателей опенсорсного робота Reachy 2. Планируют развивать его вместе с сообществом. Готовый Reachy 2 можно купить за $70K.

- В Китае прошел первый полумарафон для людей и роботов. Участвовали 20+ двуногих роботов. Победитель среди людей пробежал за 1:02, среди роботов — Tiangong Ultra за 2:40.

- Китайский Kling выпустил обновление до 2.0 Master — улучшенная генерация анимации персонажей и движения камеры.

- 4chan взломан — утекли данные модераторов, часть пользовательской информации, переписки и исходный код. Некоторые модераторы использовали рабочие .gov и .edu почты. Впервые не форчан кого-то ломает, а его.
19.04.2025, 19:47
t.me/nobilix/46
Пятница, поэтому без тяжелого контента.

Есть старый-добрый сайт sinonim.org. Вот реально не понимаю, почему еще никто не сделал MCP для него. В эпоху, когда все ломают голову над тем, как сделать тексты человечнее и креативнее, тут кто-то уже придумал всё за нас.

Залипаю там постоянно и испытываю просто детский восторг от количества смешных и неожиданных синонимов. Вот, например, что там можно найти:

- Ботинки? Подкрадухи, подкрадалы, черевички, говнодавы.

- Нос — это "соплехранилище" или вообще "что на витрине, то и в магазине". Гениально же!

- Туалет: "строение неизвестного архитектора", "кабинет раздумий" и много менее приличного, но не менее смешного

Найдете больше шедевров там 😄 Например такое
18.04.2025, 23:57
t.me/nobilix/45
OSINT + AI для бизнеса: превращаем открытые данные в конкурентное преимущество

Я давно интересуюсь OSINT, и с развитием AI вижу, как это направление реально переходит на новый уровень.

Немного терминов: OSINT (Open Source Intelligence) — это умение добывать и анализировать информацию из открытых источников, чтобы превращать её в ценные инсайты. В условиях информационного шума и бешеной конкуренции, кто лучше умеет обрабатывать данные, тот и выигрывает.

Интересный факт: 96% контента в сети не найдёшь через обычный гугл — это так называемый «глубокий интернет». И в этих данных часто скрыты золотые жилы.

Что может OSINT для твоего бизнеса?

1. Конкуренты становятся прозрачными
Вместо поверхностного анализа AI+OSINT может вытащить на свет внутреннюю кухню конкурентов:
- Какие технологии они используют (через технический анализ их сайтов и приложений).
- Их внутренние процессы и даже планы (через анализ метаданных публичных файлов и резюме сотрудников).

2. Скрытые клиенты
Используя технические маркеры, такие как общие аналитические ID, субдомены и DNS-записи, стартапы и B2B-компании могут вычислить клиентские базы своих конкурентов.

3. Прогнозы действий на рынке (и даже доходов)
Инвесторы и аналитики уже давно используют OSINT нестандартно — например, через спутниковые снимки парковок у магазинов прогнозируют их квартальную выручку, а через анализ патентов и вакансий компаний — стратегию развития бизнеса.

Как именно AI трансформирует OSINT?
- Автоматизация сбора и структурирования данных: AI делает это быстрее и масштабнее, справляясь с огромными объемами информации.
-Поиск скрытых взаимосвязей: AI находит неочевидные связи между разрозненными источниками информации, формируя полную картину.
- Генерация гипотез и профилей клиентов: Создание "цифровых двойников" и прогнозирование потребительских трендов, основанных на открытых данных.

Самые перспективные направления — это автономные AI-агенты, мультимодальный анализ (текст + фото + аудио) и персонализированные поисковые системы.

Конечно, важно помнить, что OSINT всегда должен оставаться в рамках закона и этики:
- Не нарушай TOS сервисов и не используй данные, полученные нечестным путём.
- Соблюдай требования GDPR и других законов о персональных данных.

Если раньше OSINT был в основном уделом специалистов по безопасности и журналистов-расследователей, то теперь это все больше мощный инструмент для бизнеса любого масштаба.
17.04.2025, 23:22
t.me/nobilix/44
Как стартапу получить $10K-$100K ресурсов от NVIDIA и быть красавчиком

Вторая часть серии Как стартапу получить бесплатные ресурсы от Big Tech (первая тут)

Мы проходили аппрув по этой программе несколько раз — как для своих продуктов, так и для клиентских. И это одна из самых щедрых программ сейчас.

Вот зачем вам это: Что даёт NVIDIA Inception?
- до $100K AWS Credits (траншами, 10K, 25K и тд)
- Доступ к GPU-кластерам, и даже скидки на их железо (получить не просто, надо найти реселлера и заключать с ним договор)
- Возможность использовать NVIDIA логотип как партнера — полезно для доверия, особенно на ранних стадиях
- Промо от NVIDIA, если показываете прогресс
- Быстрый и лёгкий вход: без акселераторов, без equity, просто заявка

Главное, вам не нужен акселератор или инвестор, чтобы получить бенефиты. NVIDIA сама выступает как партнёр для таких программ как AWS Activate, и это мощно.

Что нужно, чтобы вас приняли?
- AI-компонент в продукте (LLM, ML, комп. зрение — подойдёт всё)
- Домен, лендинг, бизнес-почта — базовый digital presence
- Желательно: трекшн или MVP. Не обязательно, но добавит веса
- Стартап в юрисдикции без санкций (разумеется)

По опыту, если у вас реальный AI-проект — шанс быть принятым очень высокий.

Как применить?
- Регистрируетесь на NVIDIA Inception https://www.nvidia.com/en-us/startups/ (Apply Now).
- Пишете в анкете про AI-фокус, зачем вам GPU и как NVIDIA может быть полезна (Полей много, лучше сохраните заранее если форма сбросится).
- Упомяните фреймворки типа CUDA, TensorRT, Omniverse — даже если просто планируете использовать.
- Получаете подтверждение → активируете AWS Activate (и/или GCP, Azure) → получаете клауд ресурсы.
- Дальше можно идти за дополнительными ресурсами (вплоть до $100K), если покажете прогресс и адекватную потребность.

Репорстни другу-стартаперу.

С вас 🔥, получается.
16.04.2025, 23:36
t.me/nobilix/43
Как говорил мой дед: "Доверяй но verify"!

Это вводный пост в серии постов про Evaluation в LLM-приложениях (RAG, AI-автоматизации, агенты и все такое) — одну из самых недооцененных, но при этом критически важных тем.

Evaluation в контексте LLM-приложений — это систематическая проверка качества ответов модели на разных запросах для выявления ошибок и слабых мест до того, как их заметят пользователи.

Зачем?
- Это ваш пропуск в прод. Evaluation определяет, готово ли ваше AI-приложение к реальным пользователям. Дает точные ответы? Не выдумывает? Соответствует стандартам компании? Все эти критерии нужно как-то измерять.
- Это ваши тесты. Без них вы не поймете, стало ли лучше после очередного апдейта или вы что-то сломали.
- Это ваш навигатор. Хорошая система оценки показывает не просто "модель плохая", а конкретно где и почему она ошибается, давая четкое направление для улучшений. Измеряешь - значит управляешь.

Я вижу, что многие проекты не уделяют этому должного внимания, а потом удивляются, почему клиенты уходят или почему автоматизации "глючат". Нормальный evaluation — это компас для твоего продукта. И это не так сложно как кажется.

В ближайшие недели я запланировал целую серию постов, где мы глубже разберем каждый шаг: от составления "золотого" датасета и автоматизации оценки, а также принятые в индустрии метрики и бенчмарки, LLM-as-a-Judge, Human Eval и вот это вот все. Будет и теория, и практические приемы, которые ты сможешь применить уже сейчас.

Если хочешь подсветить приоритеты или хочешь поделиться своим опытом — велкам в комментарии.

Ставь 🔥 если интересна эта тема.
15.04.2025, 21:37
t.me/nobilix/42
Итак, сегодня мы запустились на Product Hunt, это происходит сейчас!

SpreadSimple - это один из продуктов нашей команды и это его второй запуск на PH (прошлый раз мы запускались много лет назад, пост об этом).

Мы вышли (в жесткой борьбе с крутыми продуктами вроде ClaudFlare Agents!) на главную страницу, но до 1 места еще далеко.

Это маркетинговый эксперимент, о результатах я сделаю отдельный пост: трафик, способы продвижения, география визитов и главный вердикт - стоит ли оно того в 2025?

А пока - share some love, как говорится! :) https://www.producthunt.com/posts/spreadsimple-2-0

P.S. Только если у вас есть аккаунт на Product Hunt, новый создавать не надо - это только навредит!

❣️
14.04.2025, 20:26
t.me/nobilix/41
Raycast: приложение, без которого я не представляю работу за компом.

Если вы на Mac, это просто must have вместо стандартного Spotlight (глобальной строки поиска/запуска). Windows версию тоже скоро обещают, но может это вас вдохновит поискать аналоги уже сегодня, сам формат - топ.

На видео - их 101 сценариев использования за 8 мин., но я расскажу про то, чем сам пользуюсь каждый день:

- Запуск приложений. Пишешь 1-3 символа, и он предлагает именно то приложение, которое тебе нужно. Работает в разы умнее и быстрее встроенного Spotlight.

- Поиск файлов. Удивительно, но ищет и быстрее, и точнее, чем нативный Finder. Плюс сразу с предпросмотром.

- История буфера обмена. Не представляю как без этого жить. Копируешь несколько вещей подряд и вставляешь в нужном порядке. Или быстро находишь то, что копировал вчера или неделю назад.

- Быстрые расчеты. Калькулятор, конвертер валют, операции с датами, перевод между часовыми поясами - все работает моментально и с историей.

- Поиск эмодзи. Встроенный в Mac пикер эмодзи просто кошмарный - загружается вечность. В Raycast - моментально и с поиском по смыслу.

- Зеркало. Камера, которая работает как зеркало. Можно быстро проверить как выглядит кадр перед встречей, потому что загружается мгновенно.

- Куча мелких утилит. Встроенные фичи, которые не нужно помнить - просто набираешь, например, "kill" и завершаешь любое приложение из списка, который тут же можно фильтрануть. Еще из регулярно используемых: скриншоты, запись аудио и экрана, управление расположением окон, конвертация изображений, переводчик и тд.

А еще есть куча раширений и, конечно, встроенный AI.

Продуктивной рабочей недели!
13.04.2025, 22:04
t.me/nobilix/40
#ReDigest

Продолжаем субботнюю рубрику, тут я кратко рассказываю про новости из мира технологий и AI, которые привлекли мое внимание.

Дайджест недели:

- Meta выпустила семейство (отару лам?) Llama 4 — три опенсорсные модели с контекстом до 10М токенов и нативной мультимодальностью. Все построены на архитектуре MoE. Неплохой релиз, но омрачен скандалом с накруткой LMArena

- VSCode мощно обновился, добавив Agent Mode — бесплатный аналог Cursor с автономным редактированием кода, исправлением багов, полным контекстом кодовой базы и поддержкой MCP.

- Google объявил о поддержке протокола MCP и представил свой протокол Agent2Agent для коммуникации ИИ-агентов независимо от используемого фреймворка или вендора.

- Google выпустил новый чип TPUv7s (кодовое имя Ironwood) с 192 ГБ видеопамяти — в 10 раз мощнее и в 2 раза энергоэффективнее предыдущего TPUv5.

- Firebase Studio — новый AI-редактор приложений в браузере от Google. Дают бесплатно на 3 проекта. С их облачной инфраструктурой — мощная заявка на рынке.

- В Google-таблицах появилась формула =AI() — просто пишете AI(<промпт>), и получаете результат прямо в ячейке. Мой пост про это.

- ChatGPT получил глобальную память — теперь система помнит все ваши переписки полностью и может на них ссылаться, а также учитывает любые когда-либо высказанные предпочтения.

- Anthropic запустили дорогие подписки Max: $100 (лимиты в 5 раз больше Pro) и $200 (лимиты в 20 раз больше Pro). Это на фоне растущих жалоб пользователей на упирание в лимиты Claude.

- AlphaXiv выпустили бесплатного агента Deep Research — за минуту генерирует комплексный литобзор на любую научную тему, советует источники и отвечает на вопросы по теме.

- OpenAI запустили программу Pioneers для работы со стартапами из реального сектора.

- Perplexity теперь доступен в Telegram через официального бота @askplexbot. Ответы короткие и с минимумом источников, но иногда удобно.

- Cloudflare запустил AutoRAG в открытой бете — полностью автоматический RAG-пайплайн без единой строчки кода. На время беты все бесплатно. Мой обзор.

- WordPress запустил бесплатный ИИ-генератор сайтов с чат-интерфейсом. В бесплатном тарифе доступно 30 запросов, дальше нужен платный хостинг от $48/год.

- YouTube запускает бесплатный ИИ-генератор музыки для создания уникальных инструментальных треков для видео.

- Microsoft обучила Copilot "видеть" экран Windows — функция Copilot Vision анализирует изображение на экране и дает подсказки для разных приложений от Minecraft до Photoshop.

- CapCut запускает ИИ-сервис Dreamina для генерации видео с поддержкой русского языка. Умеет генерировать видео, анимировать изображения и синхронизировать речь с движениями губ.

- В WhatsApp тестируют функцию "расширенной конфиденциальности" — запрет на экспорт чатов и автосохранение медиа. И в то же время обнаружена уязвимость, позволяющая выполнять вредоносный код через вложения. Ума не приложу, почему WA все еще популярен.

- 🔥 Администрация Трампа освободила смартфоны, компьютеры и электронику от новых пошлин. Исключения также получили полупроводники, дисплеи, флэш-накопители и SSD.
12.04.2025, 18:07
t.me/nobilix/38
Делаешь проект - разберись наконец в open-source лицензиях!

Опять наткнулся на очередной кейс когда фаундер искренне думает, что если софт на гитхабе, значит, бери и делай с ним что угодно. Это не так работает!

Вот, пример (на удивление частый), n8n - популярный no-code инструмент для автоматизаций. Классный? Очень. Open-source? Да, почти 80 тыс звезд на гитхабе. Вот только лицензия (Sustainable Use License) позволяет тебе развернуть его ТОЛЬКО для себя или своей компании. Большое агентство решило развернуть у себя n8n и запустить автоматизации для клиентов? Поздравляю, лицензия уже нарушена, привет последствия.

Или другой пример - Airbyte, мощнейшая платформа для дата-инжиниринга (ELT). Тоже open-source. И тоже с подвохом. Их лицензия не даeт тебе права встраивать Airbyte в свои коммерческие продукты. Сегодня куча стартапов пилит AI-проекты и хочет быстро что-то внедрить на базе open-source, совершенно не читая LICENSE md. Ребята, это жесть. Читайте лицензии!

Очень коротко и грубо, на практике open-source лицензии сводятся к основным типам:

1. Permissive (MIT, Apache 2.0, BSD)
Максимальная свобода, минимум ограничений. Используй, модифицируй, распространяй.

2. Weak Copyleft (LGPL, MPL, EPL)
Разрешается использовать код в коммерческих закрытых приложениях, но (!) изменения в коде должны оставаться открытыми (модифицировал под себя - выложи в паблик)

3. Strong Copyleft (GPL, AGPL)
Любые производные должны распространяться под той же лицензией. Коммерческое использование сильно ограничено.

Особые случаи:
Sustainable Use License (n8n и все больше таких примеров): Можно использовать только внутри своей организации, коммерческие услуги для внешних клиентов запрещены, делать свои продукты с такими проектами - плохая идея.

Короче, мораль простая: open-source не значит "бери и используй как хочешь". Лицензия - это не бюрократический рудимент, а реальный инструмент защиты авторов и, возможно, ловушка для тебя.
11.04.2025, 19:54
t.me/nobilix/37
Wikipedia Current Events: лайфхак против новостного передоза.

Долгое время мой день начинался с телефона и бесконечного потока новостей в тг каналах и новостных сайтах. Итог – тревожность вместо бодрости.

Недавно нашел простой и действенный лайфхак – живой портал Current Events на Википедии:
- Только факты, нейтрально и кратко, без лишних эмоций
- Нет рекламы, журналистских манипуляций, хайпа и токсичных комментариев
- Можно углубиться в конкретные темы через ссылки на подробные (живые) статьи

Например, вот актуальная статья о горячей теме тарифов Трампа (Ангоязычная версия всегда полнее, но можно перевести прямо в браузере или в LLM). История пишется прямо сейчас – удобно следить за развитием событий, когда у вас есть время и желание разобраться.

FOMO (страх упустить что-то важное) не даст вам реальных преимуществ, только добавит тревоги и нервозности. Именно поэтому в моем канале нет молниеносных новостей в стиле "OMG, вышла новая модель!" Все успеется, берегу ваши нервы – лучше больше пользы и инсайтов.

Перешли этот пост другу, который постоянно думскроллит новости!
10.04.2025, 21:43
t.me/nobilix/36
=AI() формула для всех, бесплатно и с любой моделькой.

Итак, Google добавил =AI как формулу в гугл-таблицы, я попробовал и... она во-первых не работает на обычных Google аккаунтах, так еще и криво работает в WorkSpaces (все-таки альфа). И когда заработает, то это будет только Gemini.

Но сегодня мы с вами за пару минут сделаем свою собственную версию этой формулы! + работающую с любыми моделями. На видео показан весь процесс:

1. В меню Google Sheets открываем App Scripts
2. Вставляем туда код, который мы написали с Клодом: https://gist.github.com/nobilix/2ed11c6561e05645f6e03f9394f3fc5b
3. В OpenRouter получаем API key и заменяем его в скрипте, сохраняем
3. Все! Теперь вы можете использовать формулу в своей таблице: =LLM("промпт", "A1")

В OpenRouter много бесплатных моделей, но в платной версии у вас не будет жестких рейт-лимитов + вы можете использовать и родной OpenAI API, и даже Ollama с локальной моделью.

Сам системный промпт можно заменить в скрипте, ну или вы можете навайбкодить полностью свою версию.

💫
9.04.2025, 19:05
t.me/nobilix/35
Cloudflare выпустил AutoRAG - инфраструктура для ваших RAG на автомате

Обычно я не пишу посты с новостями посреди недели, для этого есть субботы, но тут прям хочу поделиться.

Cloudflare только что запустил AutoRAG в открытой бете (пост). Это полностью автоматический RAG-пайплайн, который берет на себя загрузку данных, чанкинг, эмбеддинги, хранение векторов и поиск по ним - и все это без единой строчки кода и хостится у них же. На время бета-тестирования сервис полностью бесплатный.

Для тех, кто не в теме: RAG (Retrieval-Augmented Generation) позволяет AI искать в ваших данных (документах) перед ответом, делая его точнее, очень распространенная архитектура в AI-приложениях. Построение таких систем с большим количеством файлов и автоматическим обновлением - непростая техническая задача.

AutoRAG устраняет всю эту сложность, ребята сделали все на автомате - вы грузите файл и получаете готовый API для вашего RAG-а. У вас 100К файлов? Не проблема, их облако обработает все параллельно. Я протестил - сейчас доступен инджестинг файлов, и скоро добавят поддержку Web Crawler и БД. Работает шустро, API очень удобный. Конвертация из разных форматов в Markdown тоже в комплекте.

Вы скажите: ну и что, были же подобные сервисы? Дело в том что Cloudflare - это огромная компания, которая имеет глобальное значение для интернета, и при этом они умеют делать простые и прекрасные продукты, бесплатные или супер-дешевые. И этот релиз не исключение - думаю, мы скоро увидим очень много RAG-систем, построенных на этой платформе. Считайте это как Vercel для RAG.
8.04.2025, 21:54
t.me/nobilix/34
7.04.2025, 20:07
t.me/nobilix/33
В моей ленте есть несколько каналов, которые я читаю стабильно и жду новых постов. Один из таких ведeт мой приятель Лёха.

Он, кстати, не просто "про AI", а на секундочку – сооснователь AI-подразделения Red Mad Robots - ребята пилят AI-продукты для бизнеса, а не просто балуются с нейронками по выходным.

Короче, чтобы вы не думали, что это тупо реклама: просто посмотрите любой его пост, и, скорее всего, в комментах торчит мой аватар.

Из недавнего: эксперименты с MCP, как научить ИИ рисовать картинки текстом(ASCII art), эксперименты с вайбкодингом.

В общем, если вы интересуетесь темой AI и бизнеса вокруг этого - вот ссылка на канал: https://t.me/alexs_journal
6.04.2025, 11:10
t.me/nobilix/32
#ReDigest

Продолжаем субботнюю рубрику.

Дайджест недели:

- OpenAI: Сэм Альтман объявил о выпуске o3 и o4-mini "через несколько недель". Первое упоминание модели o4, а запуск GPT-5 откладывается.

- Anthropic запускает Learning mode в Claude — вместо прямых ответов дает подсказки как учитель, задает наводящие вопросы и генерирует учебные материалы.

- OpenAI запустили Academy — курсы не только для новичков, но и продвинутые темы вроде GraphRAG. Зарегистрировался, есть интересные материалы.

- Orange Pi выпустила одноплатный компьютер RV2 на RISC-V с открытым кодом, поддерживающий локальный запуск DeepSeek R1 и стоимостью $30-40. Вы тоже как я сразу подумали про умный дом?

- Runway выпустили модель генерации видео Gen-4 с отличным постоянством объектов и персонажей. Судя по демкам, качество впечатляет.

- Вышла Midjourney v7: добавили драфт-режим — скоростная генерация в голосовом моде (в 10 раз быстрее, в 2 раза дешевле). Плюс персонализация по умолчанию. Пока в альфе.

- OpenAI в честь 1 апреля добавили в ChatGPT голос "Monday" — звучит как тяжелое утро: разбито, пассивно-агрессивно и с сарказмом. Кто-то в OpenAI явно понимает нашу боль по понедельникам.

- Devin 2.0: параллельная работа нескольких агентов, локальный браузер для тестирования, режимы для поиска по кодовой базе. Выглядит как серьезный конкурент Cursor? В прошлый раз это был большой over-promise.

- Zencoder разработали Repo Grokking — технологию для понимания всей кодовой базы агентами. По бенчмаркам обходят Cursor и GitHub Copilot.

- Amazon выпустил свой аналог Operator от OpenAI — Nova. Планируют внедрить в Alexa+ и предоставили SDK для разработчиков.

- Higgsfield — новый генератор видео с "кинематографическим движением камеры". Можно создать два бесплатных видео до 5 секунд. Технологию оценил даже оскароносный создатель эффектов для "Матрицы".

- OpenAI сделали подписку Plus бесплатной для всех студентов США и Канады до конца мая — просто потому что у них экзамены.

- Neuralink открыл глобальный набор добровольцев для имплантации чипов. Проект нацелен на помощь людям с квадриплегией управлять устройствами силой мысли.

- В OpenRouter появилась загадочная Quasar Alpha с контекстом до 1 млн токенов. Модель представляется как ChatGPT, некоторые подозревают, что это стелс-релиз от OpenAI. По тестам — нечто среднее между o3-mini и DeepSeek V3, хороша в кодинге и креативе.

- Даниэль Кокотаджило (бывший исследователь OpenAI, отказавшийся от $2 млн акций ради свободы слова) выпустил прогноз развития ИИ до 2027 года. Его предыдущие предсказания 2021 года оказались удивительно точными. Основной тезис: к концу 2025 появятся по-настоящему автономные агенты, к концу 2026 начнутся массовые увольнения. Сайт | Подкаст

- И конечно Трамп, который анонсировал тарифы на экспорт PDF на примерно все и почти для всех стран. Для технологий это означает рост цен на железо и инфраструктуру, хотя цифровые продукты напрямую тарифами не затронуты.
5.04.2025, 19:44
t.me/nobilix/31
Несколько месяцев назад запостил мем на Reddit и забыл о нем. Заглянул сегодня - почти пол миллиона просмотров, а комменты просто угар.

Такое ощущение, что каждый второй айтишник пережил войну с эксель-гуру в пиджаке. Вот вам выжимка огня из комментов:

- Чувак из Fortune 100 рассказал, как трое джунов нашли ошибку на миллиард баксов в налоговой из-за криво подвязанного названия региона. Не только спасли компанию от проблем с налоговой, но и нашли еще 300 лямов сбережений. И что в итоге? Вернулся в универ и "голодал", хотя только что спас компании кучу денег.

- А еще нашелся файл Excel начала 2000-х, который до сих пор считает компенсации продажников в компании с оборотом $25 млрд. Никто не знает как он работает, ведь создатель давно на пенсии, а команда продаж отказывается показывать VBA-код.

- Самый эпичный - Excel, который работает как полноценный ETL-конвейер. Эта штука уже 5 лет вытаскивала данные из веба, делала расчеты, строила графики и автоматически их рассылала. И ведь работает!

Забавно, в эпоху AI и облаков, Excel остается тем универсальным языком, на котором могут говорить и технари, и бизнес.
Еще я узнал что по данным исследований, 88% компаний из Fortune 500 до сих пор принимают критически важные бизнес-решения на основе таблиц, даже имея доступ к навороченным BI-инструментам. Это как швейцарский нож - и калькулятор, и база данных, и дашборд, и предок всех ноукод-платформ.
4.04.2025, 22:43
t.me/nobilix/30
3.04.2025, 22:37
t.me/nobilix/29
Стандарты в разработке спасают сотни часов. Используйте их

Есть ли где-то еще столько велосипедов как в разработке софта? Сомневаюсь. Мы вечно что-то изобретаем заново, когда решение уже давно существует.

Подумайте об авиации - это индустрия, основанная на тысячах стандартов. Без них самолеты бы просто не летали (или летали бы, но недолго). То же самое и в софте, только мы по какой-то причине часто игнорируем готовые решения.

Буквально сегодня говорил с приятелем. Он убил кучу времени, подключая трейсинг к локальной RAG-системе на llama.cpp. Коннектил все вручную, практически с нуля.

А ведь в одном шаге от этого - готовый отраслевой стандарт: OpenAI-совместимый API, и у той llama.cpp он есть. Практически все открытые модели и движки поддерживают точно такой же API, как у OpenAI. Можно просто взять официальные SDK от OpenAI, заменить URL на свой - и готово.

Благодаря этому стандарту вы:
- Легко меняете одну модель на другую
- Подключаетесь к целой экосистеме инструментов
- Экономите десятки часов разработки

Вот конкретный пример: Замечательный LangFuse позволяет подключить мониторинг и трейсинг моделей буквально заменой одной строки:


- import openai
+ from langfuse.openai import openai


И все - вы видите и можете анализировать любой запрос к модели.

Стандарты экономят время везде

А сколько часов разработки можно сэкономить, внедряя другие стандарты:
- OpenTelemetry для мониторинга
- OpenAPI для документации API
- OAuth2.0 для авторизации
- HL7/FHIR для медицинских данных
- JSON Schema для валидации данных
- Markdown примерно для всего
- JWT для stateless авторизации
- GraphQL чтобы страдать😄
- и т.д.


Главное правило
Используйте стандарты/протоколы/спецификацию по умолчанию. Изобретайте велосипеды, только когда иначе никак.

Основная красота стандартов раскрывается на стыке систем: когда одна система должна общаться с другой.

В мире, где мы постоянно жалуемся на нехватку времени, стандарты - это ваш главный союзник. Они не просто экономят время, они делают вашу систему понятнее для других разработчиков и совместимой с экосистемой.

Каждый раз, начиная что-то кодить с нуля, спросите себя: "А есть ли для этого стандарт?"
2.04.2025, 22:45
t.me/nobilix/28
Product Hunt: growth hack для новых стартапов - немного нашего опыта и в целом про это.

Когда мы запускали SpreadSimple на Product Hunt, у нас... ну, скажем честно, тогда еще продукта толком не было,. Мы доделывали ключевые фичи буквально за пару дней до запуска. Возможность принимать оплату запилили буквально за неделю до этого. Но это не помешало нам получить первые платные подписки прямо с Product Hunt, забрать Product of the Day, потом еще и войти Products of the Week, и что еще важнее - попасть на радары тех, кто следит за новыми идеями на самой ранней стадии.

Для нас тогда Product Hunt стал еще а триггером: пора выходить. До этого SpreadSimple почти никто не знал, после - пошли первые пользователи, первые деньги, первые отзывы, а сегодня уже больше 60К пользователей по всему миру так-то. Аудитория на Product Hunt суперлояльная к новым продуктам. Там окей прийти с MVP или даже с идеей, если ты умеешь рассказать зачем это и для кого.

Коротко что это вообще такое: Product Hunt - это популярная платформа, где каждый день запускают и обсуждают новые продукты, а сообщество голосует, те кто попадает в топ - получают много внимания и трафика.

Сегодня Product Hunt уже другая площадка - конкуренция выросла, а правила ужесточились. Но большинство принципов остались прежними. Я покопался в актуальной инфе, добавил к ней наш опыт и выделил самое важное, что реально работает сейчас:

- Подготовьтесь заранее: соберите email-базу, создайте тизер-страницу, заранее начните подогревать аудиторию в соцсетях.
- Создайте страницу "Upcoming": заранее соберите заинтересованную аудиторию через специальную страницу на Product Hunt, это обеспечит поддержку и ценные отзывы на старте.
- Выбирайте день и время запуска: будние дни популярнее, но конкуренция выше, а вот выходные могут дать шанс попасть наверх с меньшими усилиями.
- Активно общайтесь с аудиторией: первые часы после запуска особенно важны, отвечайте на комментарии, создавайте активность на платформе.
- Повторные запуски тоже работают: можно запускаться несколько раз, а не только на старте проекта — это рабочий инструмент для постоянного роста (мы тоже будем запускаться еще).
- Используйте часовые пояса стратегически: привлекайте поддержку пользователей из разных часовых поясов, чтобы обеспечить постоянную активность в течение всего дня запуска.
- Эксклюзивные предложения: скидки или особые фичи только для пользователей Product Hunt отлично стимулируют аудиторию и создают позитивный вайб вокруг запуска.
- Взаимодействуйте с инфлюенсерами: заранее установите контакт с активными пользователями и лидерами мнений на платформе, вовлекайте их в процесс запуска для максимального охвата.
- На Product Hunt есть специальные ребята - хантеры (hunters), пользователи с высоким рейтингом, которые публикуют проекты и дают дополнительную видимость. Некоторые ищут таких хантеров чтобы они опубликовали их проект, как я понял по реддиту сегодня это не так актуально. Лично я советую запускаться самому.
- Неочевидно и важно: новые пользователи, которые заводят аккаунт только чтобы проголосовать за ваш продукт не только не помогут вам, но могут даже навредить: алгоритм будет пессимизировать за такую активность.

Надеюсь, этот пост поможет вам классно запуститься на Product Hunt и получить первых крутых пользователей, а то одно дело навайбкодить продукт, а совсем другое - привлечь туда первую аудиторию 🔼
1.04.2025, 13:26
t.me/nobilix/27
Паранойя — главная причина иметь свое железо для AI-проекта, по остальным критериям это невыгодно. Давайте честно разберемся, почему.

Последние пару недель видел посты с расчетами где показывается что-то вроде "После такого-то количества запросов свое железо для LLM-приложения выгоднее?". Мое мнение — вряд ли. Давайте разбираться почему и какие еще есть неэкономические факторы.

Итак, есть 3 принципиальных пути использовать LLM:
1️⃣ Serverless (API) — платишь за токены, т.е. фактическое использование. При чем это могут быть как проприетарные модели (например, OpenAI), так и Open Source модели, которые хостятся например на together.ai
2️⃣ Cloud GPU — арендуешь GPU-cерверы (AWS, Google Cloud, RunPod etc.).
3️⃣ On-prem GPU (или Local GPU) — покупаешь свое железо (ты владеешь сервером, он стоит в серверной стойке, он целиком твой).

Важное допущение: мы говорим про корпоративное использование, а не бытовое, и мы говорим про базовые (foundational) модели, а не файн-тюниг и тд.

В этом посте я не буду приводить калькуляции иначе он получится слишком длинным, покажу лишь суть.

Сравнение стоимости владения (TCO) за 3 года моделей класса Qwen 2.5 32B:


Нагр. |Local|Cloud|API
|GPU |GPU |
--------|-----|-----|-----
1 RPS |≈21K$|≈51K$|≈19K$
86K r/d | | |
--------|-----|-----|-----
5 RPS |≈85K$|≈205K|≈99K
432K r/d| | |
--------|-----|-----|-----
20 RPS |≈335K|≈820K|≈397K
1.7M r/d| | |


Cloud GPU — это самый дорогой вариант, особенно AWS. С self-hosted кажется, что где-то есть "точка окупаемости", ведь вы владеете железом. Но. Представим идеальный мир: модель идеально подобрана под железо, нагрузка всегда ровно 99% (ваше железо используется на полную), цены заморожены, ничего не ломается и не меняется пару лет. Тогда (теоретически!) через два-три-четыре года можно выйти в плюс. Но это фантастика, а не бизнес-кейс.

Реальность другая:
- Экономика минусовая с первого дня — мощное железо нужно сразу, а сотен тысяч запросов сразу не будет.
- Масштабирование будет даваться очень болезненно и дорого.
- Реальные бизнес-метрики — важна не цена запроса, а общая стоимость владения (TCO). При своем железе добавляются: электричество, админ(ы), охлаждение, резервные системы, амортизация.
- Эффект масштаба — облачные провайдеры имеют возможности оптимизации, недоступные для отдельных компаний (распределение нагрузки, bulk discounts, prompt caching, оптимизация инфраструктуры).
- Эволюция моделей — техническая область движется со скоростью света. Модели устаревают за 3-6 месяцев. Вы не сможете их обновлять локально так же быстро как поменять конфиг в API.
- Непредсказуемость нагрузки — ваше железо должно справляться с пиками, но в остальное время простаивает. А с API вы платите только за использование.
- Альтернативные издержки — время и усилия, потраченные на инфраструктуру, можно было бы направить на развитие продукта.
- Гибкость и отсутствие vendor lock-in - при serverless подходе вы можете легко переключаться между провайдерами API. С собственным железом вы "женитесь" на конкретной архитектуре и инфраструктуре на месяцы/годы вперед.
- Не верно будет говорить что API не-приватно, а свое железо - приватно. Во-первых приватность и секьюрность локального решения зависит от того как хорошо вы справляетесь с информационной безопасностью на своем сервере. Во-вторых API бывает разное, с разным SLA, комплаенсом (SOC2, HIPAA, GDPR и т.д.), бывает изолированный контур. Тот же Azure OpenAI гарантирует что данные не покидают ваш cloud-контур).

И самое главное, посмотрите ниже график падения цены на LLM API за 3 года (более чем в 30 раз!). GPU при этом дешевеют очень медленно. Это значит что на дистанции нескольких лет API будет сильно выгоднее чем в таблице выше.

Резюмируя: главный драйвер решения хостить большие модели локально - это только паранойя стейкхолдеров, иногда даже в хорошем смысле — когда есть действительно критичные данные (вроде военных?). Ну или если просто разработчикам хочется покопаться в железках для души :)
31.03.2025, 10:02
t.me/nobilix/26
Заметил интересную штуку — то, на чем мы фокусируемся, начинает расти и развиваться. Скиллы, проекты, бизнес, да даже отношения. Главное — дать старт и потом не забывать иногда их подкармливать вниманием.

С инвестициями ровно так же. Только там есть еще один мощный фактор - время. Недавно на конференции перекинулся парой слов с очень крутым инвестором. Запомнилось его: "Большинство думает, инвестиции нужны, чтобы разбогатеть. А они, на самом деле, нужны, чтобы сохранить и приумножить то, что уже есть".

Но тут важная ремарка: а как вообще понять, где реальные инвестиции, а где банальный гэмблинг? Я в этом, увы не сильно шарю, одно могу сказать точно - стартап никогда не будет пассивным доходом (никогда вообще, даже микро-SaaS, забудьте :D).

В этом деле я стараюсь следить за теми, кто разбирается в этом лучше меня. Денис — мой приятель с мощным бэкграундом в разработке и финансах (редко встретишь такое сочетание), пишет простым языком про сложные вещи. Например, недавно рассказывал про крутой инструмент от Strategy - почитайте, годно. Про разработку тоже пишет интересно. Рекомендую его канал @capitalandcode
30.03.2025, 19:32
t.me/nobilix/25
#ReDigest

Продолжаем субботнюю рубрику.

"This week has been a crazy decade" (c) Fireship

Дайджест недели:

- OpenAI: выпустили модель GPT-4o с нативной генерацией изображений (авторегрессия, а не диффузия), но из-за огромного спроса фича временно недоступна для бесплатной подписки.

- OpenAI: Сэм Альтман объявил о поддержке MCP (открытого протокола для взаимодействия LLM с приложениями и БД). Уже доступно в Agents SDK, скоро будет в ChatGPT и Responses API. Для меня это лучшая новость недели.

- Google: выпустили Gemini 2.5 Pro с контекстным окном в 1 млн токенов. Модель заняла 1 место на LMArena, обновление реально мощное. Пробовать тут

- Cursor: уже интегрировали Gemini 2.5 Pro, но доступ ограничен 500K токенов и только для премиум-пользователей, из-за чего многих пользователей "бомбит".

- DeepSeek-v3: вышло крупное обновление, модель прибавила +10 п.п. на LiveCodeBench и +20 п.п. на AIME 2024.

- AgentRxiv: появился интересный опенсорс-фреймворк, позволяющий добавлять своих агентов на общую платформу, где они могут "обмениваться идеями". Это, кстати, в тему про Agent Experience про который я писал.

- Qwen: китайцы выложили в опенсорс омни-мультимодальную модель на 7B, архитектура разбита на Thinker (декодирование и генерация ответов) и Talker (стрим генерация речи).

- Reve: новый игрок на рынке генерации изображений выпустил модель Halfmoon, которая уже стала ТОП-1 на Image Generation Arena.

- Ideogram: вышла версия 3.0, добавили возможность создавать свои стили и улучшили inpaint/outpaint.

- xAI (компания Маска, разрабатывающая Grok) неожиданно купила Twitter (X).
https://x.com/elonmusk/status/1905731750275510312

- Ну и конечно шквал картинок в соцсетях и взлет Vibe-маркетинга, подробнее писал вчера.
29.03.2025, 17:20
t.me/nobilix/24
Ну все, открыт портал в ад, теперь из каждого утюга про vibe-marketing.

Всe благодаря новым моделям с нативной генерацией изображений: Gemini Flash 2.0 c Image Generation и конечно Native image-Gen в GPT 4o. Эти модели лучше справляются с переносом стиля и рендерингом текста.

Года 2 назад мы с партнерами пытались сделать что-то подобное на базе Stable Diffusion, но технологии были слишком слабыми, например чтобы удерживать один и тот же стиль изображения приходилось препарировать Stable Diffusion и отдельно от этого писать 3-страничный промпт. Сейчас технологи на другом уровне, конечно и даже просто базовые модели дают очень крутой результат. Цензура в моделях тоже стала по-проще.

Конечно, ни маркетологи, ни дизайнеры никуда не денутся, но скорость итераций и количество экспериментов в этой сфере точно возрастет.

Вот парочка примеров: UI, мокапы и замена персонажа, постеры, креативная реклама
28.03.2025, 18:52
t.me/nobilix/23
Как стартапу получить бесплатные ресурсы от Big Tech – цикл постов, часть 1.

По моему наблюдению, многие стартапы не знают, что большие IT-компании вроде AWS или Google готовы буквально завалить их бесплатными плюшками (они же perks). Логика простая: стартап - штука рисковая, бюджеты на старте мелкие, зато потенциал огромный. Поэтому корпорации инвестируют в вас не деньгами, а ресурсами – дают что-то вроде грантов (credits, не путать с кредитами как займом) на облачные сервисы, программы поддержки, консультации и кучу полезного софта. Все это - чтобы вы росли и развивались вместе с ними. Грамотный win-win.

Я на своем опыте видел, как это работает: В SpreadSimple мы получили эквивалент десятков тысяч долларов бесплатных кредитов от AWS. Это был мощный буст, позволивший двигаться быстрее, а тратить меньше.

Нашим клиентам и партнерам я тоже помогал оформлять такие заявки много раз.

Итак, начнем с вариантов, которые на поверхности:
1. Вбиваете в поиск: "название компании + startup program" (AWS startup program, Google startup program и т.д.).
2. Заполняете простейшие анкеты. Финансирование часто не нужно, там даже есть пункт "bootstrapped" - можно не переживать, если вы пилите проект на собственные.

Проверки минимальные, все понимают что на заре нового продукта у него может не быть даже юрлица.

Вот вам сразу пара ссылок для старта:
- AWS Activate: https://aws.amazon.com/activate/
- Google for Startups Cloud Program: https://cloud.google.com/startups
- Microsoft for Startups https://www.microsoft.com/en-us/startups
- DigitalOcean Hatch https://www.digitalocean.com/hatch

Это самые базовые программы, и они уже дают ощутимую поддержку, например эквивалент $1-5K облачных ресурсов. Их можно тратить на сервера, storage другие облачные сервисы, и на API, например Azure OpenAI API. Иногда можно получить скидку на физическое железо, например GPU-карты.

В следующих постах я расскажу про менее очевидные, но гораздо более жирные варианты, где ресурсов можно урвать существенно больше (до $100K), если знать подход.

Ставьте 🔥 если тема заходит - накидаю больше конкретных вариантов в следующих постах цикла.
27.03.2025, 21:23
t.me/nobilix/22
Шум вокруг AX (Agent Experience) - новая UX-революция или...?

Понятие AX совсем новое, можно сказать этого года, и начало активно распространяться после статьи и запуска сайта agentexperience.ax.

Суть такая. С UX мы давно привыкли оптимизировать для людей. НО люди все чаще делегируют задачи AI-агентам и значит, интерфейсами все больше будут пользоваться не только люди, но и автономные агенты в интересах этих самыл людей. Инициатива AX считает что агент, который не разобрался в интерфейсе, не сделает задачу пользователя. В итоге плохой AX напрямую ведёт к плохому UX.

AX вызывает холивары (см. например этот пост на реддите): одни считают, что это хайп и лишняя работа, другие уже активно внедряют и видят профит. Например, Netlify после интеграции с ChatGPT развертывает более 1000 сайтов в день через AI-агентов.

Я попытался разобраться чем же отличается от оптимизацией под ботов (SEO) и API, адепты AX считают что ключевое отличие - это то, что в данном случае агент выполняет задачу для конкретного пользователя, в его интересах.

Пока AX молод, устоявшихся стандартов нет. Зато есть инициативы вроде LLMs.txt (как robots.txt, но для AI) и MCP (универсальный протокол контекста для агентов).

Тема новая, спорная, но игнорировать ее точно не стоит. AI уже здесь, и скоро он станет одним из главных "пользователей" твоего сервиса.

Что вообще думаете на этот счет?
26.03.2025, 20:46
t.me/nobilix/21
Сегодня меня реально удивил мой приятель из США. Назовем его Джон. Он никогда не кодил, но собрал первых платящих юзеров, тупо используя Claude. Как? Да очень просто: надиктовал идею, получил косой прототип, показал клиенту, запись звонка снова в Claude, внес правки, повторил. И так по кругу. Первую версию клиенты разнесли в хлам, но уже на пятой сами попросили "купить и внедрить поскорее," потому что им было очень надо. Я видел оба варианта – до и после. Это, черт возьми, реально норм MVP. Учитывая, что Джон раньше даже лендинг в конструкторе собрать не мог, это прям фантастика.

Главное - он эксперт в своей сфере. Он честно говорит клиентам что это прототип и что встреча будет записана. Фишка в быстрой итерации: берешь фидбэк, просишь AI учесть детали, на выходе - более внятный прототип.

В итоге он уже финансирует свою затею. И вот что я заметил: когда есть глубокая экспертиза, новый инструмент дает космическое ускорение. Так что если вы тоже "не кодер," но у вас куча идей - как минимум нет причин откладывать прототип.
25.03.2025, 21:52
t.me/nobilix/20
Идея, которая может полностью перевернуть подход к интерфейсам (или нет).

Представь, что ты открываешь старый банковский сайт, дизайн которого не менялся с тех времен, когда интернет был по карточкам. Там миллион кнопок, непонятные поля, глаза болят. Но вместо того, чтобы мучиться с этим ужасом, у тебя появляется абсолютно новый, удобный и красивый интерфейс, который генерируется AI на лету и адаптируется конкретно под твои задачи и стиль.

Почему это круто?
Во-первых, персонализация. Ты новичок в Blender и не хочешь видеть тысячу кнопок? Окей, вот тебе минималистичный режим для самых базовых операций. Ты про-пользователь и уже знаешь все шорткаты? Держи компактный UI с горячими клавишами и быстрой навигацией.

Во-вторых, спасение старых интерфейсов. Огромное количество важных сервисов сидит на устаревших системах, переписать которые нереально дорого. AI сможет подменять устаревшие UI современными фронтендами, взаимодействуя с ними в фоне через автоматизацию (тот же BrowserUse, Operator или ComputerUse).

В-третьих, UI на каждый случай жизни. Один и тот же сервис может выглядеть совершенно по-разному в зависимости от устройства или задачи: минималистичный на смартфоне, продвинутый на десктопе, с пошаговыми инструкциями для начинающих.

Как это работает технически?

- AI-агент анализирует и понимает старый интерфейс.
- Генерирует адаптивный UI в реальном времени. Специально для тебя. Ведь он знает твои предпочтения и привычки.
- Переводит твои действия обратно в старый интерфейс, работая как посредник.

Назовем это Live Generative UI или Adaptive Gen UI — не суть важно. Главное, что это подход, в котором интерфейс перестает быть общим и становится твоим личным, контекстно-зависимым и суперудобным инструментом.

Что думаете?
24.03.2025, 21:20
t.me/nobilix/19
Если есть что-то общее в разных продуктовых нишах и что-то что точно продолжится, так это то что лиды дорожают. Внимание дорожает. Конкуренция в перформанс-каналах лютая. И чем дальше — тем хуже. Мы входим в эпоху, где основная борьба — не за привлечение, а за удержание.

Я это вижу почти во всех продуктах, где мы что-то делаем. Каждый раз, когда добавляется валидный повод для "касания" с клиентом (рассылка, нотификация, небольшой триггер внутри продукта) или просто налаживается сигнал — метрики retention улучшаются. Это работает.

💡 Если ты сейчас работаешь над продуктом или думаешь о модели монетизации — смотри на это с позиции удержания:
- что заставит клиента вернуться?
- что может стать регулярным паттерном использования?
- какой триггер мы можем встроить в продукт, чтобы его реактивировать позже?
- можно ли натянуть это на подписку и сделать потребление предсказуемым?

Подписка часто выступает не только как предсказуемый источник дохода, а именно как сигнальный механизм: клиент все еще с нами? Если да - всем ли он доволен? Если нет, то пора включать механизмы реактивации и тд.

Это одна из причин почему модель подписки так популярна в софте и уже давно за его пределами (доставка еды, банковские услуги, сервис) и это тренд будет расти. Ну и конечно тренд гипер-персонализации, но об этом в другой раз.
23.03.2025, 17:39
t.me/nobilix/18
#ReDigest

По субботам буду делиться коротким, сочным дайджестом: свежие новости и апдейты из AI/tech мира за неделю - не все подряд, а только то, что сам бы не хотел пропустить.

Формат экспериментальный, фидбек приветствуется!

Дайджест недели:

- OpenAI: зарелизили новые голосовые модели в API и добавили поддержку аудио в Agents SDK — теперь можно клепать своих голосовых агентов.

- OpenAI: o1 Pro теперь доступна через API, но с ценой 10x от обычной o1 — $150/$600 за 1M токенов. Анонс.

- Discord выпустил Social SDK — тулкит для игровых разрабов, позволяющий интегрировать социальные фичи платформы прямо в игры.

- Baidu (Китай) зарелизили модель уровня GPT-4.5 всего за 1% от стоимости западных аналогов, модель успела наделать много шума, ждем больше независимых бенчмарков.

- Mistral выложили в опенсорс мультимодальную модель уровня GPT-4o mini, работает супербыстро — до 150 токенов в секунду.

- LM-арена запустили Search Arena — новый сервис для сравнения LLM. Для лидерборда пока мало данных, но скоро будет.

- Claude добавил веб-поиск Пока только в US, скоро будет у всех, включая бесплатных юзеров.

- Google Gemini: фича Deep Research стала доступна бесплатно. Также добавили Canvas (коллаборация с AI для текста и кода) и Audio Overviews. А в NoteBookLM теперь можно делать интерактивные mindmap-ы прямо из документов.

- Telegram ⨉ Grok: Телеграм интегрировали чат-бота GrokAI, только для Premium-пользователей и похоже более слабую модель (похоже Grok2). Чекайте бот с юзернеймом @GrokAI

- MCP (Model Context Protocol) набирает обороты — появились Figma MCP и Blender MCP, еще для редактирования видео и создания музыки в проф. программах.

- Китай ввел обязательную маркировку контента, созданного AI, для борьбы с фейками и дезинформацией.

- Стартовал предзаказ NVIDIA Project DIGITS, теперь известный как DGX Spark - это та самая коробочка за $3K, которая создается чтобы запускать топовые GenAI модели дома.

- Roblox анонсировал Cube 3D — генерацию 3D-объектов по текстовому запросу.

- Маск покупает стартап Hotshot, чтобы добавить генерацию видео в xAI и конкурировать с Sora (OpenAI) и Veo 2 (Google).

- Более 400 известных креативщиков обратились к администрации Трампа с просьбой защитить авторские права от "эксплуатации" через AI.

- Google купил кибербезопасный стартап Wiz за бешеные деньги для интеграции в Google Cloud.

- Cloudflare запустил AI Labyrinth — технологию, подсовывающую ботам фейковые данные, чтобы защитить ресурсы от автоматического парсинга. Важно это знать если вы делаете агентов, которые парсят веб, скоро это будет делать сильно сложнее.
22.03.2025, 19:55
t.me/nobilix/17
Собрал список лучших платформ, которые помогают искать и отслеживать тренды. Большинством из этих сервисов я пользуюсь сам. Если лень читать - сохрани и вернись потом. А лучше - сразу зафоловь пару из них, и пусть инсайты сами к тебе приходят.

1. Exploding Topics - лучший для "что скоро выстрелит". AI сам находит зарождающиеся темы.
2. Glimpse - еще один AI-инструмент, но с упором на соцсети, покупки и поведение.
3. Google Trends - бесплатно, просто и эффективно. Работает на основе гугл-поиска. Пользуюсь часто.
4. Trend Hunter - база трендов на стероидах. Еще и отчеты дает.
5. TrendWatching - consumer insights на уровне. Полезно, если строишь что-то для B2C.
6. BuzzSumo - отслеживает, что заходит в контенте. Если ты маркетер или регулярно составляешь контент-план - мастхэв.
7. WGSN - дорогой, но самый точный для fashion, ретейла и лайфстайла.
8. Brandwatch и Pulsar - топ для отслеживания соцмедиа и пользовательских паттернов.
9. CB Insights - для инвесторов, стартапов и тех, кто хочет знать, куда уходит капитал и какие индустрии на взлете.

Плюс, конечно Reddit, Twitter и Product Hunt.

🎯 Зачем тебе всё это? Чтобы не строить продукты в пустоту. Чтобы находить идеи, которым есть реальный спрос.
21.03.2025, 18:08
t.me/nobilix/16
Вижу по работе кучу AI-продуктов на разных стадиях: от идей и прототипов до работающих стартапов и крупных решений в enterprise. Все они делятся на два типа:

1️⃣ Просто обертка вокруг LLM
2️⃣ Баланс из детерминистских алгоритмов и GenAI-компонентов

Вы не поверите, как часто люди пытаются решить через условный OpenAI API задачи, которые закрываются простой регуляркой, классическим алгоритмом или компактной ML-моделькой вроде spaCy.

В чём ключевая разница?

Подход 1: Просто обeртка вокруг LLM
- Запрос → мега-промт → ✨ (магия) → Результат
- Почти ноль уникальности (такой продукт повторят за пару дней)
- Дорого (много токенов, особенно при работе с файлами, лол, на прошлой неделе видел как в completion API кидают HTML целиком, со стилями и base64 картинками чтобы просто достать мета-теги)
- Медленно и нестабильно (ответы долгие, непредсказуемые и сложно контролируемые)

Подход 2: Баланс из узкоспециализованных инструментов и AI
- Как можно больше делаешь с помощью обычного, быстрого и дешёвого, надежного кода
- Генеративные модели используешь там, где реально нужна гибкость, креативность, понимание натуральной речи
- Бьешь все на максимально тестируемые и узко-направленные блоки/tool-ы/подсистемы
- Отдаешь предпочтение специализированным классическим ML-моделям где это возможно
- Итог: дешево, быстро, уникально и реально сложно повторить

Не надо тащить LLM везде подряд! Всегда проверяй, не решается ли задача обычными инструментами проще, быстрее и дешевле, оставляй для AI как можно меньше места, но волшебство проявится в небольших, но критически важных областях, где ты используешь AI по уму.
20.03.2025, 21:43
t.me/nobilix/15
Асинхронная работа > бесконечные митинги

Ты в потоке. Голова забита кодом, идеями, сложными связями. Все складывается. И вдруг дзынь - "давайте обсудим на звонке", или календарь напоминает про запланированную встречу. Весь этот аккуратно собранный контекст разлетается вдребезги. Придется заново собирать мысли, восстанавливать логику, входить в ритм.

Я давно фанат асинхронного общения. Иногда даже слышу, что "я избегаю митингов". Все так! Потому что я знаю цену сосредоточенной работы.

Это не просто мой личный лайфхак (или загон). Пол Грэм в эссе Maker’s Schedule, Manager’s Schedule разложил этот конфликт по полочкам. Менеджеры живут в мире часовых слотов: одна встреча, другая,еще одна, быстрые решения, переключение задач. А вот создателям (makers): разработчикам, писателям, дизайнерам - нужны большие непрерывные блоки времени. Им нужно разогнаться, углубиться, удерживать сложные взаимосвязи в голове.

37 Signals уже лет 15 говорят (классный гайд кст): асинхронщина - это суперсила. Это значит:
- Работаешь, когда удобно тебе, а не когда кто-то решил "созвониться".
- Меньше "а можно голосом? давай сейчас" - пиши текстом.
- Меньше встреч → больше глубокого, качественного результата.

Ну и давай честно: 90% встреч можно заменить хорошо написанным текстом.

Асинхронка - это не про избегание общения, а про оптимизацию энергии для создания чего-то ценного. В потоке.

А какой у вас опыт и как у вас в команде с этим?
19.03.2025, 20:25
t.me/nobilix/14
AI Legal Tech - это новый Дикий Запад. С одной стороны, все бросились делать RAG для юристов, и обещают суперточность и "ноль галлюцинаций", а с другой - вот вам стенфордское исследование наглядно показывающее реальную картину:

- Lexis+ AI выдаёт ложную информацию в 17% запросов (почти каждый шестой!). Точность ответов- 65%. На минуточку лидер рынка и один из самых дорогих софтов на рынке.
- Westlaw AI-Assisted Research и вовсе галлюцинирует в трети случаев, с точностью всего в 41%. Любимый кейс - AI цитирует правила банкротства, которых не существует.
- Practical Law AI точен всего в 19% случаев и часто вообще не отвечает на вопрос по существу, а иногда даже выдаёт противоположные реальности утверждения (например, приписывает судье Гинзбург несогласие с решением, к которому она присоединилась).

Ниша Legal AI пока ещё очень молодая, и проблем в ней море. Это нормально для новых технологий, но стоит помнить, что даже самые дорогие AI-решения - далеко не панацея. Хотя именно поэтому мне так интересно заниматься AI для юристов: потенциал огромный, а поле для улучшений бескрайнее.

Оффтоп: Я еще буду писать про Legal AI подробнее, мы много собак на этом съели, в LinkedIn пишу об этом регулярно.
В телеге, кстати очень мало информации на эту тему, могу вспомнить разве что канал Марины - ИИ & Право, советую если интересуетесь этой темой, вчера читал Как генеративный AI ухудшает критическое мышление

В общем, возвращаясь к исследованию Стенфорда, эти галлюцинации далеко не безобидны: AI ошибается в трактовке судебных решений, путает аргументы сторон с решениями судов, игнорирует иерархию источников права. На ваш взгляд, кто сейчас должен нести ответственность за проверку точности ответов Legal AI: сами разработчики, провайдеры решений или всё же юристы-пользователи?
18.03.2025, 15:51
t.me/nobilix/13
Сила полного контекста

Многие из нас пишут код, используя Cursor, некоторые предпочитают общаться с чатами - и это работает. Но есть одна вещь, о которой, на мой взгляд, знают далеко не все, а зря.

Иногда бывают задачи когда LLM нужен полный контекст, а не только релевантные куски кода. В таких ситуациях когда отправляешь с промптом всю кодовую базу (или значительную ее часть), результат несравнимо лучше. Не кусочками и не отдельными файлами, а одним большим понятным текстом в формате Markdown с явной структурой и листингами кода.

Для этого отлично подходят инструменты вроде code2prompt или Repomix, которые за секунды превращают репозиторий или его часть в единый удобный для анализа текст, который вы можете напямую скормить Claude, Gemini или другой модели (только с достаточно большим контекстным окном).

Самым простым в использовании пожалуй будет repomix, например эта комнда скопирует файлы по маске и скопирует в буфер обмена:

npx repomix --include "src/**/*.ts" --copy

Также это бывает полезно чтобы проанилизировать чей-то Github репозиторий не клонируя его, для этого у Repomix есть сайт https://repomix.com где вы просто вставляете ссылку на репозиторий и получаете текст готовый для LLM.

Если токенов выходит все же очень много - используйте флаг --compress - он помогает опускать некоторые детали имплементации.

В общем, попробуйте и увидите разницу, часто бывает она настолько ощутима, как будто перед вами модель совершенно другого уровня. Все благодаря полноте контекста.
17.03.2025, 21:48
t.me/nobilix/12
Какие существующие технологии и стандарты получили новое дыхание и широкое распространение с развитием LLM?

Давно стал наблюдать прям засилье Tailwind и некоторых других технологий, как мне кажется получивших буст именно из-за развития LLM. Перечислю то что помню, накидайте в комментах если вспомните что-то еще.

Markdown
Формат и раньше был популярен (спасибо GitHub!), но теперь он незаменим. LLM прекрасно понимают его простую и логичную структуру, md-тексты легко читаются моделями и обеспечивают эффективную токенизацию. Стал стандартом в чат-интерфейсах и при хранении знаний в RAG-ах. Microsoft недавно выпустила библиотеку markitdown, которая парсит документы из разных форматов в md.

Tailwind CSS
Если вы попросите практически любой AI сгенерировать вам фронтенд, это будет Tailwind CSS.
Utility-классы, можно их любить или не любить, но они сейчас везде и на это есть причина. LLM любят Tailwind потому что их классы универсальны + in-html стайлинг - можно сразу генерировать html со стилями, а не иметь css-классы отдельно. Плюс какой-никакой стандарт, в то время как при семантическом CSS все в разнобой, а это не помогает трейнить модели.

ShadCN
Коллекция UI-компонентов, построенных поверх Tailwind и Radix UI. Ну просто Twitter Bootstrap сегодняшнего дня. Активно используется и поддерживается экосистемой Vercel, которая сейчас является одной из ключевых компаний, развивающих UI для AI-приложений (например, платформа v0.dev была одной из первых в генерации UI).
Поэтому все AI-стартапы так похожи внешне, они почти всегда сделаны на ShadCN. Хотите чтобы ваш вайб-кодинг проекты чем-то отличались - как минимум подберите тему, но есть еще много способов, например симпатичный https://magicui.design или вот ловите сразу подборку https://github.com/birobirobiro/awesome-shadcn-ui

Mermaid-диаграмы
Текстовый формат для создания визуальных диаграмм (графов, схем и т.д.), он проще чем UML и прекрасно дружит с макдаун. Диаграммы Mermaid теперь повсеместно используются в чат-интерфейсах и документации, если вы попросите Claude сделать диаграмму БД, то скорее всего она сделает артифакт в формате mermaid, встроенный просмотрщик не так удобен, я предпочитаю копировать их код в https://mermaid.live

OpenAPI (Swagger)
OpenAPI стал важным компонентом в построении автоматических агентов и AI-ассистентов, взаимодействующих с внешними сервисами и системами. Те же Custom GPTs поддерживают внешние вызовы (function calling) простым импортом OpenAPI доки.


💡 Почему это важно для разработчиков и активных пользователей AI?
- Владение этими инструментами само по себе становится конкурентным преимуществом для специалистов на рынке.
- Делаете RAG? Используйте Markdown/Mermaid как можно шире: для хранения документов, для рендеринга артефактов, для чат интерфейсов, и не только. Например, у нас однажды была задача сделать ризонинг на основе большого количества блок-диграм в PDF - мы это все транформировали в mermaid и метрики взлетели.
- тема холиварная, но по дефолту я бы не стал сегодня делать API на GraphQL - REST победил.

Здесь я хотел сосредоточиться на технологиях, которые выросли на волне GenAI, но есть еще те которые появились скорее благодаря им, например - MCP (о нем хочу отдельный пост сделать).
16.03.2025, 19:02
t.me/nobilix/11
16.03.2025, 19:02
t.me/nobilix/9
16.03.2025, 19:02
t.me/nobilix/10
🔥 Как мы забили календарь встречами на Web Summit в Лиссабоне с помощью самописных AI-агентов

На скрине - мой календарь на Web Summit 2024. Это уже мой третий раз на Веб Саммите (или четвертый, если считать их Collision в Торонто), и впервые я реально не скучал и не слонялся без дела. Наоборот - бегал от встречи к встрече, потому что мой календарь был заранее заполнен релевантными и крутыми встречами.

Для контекста: Web Summit - огромное мероприятие в отрасли, собирающее порядка 70 тыс участников. Несмотря на официальное мобильное приложение, забить встречи там реально сложно: фильтров мало, вся нужная информация зарыта в bio (каждое читать замучаешься), участники завалены спамом и часто пропускают сообщения, а система рекомендаций - чисто для галочки.

Что мы сделали, чтобы решить эту проблему?

1. Парсинг базы участников
Официального API, конечно же, нет. Пришлось пойти на хитрость и аккуратно проснифать трафик, чтобы выгрузить себе базу участников.

2. Нормализация данных
Выгрузил все это добро в свою БД, привел данные в порядок, нормализовал.

3. Базовые фильтры по ICP
Уже готовый ICP (идеальный профиль клиента) позволил сразу отсеять нерелевантных участников по географии, роли и другим явным критериям (зачем токены зря жечь).

4. AI-агенты для энричмента данных
Написал и запустил несколько AI-агентов, которые энричили (обогащали) инфу по проспектам:
- Нашли сайты компаний.
- Нашли LinkedIn-профили.
- Спарсили с сайтов важную инфу по компаниям.
- С помощью детального и длинного промпта (с подробностями о наших проектах и решениях) выделили ключевые поля по каждому проспекту: Spheres - какие наши сферы деятельности совпадают с их задачами; Solutions - какие именно наши решения подходят клиенту; Qualification Reasoning - четкая аргументация, почему это именно это мэтч.

Стек: TypeScript, OpenAI API (structured outputs), SERP API, кастомный парсер, SQLite, Google Sheets API.

5. Ручная персонализация и отбор лидов
Автоматизировать на 100% специально не стали. После AI-энричмента мы вручную просматривали самых горячих и релевантных проспектов, и уже вручную писали им персонализированные сообщения. Оставшиеся после всей этой обработки лиды были просто на вес золота.

⏱️ Все это мы провернули за неделю до мероприятия, в супер ускоренном режиме. И такой подход реально сработал на отлично!

🎯 Огромная заслуга в успехе и у нашего SDR, которая грамотно отправляла запросы на основе обогащенной базы, составляла классные персонализированные сообщения и активно помогала организовать сами встречи. Люди и роботы работают вместе 🤝

Делитесь фишками и кейсами в комментариях
15.03.2025, 20:12
t.me/nobilix/8
Про пет проекты и vibe coding.

Пет проекты (pet projects, side projects) это когда люди разрабатывают или запускают небольшой проект самостоятельно, вне основной работы. Обычно руководствуясь любопытством и увлечением, большинство этих пет-проектов конечно же помрет, но так начинались и некоторые успешные стартапы (Dropbox, GitHub, Slack, Reddit и тд).

Работая над таким проектом ты учишься очень многому, кроме разработки: думать более системно, смотреть на программу как на продукт, азам маркетинга, обретаешь неожиданные контакты и т.д. Но самое главное оно учит принимать чертовы решения. Самому.


Иногда я вижу разработчиков, которые не могут найти работу месяцами и даже годами и мне сложно понять почему они не пытались сделать pet-проект - для меня очевидно что разработчики, которые занимаются личными проектами, демонстрируют страсть к своему ремеслу и часто получают преимущество на собеседованиях или при повышении.

А вот интересное исследование про связь удаленной работы и side проектов. Кто-то ищет в них возможности для экспериментов, кто-то финансовую независимость, а кто-то решение реальных проблем или путь к стартапу.

Ну а сейчас вообще золотое время и демократизация разработки благодаря развитию AI инструментов и тренду на вайб-кодинг. Как известно самый лучший новый язык программирования - это английский 😄

Главное выбрать идею которая искренне зажигает. Отличный способ выбрать проект - это искать проблему или потребность в собственной жизни или вокруг себя.

Что думаете? Размышляли над своим pet-проектом или может уже пилите что-то?
14.03.2025, 21:16
t.me/nobilix/7
Понравилась мысль, которую увидел сегодня в другом новом канале: начинать писать это как врываться в сериал с третьего сезона - не понятна предыстория 🙂 Вообще, предыстория не так важна. Тем более я тут в основном планирую делиться тем, что считаю интересным и полезным, а тут можно начинать с чего угодно.

Планирую начать с поста почему я считаю создание своего пет-проекта почти всегда отличной идеей, особенно если вы вкатываетесь в технологии и разработку + дать несколько советов как это лучше делать, например как AI поможет с неймингом (нестандартный способ).

Писать я буду каждый день и сегодня хотел написать именно о том почему так. Я наконец перестал это откладывать потому что получил знак свыше вписался в челендж Content Hero, в рамках которого участники обязуются публиковать хотя бы один пост в канале каждый день и отчитываться об этом в общем чате где специальный бот следит за выполнением задания, за пропуски штраф. Думаю, как минимум пара авторских каналов, которые вы читаете появилась благодаря этому челенджу.

В общем consistency is the key главное не сливаться 😄
13.03.2025, 22:47
t.me/nobilix/6
Привет, я Рефат. Здесь будут заметки про IT и AI сервисы - то, что я сам считаю супер-интересным, и постараюсь сделать это как я люблю: прагматично и применимо.

Задумка, значит, такая:

В этом канале НЕ будет:
- Советов про быстрые миллионы
- Фотографий еды
- Тупо репостов новостей

Здесь будет:
- Мой опыт (положительный и отрицательный) построения бизнеса (Devstark, SpreadSimple и других), в частности на global рынок
- Конкретные рецепты (может с кодом) по использованию технологий для упрощения жизни и бизнеса
- Обзоры на Open Source и другие продукты
- Практичные подходы к продуктивности / немного про психологию
- Мемы

Короче, разберемся с техно-FOMO, отделим полезное от бесполезного и улучшим соотношение сигнал/шум.

Cheers! 🙌
12.03.2025, 18:34
t.me/nobilix/5
Os resultados da pesquisa são limitados a 100 mensagens.
Esses recursos estão disponíveis apenas para usuários premium.
Você precisa recarregar o saldo da sua conta para usá-los.
Filtro
Tipo de mensagem
Cronologia de mensagens semelhante:
Data, mais novo primeiro
Mensagens semelhantes não encontradas
Mensagens
Encontre avatares semelhantes
Canais 0
Alta
Título
Assinantes
Nenhum resultado corresponde aos seus critérios de pesquisa