У вас закончился пробный период!
Для полного доступа к функционалу, пожалуйста, оплатите премиум подписку
ER
Артём Ерошенко | Тестируем с умом
https://t.me/eroshenqa
Возраст канала
Создан
Язык
Русский
-
Вовлеченность по реакциям средняя за неделю
-
Вовлеченность по просмотрам средняя за неделю

Allure Team · 15y QA · ex-Yandex · founder · conference mic-drop Практичные советы 💡, готовые решения 🧩 и новые тренды 🚀 — всё для тех, кто хочет шагать вперёд в мире тестирования

Сообщения Статистика
Репосты и цитирования
Сети публикаций
Сателлиты
Контакты
История
Топ категорий
Здесь будут отображены главные категории публикаций.
Топ упоминаний
Здесь будут отображены наиболее частые упоминания людей, организаций и мест.
Найдено 6 результатов
15.04.2025, 11:40
t.me/eroshenqa/56
15.04.2025, 11:40
t.me/eroshenqa/55
15.04.2025, 11:40
t.me/eroshenqa/54
⌨️ IDE будущего или просто модный чатик?

Недавно начал пользоваться Cursor — на первый взгляд, обычная IDE с AI-помощником. Но есть один нюанс. Она реально экономит время.

💡 Где-то попадался факт: профессионал с AI-IDE экономит до 24 часов в неделю при изучении нового. По моим ощущениям — даже больше. Недавно погружался в веб-разработку: разобрался, как всё устроено, сделал рефакторинг и внедрил дизайн-систему. За неделю. После основной работы. Почти без боли.

Что это такое?

Cursor построен поверх VSCode — интерфейс привычный, всё работает из коробки. Есть бесплатный тариф, так что попробовать «для себя» можно без напряга. Особенно хорошо заходит на новом проекте или при смене стека: если вы хотите изучить новый язык, разобраться с чужим кодом или стартовать с автоматизацией — этот инструмент сэкономит вам часы и нервы.

Cursor работает в двух режимах: Chat и Agent. Про Agent расскажу в следующем посте — а пока про Chat.

Чем полезен режим Chat?

1️⃣ Ответы прямо в IDE. Не нужно гуглить, открывать 20 вкладок StackOverflow и по кругу переписывать запрос. Просто спрашиваешь в IDE: «Какая последняя версия Tailwind?», «Что делает этот хук?», «Как работает этот middleware?». А если индексировать документацию — вообще как будто бот учился по твоим же учебникам.

2️⃣ Поиск по проекту на человеческом. Раньше: usage → references → breadcrumbs. Теперь: «Где используется этот компонент?», «Какие функции импортируются из utils?», «Где логика по авторизации?». Идеально. Даже если ты впервые видишь проект.

3️⃣ Объяснение непонятного. Если вы только начинаете — это прям must-have. Например: «Почему здесь замыкание?», «Чем отличается useMemo от useCallback?». Бот объясняет терпеливо, с примерами. Как сеньор, который никогда не скажет: «Гугли сам».

🤔 А не отупеем ли мы от таких инструментов?

Хороший вопрос. Всё зависит от того, как вы используете инструмент.

Если вы отдаёте ему работу — да, вы теряете навык.
Если вы учитесь через него — вы растёте в 3 раза быстрее.

Следующий пост будет про Agent-режим 🤖
15.04.2025, 11:40
t.me/eroshenqa/57
🧠 Запускаем AI локально — как Docker, но для LLM

Если вы когда-нибудь хотели поиграться с языковой моделью прямо у себя на компе — ловите отличный инструмент: Ollama.

Ставится за пару минут, запускается одной командой в терминале. Да-да, всё настолько просто. Я даже записал короткое видео — посмотрите, убедитесь сами 🎥

Зачем это может пригодиться?

🔐 Модели работают локально — никакого облака, всё у вас. Хотите, чтобы GPT-подобный интеллект помогал с задачами, но без передачи данных наружу? Вот ваш вариант. Например, deepseek-r1:14b — отличная модель для повседневных задач, работает на уровне ChatGPT.

🧪 Сейчас доступно огромное количество моделей — общие, под код, под текст, под изображения. И все они ведут себя по-разному. С Ollama можно быстро сравнить их поведение на одних и тех же задачах — и наконец понять, какая модель подходит именно вам. Очень увлекательный процесс 🤓

🛠 Разработчикам — кайф. Ollama даёт единый API, так что можно писать свои тулзы без привязки к конкретной модели. Поменяли модель — тулза осталась та же ✨

А вообще, Ollama — это как Docker, только для LLM.

Но есть нюанс: 💾 железо. Модель требует столько оперативки, сколько весит на диске. Например, deepseek-r1:32b (32 миллиарда параметров) весит около 20 ГБ — столько и съест в RAM. На обычном ноуте можно запускать что-то попроще, для тяжёлых моделей — арендуйте виртуалку. К счастью, в 2025-м — это дело пары кликов ⚡️

Попробуйте. Установили, запустили, кайфанули.

Ну а если захотите больше примеров — пишите, покажу несколько вариантов сравнений 🙌
10.04.2025, 12:35
t.me/eroshenqa/53
8.04.2025, 11:48
t.me/eroshenqa/52
Результаты поиска ограничены до 100 публикаций.
Некоторые возможности доступны только премиум пользователям.
Необходимо оплатить подписку, чтобы пользоваться этим функционалом.
Фильтр
Тип публикаций
Хронология похожих публикаций:
Сначала новые
Похожие публикации не найдены
Сообщения
Найти похожие аватары
Каналы 0
Высокий
Название
Подписчики
По вашему запросу ничего не подошло