Увидел новость о том, что в Законодательной палате начали обсуждать
законопроект о регулировании искусственного интеллекта. И, честно говоря, я рад.
Рад, что мы наконец-то заговорили о важном. Рад, что государство вовремя обращает внимание на технологии, которые стремительно входят в нашу жизнь — от образования и медицины до креативной индустрии и госуправления.
Но вместе с этим хочу подчеркнуть:
регулирование не должно стать синонимом ограничения, запрета и страха. Оно должно быть рамкой, а не кандалами.
Что предлагаю, чтобы закон не мешал развитию, а работал на него:
1. Точное определение “ғаразли мақсад”
Это не просто “использовал ИИ”. Это:
• Умысел;
• Нарушение закона;
• Реальный или потенциальный вред.
Без этого трио — нет “ғаразли мақсад”. А значит и нет наказания.
Чётко определить, что именно считается опасным использованием ИИ:
Вот реальные категории, где ИИ может нанести вред, и с чем действительно стоит бороться:
• Незаконная обработка персональных данных через ИИ — например, генерация фейковой медкарты или слива информации о человеке.
• Deepfake и подделка визуального контента — когда лицо реального человека вставляется в компрометирующее видео или новость.
• Создание фейков и дезинформации — особенно в контексте политики, безопасности, здоровья.
• AI-боты, занимающиеся травлей или угрозами — когда человека “атакуют” автоматические аккаунты с фейками, угрозами и давлением.
• Манипуляция общественным мнением через ИИ-комментарии — генерация тысяч “вбросов” под новостями, чтобы создать иллюзию “общего мнения” или скомпрометировать репутацию.
• Скам-видео с использованием ИИ — поддельные ролики, где “известные люди” якобы предлагают инвестиции или раздают криптовалюту.
• Шантаж и фишинг через ИИ — когда нейросеть генерирует письма, сообщения или образы, чтобы запугать человека и выманить деньги.
• Дискриминационные суждения и предвзятые модели — например, ИИ отказывает людям в доступе к сервису по признаку пола, этноса или возраста.
• Подделка репутации институтов — когда ИИ “от имени” суда, министерства или госоргана публикует фейковые решения или заявления.
Вот здесь действительно нужна точечная ответственность и жёсткий подход. Но не нужно мешать с этим тех, кто делает визуалы, пишет статьи или обучает модели для образовательных целей.
3. Подход по рискам
Если ты художник или блогер — тебе не нужны 10 справок и юрист.
Если ты делаешь медицинского ассистента — уже другая история.
Разделить по уровню воздействия — и регулировать пропорционально.
4. Создать “AI-песочницы” для стартапов
Дайте людям пробовать. В безопасных условиях. С наблюдением. Без страха “а вдруг придёт проверка”.
5. И главное — регулирование ≠ только наказание
Параллельно с требованиями — нужна поддержка: облачные ресурсы, гранты, юридические консультации, обучение по этике и праву.
ИИ — это возможность. Если бояться и всё запрещать — останемся в роли зрителей. Если регулировать с умом — у нас есть шанс стать лидерами в регионе.
Хорошо, что дискуссия началась. Главное — не превратить её в охоту на ведьм, а построить экосистему, в которой и государство, и разработчики играют за одну команду.
@pulatov_kh