вокруг много разговоров о том, что может ИИ (и отсюда иллюзия его всемогущества), но очень мало говорится о том, чего он все-таки не может (кроме мемов про симфонию и шедевр). а без этой рамки довольно сложно ориентироваться в сценариях использования и сохранять баланс восприятия, не скатываясь ни в писки-визги, ни в скептицизм и разочарование. плюс осознание его границ пробуждает азарт наблюдателя, поскольку
с каждым апдейтом ограничения, конечно, постепенно снимаются.
подумала, что буду делиться и такими наблюдениями. и первое, что не может ИИ — это, собственно, сообщить, что он чего-то не может. часто вижу диалоги с ChatGPT, где он бьет себя в алгоритмическую грудь и обещает собрать презентацию или проанализировать видео по ссылке (речь именно про обычный диалог, не кастомные боты и не API-интеграции с расширенными возможностями), но ничего этого не выполняет, накидывая отмазки. и пользователи справедливо негодуют или, чего хуже, разочаровываются и больше его не используют (что зря).
мы ожидаем от ИИ четкого и предсказуемого исполнения задачи, потому что привыкли к такому формату взаимодействия с людьми и технологиями. а тут происходит опыт, который рвет шаблон пользовательского сценария. как тогда выглядит протокол взаимодействия с ИИ?
- декомпозировать задачу. чтобы понять, как это лучше делать в контексте работы с ИИ, советую покопаться в теме computational thinking,
можно начать с этого ролика- разделять генерацию текстовых рассуждений и операционное выполнение задачи. базово ChatGPT способен на первое, а второе требует интеграции. ChatGPT может подсказать структуру и тезисы презентации, но верстать ее вам. подвесим этот пункт пока развивается
их агент Operator, но пока так.
- проверять ответы. убедитесь, что его ответ логически строен (а не просто правдоподобен), есть подтверждения научными или официальными данными, а аргументация обоснована фактами.
по мере регурного использования это прошьется в голове и станет интуитивным. не так страшен чат, как его малюют)