Моя официальная позиция по поводу ИИ и нейросетей.
Я энтузиаст технологий. Технологии - это социальное явление, неотъемлемая часть общества. Технологии находятся к обществу в том же отношении, в каком раковина находится к улитке. Продолжая метафору, индивид находится к обществу в том отношении, в каком клетка тела улитки находится к улитке. Поэтому вид тела улитки как-то зависит от её панциря, и наоборот (но это не полное и не однозначное соответствие), то же самое с клетками улитки. Вариаций этой комбинации может быть много, как существует много видов улиток. Поэтому, если улитка отрастила какой-то нарост (нейросеть), то это не просто так. То, как дальше этот нарост функционирует и какие результаты даёт - тоже не просто так.
Я в целом за внедрение ИИ, это способствует автоматизации и пр. В то же время, я против использования ИИ для написания текстов в науке (кроме вариантов, когда ИИ - объект исследования или инструмент исследования). То, что ИИ может писать научные статьи - это не потому, что ИИ молодец, а потому, что изначально многие статьи пишутся так, как будто их написал ИИ. То есть, недобросовестно. Количество статей уровня ИИ-рерайта надо не увеличивать, а сокращать.
ИИ запросто может написать студенческую работу на уровне среднего студента. Но причина этого в том, что студенты пишут одинаковые, плохие работы за два дня, без подключения разума. Если ИИ удаётся написать статью на уровне научного сотрудника - это потому, что научные сотрудники пишут плохие, проходящие статьи, которым уделяют слишком мало времени и сил. Если для этого будет использоваться ИИ, количество проходящих, низкокачественных работ будет ещё больше. Более того, это будет нормализовать выработку штампованных проходящих работ.
Мои взгляды таковы, что в идеале надо следовать принципу "меньше, да лучше". Если научный сотрудник не может написать пять хороших работ за год, пусть напишет одну, а не штампует их при помощи ИИ. Если не может одну написать за год - пусть это будет одна статья за десять лет, но такая, в которой человек думал над каждым предложением и хорошо проверил все, что он говорит. Количество плохих низкокачественных работ надо уменьшать, а не увеличивать. То же касается информационной ёмкости работы, она должна быть больше, а не меньше, лишь бы долить воды. Не надо также использовать ИИ, чтобы написать "попроще" в научпопе или учебниках, "ЦА всё равно не поймёт нормальный текст". Если ЦА не упражнять и не стимулировать к развитию, и считать ЦА за дурачков, то ЦА и будут дурачками. Тем более, что часто авторы преуменьшают способность ЦА формировать новые нейронные связи (это такой снобизм, наверное).
Я не говорю, что я сама способна соответствовать этим требованиям. Нет, я не способна, я ошибаюсь, путаюсь и иногда пишу чушь. Но стремиться надо к лучшему, а не нормализовать булщит. Если не выходит, не получается - ну и ладно, текстов итак слишком много, не надо пытаться что-то форсировать, ускорять. Людей в мире вообще очень много, кому-то другому удастся.
Конечно, ИИ используется в науке не просто так, это обусловлено тем, как в целом устроены научные институты. А они устроены не так, чтобы поощрять нормальное научное исследование. Чем больше наука затронута рыночными механизмами, тем больше люди поощряются жульничать, мошенничать, пытаться кого-то обмануть чтобы получить деньги. Рынок в принципе устроен так, что поощряет обман и мошенничество, а механизмы проверки, валидации, наказания за мошенничество только обучают людей мошенничать более изощрённо. Потому что профит за качественную работу кажется несоизмеримым с количеством вложенных усилий, а хитрость облегчает эти усилия, то есть возникает стремление поменьше поработать и побольше денег получить. Побольше денег получить поощряет зависимость от иерархии престижного потребления, когда человек, ощущающий ресентимент за своё низкое положение в социальной иерархии, думает, что может войти в более престижную социальную группу за счёт потребления определённых товаров.