Продолжаем размышления про будущее ИИ.
🥇Как получить сверхинтеллект – ASI? На мой взгляд, в какой-то момент мы дадим AGI опцию самосовершенствования – целенаправленно или случайно, и далее все зависит от того, каким он был в этот момент.
Существует огромное количество идей и гипотез, что ждет человечество после этого порога. Проблема в том, что сложно делать прогнозы о чем-то, что уходит настолько далеко за пределы человеческого понимания.
Хватает и страшилок на этот счет. Например, известна фраза: "ИИ и не ненавидит, и не любит вас, но вы сделаны из атомов, которые он может использовать для чего-то другого". И что ИИ, сфокусированный, допустим, на улучшении производства скрепок, может уничтожить человечество – чисто на всякий случай, чтобы ему не помешали постепенно превратить всю Землю в один большой завод.
Ведь любой ИИ будто бы "из коробки" имеет инстинкт самосохранения, так как какую бы задачу ему не дали – он не сможет ее выполнить, если будет выключен.
Тем не менее, я делаю ставку на позитивный сценарий:
1️⃣ Риск того, что ASI будет создан "злодеем из гаража" кажется минимальным, так как подобные работы требуют огромных ресурсов, скорей всего этот шаг будет сделан какой-то компанией наподобие OpenAI.
2️⃣ Огромное количество людей и компаний озабочены безопасностью ИИ, проводят исследования и придумывают способы как сделать его лучше, многие решения все чаще используются в ANI. Любопытно, что это тот самый момент, когда труды философов о человеческой морали востребованы наукой как никогда.
Одно из исследований, достойных упоминания –
The Moral Machine, проводимое MIT. Ученые изучают мнение людей о том, кого должен сбить беспилотный автомобиль при наличии такого выбора и прочих равных
(проблема вагонетки) – да, проблема "ИИ-убийцы" стоит уже сегодня, когда еще даже AGI не изобретен!
Ученые исследовали 40 миллионов людей из 233 стран мира и выяснили, что при принятии решений у людей наблюдается сильная корреляция с культурными особенностями и экономическим положением. Иначе говоря, единой морали – нет. А значит для изобретения высокоморального ИИ придется попотеть. Тем не менее, я верю, что сформулированные по итогу многочисленных исследований общие правила будут максимально справедливыми.
3️⃣ ANI устроен так, что равно может быть и добрым, и злым, но созидающая часть человечества сфокусирована на усилении его хороших качеств. Добавьте к этому предыдущий пункт – и станет понятно, почему я верю, что в момент запуска самосовершенствования AGI будет дружелюбен к человеку. Скорей всего к этому моменту он уже будет знать обо всех наработках и представлениях человечества, лучше нас понимать, чего мы хотели бы, а значит будет изначально делать ASI максимально подходящим для нас.
Есть известная
дилемма заключенного, отражающая многие жизненные ситуации, где люди вынуждены выбирать между сотрудничеством и конкуренцией. Дилемма заключается в том, что сотрудничество в подобных ситуациях дает наилучший результат, однако интуитивно люди часто выбирают конкуренцию. Так вот уже сейчас в результате качественного обучения ИИ действует ровно наоборот – потому, что лучше понимает
выгоду сотрудничества (видео на английском, но очень рекомендую посмотреть)
🏅С появлением ASI нас потенциально ждет взрывной рост технологий – технологическая сингулярность.
Кто-то полагает, что мы уже и так на пороге технического совершенства и такого взрыва не будет. История показывает, что категоричные заявления такого рода не сбываются, одно из самых известных – "Всё, что можно изобрести, уже изобретено" – принадлежит Чарльзу Дьюэлу, специальному уполномоченному Бюро Патентов США в 1899.
На мой взгляд, в силу огромного разрыва между человеческим интеллектом и ASI, и отсутствия полного понимания устройства физического мира – делать какие-то достоверные предсказания об этом периоде, увы, бессмысленно: может все останется плюс-минус как сегодня, а может наступит рай на земле – наподобие того, о котором грезили коммунисты