Любые попытки создания людьми «искусственного интеллекта» без понимания человеческого существа как прекрасного образца «искусственного интеллекта», созданного ПриРодой и без осознания философии его функционирования чреваты исчезновением современного человечества.
Современные люди-творцы при создании многих устройств просто копируют осознанные ими технологии приРоды в доступную им материи. Но при создании объектов ИИ современные исследователи почему-то считают, что копировать им не у кого и нечего…
К чему потенциально приведет такая ситуация в самом ближайшем будущем, можно увидеть из поста Сергея Карелова в сети Facebook, который публикуется ниже без каких либо сокращений.
«Человечество на пути к пропасти AICG, и не видно способа отвернуть. Сенсационное обращение ИИ-гуру Китая Кай-Фу Ли к мировому сообществу разработчиков ИИ. В 2023 мир столкнется с риском более серьёзным, чем риски ядерной войны, голода или пандемии. Это риск неотличимости правды от лжи, как для индивидов, так и для социумов любых масштабов.
- Материализация этого риска более вероятна, чем риска гибели миллионов в результате ядерной войны, мирового голода или сверхсмертоносной пандемии.
- Последствия же материализации этого риска окажутся разрушительны для большинства из существующих на Земле цивилизаций (ибо все они имеют в своей культурной основе различие правды и лжи).
Об этом говорил в своем предновогоднем обращении к мировому сообществу разработчиков ИИ один из самых авторитетных в мире ИИ специалистов — Кай-Фу Ли: ученый, венчурный инвестор, человек с головокружительной карьерой (Apple, Silicon Graphics, Microsoft, Google) и автор двух мировых бестселлеров про ИИ.
Технологиями, позволяющими стирать различие правды от лжи, являются технологии AICG (генерация контента с помощью ИИ).
В основе AICG обучаемые на масштабируемых «больших данных» т.н. «базовые модели» ИИ, адаптируемые для широкого круга задач нижестоящего уровня (большие языковые модели, генераторы изображений, звука, видео, 3D …)
Достигнутый к началу 2023 г. уровень развития AICG уже таков, что в этом году начнется их внедрение в поисковых системах и онлайн торговле товарами и услугами (как коммерческими, так и государственными).
Ключевой особенностью онлайн систем нового типа станет то, что наряду с имеющимися у них возможностями персонализации, у них появятся возможности:
• убедительного обоснования навязываемого человеку выбора, с учетом его персональных предпочтений, вкусов, склонностей, пристрастий и предубеждений;
• представления преимуществ навязываемого человеку выбора в наиболее привлекательном для него сочетании мультимедийных форматов.
Новые возможности позволят пробивать персональные фильтры критического мышления подавляющего числа людей, склоняя их к выбору, решениям или действиям, выгодным для владельцев онлайн-платформ.
Ну а наличие среди их владельцев (или тех, кто может на них влиять) лиц, не имеющих этических тормозов, будет иметь катастрофические последствия. Осуществляя любой выбор, решение или действие в онлайне, люди не будут различать правду от лжи: действуют ли они по своей воле и собственному выбору или являются объектом манипуляций заинтересованных лиц, втюхивающих им те или иные товары, услуги, идеи, суждения и т.д.
И никакие полномочия правительств не смогут подобное предотвратить уже известными методами.
Кай-Фу Ли считает, что высокая вероятность материализации вышеописанного определяется двум факторами.
1. **Непонятно, как контролировать AIGT**.
Человечество обладает средствами снижения вероятности известных смертоносных рисков (даже риск ядерного Апокалипсиса остается ограниченным уже полвека из-за наличия у сверхдержав механизма полного взаимного уничтожения).
Новый риск имеет совершенно иной характер, и способы снижения его вероятности пока неизвестны. А способы, работающие для других глобальных рисков здесь будут неэффективны.
2. **AIGT обещает столь колоссальную выгоду** для технологических гигантов (коммерческую) и правительств (политическую), что противопоставить этому что-либо проблематично.
Кай-Фу Ли полагает, что помешать материализации нового риска уже невозможно. Технологии AICG уже существуют.
И потому мировому сообществу разработчиков ИИ необходимо срочно направить максимальные усилия на поиск способов минимизации вреда при широком распространении AICG.»