На Западе начинают задумываться об потенциальной опасности искусственного интеллекта (ИИ, AI). История началась в марте 2023 года, когда сотрудники Future of Life Institute (FLI) вместе с экспертами по ИИ - Йошуа Бенджио / Yoshua Bengio и Стюартом Расселом / Stuart Russell, а также главами нескольких специальных лабораторий, специализирующихся на создании ИИ написали открытое письмо. Оно призывало приостановить все эксперименты с искусственным интеллектом / Pause Giant AI Experiments: «Мы призываем все лаборатории искусственного интеллекта немедленно приостановить как минимум на 6 месяцев обучение систем искусственного интеллекта, более мощных, чем GPT-4». Тогда их не услышали. Разработки были продолжены и скоро то, что «получилось» выйдет на «тропу войны». Теперь опасность слишком близка, и надо срочно принимать решение, иначе будущее Земли может быстро вернуться в точку.
Той же весной Google DeepMind, Centre for the Governance of AI, Centre for Long-Term Resilience, OpenAI, University of Toronto, University of Oxford, Collective Intelligence Project, University of Cambridge, Anthropic, Université de Montréal, Mila – Quebec AI Institute, Alignment Research Center, предложили систему раннего предупреждения о экстремальных рисках, связанных с ИИ и создали их модель. В открытом письме FLI конкретики было маловато.
Она опирается на утверждении о том, что современные подходы к созданию систем искусственного интеллекта общего назначения имеют тенденцию создавать системы, обладающие как полезными, так и вредные возможностями. С этим действительно сложно поспорить. Исследователи считают, что дальнейший прогресс в разработке ИИ может привести к появлению возможностей, которые создадут экстремальные риски: военные или манипуляционные. Объясняем, почему модель оценка имеет решающее значение для устранения экстремальных рисков. Разработчики должны уметь выявлять опасные возможности. Но как кажется, участники этого «компьютерного» консорциума изначально сделали главную ошибку – они изучали риски ИИ на основании модели, созданной именно с его помощью. При этом оценки, сделанные на основании исследования этой модели, должны были «иметь решающее значение для информирования политиков и других заинтересованных сторон». Ситуацию можно охарактеризовать так – «пчелы против меда». Все приведенные в модели опасения ведущих организаций-разработчиков ИИ лишь отвлекают людей от реального состояния дел.
Были выведены четыре основных принципа для компаний-разработчиков ИИ, которые гарантируют:
- Ответственное обучение. Руководством компаний принимаются ответственные решения о том, следует ли и как обучать новые версии, у которых можно предположить риск на ранней стадии.
- Ответственное развертывание. Принимаются ответственные решения о том, нужно ли, когда и как развертывать потенциально рискованные модели.
- Прозрачность: полезная и важная информация передается заинтересованным сторонам, чтобы помочь им минимизировать потенциальные риски.
- Соответствующая безопасность: к созданному ИИ применяются строгие меры и системы информационной безопасности.
Все это хорошо, однако относится к частным компаниям. Но сейчас мы пришли к ситуации, когда только централизованный контроль за ИИ со стороны государства может хоть что-то гарантировать. Крупные игроки рынка заинтересованы в тотальной цифровизации, которая поможет им с помощью генеративного ИИ создавать, реализовывать и применять на людях маркетинговую политику, но и непосредственно манипулировать массовым сознанием.
Особые опасения на западе вызывает возможность применения ИИ в выборных кампаниях. В 2024 году их ну просто огромное число – они пройдут в 64 странах. Неконтролируемому ИИ будет, где развернуться. Естественно, наибольшее внимание привлекают выборы в РФ и США. Но если в нашем случае их исход понятен, то именно в США на фоне госдолга в $34 трлн, событий на границе с Мексикой и связанному с ним Texit (выход Техаса из состава Соединенных Штатов), а также затопления страны «синтетикой» от Триады исход выборов будет решаться воздействием на массы в ключевых штатах. Причем подготовленные прошлой неудачей республиканцы уже нашли противодействие «почтовому» голосованию, «мертвым душам» и круговерти BLM. Однако их использованию может помешать именно ИИ, которые будет генерировать тексты и оказывать НЛП воздействие на неокрепшие души наивных и неумных американцев. И ведь понятно, кто будет его разрабатывать – те самые компании, которые придумали для себя внутренние правила. Стоит посмотреть список участников исследования – практически все исследовательские центры принадлежат компаниям установленных глобалистов, работающих на демократов неотроцкистов.
Американское общество задает себе несколько основных вопросов:
- Должны ли мы позволить машинам наводнить наши информационные каналы пропагандой и ложью?
- Должны ли мы автоматизировать все работы, в том числе приносящие личностное удовлетворение?
- Должны ли мы развивать нечеловеческий разум, который в конечном итоге может превзойти нас численностью, перехитрить и заменить нас?
- Стоит ли нам рисковать потерей контроля над нашей цивилизацией?
Понятно, что решение этих вопросов нельзя делегировать частным компаниям - технологическим лидерам. Решение возможно через создание отдельного контролирующего разработчиков ИИ органа, однако тут всё снова завязано на политику. В тех же Штатах, создав что-то типа Drug Enforcement Administration (DEA) / Управление по борьбе с наркотиками, его руководство будет трудно отделить от политиков, засевших в Белом доме. Ещё хуже последствия создания международной контрольной организации под маской ООН. Она тут же окажется захваченой глобалистами и лишь ускорит конец света, которым нам уже грозят некоторые ИИ.
Возможный выход – контрольная организация с использованием ученых, никак не связанных с ИИ, его моделированием, разработкой и использованием в текущей работе. Причем как из «физиков», так и «лириков». Это может дать возможность реальной оценки угроз за счет ухода от конфликта интересов. Вот только как проверять самих этих людей на порочащие связи с ИИ совершенно непонятно. Так что пока мы идем дорогой из желтого кирпича туда, куда ведут благие намерения.
Дмитрий Светин специально для РИА «Катюша»