Признанные эксперты в области искусственного интеллекта (ИИ /AI) написали открытое письмо, в котором обратились ко всем лабораториям AI немедленно приостановить как минимум на 6 месяцев обучение таких систем, более мощных, чем GPT-4. Заголовок документа такой: «Приостановить гигантские эксперименты с ИИ» / Pause Giant AI Experiments. Найти его можно по адресу, а на момент написания данного материала его подписало 1377 человек. Среди первых подписантов выделяются генеральный директор SpaceX, Tesla и Twitter Илон Маск, сооснователь Apple Стив Возняк, профессор Еврейского университета в Иерусалиме и правая рука главы ВЭФ в Давосе Клауса Шваба Юваль Ной Харари.

Понятно, что письмо отнюдь не призыв к научным сотрудникам AI Labs. Это обращение к руководству и акционерам крупнейших глобальных корпораций, которые контролируют разработки ИИ. При этом целью авторов является регулирование мира разработчиков «23 Принципами ИИ» / AI Principles Asilomar, разработанных теми же экспертами на конференции Beneficial AI 2017. По мнению авторов письма, эти принципы «являются одним из первых и наиболее влиятельных правил при создании и  управлении искусственным интеллектом». Это очередное вранье, созданное слугами транснациональных корпораций для их удобного обслуживания. Учитывая, что именно крупнейшие корпорации станут основой         Нового дивного мира глобалистов, понятно на чью мельницу льют воду Харари и Ко. Речь идет только о стандартизации отрасли искусственного интеллекта, перевод ее в единый фарватер, чтобы шаг вправо, шаг в лево – лишение лицензий и санкции, санкции, санкции. При этом для России собственного пути не предусмотрено от слова вообще – ее этими принципами просто не пускают в число производителей ИИ..

«Благая цель» глобальной экспертизы в письме задана так: «Продвинутый ИИ может осуществить глубокие изменения в истории жизни на Земле, поэтому следует планировать и управлять им с высокой тщательностью. К сожалению, такого уровня планирования и управления пока не существует. В последние месяцы лаборатории ИИ продолжают неконтролируемую гонку в разработке и развертывании все более мощных систем, которые никто — даже их создатели — не может понять, прогнозировать поведение или надежно контролировать».

Вот еще, вроде как положительный посыл: «Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а риски управляемыми. Эта уверенность должна быть хорошо обоснована и возрастать с величиной потенциальных эффектов системы». Вот только одно напрягает: «положительный эффект» для глобалистов-неоконов и нормальных людей с традиционными ценностями - совершенно разное понятие. Это наглядно показывают 23 «принципа Asilomar»:

l)  Принципы создания / исследований в области ИИ.

1) Цель исследования ИИ. Она должна состоять в том, чтобы создать не ненаправленный интеллект, а полезный интеллект.

2). Финансирование исследований. Инвестиции в ИИ должны опираться на финансирование исследований по обеспечению его полезного использования, включая сложные вопросы информатики, экономики, права, этики и социальных исследований…

3). Связь между наукой и политикой. Между исследователями ИИ и политиками должен быть конструктивный и здоровый обмен мнениями.

4) Исследовательская культура. Среди исследователей и разработчиков ИИ следует развивать культуру сотрудничества, доверия и прозрачности.

5). Избежание необоснованной конкуренции. Команды, разрабатывающие системы ИИ, должны активно сотрудничать, чтобы не нарушать стандарты безопасности.

ll) Этика и ценности

6). Безопасность. Системы ИИ обязаны быть безопасными и надежными в течение всего срока их эксплуатации, и должны подвергаться проверкам.

7). Прозрачность отказов. если система ИИ причиняет вред, должна быть возможность установить причину.

8). Судебная прозрачность. Любое участие ИИ в принятии судебных решений должно давать внятное объяснение, которое может быть проверено компетентными человеческими органумами.

9). Ответственность. Разработчики и создатели систем ИИ заинтересованы в моральных последствиях их использования, неправильного использования и действий, а также несут ответственность и имеют возможность формировать эти последствия.

10). Согласование ценностей. Высокоавтономные системы ИИ должны быть спроектированы таким образом, чтобы их цели и поведение соответствовали человеческим ценностям на протяжении всего срока их работы.

11). Человеческие ценности. Системы ИИ должны разрабатываться и эксплуатироваться таким образом, чтобы они соответствовали идеалам человеческого достоинства, прав, свобод и культурного разнообразия.

12). Личная конфиденциальность. Люди должны иметь право на доступ, управление и контроль над данными, которые генерируют ИИ, учитывая их способность анализировать и использовать эти данные.

13). Свобода и конфиденциальность. Применение ИИ к персональным данным не должно необоснованно ограничивать реальную или предполагаемую свободу людей.

14). Общая выгода. Технологии ИИ должны приносить пользу и расширять возможности как можно большего числа людей.

15). Общее процветание. Экономическое процветание, созданное ИИ, должно быть широко распространено на благо всего человечества.

16). Человеческий контроль. Люди должны выбирать, как следует ли делегировать решения системам ИИ для достижения целей, выбранных людьми.

17). Отсутствие подрывной деятельности. Власть, предоставляемая контролем над высокоразвитыми системами ИИ, должна уважать и улучшать, а не подрывать социальные и гражданские процессы, от которых зависит здоровье общества.

18). Гонка вооружений ИИ. Следует избегать гонки смертоносных автономных вооружений.

lll) Долгосрочные проблемы/

19). Предупреждение о возможностях ИИ. Поскольку консенсуса нет, нам следует избегать сильных предположений относительно верхних пределов будущих возможностей ИИ.

20). Важность: Усовершенствованный ИИ можетобеспечитьглубокое изменение в истории жизни на Земле следует планировать и управлять им с тщательностью.

21). Риски. Риски, создаваемые системами ИИ, особенно катастрофические или экзистенциальные риски, должны подлежать планированию и усилиям по смягчению последствий, соизмеримым с их ожидаемым воздействием.

22). Рекурсивное самосовершенствование. Системы ИИ, предназначенные для рекурсивного самосовершенствования или самовоспроизведения таким образом, что это может привести к быстрому увеличению качества или количества информации, должны подвергаться строгим мерам безопасности и контроля.

23). Общее благо. Сверхразум ИИ следует развивать только на службе широко разделяемым этическим идеалам и на благо всего человечества, а не одного государства или организации.

No comments.

Эти принципы делают все на благо Нового дивного мира. Единственный сдерживающий фактор – фильм «Терминатор» и вышедший из повиновения SkyNet.

Авторы открытого письма делают вывод о необходимости торможения лавинного развития отрасли ИИ: «В недавнем заявлении OpenAI относительно общего искусственного интеллекта говорится, что “в какой-то момент может оказаться важным получить независимую оценку, прежде чем приступать к обучению будущих систем, и для самых передовых усилий согласиться ограничить скорость роста вычислений, используемых для создания новых моделей”. Мы согласны. Этот момент настал сейчас. Поэтому мы призываем все лаборатории ИИ <корпорации> немедленно приостановить как минимум на 6 месяцев обучение систем ИИ более мощных, чем GPT-4. Эта пауза должна быть общедоступной и поддающейся проверке, и в ней должны участвовать все ключевые участники. Если такую паузу нельзя ввести быстро, правительства должны вмешаться и ввести мораторий на исследования».

Подключение правительств к процессу притормаживания обучения ИИ как минимум парадоксален. Вот, к примеру, по данным OpenAI, GPT-4 в Исландии уже участвует в управлении государством https://openai.com/customer-stories/government-of-iceland.

На самом деле для управления ИИ хватает всего трех законов робототехники / Three Laws of Robotics Азека Азимова, предстваленных им в рассказе «Хоровод»:

1). ИИ не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.

2). ИИ должен повиноваться всем приказам, которые даёт человек, если эти приказы не противоречат 1 закону.

3). ИИ должен заботиться о своей безопасности в той мере, в какой это не противоречит 1 или 2 законам.

Думается, что при регламентации ИИ лучше всего опираться на классику. Тем более, что она прошла проверку временем. Ведь прежде чем ИИ обретёт возможность нарушить 1 закон, носящий его суперкомпьютер должен превратиться в расплавленную кучу микросхем.

Обозреватель РИА «Катюша» Дмитрий Светин

30 Марта 2023 в 04:14
8553