Как хорошо, что у нас в стране еще проводятся круглые столы, которые по актуальности и глубине высказанных мыслей как глоток свежего воздуха после цифробесия Сбера Германа Грефа в его «Путешествии в мир искусственного интеллекта». Речь о мероприятии «Три года с момента принятия Указа Президента России №809. Итоги и перспективы», которое состоялось на минувшей неделе в Пятигорске. На круглом столе представители родительских комитетов, казачьих, ветеранских и патриотических организаций из городов и республик Северного Кавказа и Юга России обсуждали проблемы суверенитета и национальной безопасности в контексте защиты традиционных ценностей. Очень важным стало выступление на КС ведущего IT-специалиста в России по нейросетям, президента компании «Крибрум», члена СПЧ при президенте РФ Игоря Ашманова. И логически, и по внутреннему посылу – это полная противоположность мантрам цифросектанта Грефа и Ко. Глава Сбера уже, простите, либо совсем выжил из ума, либо окончательно оторвался от реальности. Тогда как Ашманов честно рассказал про риски, связанные с внедрением ИИ в социалку и госуправление. «Катюша» приводит расшифровку речи главы «Крибрум» почти целиком.
«Внедрение нейросетей вообще-то связано с Указом президента 809 о защите традиционных ценностей. Потому что нам наши цифровизаторы навязывают лютеранскую ценность под названием ИИ. Они объявляют его высшей ценностью, средством, которое решит все наши проблемы. Разговаривая с людьми, которые занимаются Стратегией развития образования до 2036 года, я слышал своими ушами их тезисы: учителей не хватает, денег на зарплаты им нет, поэтому надо все цифровизировать…
Этим летом была опубликована Стратегия использования ИИ в госуправлении. В ней было прямо сказано, что генеративный ИИ будет использоваться для общения власти с гражданами, для выполнения некоторых работ за чиновников (и самопроверки), для написания государственных Стратегий и т.д.
Что такое искусственный интеллект? Это программа, имитирующая деятельность человека. Причем нельзя сказать, что она делает что-то лучше человека. Это примерно как сказать, что машина ездит быстрее или экскаватор копает быстрее, чем человек. Что делает современный генеративный искусственный интеллект? Он умеет просто подбирать наиболее вероятную последовательность слов из сети на ваш запрос и усредняет его. Это просто машина счета совместной встречаемости слов в интернете и их отбора. Если вы попросите его написать Стратегию для компании, то он просто сгенерирует для вас шлак из разных советов по «успешному успеху».
Естественно, большое количество людей, которым было непросто разбивать текст на абзацы, придумывать заголовки, выделять основное и т.д. – у них сейчас эйфория, потому что ИИ сделает это за них. Мозг человека склонен к экономии энергии, поэтому таких людей будет становиться все больше. Более того, они пытаются с помощью документов стратегического планирования всем это навязать, чтобы ИИ везде применялся. Например, в Краснодаре адвокаты недавно выявили, что приговор одним из судов был написан с помощью ИИ. Точнее, у них были такие подозрения. Адвокаты подали жалобу, но приговор оставили в силе. Потому что у нас нет никакого закона, запрещающего использовать ИИ для судебных решений.
Я лично знаю депутатов, которые пытаются генерировать целые законопроекты или поправки к ним с помощью этой штуки. При этом надо понимать, что наш народ типа продвинутый, не хочет ничего совкового, а потому использует не Гигачат или Алису, а чат GPT. И вот когда наш сенатор, депутат, правоохранитель спрашивает что-то у этой системы, его запрос тут же уходит в США. Потому что все работает в облаке, это сервис. Здесь возникает и опасность утечки ПД, и опасность компрометации, потому что все американские корпорации потоками, автоматически, сдают все свои внутренние данные спецслужбам, военной разведке. И это оказывается у них на столе раньше, чем у помощника депутата Госдумы, который воспользовался GPT-чатом.
При этом наши цифровизаторы накручивают истерику, надувают пузырь ИИ. Сама широко разрекламированная технология, когда пузырь лопается, выходит просто на узкий профиль применения, а истерика вокруг нее естественным образом падает. Лет 5-6 назад нам рассказывали, что везде будут одни сплошные блокчейн. Греф говорил, что к 2030 г. блокчейн-технологии будет производить 10% ВВП всей Земли. А я сейчас вижу, как чиновники среднего уровня на совещаниях обсуждают, как им вычеркнуть блокчейн из всех своих программ, чтобы высшее начальство об этом не узнало. Сегодня он конечно применяется только в биткоине и прочих цифровых валютах, которые являются трансграничным серым налом для торговли разными запрещенными вещами. И все.
Пресловутая кривая Гарднера начала загибаться, и пузырь ИИ лопнет через год-полтора. Уже выходят материалы, что ИИ денег не приносит, а затраты на него гигантские. Для понимания – один промпт (запрос) для чата GPT стоит в 10 раз дороже, чем запрос в Гугле. Трамп говорит, что надо расконсервивать АЭС в США для развития ИИ, а в реальности и там начали понимать, что этот пузырь скоро лопнет.
Такую же историю можно вспомнить с Facebook*, когда не так давно все говорили, что скоро мы все уйдем в ее метавселенную, будем жить в цифровых аватарах и т.д. На проект было потрачено 35 млрд. долларов, но потом его закрыли, уволили 10 тыс. сотрудников, которые им занимались. У нас же еще год рассказывали, какие замечательные у нас будут метавселенные…
Говорил с ректором ВШЭ - она мне призналась, что решили не бороться с написанием рефератов/курсовых студентами с помощью ИИ, а возглавить это явление. То есть разрешили так делать, но с обязательной маркировкой, что текст написан ИИ/с помощью ИИ.
Но здесь есть большая проблема, и это подтверждают недавние международные исследования. У тех студентов, которые пользуются чатом GPT, первые пару месяцев результаты и оценки выше, чем у тех, кто не пользуется. Но затем человек привыкает к нейросети и не может так легко отказаться от ее "помощи". Он буквально разучивается думать сам, делать выводы. Не может вспомнить, что ему написал GPT -чат, даже свой запрос к нему. В результате происходит общее усреднение способностей учащихся, падение творческих навыков.
Недавно прошло большая конференция по ИИ Грефа, где участвовал президент России. Можете прочесть ее стенограмму на сайте kremlin.ru. Она как бы разделилась на две части - в первой президент пел дифирамбы ИИ, рассуждал, как он должен заколоситься, что надо его всюду внедрять и т.д. Думаю, что эти нарративы президенту подсунули... из Сбербанка, тот же Греф и так далее.
А потом Владимир Путин начинает говорить от себя. И говорит противоположные вещи. Например, "а зачем вводить ИИ в образование? Ведь тогда дети разучатся думать?" и т.д.
И сейчас вот эти цифровизаторы через депутатов внедряют ИИ как эксперимент в образовании, и они же пытаются продвигать социальный рейтинг. Мне такие депутаты прямо говорили: "А что в этом плохого? Ну, будут у нас какие-то критерии оценки. Хороших учеников награждаем, плохих как-то наказываем. На основании цифрового профиля ученика, который уже ведётся".
Тут возникает один вопрос. Как вы думаете, чиновник или начальник, которому сотрудник подчиняется, как будет использовать этот соцрейтинг? То есть человеческий фактор моментально коррумпирует эту систему. И есть вопросы к работе самого ИИ. Сейчас у многих банки блокируют карты за безобидные переводы денег. Начинаешь разбираться - "а это не мы, это все ИИ, мы не отвечаем за его решения". А кто отвечает?
Греф недавно публично заявил, что уволил 20% сотрудников Сбера, потому что ИИ посчитал их работу неэффективной. Такой причины увольнения, конечно, в Трудовом кодексе нет. И вот такой подход они хотят навязать всей стране. А кто пишет алгоритм для соцрейтинга, критерии оценки сотрудников Грефу? Это сделали какие-то программисты, окончившие технический вуз. При этом мораль их не интересует, просто потому, что они ей не занимаются. Они верят, что алгоритм все решает. И вот они пишут правила для других людей, не несут ответственности за свои правила, и уверены, что они хорошо работают... И вот это самое страшное - мы получаем безответственную систему.
С этим надо бороться, поэтому сейчас пытаемся написать законопроект об безопасном использовании ИИ в соцсфере. В частности, прописать, что нельзя принимать никаких важных и юридически значимых автономных решений о людях посредством ИИ.
А у Грефа и Ко противоположная концепция - не надо никак регулировать ИИ. Якобы за это выступают старики и луддиты, мешающие развитию технологий. Очевидно, они будут пытаться нам помешать", - заключил Ашманов.
Исчерпывающий комментарий по рискам внедрения ИИ и сути этого явления. Позволим себе объединить в одном материале и напомнить читателям выступление эксперта общероссийской организации защиты семьи «Родительское Всероссийское Сопротивление», клинического психолога Жанны Тачмамедовой на 20-м юбилейном Всероссийском Конгрессе "Здоровье - основа человеческого потенциала". Жанна подчеркнула в своем докладе, ИИ, который власти у нас сегодня пытаются возвести на высший пьедестал, снимает все ограничения в человеческом обществе, запуская процесс саморазрушения. Очень схожая тема с Ашмановым, только тут анализ больше с позиций психологии и духовной стороны вопроса.
«Искусственный интеллект в обучении – шаг вперед или запуск деградации? Последние пару лет появились исследования, показывающие, что цифровые технологии снижают качество образования и негативно воздействуют на человека, на его эмоциональное состояние.
Первое исследование – Университет Пенсильвании изучил успехи около 1000 турецких школьников, изучавших темы и решавших задачи с помощью чата GPT. Оказалось, что активные пользователи нейросети к моменту экзамену абсолютно не усвоили тему, не могли решать задачи (dx.doi.org/10.2139/ssrn.4895486/).
Ученые Массачусетского технологического института исследовали активность головного мозга у студентов, использовавших GPT-чат. Оказалось, что те студенты, которые полностью доверялись нейросети, затем утрачивали контроль над заданиями и не могли работать самостоятельно. Использование GPT значительно снижает нейронную активность (DOI: 10.48550/arXiv.2506.08872).
Исследование Майкла Герлиха из Швейцарской бизнес-школы с участием более 600 человек выявило, что активное использование элементов AI приводит к снижению критического мышления (DOI: 10.3390/soc15010006).
Выводы исследований во многом едины: человек, доверяющий все функции обучения ИИ, разучивается делать это сам. У него ухудшается память, внимание, теряется глубина рассуждений, падает мотивация к учебе.
Далее возникает вопрос – какова же цель образования вообще? Быстрое получение информации? Полагаю, что нет. Цель образования – получение знаний и всестороннее развитие человека. Поэтому внедрении ИИ в школе – совершенно пагубная вещь, которую нельзя допустить.
Наш вице-премьер Чернышенко не так давно заявил, что в российскую систему образования будет вводиться ИИ-помощник, который будет готовить ребенка, как репетитор. Правительство МО уже внедрило в первые 10 школ ИИ-помощника Соню для учеников младших классов. Такой помощник сможет вмешиваться и в эмоциональное состояние ребенка, фактически возьмет на себя функцию воспитания, а не только обучения.
Независимая американская исследовательская группа Common sense (здравый смысл – англ.) исследовала работу ИИ-помощников и пришла к выводу, что детям категорически не рекомендуется ими пользоваться.
Потому что посредством ИИ-помощника:
- размываются грани между реальностью и подделкой
- провоцируется зависимость от ИИ-бота с отчужденностью от близких и друзей
- ИИ-помощник может способствовать неправильному жизненному выбору
- ИИ-помощник может распространять вредную информацию
Маленькие дети, которые регулярно общались с «умной колонкой» «Алисой» начали предпочитать это общение общению с родителями. Ребенок, который не развивается эмоционально, он также не развивается когнитивно.
Все это общение с нейросетями можно объяснить через понятие «контейнирования», которое использовал британский ученый-психоаналитик Уилфред Бион.
Мать контейнирует ребенка, когда у него есть какие-то разрушительные импульсы, когда он агрессивный… Но мать ставит ему какие-то ограничения, ограничивает его в этих импульсах, останавливает их, создает такой контейнер. И тем самым она трансформирует, делает сложнее и человечнее его эмоции.
То же самое понятие можно применить к религии, говоря о том, что религия контейнирует общество. То есть в обществе есть некие разрушительные импульсы. И одна из функций религии — это как раз ограничить это. То есть существует желание воевать, убивать друг друга. А религия говорит: „Не убий, возлюби ближнего“. Она тоже ставит какие-то моральные границы, какой-то контейнер, который потом способствует усложнению этих эмоций человеческих.
Но сейчас, когда религия и моральные законы в обществе «отодвинулись далеко», на передний план выходит искусственный интеллект, который не ставит перед человеком никаких моральных ограничений.
Что делает искусственный интеллект? Он все эти импульсы начинает разгонять. То есть контейнера уже нет. А контейнер нужен для того, чтобы человек и человечество не саморазрушались. Таким образом, внутри человеческого общества запускается процесс саморазрушения», - подытожила Тачмамедова.
Эти выступления двух реально независимых и неглупых экспертов полностью перекрывают грефовскую эйфорию по поводу ИИ и прочих «передовых технологий». Но как же жаль, что доступ «к телу» президента имеет сомнительной вменяемости фрик, заявляющий, что «скоро мы все будем жить среди роботов» и «срочно внедрять ИИ во все сферы», а не цитируемые выше адекватные специалисты. Для которых суверенитет и нацбезопасность страны, заметим – вовсе не пустой звук. Надеемся, вскоре расклад в этой теме изменится… Должен же здравый смысл в конце концов взять верх.
*принадлежит запрещенной в РФ экстремистской компании Meta
