✍️⚠️⚡️Нейросети как средство тотальной слежки за гражданами и полиции мыслей - теперь уже официально

Искусственный интеллект ChatGPT начнет определять пользователей с признаками радикальных взглядов и перенаправлять их к специализированным чат-ботам для корректировки мировоззрения, сообщает Reuters.

При этом бот не будет обучен на стандартных данных больших языковых моделей — его тренируют профильные эксперты по дерадикализации. За разработку инструмента отвечает новозеландский стартап ThroughLine, который уже сотрудничает с OpenAI, Anthropic и Google.

До сих пор компания занималась перенаправлением пользователей ИИ-чатботов к службам экстренной помощи при обнаружении признаков суицидальных мыслей, домашнего насилия или расстройств пищевого поведения — через сеть из 1600 горячих линий в 180 странах мира.

Теперь ThroughLine расширяет функционал на противодействие экстремизму. Задача — не блокировать пользователей, а отслеживать и корректировать их мышление: по логике инициаторов проекта, жесткая модерация лишь выталкивает людей на нерегулируемые платформы, где отследить их невозможно.

Контекст для инициативы был найден вполне конкретный: в феврале 2026 года в канадском Тамблер-Ридж произошёл один из самых массовых расстрелов в школах в истории страны — 8 погибших. Выяснилось, что OpenAI ещё летом 2025-го заблокировал аккаунт стрелка за обсуждение сценариев насилия. Стрелок просто продолжил планирование.

Как мы и полагали, в будущем все ваши поисковые запросы и беседы с нейросетями легко могут отправляться в соответствующие органы, если машинный алгоритм посчитает ваши интересы/взгляды подозрительными. И под этим подпишутся хозяева всех корпораций - разработчиков и собственников нейросетей.

Отвечая на ваши вопросы, помогая вам сделать какое-то видео или решить задачу, нейросеть будет параллельно оценивать все ваши намерения и брать на карандаш, в случае чего. Такая вот интересная плата за новые возможности. И чем плотнее будут закрываться ворота цифроконцлагеря, тем выше будет эта плата.

Источник: Telegram

03 Апреля 2026 в 01:17
41