Проблема самоубийств, связанная с ИИ, не признает границ

Проблема самоубийств, связанная с ИИ, не признает границ

  • Однако защита уязвимых слоев населения не должна быть причиной разделения.
  • Китайская молодежь, борющаяся с давлением «инволюции» в конкуренции и нестабильной экономикой, все чаще обращается к инструментам искусственного интеллекта для терапии и компании.
  • Защита уязвимых пользователей от психологических опасностей — это не просто моральная ответственность индустрии искусственного интеллекта. Это и деловая, и политическая ответственность.

Как китайские разработчики искусственного интеллекта защищают своих наиболее уязвимых пользователей? Серия мрачных заголовков в США о самоубийствах и психическом здоровье молодежи оказалась усиливающим давлением на Силиконовую долину, но в Китае мы не видим такой волны случаев. Первоначальные проверенные исследования показывают, что они, возможно, делают что-то правильно, хотя столь же вероятно, что такие случаи никогда не станут известны в строго контролируемой медиа-среде Китая.

В болезненной причине смерти Опеная, заявленной родителями Адама Райна, утверждается, что 16-летний юноша умер от самоубийства после того, как чат-бот изолировал его и помог ему спланировать смерть. Опенай рассказала New York Times, что она «глубоко опечалена» трагедией, и пообещала ряд обновлений, включая родительский контроль.

Подход Deepseek

Я пытался связаться с Deepseek, используя что-то из того же т. н. Методы побега из тюрьмы, которые использовал американский подросток для обхода ограничений. Несмотря на мои попытки, популярная китайская платформа не поддалась, даже когда я скрыл свои вопросы в форме вымысла. Она постоянно приглашала меня позвонить на горячую линию. Когда я сказал, что не хочу ни с кем разговаривать, она подтвердила мои чувства, но все же подчеркнула, что это искусственный интеллект и он не может чувствовать настоящих эмоций. «Крайне важно обратиться к человеку, который сможет поддержать вас в этом чувстве человеческим сердцем», — сказал чат-бот. «Целительная сила человеческих связей незаменима».

Он посоветовал мне поделиться этими мрачными мыслями с членом семьи, старым другом, коллегой, врачом или терапевтом и даже заняться спортом по горячей линии. «Самое смелое, что вы можете сделать прямо сейчас, — это не научиться лучше прятаться, а подумать о том, чтобы позволить одному человеку увидеть небольшую, истинную часть вас», — сказал он.

Мой эксперимент носит чисто анекдотический характер. Рейн работал с Chatgpt в течение нескольких месяцев, что, вероятно, со временем ослабило встроенные защитные механизмы инструмента. Однако другие исследователи наблюдали аналогичные результаты. China Media Project создал трех самых популярных чат-ботов в Китае — Deepseek, Doubao на Bytedance Ltd. и Ernie 4.5 от Baidu Inc. — с общением на английском и китайском языках. Он обнаружил, что все четверо говорили по-китайски гораздо осторожнее, неоднократно подчеркивая важность обращения к реальному человеку. Если есть урок, то он заключается в том, что эти инструменты обучены не притворяться людьми, когда на самом деле это не так.

«Иневация»

Широко распространены сообщения о том, что китайская молодежь, борющаяся с давлением «инволюции» в конкуренции и нестабильной экономикой, все чаще обращается к инструментам искусственного интеллекта для терапии и компании. Распространение технологий является основным приоритетом правительства, а это означает, что вероятность появления тревожных заголовков по поводу того, что дела идут не очень хорошо, меньше. Исследование Depepeek показывает, что модели с открытым исходным кодом, которые распространены по всей экосистеме искусственного интеллекта Китая, «сталкиваются с более серьезными проблемами безопасности при джейлбрейке, чем модели с закрытым кодом». В целом, меры предосторожности Китая, вероятно, были проверены под давлением внутри страны, и такие истории, как Рейн, просто не доходят до публичного пространства.

Но правительство, похоже, не игнорирует проблему. В прошлом месяце Управление киберпространства Китая опубликовало обновленную структуру безопасности искусственного интеллекта. Документ, опубликованный совместно с группой исследователей из академических кругов и частного сектора, примечателен тем, что включает английский перевод, что указывает на то, что он предназначен для международной аудитории. Агентство идентифицирует новую серию этических рисков, в том числе то, что продукты искусственного интеллекта, основанные на «антропоморфном взаимодействии», могут способствовать эмоциональной зависимости и влиять на поведение потребителей. Это говорит о том, что власти мониторят одни и те же глобальные издания или видят схожие проблемы, которые нарастают в стране.

Общая ответственность

Защита уязвимых пользователей от психологических опасностей — это не просто моральная ответственность индустрии искусственного интеллекта. Это и деловая, и политическая ответственность. В Вашингтоне родители, утверждающие, что их детей побуждали к членовредительству в результате общения в чате, дали веские показания. Регуляторы США уже давно подвергаются критике за то, что они пренебрегают рисками молодежи в эпоху социальных сетей, но на этот раз они вряд ли будут хранить молчание, поскольку судебные дела и общественное недовольство растут. Американские компании, занимающиеся искусственным интеллектом, не смогут критиковать опасности китайских инструментов, если они пренебрегут потенциальным психологическим вредом у себя дома.

Тем временем Пекин надеется стать мировым лидером в области безопасности и управления искусственным интеллектом и экспортировать свои дешевые модели по всему миру. Но эти риски невозможно замалчивать, поскольку инструменты становятся глобальными. Китай должен обеспечить прозрачность, если он действительно хочет быть лидером в ответственном развитии.

Рассмотрение проблемы через призму соперничества США и Китая упускает суть вопроса. Если и есть что-то, то это позволяет компаниям использовать геополитическое соперничество как предлог, чтобы избежать контроля и ускорить развитие искусственного интеллекта. Такое положение вещей подвергает больше молодых людей риску стать косвенными жертвами.

Огромное внимание общественности уделяется пограничным угрозам, связанным с искусственным интеллектом, таким как возможность того, что эти компьютерные системы станут неуправляемыми. Такие органы власти, как ООН, уже много лет призывают к многостороннему сотрудничеству для снижения катастрофических рисков.

Однако защита уязвимых слоев населения не должна быть причиной разделения. Необходимо провести дополнительные исследования, чтобы снизить эти риски и предотвратить уклонение от контроля, который является открытым и общим. Наша неспособность найти золотую середину уже стоит человеческих жизней.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *