ChatGPT заслужил право на саморегулирование. Это может пойти плохо

ChatGPT заслужил право на саморегулирование. Это может пойти плохо

  • Правительства во всем мире смягчают свой подход к регулированию ИИ, руководствуясь экономическими интересами и отсутствием доказанного массового вреда.
  • Быстрое распространение ИИ несет в себе реальные риски — от проблем с психическим здоровьем до манипуляций, зависимости и неправильного использования данных, — которые саморегулирование не может обуздать.
  • Китай, США и Великобритания делают ставку на дерегулирование и продвижение индустрии искусственного интеллекта, что увеличивает риск будущих инцидентов и подрывает общественную защиту.

Бывший премьер-министр Великобритании Риши Сунак однажды посчитал ИИ настолько рискованным, что в 2023 году организовал первый в мире «Саммит по безопасности ИИ», пригласив политиков и давнего энтузиаста ИИ Илона Маска обсудить меры по защите от бума ChatGPT. Два года спустя его мнение значительно смягчилось.

«Правильно здесь не регулировать», — сказал он мне в прошлом месяце на Форуме новой экономики Bloomberg, заявив, что такие компании, как OpenAI, «очень хорошо работают» с исследователями безопасности в Лондоне, которые проверяют их модели на предмет потенциального вреда.

Эти компании добровольно согласились пройти аудит. Когда я заметил, что в будущем они могут изменить свое мнение, Сунак ответил: «Мы еще не дошли до этого момента, и это хорошо». Но что произойдет, когда это произойдет?

Общая тенденция в регулировании ИИ

Переход Сунака от заявления о том, что Великобритания должна быть «родиной регулирования безопасности ИИ» к нежеланию принимать какие-либо законы, отражает тенденцию, наблюдаемую в правительствах по всему миру.

За этим стоит желание получить прибыль от технологий, которые могли бы оживить застойную экономику, а также ощущение того, что строгие правила не нужны без четких доказательств широкомасштабного вреда.

Но ждать кризиса, прежде чем регулировать, рискованно, когда новые технологии распространяются так быстро. ChatGPT, пожалуй, является самым быстро распространяющимся программным обеспечением всех времен: его регулярно используют 10% населения мира всего через три года после его выпуска.

Это также может изменить форму нашего мозга. На OpenAI, компанию, которая им управляет, подали в суд семьи многих людей, которые впали в бред или покончили с собой, проведя несколько часов в ChatGPT. Одна из групп кампании собрала истории более 160 человек, которые утверждают, что она нанесла ущерб их психическому здоровью.

Тем временем искусственный интеллект портит школьные домашние задания, укрепляет стереотипы, создает новый вид зависимости и занимается воровством произведений искусства.

Все это отошло на второй план по сравнению с ажиотажем вокруг технологий, в который входили даже бывшие защитники безопасности. Сунак, например, работал консультантом в компаниях, занимающихся искусственным интеллектом, Anthropic PBC и Microsoft Corp. И хотя он пожертвовал свою зарплату на благотворительность, эти отношения будут ценными, если он уйдет из политики.

Маск, который опасался экзистенциальных рисков, связанных с искусственным интеллектом, хранил молчание по этому поводу с момента основания xAI Corp., компании, стоящей за чат-ботом Grok. Однако отказ от осторожности в погоне за неопределенными экономическими выгодами может иметь неприятные последствия для правительств.

Государственное дерегулирование

Похоже, что эпоха снисходительности регулирования наступила как на Западе, так и в Азии. США прошли путь от выпуска указа при президенте Джо Байдене о создании более безопасного искусственного интеллекта в 2023 году до запрета его внедрения при Дональде Трампе.

Нынешняя администрация наращивает экспорт центров обработки данных и чипов, чтобы опередить Китай, и пытается заблокировать законодательство об искусственном интеллекте на государственном уровне, чтобы технологический бизнес мог процветать.

В то же время миллиардеры Кремниевой долины, такие как Марк Андриссен, выделили десятки миллионов долларов на лоббирование любых будущих ограничений на искусственный интеллект.

Великобритания имеет опыт создания быстрых и разумных технологических правил, но маловероятно, что она будет заниматься генеративным искусственным интеллектом.

Европейский Союз отложил принятие некоторых из самых строгих положений своего Закона об искусственном интеллекте до 2027 года, а принятие Кодекса практики этого регулирования было приостановлено. Европейские правила защиты персональных данных в цифровой среде когда-то были образцом для других правительств, но маловероятно, чтобы так называемый эффект Брюсселя помешал искусственному интеллекту.

Китай не является исключением из этой тенденции потакания своим слабостям. Коммунистическая партия страны ввела политику, направленную на содействие процветанию местных компаний, занимающихся искусственным интеллектом.

Несмотря на строгие правила, требующие от компаний, занимающихся социальными сетями, регистрировать свои алгоритмы для предотвращения социальных волнений, такие стандарты применяются только к чат-ботам или инструментам искусственного интеллекта, которые генерируют изображения или видео.

Эти фирмы должны выявлять глубокие фейки и тестировать свои инструменты, чтобы убедиться, что они не создают незаконный или политически чувствительный контент.

Экономические интересы

Но потребительские чат-боты — это лишь часть китайского рынка искусственного интеллекта. Крупнейшие секторы искусственного интеллекта в стране находятся в таких областях, как промышленная автоматизация, логистика, электронная коммерция и инфраструктура. Компании, работающие в этой области, получают щедрые налоговые льготы на НИОКР, скидки по НДС и более низкие корпоративные налоги, согласно исследованию 2025 года Анжелы Чжан, профессора права Университета Южной Калифорнии и ведущего специалиста по регулированию китайских технологий.

Более мягкий подход Китая к компаниям, занимающимся искусственным интеллектом, обусловлен тем, что КПК является основным заказчиком их инструментов, особенно технологий наблюдения, таких как распознавание лиц.

Пекин слишком много инвестировал в искусственный интеллект, чтобы сдержать его развитие, а ограничения США на экспорт чипов и экономический спад в стране только подтолкнули Китай к росту, а не к регулированию.

Это «не имеет большого значения для защиты китайского общества», сказал Чжан. Она и другие специалисты, занимающиеся исследованиями в области безопасности, предупреждают о возможных инцидентах с искусственным интеллектом, вызванных исторически слабым подходом Китая к опасностям, от патогенов, разработанных искусственным интеллектом, до разрушения энергосетей и нефтепроводов.

Среди правительств преобладает мнение, что компаниям, занимающимся искусственным интеллектом, следует предоставить возможность саморегулирования.

«Послушайте, я не думаю, что кто-то хочет привнести в мир что-то, что, по его мнению, действительно причинит значительный вред», — сказал Сунак.

Но непредвиденные последствия часто возникают, когда технологи начинают с благими намерениями в отношении человечества. Саморегуляция работает до тех пор, пока не перестанет работать.

Парми Олсон — технологический обозреватель Bloomberg. Бывший репортер Wall Street Journal и Forbes, она является автором книги «Совершенство: искусственный интеллект, ChatGPT и гонка за изменение мира».

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *