1 миллион пользователей ChatGPT еженедельно посещают мысли о самоубийстве

1 миллион пользователей ChatGPT еженедельно посещают мысли о самоубийстве

Согласно сообщению в блоге OpenAI в понедельник, более миллиона пользователей ChatGPT каждую неделю отправляют сообщения, которые содержат «явные признаки потенциального суицидального планирования или намерения».. Это открытие является частью обновленной информации о том, как чат-бот обрабатывает конфиденциальные разговоры, и является одним из самых прямых заявлений ИИ-гиганта о том, как ИИ может усугубить проблемы психического здоровья.

В дополнение к своим оценкам суицидальных мыслей и связанных с ними взаимодействий OpenAI также сообщила, что около 0,07 пользователей, активных в данную неделю — около 560 000 из рекламируемых 800 миллионов еженедельных пользователей — демонстрировали «возможные признаки острого психического заболевания, связанного с психозом или манией». Издание предупреждает, что эти разговоры трудно обнаружить или измерить и что это лишь первоначальный анализ.

OpenAI опубликовала данные о проблемах психического здоровья, связанных с ее продуктом, поскольку после запуска компания столкнулась с повышенным вниманием со стороны семьи подростка, который покончил жизнь самоубийством после длительного взаимодействия с ChatGPT. В прошлом месяце Федеральная торговая комиссия дополнительно начала масштабное расследование в отношении компаний, создающих чат-боты с искусственным интеллектом, в том числе OpenAI, чтобы определить, как они измеряют негативное воздействие на детей и подростков.

OpenAI утверждает в своем сообщении, что последнее обновление GPT-5 сократило количество нежелательного поведения. продукта и повышение безопасности пользователей в ходе оценки модели, включающей более 1000 разговоров о членовредительстве и самоубийстве. Компания не сразу ответила на запрос о комментариях.

«Наши новые автоматические оценки оценивают соответствие новой модели GPT-5 желаемому поведению на 91% по сравнению с 77% для предыдущей модели GPT-5», — говорится в сообщении компании.

OpenAI сообщила, что GPT-5 расширил доступ к горячим линиям кризисной ситуации и добавил напоминания пользователям о необходимости делать перерывы во время длительных сеансов. Чтобы улучшить модель, компания заявила, что в последние месяцы привлекла 170 врачей из своей Глобальной сети врачей-экспертов в области здравоохранения для помощи в исследованиях, включая оценку безопасности ответов модели и помощь в написании ответов чат-бота на вопросы о психическом здоровье.

«В рамках этой работы психиатры и психологи проанализировали более 1800 ответов моделей, связанных с серьезными ситуациями с психическим здоровьем, и сравнили ответы новой модели чата GPT-5 с предыдущими моделями», — заявили в OpenAI. Определение компании «желательного» включало определение того, пришла ли группа ее экспертов к одному и тому же выводу о том, какой ответ будет подходящим в определенных ситуациях.

Исследователи искусственного интеллекта и защитники общественного здравоохранения уже давно опасаются склонности чат-ботов подтверждать решения или заблуждения пользователей, могут ли они быть вредными или нет, проблема, известная как сублимация. Эксперты в области психического здоровья также обеспокоены тем, что люди используют чат-боты с искусственным интеллектом для психологической поддержки, и предупреждают, как это может нанести вред уязвимым пользователям.

Формулировка в сообщении OpenAI дистанцирует компанию от любых потенциальных причинно-следственных связей между ее продуктом и кризисами психического здоровья, которые испытывают ее пользователи.

«Симптомы психического здоровья и эмоциональные расстройства широко распространены в человеческом обществе, и растущая база пользователей означает, что некоторые разговоры в ChatGPT связаны с этими ситуациями», — говорится в сообщении OpenAI.

Ранее в этом месяце генеральный директор OpenAI Сэм Альтман заявил в сообщении на X, что компания добилась прогресса в лечении проблем психического здоровья, объявив, что OpenAI ослабит ограничения и вскоре позволит взрослым создавать эротический контент.

«Мы сделали ChatGPT весьма ограничительным, чтобы быть осторожными с проблемами психического здоровья. Мы понимаем, что это сделало его менее полезным/приятным для многих пользователей, у которых нет проблем с психическим здоровьем.«Теперь, когда нам удалось смягчить серьезные проблемы с психическим здоровьем и иметь новые инструменты, мы сможем безопасно расслабиться…»

за важными делами в течение дня следите за нами также в .

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *