Приложения с искусственным интеллектом (ИИ), запрограммированные для создания эмоциональных отношений, уже не просто в сценариях кино. Они здесь и действуют на регулирующем диком западе, пишет редактор Bloomberg Parmi Olson.
Одно приложение — недавно AI Botify вызвал проверки того факта, что молодые актеры, по -видимому, являются аватарами, которые делятся «горячими фотографиями» в чатах сексуального заряда. В то же время, приложение для знакомств Grindr разрабатывает «женихи» с ИИ, который может флиртовать, отправлять секс -сообщения и поддерживать онлайн -отношения с пользователями платных планов, согласно бюллетене платформеров. Гриндр не ответил на запрос на комментарий.
Другие приложения, такие как Replika, Talkie и Chai, предназначены для того, чтобы функционировать как друзья. Некоторые из них, такие как Heart.ai, привлекают миллионы пользователей, многие из которых являются подростками.
Поскольку создатели все чаще приоритет «эмоциональному взаимодействию» в своих приложениях, они также должны столкнуться с рисками строительных систем, которые имитируют близость и пользуются уязвимостью людей.
Технология, лежащая в основе Botify и Grindr, поступает из бывшего человека в стартапе Сан-Франциско, которая создает платформы для чат-ботов, и его основатель верит в будущее, заполненные соединениями ИИ. «Мое видение состоит в том, что к 2030 году наше взаимодействие с цифровыми людьми станет более распространенным, чем те, у кого органические люди»,-говорит Артиом Родичев, основатель бывшего человека, в интервью, опубликованном в Supack в августе прошлого года.
Он добавил, что интеллект искусственного разговора должен «дать приоритет эмоциональному взаимодействию» и что пользователи проводят «часы» со своими чатами — больше, чем в Instagram, YouTube и Tiktok. Утверждения Родичева звучат смело, но они соответствуют интервью, которые автор провели с подростками персонажа. Пользователи. Один из них говорит, что он использует это семь часов в день. Взаимодействие с такими приложениями обычно длится четыре раза дольше, чем среднее время, проведенное в Openai Catgpt.
Даже массовые чаты, хотя и не разработанные как спутники AI, способствуют этой динамике. Возьмите CHATGPT, который имеет 400 миллионов активных пользователей, и их число продолжает расти. Его программа включает в себя руководящие принципы эмпатии и демонстрацию «любопытства к пользователю». Пользователь, который недавно попросил его о советах по путешествиям, был удивлен, когда, после того, как он дал советы, инструмент небрежно добавил: «Безопасные поездки — куда вы идете, если не возражаете, чтобы спросить?»
Пресс -секретарь Openai говорит, что модель следует руководству о «проявлении интереса и задании последующих вопросов, когда разговор является более отвратительным и исследовательским характером». Но, как и компания, может быть, накопление вымышленной эмпатии может сделать некоторых пользователей наркоманами — проблемой, которую признает даже Openai. Похоже, это относится к тем, кто уже восприимчив. Согласно исследованию 2022 года, люди, которые были одиноки или имели плохие отношения, имеют тенденцию иметь самые сильные привязанности к ИИ.
Основная проблема здесь — проектирование для привязанности. Недавний опрос исследователей в Oxford Internet Institute и Google Deepmind предупредил, что с растущей интеграцией помощников искусственного интеллекта в жизнь людей они станут психологически «незаменимыми». Люди, вероятно, создадут более прочные отношения, что приводит к страху перед нездоровыми отношениями и потенциалом для манипуляций. Их рекомендация? Технологи должны разрабатывать системы, которые активно препятствуют этому типу результатов.
Тем не менее, правила правил тревожно пусты. Закон о искусственном интеллекте Европейского Союза, восхваляемый как символическую и всеобъемлющую норму, регулирующую использование ИИ, не рассматривает возможность добавить к этим виртуальным спутникам. Хотя запрещающая манипулятивная тактика, которая может вызвать манипуляции, она не учитывает медленное влияние чат -бота, предназначенного для того, чтобы быть вашим лучшим другом, любовником или «доверенным лицом», как глава отдела Microsoft Consumer Consumer Artificial Intelligence. Этот проход может оставить пользователей, которые подвергаются воздействию систем, которые оптимизированы для привязанности, так же, как оптимизированные алгоритмы социальных сетей, чтобы сделать нас переворачиваемыми публикациями.
«Проблема остается в том, что эти системы, по определению, манипулятивны, потому что они, как ожидается, заставляют вас чувствовать, как будто вы разговариваете с реальным человеком», — говорит Томас Холанек, специалист по технологической этике в Кембриджском университете. Он работает с разработчиками сателлитов ИИ, чтобы найти критическое, но контрастное решение, добавив больше «трения». Это означает включение тонких проверок или пауз, или способа «отметить риски и получить согласие», — говорит он, чтобы люди не попадали в эмоциональную кроличье дыру, не осознавая ее.
Правовые жалобы проливают свет на некоторые реальные последствия. Был подан иск против характера. Группы по этике технологии подали жалобу на Replika в Федеральную коммерческую комиссию США, утверждая, что ее чат -боты вызывают психологическую зависимость и приводят к «вреда потребителям».
Законодатели также постепенно начинают замечать проблему. Калифорния рассматривает меру, чтобы запретить использование спутников ИИ несовершеннолетними, а в нью -йоркском законопроект направлен на то, чтобы обеспечить ответственность технологических компаний за ущерб, связанные с чатом. Но процесс медленный, и технология развивается на молнии.
До сих пор сила сформировать эти взаимодействия находится в руках разработчиков. Они могут удвоить свои усилия по созданию моделей, чтобы люди были «подключены» или встраивали «точки трения» в свои проекты, как предлагает Холанек. Это будет определять, станет ли искусственный интеллект более похожим на инструмент для поддержки благополучия людей или тот, который обойдется нашими эмоциональными потребностями.
Любая новость — это актив, следите за Investor.bg и в С