Одним из более тонких и более коварных угроз искусственного интеллекта (ИИ) и связанных с ними технологий является его способность манипулировать воспоминаниями, пишет американский журналист FD FAM в материале для Bloomberg.
Психолог Элизабет Лофтер провела последние 50 лет, показывая, как легко можно манипулировать людьми, чтобы вспомнить вещи, которые никогда не случались, особенно в руках прокуроров и полицейских, допрашивающих свидетелей.
Теперь Лофтус, профессор Калифорнийского университета в Ирвине, объединяет усилия с исследователями из Массачусетского технологического института (MIT), чтобы изучить, как искусственный интеллект может манипулировать тем, что мы думаем, мы помним. Это манипуляция происходит, даже когда субъекты знают, что они смотрят на текст и изображения искусственного интеллекта. Результаты показывают, что искусственный интеллект может повысить способность людей воспринимать ложные воспоминания.
В популярной серии экспериментов, которые начались в 1970 -х годах, Лофтус ясно показал, что с правильными намеками психологи могли включить воспоминания на людях, что они были потеряны в торговом центре в детстве или что они болели от яиц или клубничного мороженого во время пикника. Последний даже отталкивает людей из их желания потреблять эти продукты. Несмотря на доказательства, мы все еще не можем избавиться от идеи, что память похожа на запись кассеты — и что неправильное восприятие событий из нашего собственного ума делает нас уязвимыми.
«Люди, которые поддерживают эту модель памяти как ленту картриджа, не оценивают, что память — это конструктивный процесс», — сказал Лофтус, согласно которому наш мозг создает воспоминания о частицах, приобретенных в разное время. Мы интуитивно понимаем, что забываем, как потерю или исчезновение воспоминаний, но не добавление ложных деталей.
Лофтус также изучает потенциал для создания хаоса в сознании с помощью SO -названных Push -опросов, в которых социологи внедряют дезинформацию в вопрос, который они задают. Например: «Что бы вы подумали о Джо Байдене, если бы знали, что он был осужден за уклонение от уплаты налогов?» Лофтус находит очень пугающую мысль о том, как эффективно ИИ может выполнить этот тип мошенничества в больших масштабах.
Манипулирование памятью, примечания Пэт Патаранутопорн, исследователь из MIT Media Lab, является совсем другим процессом, чем вводящие в заблуждение людей с содержанием Deepfei. Например, вам не нужно создавать сложный поддельный источник на веб -сайте New York Times — вам просто нужно убедить людей, что они что -то там читали в прошлом. «Люди обычно не ставят под сомнение их собственную память», — говорит он.
Patarantaper является ведущим автором трех экспериментов с человеческой памятью, первый из которых показывает, как чат может изменить показания свидетелей, просто включив предположения в их вопросы,-расширение с искусственным интеллектом более ранней работы Lofftus по вопросам людей.
В этом исследовании их участники показали видео о вооруженном ограблении. Затем некоторым задавали вводящие в заблуждение вопросы, такие как: «Была ли камера безопасности, где воры припарковали машину?» Около трети этих участников позже вспомнили, что они видели, как воры прибывали на машине. Там не было машины. Ложная память была сохранена даже неделю спустя.
Участники были разделены на три группы: одну не задавали вводящие в заблуждение вопросы, другой задавали в письменной форме, а третий получил их от чат -бота искусственного интеллекта. Группа чат -ботов сформировала в 1,7 раза больше фальшивых воспоминаний, чем те, кто получил вводную информацию в письменной форме.
Другое исследование показало, что недобросовестные резюме ИИ или чаты искусственного интеллекта могут легко вставить ложные воспоминания в историю, которую читают люди. Это еще более тревожно, Патаранутопорн сказал, что участники, получившие вводящую в заблуждение информацию или возглавляли чаты искусственного интеллекта, также сохранили меньше, чем реальная информация, чем чтение и также меньше уверенности в истинной информации, которую они запомнили.
Третье исследование показывает, как ИИ может создавать фальшивые воспоминания, используя изображения и видео. Исследователи разделили 200 добровольцев на четыре группы. Участники каждой группы должны были посмотреть на набор из 24 изображений — некоторые были типичными изображениями, которые можно было увидеть на новостных сайтах, в то время как другие были личными, такие как свадебные фотографии, которые можно было размещать в социальных сетях.
На втором экзамене, через несколько минут, каждая группа показала другую версию изображений. Одна группа снова изучила те же (неизменные) изображения. Вторая группа получила версии, изменившиеся от искусственного интеллекта. Третья группа изучила изображения искусственного интеллекта, преобразованные в короткие, искусственные интеллектуальные видео. Последняя группа смотрела полностью сгенерированные изображениями искусственного интеллекта, которые были преобразованы в видео искусственного интеллекта.
Даже группа, которая снова изучила оригинальные изображения, имела ложные воспоминания — это неудивительно, учитывая, насколько трудно человеку помнить 24 разных картинка. Но участники, подверженные манипуляциям с искусственным интеллектом в любой форме, как сообщается, значительно больше фальшивых воспоминаний. Группа с самым высоким процентом искажений памяти-это та, которая смотрела видео искусственного интеллекта, основанные на изображениях, сгенерированных искусственным интеллектом.
Молодые люди были немного более склонны создавать фальшивые воспоминания, чем старшие. И уровни образования, похоже, не повлияли на восприимчивость. Примечательно, что ложные воспоминания не полагались на заблуждение участников, чтобы думать, что контент, созданный ИИ, был реальным — в начале было сказано, что они увидят содержание искусственного интеллекта.
В эксперименте с изображениями некоторые изменения включали в себя изменение в фоновом режиме — добавление военного присутствия к публичному сбору или изменению времени. Изображения сохранили большинство особенностей оригинала. Чтобы оказать реальное влияние, дезинформация должна включать историю, которая составляет не менее 60% правильной.
Это последнее исследование должно стимулировать более глубокие дискуссии о влиянии технологии на наше понимание реальности, которое может выходить за рамки простого распространения дезинформации. Алгоритмы социальных сетей также побуждают людей воспринимать маргинальные идеи и теории заговора, создавая ложное впечатление о популярности и влиянии.
Ай -чат -боты окажут еще более сложные и неожиданные последствия для нас. Мы все должны быть открыты для изменения нашего мнения под влиянием новых фактов и сильных аргументов — и быть осторожными с попыткой изменить наше мнение, искажая то, что мы видим, чувствуем или помним.
Любая новость — это актив, следите за инвестором.bg и в С