Интернет затоплен глубокими подделками — аудио, фотографии или видео, снятые с помощью инструментов искусственного интеллекта, в которых люди смотрят или говорят то, что не так, что они находятся где -то, они не находятся, или что они меняют свою внешность. Некоторые из них включают в себя обнаженную форму, когда фотографии меняются, чтобы изобразить кого -то без одежды. Другие глубокие подделки используются для обмана потребителей или повреждения репутации политиков и других людей, которые находятся в центре внимания общественности.
Прогресс в искусственном интеллекте означает, что для создания реалистичного глубоко поддельного текста необходимы только несколько штрихов. Взволнованные правительства пытаются сопротивляться, но это потерянная битва. По словам компании, чтобы проверить личность Signicat, попытки мошенничества с помощью глубоких подделок увеличились более чем на 20 раз за последние три года.
Что делается, чтобы бороться с глубокими подделками?
19 мая президент США Дональд Трамп подписал закон о том, что он снял закон, который криминализировал порнографию искусственного интеллекта, также известную как порно Deepfake Seath Porn, и обязывали компании социальных сетей убрать совместное использование таких очевидных сексуальных изображений.
В прошлом году Федеральный комитет по коммуникациям (FCC) объявил о незаконном использовании голосами, полученными искусственным интеллектом в призывах роботов. Запрет наступил через два дня после того, как FCC издал приказ о прекращении действий против компании, ответственной за аудио, увлечение президентом Джо Байденом. Жители Нью -Гемпшира получили роботизированный звонок перед президентскими первичными выборами, которые звучали как Байден и призвали их остаться дома и «сохранить свой голос на ноябрьские выборы».
Закон об искусственном интеллекте Европейского Союза требует, чтобы платформы называли глубокие подделки как таковые. Китай ввел такое законодательство в 2023 году. 28 апреля Комиссар по детьми в Англии призвал британское правительство запретить заявки на повышение, которые широко доступны в Интернете.
Где еще были глубокие подделки в новостях?
В январе 2024 года социальные сети были широко распространены явными глубоководными изображениями поп -звезды Тейлор Свифт, что вызвало гнев ее фанатов Легиона и заботу Белого дома.
Во время президентских выборов в США в 2024 году Илон Маск разделил глубоко очарованное выборочное видео с участием кандидата от демократа Камалы Харрис, не называя его вводящим в заблуждение. Голос искусственного интеллекта в видео, казалось, называл президента Джо Байдена Сенилена и заявляет, что она «ничего не знает о правлении страны». Видео собрало десятки миллионов просмотров. В ответ губернатор Калифорнии Гэвин Ньюшам пообещал запретить цифровые изменения в политические подделки и подписал закон в сентябре.
Как создать видео с глубокими подделками?
Они часто создаются с помощью алгоритма искусственного интеллекта, который обучен распознавать модели в реальных видеороликах конкретного человека — процесса, известного как глубокое обучение. Затем можно заменить элемент одного видео, например, лицо человека, в другом контенте, не выглядя как грубая установка. Манипуляции наиболее используются при использовании с технологией голосового клонирования, которая разбивает аудиоклассник динамиком на части половины слога, которые можно собрать в новых словах, которые похожи на человека в исходной записи.
Как появились глубокие подделки?
Первоначально технология была в области академических кругов и исследователей. Однако в 2017 году Motherboard, вице -публикация, объявила, что пользователь Reddit под названием «DeepFakes» разработал алгоритм для создания поддельных видео с использованием открытого исходного кода. Reddit запретил пользователю, но практика распространилась. Первоначально, DeepFakes требовали существующего видео и настоящего вокального исполнения, а также умелые навыки редактирования.
Сегодняшние системы генеративного искусственного интеллекта позволяют пользователям создавать убедительные изображения и видео с простыми письменными подсказками. Попросите компьютер создать видео, вставив слова во рту, и оно появится.
Как вы можете узнать, глубоко ли это?
Цифровые подделки становятся все труднее обнаружить, поскольку компании искусственного интеллекта применяют новые инструменты к огромному количеству материалов, доступных в Интернете — от YouTube до изображений и видео библиотек.
Иногда существуют четкие признаки того, что изображение или видео генерируются с использованием ИИ, например неправильно размещенной конечности или рук шестью пальцами. Могут быть несоответствия между цветами отредактированного и нерегулярными частями изображения. Видео с глубоко опытными изображениями не соответствуют движениям речи и рта. ИИ может испытывать трудности в демонстрации мелких деталей таких элементов, как волосы, рты и тени, и края объектов иногда могут быть зазубренными и пиксельными.
Но все это можно изменить с помощью уточнения моделей на основе звука.
А каковы другие примеры глубоких подделок?
В августе 2023 года китайские троллы манипулировали изображениями лесных пожаров на Гавайском острове Мауи, чтобы подтвердить утверждение о том, что они были вызваны секретным «метеорологическим оружием», протестированным Соединенными Штатами. В мае 2023 года акции США кратко снизились после того, как в Интернете было распределено изображение, которое показывает, что Пентагон горит. Эксперты говорят, что на фальшивой фотографии были созданы признаки искусственного интеллекта. В феврале того же года появился изготовленный аудиоклард, который услышал, как президента Нигерии Атику Абубакар Атико Абубакар был проконсультируется, чтобы подделать голосование в этом месяце. В 2021 году в социальных сетях было опубликовано односменное видео, которое, казалось, показало, как украинский президент Володимир Зеленски сказал своим солдатам поставить оружие и сдачу в Россию. Другие глубокие подделки безвредны, такие как футбольная звезда Криштиану Роналду, которая поет арабские стихи.
Какая здесь опасность?
Опасения в том, что глубокие подделки в конечном итоге станут настолько убедительными, что будет невозможно различить то, что является реальным, что сфабриковано. Представьте себе, что мошенники манипулируют ценами на акции, создавая фальшивые видео генеральных директоров, которые публикуют корпоративные новости, или поддельные видео военных воинов. Политики, лидеры бизнеса и знаменитости особенно подвержены риску, учитывая, сколько записей с ними доступно.
Технология делает SO -SALLED. Месть порно, даже если нет настоящего обнаженного фото или видео, с женщинами обычно. Как только видео становится вирусным в Интернете, почти невозможно задержать. В докладе комиссара о детях в Великобритании в апреле подчеркивается растущий страх перед детьми, чтобы они не стали жертвами явных глубоких подделок. Дополнительная проблема заключается в том, что распространение информации о глубоких подделках поможет людям, которые действительно снимаются, чтобы делать или сказать неприемлемые или незаконные вещи, чтобы утверждать, что доказательства против них являются ложными. Некоторые люди уже используют защиту от глубокой темы в суде.
Что еще можно сделать, чтобы пересечь глубокие подделки?
Тип машинного обучения, которое создает глубокие подделки, не может быть легко перевернут, чтобы найти их. Но горстка стартапов, таких как Нидерланды Sensity AI и Sentonia на основе Эстонии, разрабатывают технологии обнаружения, а также многие крупные технологические компании США.
Компании, в том числе Microsoft Corp., пообещали включить цифровые водные знаки в изображения, созданные с помощью своих инструментов искусственного интеллекта, чтобы привести их в движение как ложные. Разработчик CHATGPT Openai разработал технологию обнаружения искусственного интеллекта, а также способ поместить водяные знаки на текст — хотя он не опубликовал последний, отчасти потому, что он утверждает, что он «элементарный» для плохих игроков окружает его.