Кевин решает справиться с умеренным контентом после того, как его рекомендации на YouTube странно меняются. В 2021 году в его профиле появились видео, показывающие насильственные нападения нигерийской группы «Боко харам». Снимки сырые, кровавые и напоминают ему о насилии, которое он был свидетелем в детстве в Нигерии, пишет Блумберг.
Однажды видео исчезают. Кто сделал это, он удивляется. Он читает онлайн, что удаление тревожных вещей из Интернета — это работа, на которую вы можете подать заявку. «Я не хотел, чтобы люди проходили свою жизнь, видя эти ужасные вещи», — говорит Кевин, который говорит под псевдонимом из -за конфиденциального характера своей работы. «Я хотел сделать мир лучше».
Кевин в настоящее время является одним из сотрудников современной контент компании Tiktok, где он просматривает видео, опубликованные пользователями по всей Sub -saharan Africa. Его суждение определяет, является ли «все плохое и все жестоко» — злоупотребление животными, злоупотребление людьми, увечья, смерть, инциденты с участием детей — остаются или будут устранены, говорит он.
Это сложная и эмоциональная работа. Недавно его попросили использовать программу искусственного интеллекта (ИИ), чтобы помочь ему. Но после более чем года работы с системой Кевин считает, что искусственный интеллект создал новые проблемы. Он отмечает, что технология не может достоверно распознать злоупотребление или зло. Однако Кевин считает, что это не помешает его работодателю использовать инструменты для его замены.
Появление генеративного искусственного интеллекта привело к такому впечатляющему прогрессу, что многие компании полагаются на то, что однажды технологии научатся отличать товар от плохого, если они приведут ему достаточно примеров для каждого из них. Но, по мнению 13 профессиональных модераторов, искусственный интеллект, на который в настоящее время опирается, чтобы остановить распространение опасного содержания, таких как материалы с сексуальным насилием над детьми или политическая дезинформация, заменяет работников быстрее, чем можно узнать.
Рабочие, которые по -прежнему опасаются, что Интернет искусственного интеллекта станет опасной минной поле, где закодированная речь о ненависти, пропаганде, разрез к детьм, связанным с детьми и другими формами онлайн -вреда, продолжают распространяться неконтролируемым.
«Если вы пойдете к внедрению искусственного интеллекта, чтобы уменьшить количество сотрудников по доверии и безопасности, это снизит безопасность в целом», — сказал Ллойд Ричардсон, директор по технологиям в Канадском центре защиты детей. «Вам нужны люди».
Компании, в том числе мета -платформы, Tiktok of Bytedance, Roblox и X, рекламируют преимущества большей зависимости от модернизации содержания искусственного интеллекта. Это травмирующая, стрессовая работа, которая может оставить длительные эмоциональные черты для людей, которые это делают, и невозможно или невозможно нанять достаточно людей, чтобы справиться со всем этим. Имейте в виду, что пользователи публикуют более 20 миллионов видео на YouTube каждый день. Автоматизированные системы несколько уменьшили нагрузку, блокируя перезагрузку контента, которая уже известна как плохая, например, видео с массовыми расстрелами. Но теперь компании полагаются на тот факт, что ИИ учится понимать нюансы в содержании и принимать решения.
(Продолжается на следующей странице)
