В арсенале любого, кто пытается изменить ход искусственного интеллекта (ИИ), есть аналогичный инструмент — перерыв, пишет Парми Олсон.
Два года назад Илон Маск и другие технологические лидеры опубликовали открытое письмо, призывающее технологических компаний отложить развитие искусственного интеллекта на шесть месяцев, чтобы лучше защитить человечество. Цель изменилась сейчас. На фоне растущего страха не отставать в гонке за строительство компьютеров, умнее, чем люди, группа европейских корпоративных лидеров направляет оружие «паузы» в Европейский союз (ЕС) — самопровозглашенного мирового сотрудника полиции искусственного разведки.
Как и те, кто хотел обуздать искусственный интеллект два года назад, это смелое предложение, которое скучает по нюансам того, что он пытается обратиться. Полная пауза во внедрении правил ИИ не поможет Европе догнать США и Китай, как утверждают более 45 компаний. Их желание игнорирует более фундаментальную проблему из -за финансирования, которая технологическим стартапам в регионе отчаянно нуждается в расти и конкурировать с более крупными игроками Силиконовой долины. Идея о том, что Европа должна выбирать между новатором и регулятором, является повествованием, успешно распределяемое лоббистами для крупных технологических компаний, которые сделают его в основном более легким нормативным подходом.
Но это не означает, что сам закон искусственного интеллекта не может быть приостановлен, хотя и в более узкой версии того, какие компании, такие как ASML Holding, Airbus и Mistral AI, призвали в своем письме «Остановить часы», опубликованные в четверг. В нем они призывают президента Европейской комиссии Урсулы фон дер Лейн, чтобы отложить вступление в силу правил, которые они называют «неясными, совпадающими и все более сложными».
В этом отношении они правы, но только для части 180-страничного закона, который был быстро добавлен в последние переговоры, чтобы обратить внимание на «общепринятые» модели ИИ, такие как CHATGPT. Закон в его первоначальной форме был разработан в 2021 году, почти за два года до того, как Chatgpt вызвал бум генеративного искусственного интеллекта. Этот закон направлен на то, чтобы регулировать системы высокого риска, используемые для диагностики заболеваний, предоставления финансовой консультации или контроля критической инфраструктуры. Эти типы приложений четко определены в законе — от использования искусственного интеллекта для определения приемлемости человека для пользы для здоровья для контроля водоснабжения. Прежде чем внедрить такой искусственный интеллект, закон требует, чтобы его тщательно проверяли как создатели технологии, так и компании, которые ее реализуют.
Если больница хочет внедрить систему ИИ для диагностики заболеваний, это будет считаться «искусственным интеллектом с высоким риском» в соответствии с законом. Поставщик искусственного интеллекта будет не только обязан проверить свою модель точности и отклонений, но и сама больница должна заставлять людей контролировать систему для мониторинга ее точности с течением времени. Это разумные и четкие требования.
Но правила не так ясны в более новом разделе систем искусственного интеллекта общего назначения, составленных в 2023 году в ответ на модели генеративного искусственного интеллекта, такие как CHATGPT и генератор изображений MidJourney. Когда эти продукты появились на рынке, ИИ внезапно начал выполнять бесконечный набор задач, и Брюссель решал его, делая свои правила шире и, к сожалению, более расплывчатыми.
Проблемы начинаются на странице 83 Закона, в разделе, в котором утверждается, что определение точки, в которой система общего назначения, такая как CHATGPT, представляет системный риск: при обучении с более чем 10-25 градусами, плавающие операции с запятыми (Flop), что означает, что компьютеры выполняют не менее 10 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000.
Закон не объясняет, почему это число является значительным или что делает его таким опасным. Кроме того, исследователи из Массачусетского института показали, что небольшие модели, обученные высококачественным данным, могут конкурировать с возможностями гораздо более крупных.
В то же время, такие технические пороги не используются для определения того, что означает «общий искусственный интеллект» или «возможности с большим воздействием», что делает их открытыми для интерпретации и разочаровывающих неоднозначных для компаний.
«Это глубокие научные проблемы», — говорит Питер Цанков, генеральный директор Latticeflow AI, который направляет компании в соответствии с такими положениями, как Закон об искусственном интеллекте. «Цитрицы неполны».
Брюссель не должен останавливать весь свой закон о искусственном интеллекте. Он должен придерживаться графика, чтобы начать применять правила для систем с высоким уровнем риска с искусственным интеллектом в области здравоохранения и критической инфраструктуры, когда они вступают в силу в августе 2026 года. Но правила для «общего» искусственного интеллекта вступают в силу гораздо раньше — через три недели — и им нужно время, чтобы улучшить. Цанков рекомендует исправить еще два года.
Европейский закон об искусственном интеллекте может создать столь необходимую прозрачность в индустрии искусственного интеллекта, и, если он будет введен в следующем месяце, такие компании, как Openai, будут вынуждены поделиться секретными подробностями о своих данных и учебных процессах. Это было бы благословением для независимых исследователей этики, которые пытаются изучить, насколько вредным искусственным интеллектом может быть в таких областях, как психическое здоровье. Но преимущества будут недолговечны, если неясные правила позволят компаниям отложить или находить юридические прорывы.
Тщательное отстранение от самых неотложных частей закона поможет Брюсселя избежать юридического хаоса и гарантировать, что когда правила будут введены, они будут работать.
Любая новость — это актив, следите за инвестором.bg и в С