Невнимательность Сэма Альтмана работает на пользу Anthropic

Невнимательность Сэма Альтмана работает на пользу Anthropic

В понедельник генеральный директор OpenAI Сэм Альтман, находясь под внутренним и внешним давлением по поводу сделки, которую он заключил с Пентагоном о замене конкурента Anthropic, признал, что, возможно, поторопился со сделкой и намерен внести некоторые изменения. В записке для сотрудников, которой Альтман впоследствии поделился на социальной платформе X, его непродуманные идеи стали полностью видны. Читая между строк, Альтман, похоже, понимает, что допустил серьезную ошибку в суждениях, пишет Bloomberg.

«Мы искренне пытались деэскалировать ситуацию и избежать гораздо худшего исхода», — написал он. «Но я думаю, что это просто показалось оппортунистическим. Это хороший урок для меня, поскольку в будущем нам придется принимать решения с более высокими ставками», — добавляет Альтман.

Неясно, что он считает «худшим исходом», кроме упущенного шанса воспользоваться ситуацией Anthropic. Нам неизвестно об отсутствии оперативного риска — система Claude от Anthropic по-прежнему доступна военным и использовалась на выходных для поддержки атак на Иран — и, насколько нам известно, Пентагон не настаивал на внезапном развертывании полностью автономного оружия, обсуждавшегося в ходе этих переговоров, в которых также основное внимание уделялось тому, как эта технология будет использоваться для массовой слежки за американцами.

Нет, решение Альтмана быстро выполнить условия Пентагона, казалось, было направлено на то, чтобы воспользоваться моментом, созданным более этичным конкурентом. Теперь кажется, что это почти наверняка приведет к обратным результатам.

Загрузки и использование Claude на Anthropic, которая была небольшим игроком на потребительском рынке искусственного интеллекта в США с долей 1,5% в январе, резко возросли. По данным Apptopia, загрузки приложения Claude в США во вторник выросли на 220% по сравнению с показателями 23 февраля, до начала скандала. За это время количество загрузок ChatGPT Open AI снизилось на 5%. Роста достаточно, чтобы поставить Клода на вершину рейтинга загрузок приложений AI. Для сравнения, в январе приложение не входило в топ-100. Gemini от Google, которая уже добилась значительного прогресса с точки зрения доли рынка, сообщила о росте примерно на 5%.

Anthropic явно максимально использует эту возможность, упрощая пользователям ChatGPT переход на другую компанию. Но руководители знают, что растущий потребительский бизнес даже близко не сможет компенсировать последствия того, что она является единственной американской компанией, признанной «риском цепочки поставок», как пригрозил министр обороны Пит Хегсет.

Anthropic заявила, что будет оспаривать любые подобные действия в суде, а эксперты по правовым вопросам дают компании большие шансы на победу.

«Мы считаем, что обоснование Хегсета, сосредоточенное на отказе Anthropic изменить условия июльского оборонного контракта, вероятно, является слишком хрупким основанием для поддержки столь радикальных действий», — написал аналитик Bloomberg Intelligence Мэтью Шеттенхельм.

Хотя существует риск того, что длительная судебная тяжба может подорвать способность Anthropic поддерживать свою клиентскую базу, Шеттенхельм считает, что суд, скорее всего, отложит исполнение последней меры до тех пор, пока она не будет оспорена.

«Правительство, безусловно, будет подчеркивать необходимость соблюдать этот вопрос национальной безопасности — и это обычно является выигрышной картой», — отметил он, добавив: «Но все же должна быть некоторая законодательная основа, и обоснования, которые я видел до сих пор, вероятно, не доходят до нее».

Если это окажется так, Anthropic, возможно, потеряет этот конкретный контракт с Пентагоном, но остальная часть ее растущих корпоративных усилий, в которых она возглавляет OpenAI, останется нетронутой. Другие военные контракты останутся на повестке дня, во многом потому, что антропные модели высоко ценятся в разведывательном сообществе.

И благодаря действиям Альтмана Anthropic получила маркетинговое преимущество, которое невозможно купить за деньги (в дополнение к известности, которую она приобрела благодаря рекламе Суперкубка, высмеивающей рекламные планы ChatGPT), и большую долю потребительского рынка ИИ, хотя еще никто не знает, кто в конечном итоге станет «победителем» ИИ.

Ошибка Альтмана не станет неожиданностью для тех, кто следил за его карьерой. В статье журнала Time за 2023 год хвалились его способности к сбору средств, отмечая при этом, что четверо его знакомых считали его «скользким, а иногда вводящим в заблуждение и лживым».

Илья Суцкевер, бывший главный эксперт OpenAI и один из архитекторов современного искусственного интеллекта, считает Альтмана иногда «нечестным» и искусным в «выведении хаоса».

ChatGPT получил свое уродливое название потому, что Альтман так спешил его выпустить, что его коллеги не успели придумать что-то лучшее.

Вам может быть интересно, какие еще подобные решения принял в спешке Альтман. Какие нормы были преодолены, какие работы остались незавершенными для заключения договора? «Урок» для Альтмана может заключаться в том, что лучше всего научиться действовать более осознанно.

Каждая новость – это актив, следите за Investor.bg и в .

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *