Google хочет подорвать программное преимущество Nvidia с помощью Meta

Google хочет подорвать программное преимущество Nvidia с помощью Meta

Google, принадлежащая Alphabet, работает над новой инициативой по улучшению своих чипов искусственного интеллекта для работы с PyTorch, наиболее широко используемой в мире программной платформой искусственного интеллекта, в попытке ослабить давнее доминирование Nvidia на рынке вычислений с искусственным интеллектом, сообщили источники, знакомые с этим вопросом, со ссылкой на Reuters.

Эти усилия являются частью агрессивного плана Google по превращению своих тензорных процессоров (TPU) в жизнеспособную альтернативу ведущим на рынке графическим процессорам (GPU) Nvidia. Продажи TPU стали ключевым фактором роста доходов Google от облачных технологий, поскольку компания стремится доказать инвесторам, что ее инвестиции в искусственный интеллект окупаются.

Но одного лишь оборудования недостаточно для стимулирования внедрения. Новая инициатива, известная внутри компании как TorchTPU, направлена ​​на устранение ключевого барьера, который замедлил внедрение чипов TPU, сделав их полностью совместимыми и удобными для клиентов, которые уже создали свою технологическую инфраструктуру с использованием программного обеспечения PyTorch, сообщили источники, знакомые с этим вопросом. Google также рассматривает возможность сделать части программного обеспечения открытым исходным кодом, чтобы ускорить внедрение среди клиентов, сообщили некоторые источники.

По словам источников, по сравнению с предыдущими попытками поддержки PyTorch на TPU, Google сосредоточила больше организационного внимания, ресурсов и стратегической важности на TorchTPU, поскольку спрос растет со стороны компаний, которые хотят внедрить чипы, но считают долю в программном обеспечении препятствием.

PyTorch, проект с открытым исходным кодом, активно поддерживаемый Meta Platforms, является одним из наиболее широко используемых инструментов для разработчиков, создающих модели искусственного интеллекта. В Кремниевой долине очень немногие разработчики пишут каждую строчку кода, которую на самом деле выполняют чипы Nvidia, Advanced Micro Devices (AMD) или Google.

Вместо этого эти разработчики полагаются на такие инструменты, как PyTorch, который представляет собой набор предварительно написанного кода и фреймворков, которые автоматизируют многие общие задачи разработки программного обеспечения для искусственного интеллекта. История PyTorch, первоначально запущенная в 2016 году, тесно связана с разработкой Nvidia CUDA, программного обеспечения, которое некоторые аналитики Уолл-стрит считают сильнейшим щитом компании от конкурентов.

В течение многих лет инженеры Nvidia усердно работали над тем, чтобы программное обеспечение, разработанное с помощью PyTorch, работало на их чипах максимально быстро и эффективно. С другой стороны, в Google уже давно есть собственные команды разработчиков программного обеспечения, которые используют другую структуру кода под названием XLA для обеспечения эффективного выполнения кода. Большая часть программного стека Google и оптимизации производительности построена на основе Jax, что увеличивает разрыв между тем, как Google использует свои чипы и тем, как клиенты хотят их использовать.

Представитель Google Cloud не стал комментировать детали проекта, но подтвердил Reuters, что этот шаг предоставит клиентам выбор.

«Мы наблюдаем огромный и растущий интерес к нашей инфраструктуре TPU и GPU. Наша цель — предоставить разработчикам необходимую им гибкость и масштабируемость независимо от того, какое оборудование они решат использовать», — добавил представитель.

ТПУ для клиентов

Alphabet уже давно зарезервировала большую часть своих собственных чипов TPU только для внутреннего использования. Ситуация изменилась в 2022 году, когда подразделение облачных вычислений Google успешно пролоббировало контроль над группой, продающей ТПУ. Этот шаг резко увеличил распространение ТПУ из Google Cloud, и поскольку интерес клиентов к искусственному интеллекту растет, Google пытается извлечь из этого выгоду, увеличивая производство и продажи ТПУ внешним клиентам.

Но несоответствие между платформой PyTorch, используемой большинством разработчиков искусственного интеллекта в мире, и платформой Jax, для работы с которой на данный момент лучше всего настроены чипы Google, означает, что большинство разработчиков не могут легко взять чипы Google и заставить их работать так же, как чипы Nvidia, без значительной дополнительной инженерной работы. В стремительно развивающейся гонке ИИ требуются время и деньги.

В случае успеха инициатива Google TorchTPU может значительно снизить затраты на переход для компаний, ищущих альтернативы графическим процессорам Nvidia. Доминирующая позиция Nvidia подкрепляется не только аппаратным обеспечением, но и программной экосистемой CUDA, которая глубоко встроена в PyTorch и стала стандартным методом, с помощью которого компании обучают и запускают большие модели искусственного интеллекта.

Корпоративные клиенты рассказали Google, что TPU сложнее внедрить в рабочие нагрузки искусственного интеллекта, поскольку исторически они требовали от разработчиков перехода на Jax, платформу машинного обучения, предпочитаемую внутри Google вместо PyTorch, которую уже используют большинство разработчиков искусственного интеллекта, сообщили источники.

Совместные усилия с Мета

По словам источников, чтобы ускорить разработку, Google тесно сотрудничает с Meta, создателем и администратором PyTorch. Два технологических гиганта обсуждают сделки по предоставлению Meta доступа к большему количеству TPU, о чем впервые сообщило издание The Information.

Ранние предложения Meta были структурированы как услуги, управляемые Google, где такие клиенты, как Meta, устанавливали чипы Google, предназначенные для запуска программного обеспечения и моделей компании, а Google обеспечивал оперативную поддержку. По словам источников, Meta стратегически заинтересована в работе над программным обеспечением, которое облегчит работу с TPU, чтобы снизить затраты на логические выводы и диверсифицировать свою инфраструктуру искусственного интеллекта за счет отказа от графических процессоров Nvidia, чтобы получить переговорную силу. Мета отказалась от комментариев.

В этом году Google начала продавать TPU напрямую в дата-центры клиентов, а не ограничивать доступ к собственному облаку. Амин Вахдат, давний сотрудник Google, в этом месяце был назначен главой отдела искусственного интеллекта и подчиняется непосредственно генеральному директору Сундару Пичаи.

Google нуждается в этой инфраструктуре для запуска своих собственных продуктов искусственного интеллекта, включая чат-бота Gemini и поиска на основе искусственного интеллекта, а также для предоставления клиентам Google Cloud, которое продает доступ к TPU таким компаниям, как Anthropic.

Каждая новость – это актив, следите за Investor.bg и в .

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *