Каждый инвестор знает, что он не должен положить все свои яйца в одну корзину. Тогда почему Силиконовая долина делает ставку только на один способ создания искусственного интеллекта?
В этом году четыре крупнейшие технологические компании в мире потратят 344 миллиарда долларов на искусственный интеллект, в основном на центры обработки данных, используемые для обучения и работы с так называемыми. Большие языковые модели (LLM), такие как CHATGPT, которые могут обрабатывать текст, аудио и визуальный контент. Технология в значительной степени основана на той же методе прогнозирования символов, которая должна происходить в данной последовательности.
Их расходы, конечно, не напрасны. Чат -боты личного использования уже быстро растут, с некоторыми стартами в области искусственного интеллекта, достигая порога прибыльности, в то время как другие все еще находятся на ранних стадиях развития своего бизнеса с генеративным искусственным интеллектом. Большие языковые модели — это первая техника искусственного интеллекта, которая достигает массового использования в огромном масштабе: например, более 700 миллионов человек используют CHATGPT каждую неделю.
Но история полна людей, которые исправлены на одном «прибыльном» подходе к технологиям, чтобы просто отставать, когда ситуация внезапно меняется. Подумайте о посвящении Blackberry на физическую клавиатуру, прежде чем Apple Inc. смачивает ее с помощью сенсорных экранов или для большой ставки Yahoo на порталах, в то время как Google тихо доминировал в поиске.
Может ли инновационный подход к искусственному интеллекту внезапно разрушить весь капитал, вложенной в технологию чат -ботов? Может быть. Китайская компания Deepseek дала представление о том, как нетрадиционные подходы могут удивить рынок, когда она запустила меньшую и более эффективную модель в январе и опубликовала свои чертежи в Интернете.
Модель DeepSeek была LLM, но ее метод показал, что все ресурсы, которые инвестируются сегодня в исследования искусственного интеллекта, создают волну, которая может поднять другие лодки. На протяжении всей своей истории искусственный интеллект прогрессировал, сочетая прошлые знания с новыми идеями, и преследование супер интеллектуальных машин может потребоваться не меньше.
Большая часть этого исследования в настоящее время проводится в таких местах, как Covariant, стартап -компания из региона Персидского залива, которая разрабатывает программное обеспечение, которое помогает машинам воспринимать окружающее пространство вместо просеивания моделей в данных. Компании, сосредоточенные на робототехнике и беспилотниках, обнаружении лекарств или моделировании климата, являются теми, которые естественным образом дистанцировались от одержимости языковыми моделями, потому что их технологии должны реагировать на условия физического мира в режиме реального времени.
Atman Labs, британский стартап, извлекает идеи до появления глубокого обучения, которые «были также важными, но забытыми», по словам соучредителя Сюма Саду. Их путь напоминает о давних усилиях Google DeepMind по созданию супер интеллектуального искусственного интеллекта различными способами — от игровых систем ИИ, таких как Альфаго, до техники, основанного на симуляциях, называемых улучшением обучения — до выхода CHATGPT, до перенаправления всего фокуса компании на большие лингвистические модели.
Теперь тезис о крупных языковых моделях — это некоторые трещины, от огромных затрат до перспективы снижения доходности. Последние модели OpenAI или Google немного лучше, чем более старые, хотя больше денег вкладывает средства в их развитие. Галлюцинации не исчезли, что затрудняет их реализацию в медицинских компаниях или в юридическом анализе.
Недавнее исследование природы также показывает, что способность социально думать языковые модели — способность понимать, что люди на самом деле имеют в разговоре — зависит от чрезвычайно небольшого набора характеристик модели и что небольшие изменения могут их сломать. Это поднимает фундаментальные вопросы о надежности. В связи с этим Openai признал в прошлом месяце, что защитные механизмы Chatgpt для уязвимых людей могут потерпеть неудачу во время долгих разговоров. Это откровение пришло после того, как бот дал инструкции для самооценки подростка.
Некоторые из наиболее заметных фигур в технологическом секторе указывали на недостатки.
«Силиконовая долина полностью потерпела неудачу с возвышением LLM», — сказал главный исполнительный директор Palantir Technologies. Алекс Карп на конференции искусственного интеллекта на прошлой неделе. Ян Лекун, крупный ученый в искусственном интеллекте в Meta Platforms Inc., давно заявил, что крупные языковые модели являются «тупиком» для умных машин, потому что они не понимают свою физическую среду и не планируют заранее. Они просто «генераторы символов», предупреждает он.
LLM не исчезнет, но история рынка показывает опасность влюбиться в одно решение. Инвесторы и предприятия должны оставаться в предупреждении о технических прорывах и быть готовыми к изменениям. В технологиях это может произойти — и это часто случается — прежде чем кто -то этого ожидает.
