Путь OpenAI к созданию сверхразумных машин выглядит все более неясным, пишет Парми Олсен в комментарии для Bloomberg.
Еще одним признаком этого стала досадная ошибка, допущенная ведущими учеными компании на выходных. «GPT-5 только что нашел решение 10 (!) ранее нерешенных задач Erdos», — восхищенно написал вице-президент компании по науке Кевин Вейл в своем посте в социальной сети X. С тех пор пост был удален.
Это оказалось неправдой. Последняя модель компании просто собрала ответы из Интернета и перефразировала их как свои собственные.
Многие из известных нерешенных задач математика Пола Эрдоса перечислены на специальном веб-сайте, и исследователи OpenAI предполагают, что никто не нашел ответов на те, которые указаны как «открытые».
Но математик Томас Блюм, являющийся администратором сайта, ответил в X, что просто не обновлял их на платформе. GPT-5 не решил проблемы, используя какие-либо принципы. Он просто взял ответы из уже опубликованных научных работ, о которых Блум не знал. «Это резкое искажение», — написал Блум на платформе X. Вейл и другие исследователи удалили свои сообщения.
Конкурирующие лаборатории искусственного интеллекта воспользовались возможностью, чтобы подразнить OpenAI по поводу этой ошибки. «Это позор», — написал на X генеральный директор Google DeepMind Демис Хассабис. И это справедливо. OpenAI уже давно предполагает, что большие языковые модели, на которых основан ChatGPT, которые собирают огромные объемы данных и синтезируют их в интеллектуальные ответы, открывают реальный путь к общему искусственному интеллекту (AGI). Это теоретический порог, при котором машины становятся умнее людей.
Амбиции в отношении AGI способствовали чрезвычайно высокой оценке таких компаний, как OpenAI (500 миллиардов долларов) или Nvidia, у которых было 4,5 триллиона долларов. долларов рыночной капитализации по состоянию на утро понедельника по сравнению с 2,5 трлн. долларов в это время в прошлом году, потому что это предполагает будущее, в котором машины смогут рассуждать и находить ответы на сложные проблемы в бизнесе и обществе. Но ошибка Эрдеша является суровым напоминанием о том, что большие языковые модели, лежащие в основе бума генеративного искусственного интеллекта, по большей части претендуют на то, чтобы хорошо рассуждать.
Конечно, то, что они делают, выгодно как потребителям, так и бизнесу. ChatGPT используется около 10% населения мира, а генеративные системы искусственного интеллекта начинают менять способы, которыми многие компании проводят опросы, обслуживают клиентов, организуют маркетинговые кампании и многое другое. Для многих он стал практически полной заменой Google. Но идея о том, что технология чат-ботов решит сложные проблемы в цепочках поставок, управлении персоналом или дизайне продуктов, все еще кажется далекой мечтой, не в последнюю очередь потому, что она продолжает совершать ошибки.
Оценки технологических компаний растут благодаря преувеличениям, которые мы наблюдали в минувшие выходные, когда ведущие ученые OpenAI поспешили заявить об этом, не проверив факты. История показывает, что чрезмерные обещания имеют тенденцию замедлять прогресс, а прошлые «зимы» ИИ были вызваны завышенными ожиданиями, а не неудачами. Существенные прорывы в рассуждении, вероятно, потребуют подходов к машинному обучению, которые не настолько продвинуты, как генеративный искусственный интеллект, например, нейросимволический искусственный интеллект.
Истинные рассуждения, расширяющие границы научных знаний, не следует путать, особенно собственными исследователями компании, со способностью ChatGPT «перемешивать» мировые знания. Но не ждите, что это помешает Кремниевой долине говорить нам, что сверхинтеллект уже не за горами или что бум искусственного интеллекта будет по-прежнему основываться как на реальных прорывах, так и на вере.
Каждая новость – это актив, следите за Investor.bg и в .
