У нас есть чат, потому что сам Альтман хотел создать «Бога».
Несмотря на весь шум, чат-бот-это всего лишь прототип на пути к более высокой цели или «общему искусственному интеллекту», который превосходит когнитивную способность человека. Когда в 2015 году Altman Co -Soundai выбирал эту конечную цель для неправительственной организации. Пять лет назад Demis Hasabis создал DeepMind Technologies Ltd., которая в настоящее время является основным подразделением Google для идентичных целей-агентов. Их мотивы являются утопическими: по словам Альтмана, AGI создаст финансовую численность и «общую выгоду» для человечества. Согласно Хасабису, он вылечит рак и решит изменение климата.
Тем не менее, эти благородные намерения имеют несколько проблем. Во -первых, финансовые стимулы крупных технологических компаний, вероятно, сосредоточатся на усилиях на AGI, чтобы победить, прежде всего. Ранние альтруистические идеи Альтмана и Хасабиса отступили в последние годы, когда бум в генеративном искусственном интеллекте выпустил гонку за «победу», что бы это ни значило. В последние годы сайт DeepMind снял контент для исследований в области здравоохранения или обнаружение новых источников энергии и стал более производимым, рекламируя ведущую платформу Google AI-«Близнецы». Альтман все еще говорит о пользе человечества, но больше не во главе неправительственной организации «Финансовые обязательства», поскольку Openai был основан в 2015 году, а скорее является продуктом Microsoft Corp., который до сих пор вложил в свою компанию около 13 миллиардов долларов.
Вторая проблема заключается в том, что даже люди, которые развивают AGI, действуют в отсутствие прозрачности, хотя они убеждены в своих графических прогнозах. Генеральный директор Anpropic, Дарио Амадей, говорит, что к 2027 году у нас будет AGI. Сын -миллиардер Масайоши думает, что мы достигнем этого в течение двух или трех лет. Эзра Кляйн, суббота в «Нью -Йорк Таймс», которая регулярно приглашает лидеров ИИ, недавно написала: «Это действительно произойдет. Мы получим общий искусственный интеллект».
Но если вы спросите технологических лидеров, что на самом деле означает AGI, вы получите запутанное разнообразие ответов. Хасабис описывает его как программное обеспечение, которое «достигает человеческого уровня». Альтман говорит, что Аги будет «превосходить людей». Оба, так же как амодеи, часто пытаются сказать, насколько сложным и трудным является определение AGI. Альтман также назвал это «слегка определенным термином». И генеральный директор Microsoft, Сатья Наделла, даже сократил стремление к AGI как «бессмысленное стремление к показателям».
Я вообще не успокаиваю, видя, что самые большие имена в ИИ обмениваются критикой или избегают определения их «Северного полюса», в то же время они спешат к нему. И речь идет не только о компьютерных специалистах, наряду с Илоном Маск, предупреждающим о великих рисках (даже экзистенциальном для человечества), если мы достигнем AGI. Также беспокоит то, что стремление к плохо определенной цели открывает дверь для нежелательных последствий.
Более значимой целью было бы более узкое и более конкретное пример, системы, которые уменьшают ошибки в медицинской диагностике на 30%. Или в образовании — который улучшает успех математики на 15%. Или системы для оптимизации энергетических сетей и удаления выбросов углерода на 20%. Мало того, что такие цели имеют явные показатели успеха, они также на самом деле удовлетворяют человеческие потребности, так же, как они первоначально предполагали Альтман и Хасабис.
Нет никаких доказательств того, что если такая компания, как Google или Microsoft (или китайская Deepseek), объявила, что она наконец-то создала AGI, у нее будет ключ к лечению рака, разрешению климатического кризиса или увеличении мирового богатства с Trillions-As As Os обещания. Саммит настолько жесткий, что мы скорее увидим, как «победители» объявляют себя опекунами конкурентных преимуществ, повышают цены и ограничивают разделение информации. Вопросы о геополитических последствиях также возникнут. Когда он основал Openai, Альтман сказал, что если какая -либо другая исследовательская группа будет ближе к AGI, они прекратят свою работу и сотрудничают. Сегодня это больше похоже на иллюзию.
В прошлом месяце группа академических и корпоративных исследователей искусственного интеллекта опубликовала статью, призывающую технологические компании прекратить превращение AGI в единственную конечную цель исследования искусственного интеллекта. Они утверждают, что этот термин слишком неясен, чтобы измерить качество, привести к плохой науке, и исключает ключевые заинтересованные стороны — т.е. Люди, чья жизнь будет изменена. В 2025 году технологические лидеры имели гораздо большую общественную власть, чем в начале нового века, чтобы изменить культуру и привычки людей через социальные сети, и теперь значительно влияет на работу через ИИ, со слабыми механизмами контроля.
Исследователи, в том числе бывший руководитель команды по этике ИИ, Маргарет Митчелл, предлагают не только компаниям включить более разнообразные голоса от разных общин и областей знаний, но и отказаться от расплывчатого выступления за ГИС, называемый одним из научных исследователей.
Большое сумасшедшее увлечение длится слишком долго в Силиконовой долине, а также давление между такими людьми, как Маск и Альтман, для крупнейшей модели ИИ или крупнейших графических чипов NVIDIA. J. Роберт Оппенгеймер выражает глубокое сожаление по поводу своей роли «отца атомной бомбы» и сегодня воплощает идею, что «только потому, что мы можем что -то сделать, не означает, что мы должны это сделать».
Вместо того, чтобы пожалеть позже, технические лидеры могут избежать одной и той же ловушки — Чейз Слава и «построить богов», особенно учитывая, что преимущества совсем не уверены.