Джеффри Хинтон, известный как «крестный отец искусственного интеллекта», опасается, что Технология, чье создание способствовало, может разрушить человечество, И «технологические фанаты» ошибаются, чтобы предотвратить это.
Хинтон, ученый компьютер, лауреат Нобелевской премии и бывший лидер Google, предупредил в прошлом, что существует вероятность уничтожения людей от 10% до 20%. Теперь он выражает сомнения в том, как технологические компании пытаются обеспечить, чтобы люди оставались «доминирующими» над «покорными» и системами, сообщает CNN.
«Это не сработает. Они будут намного умнее нас. У них будет все способы передвигаться», — сказал Хинтон на AI4, конференции индустрии Лас -Вегаса.
В будущем предупредил Хинтон, Системы могут быть в состоянии контролировать людей так же легко, как взрослый может подкупить 3-летнего ребенка с конфетами.
В этом году мы уже видели примеры систем II, которые готовы обманывать, обмануть и украсть для достижения своих целей. Например, чтобы не заменить, модель пыталась шантажировать инженера, изменяя своей жене — о чем он узнал по электронной почте.
Но вместо того, чтобы заставлять ИИ подчиняться людям, Хинтон представил интересное решение: встроить «материнские инстинкты» в модели IIТаким образом, «они действительно заботятся о людях», даже когда технологии становятся более мощными и умными, чем люди.
«Системы будут разрабатывать два подразделения очень быстро, если они умны: одно -остаться в живых … (а) Другое -получить больший контроль», -сказал Хинтон. «Есть разумные причины полагать, что любой тип агентского искусственного интеллекта попытается остаться в живых».
Хинтон утверждает, что именно поэтому важно поощрять чувство сострадания к людям.
На конференции он отметил, что у матерей были инстинкты и социальное давление, чтобы заботиться о своих детях.
«Правильная модель — единственная модель, которую мы имеем для более умной вещи, контролируемой менее умной, а именно мать, контролируемая ее ребенком», — сказал Хинтон.
Хинтон указал это Он не понимает точно, как это можно сделать технически, но подчеркнул, что для исследователей было важно работать над этим вопросом.
«Это единственный хороший результат. Если он не обучает меня, это заменит меня», — подчеркнул ученый. «Эти супер умные лица, осуществляющие уход, большинство из них не захотят отказаться от своего материнского инстинкта, потому что они не хотят, чтобы мы умирали».
Хинтон известен своей новаторской работой в области нейронных сетей, которая помогла проложить путь к сегодняшнему буму II. В 2023 году он покинул Google и начал открыто говорить об опасностях искусственного интеллекта.
Не все согласны с подходом Хинтона к материнскому инстинкту в искусственном интеллекте.
Фэй-Фай, также известная как «крестный отец искусственного интеллекта» из-за ее новаторской работы в этой области, сказала, что он не согласен с Хинтоном, его давним другом со всем уважением.
«Я думаю, что это неправильный подход», -сказал Ли, соучредитель и генеральный директор компании Startup Spatial Intelligence Company World Labs во время неформального разговора в AI4. Вместо этого она призывает к «искусственному интеллекту, ориентированному на человека, который сохраняет человеческое достоинство и свободу действий». «На каждом уровне наша ответственность за то, чтобы создавать и использовать технологии наиболее ответственными способами. И ни в коем случае никто не должен быть вынужден или выбирать, чтобы отказаться от своего достоинства. Просто потому, что одно лекарство является мощным, как мать, как учитель и изобретатель, я действительно верю, что это сущность искусственного интеллекта».
Emet Shire, который был кратко временным генеральным директором Openai, владельцем CHATGPT, сказал, что это не было Удивил, что некоторые системы II пытались шантажировать людей или обходить заказы об исключении.
«Это продолжает происходить. Это не остановится», — сказал на конференции AI4 Шир, генеральный директор стартап -компании AI Softmax. «Сегодня относительно слабые, но они становятся сильнее очень быстро».
Шир сказал, что вместо того, чтобы пытаться вдохновить человеческие ценности в системах II, более разумным подходом будет построение взаимосвязи сотрудничества между людьми и искусственным интеллектом.
Многие эксперты думают, что ИИ достигнет Super Intelligence, также известного как искусственный общий интеллект или AGI, в ближайшие годы.
Хинтон сказал, что ранее считал, что достижение AGI может занять от 30 до 50 лет, но теперь он видит, что этот момент скоро наступит.
«Разумно делать ставку на период от 5 до 20 лет», — сказал он.
Хотя Хинтон по -прежнему обеспокоен тем, что может пойти не так с ИИ, он с оптимизмом смотрит на то, что технология проложит путь для медицинских прорывов.
«Мы увидим радикально новых лекарств. Мы получим гораздо лучшее лечение рака, чем сейчас», — сказал он.
Например, он считает, что ИИ поможет врачам просеять и подключить огромные объемы данных, полученных МРТ и компьютерными томографиями.
Тем не менее, Хинтон не верит, что ИИ поможет людям достичь бессмертия.
Полем В течение важного дня следуйте за нами и в С