Исследователь искусственного интеллекта из США Элиезер Юдковский предупредил об опасностях искусственного интеллекта. В колонке для журнала Time он призвал «отключить все системы ИИ» ради спасения человечества, сообщает PRIMPRESS.
Юдковский в статье под названием «Недостаточно приостановить разработку ИИ. Нам нужно закрыть все это» говорит, что он не подписывал письмо бизнесменов Илона Маска и Стива Возняка, поскольку оно преуменьшает «серьезность ситуации».
«Этого слишком мало для решения проблемы. Многие исследователи, погруженные в эти проблемы, в том числе и я, ожидают, что наиболее вероятным результатом создания сверхчеловечески умного ИИ при любых обстоятельствах, отдаленно напоминающих нынешние, будет то, что буквально все на Земле умрут», – написал специалист.
ИИ, по словам ученого, «не заботится ни о людях, ни о разумной жизни в целом». Юдковский уверен, что от внедрения таких принципов в технологии мы на данный момент далеки.
Вместо этого Юдковский предложил запрет, который является «бессрочным и всемирным» без исключений для правительств или вооруженных сил.
«Если разведка сообщает, что страна, не входящая в соглашение, строит кластер графических процессоров, опасайтесь не столько перестрелки между странами, сколько нарушения моратория; будьте готовы уничтожить их так называемый центр обработки данных с помощью авиаудара», – заключил он.
О возможных катастрофических последствиях ИИ Юдковский предупреждал неоднократно и крайне эмоционально.