2023-04-03T10:45:35+10:00 2023-04-03T10:45:35+10:00

Ради спасения человечества: ученый сделал заявление об опасности искусственного интеллекта

Эксперт прокомментировал свою позицию

3 апреля 2023, 10:45

Фото: kjpargeter on Freepik
Фото: kjpargeter on Freepik | Ради спасения человечества: ученый сделал заявление об опасности искусственного интеллекта

Исследователь искусственного интеллекта из США Элиезер Юдковский предупредил об опасностях искусственного интеллекта. В колонке для журнала Time он призвал «отключить все системы ИИ» ради спасения человечества, сообщает PRIMPRESS.

Юдковский в статье под названием «Недостаточно приостановить разработку ИИ. Нам нужно закрыть все это» говорит, что он не подписывал письмо бизнесменов Илона Маска и Стива Возняка, поскольку оно преуменьшает «серьезность ситуации».

«Этого слишком мало для решения проблемы. Многие исследователи, погруженные в эти проблемы, в том числе и я, ожидают, что наиболее вероятным результатом создания сверхчеловечески умного ИИ при любых обстоятельствах, отдаленно напоминающих нынешние, будет то, что буквально все на Земле умрут», – написал специалист.

ИИ, по словам ученого, «не заботится ни о людях, ни о разумной жизни в целом». Юдковский уверен, что от внедрения таких принципов в технологии мы на данный момент далеки.

Вместо этого Юдковский предложил запрет, который является «бессрочным и всемирным» без исключений для правительств или вооруженных сил.

«Если разведка сообщает, что страна, не входящая в соглашение, строит кластер графических процессоров, опасайтесь не столько перестрелки между странами, сколько нарушения моратория; будьте готовы уничтожить их так называемый центр обработки данных с помощью авиаудара», – заключил он.

О возможных катастрофических последствиях ИИ Юдковский предупреждал неоднократно и крайне эмоционально.

Новости партнеров

Новости (Мировые)