21 июня 2016Железные новости
Обновлено 17.05.2023

Инженер создал машину, способную нарушить первый закон робототехники


Инженер Александр Ребен из Калифорнийского университета в Беркли продемонстрировал робота, который способен самостоятельно решить, наносить вред человеку или нет. В данном случае вся возможная угроза людям заключается в уколе иглой, если палец оказывается в пределах досягаемости механической руки.

Автор проекта отметил, что он не создавал робота, смысл существования которого заключается в нанесении вреда людям. Машина может атаковать человека, а может и не атаковать: механизм принимает решение самостоятельно, и даже его разработчик не может предсказать, как тот поведет себя в той или иной ситуации. По мнению Александра Ребена, это показывает, что когда-нибудь искусственный интеллект сможет нарушить сформулированный фантастом Айзеком Азимовым первый закон робототехники: «Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред».

Инженер отметил, что таким образом он рассчитывает привлечь внимание к возможной угрозе человечеству со стороны искусственного интеллекта. По его словам, позволяющие остановить «восстание машин» методы нужно разработать намного раньше, чем подобные машины появятся. Решением этой проблемы может стать так называемая красная кнопка, способная отключить искусственный интеллект.

Комментарии
Чтобы оставить комментарий,Войдите или Зарегистрируйтесь