Этический робот принимает смертельные решения
Робот, запрограммированный на спасение людей от неминуемой угрозы, оказался опасно нерешительным.
Исследователи бристольского университета поставили эксперимент, в котором робот был специально запрограммирован, не допустить падения в яму других роботов.
Концепция основана на изучении этики роботов, как было описано автором Айзеком Азимовым, который предположил, что роботы должны регулироваться набором моральных принципов, для предотвращения возможного нанесения вреда человеку который мог стать прямым результатом их собственного бездействия.
Во время проведения эксперимента, они обнаружили, что робот, которому была поставлена задача, спасти других роботов от падения в яму, справился с ней лишь в половине случаев.
Проблема связана с тем, что когда два робота должны были быть спасены в одно и то же время, колебания с принятием решения слишком затягиваются. Пока они выясняют, кто из них кому должен помочь, оба падают в яму.
«Он замечает другого робота попавшего в беду, начинает двигаться к цели для спасения, но затем почти сразу замечает, что цель его спасения делает то же самое», — сказал робототехник Алан Уинфилд (Alan Winfield). «Робот постоянно меняет свое мнение, и время, потерянное на нерешительность говорит о том, что ему не удастся по теории Азимова спасти человека».
Источник: https://uk.news.yahoo.com