Исследовательской группе Технологического университета Джорджии удалось разработать прототипы роботов, способных обманывать других роботов и прятаться на местности. В ходе тестирования механических лжецов обмануть следящий искусственный разум не удалось лишь в 25% случаев.
В ходе разработки поведенческой модели особое внимание уделялось средствам коммуникации и представлению окружающей действительности с различных ракурсов, что позволило создать алгоритмы для воспроизведения хитрости и смекалки. Предварительно робот определяет необходимость введения в заблуждение другого робота, опираясь на наличии конфликта между двумя электронными системами и выгоду, которую можно получить в результате обмана. Далее хитрый робот начинает заметать следы, создает ложные посылы и старательно прячется.
Рабочий прототип испытывался в двух десятках ситуациях, приближенных к реальности, когда один киборг пытался отыскать другого. Механический врун проигрывал лишь в каждом четвертом случае, что позволяет говорить об успешном завершении первой фазы разработки. Кроме того, удалось в очередной раз доказать необходимость внедрения алгоритмов хитрости в поведенческую программу роботов, используемых в военной сфере: умение обманывать дает неоспоримое преимущество при контакте.
Разработчики не исключают возможность применения подобных технологий во вред людям. Через годы системы обмана будут развиты настолько, что роботы получат пространство для неэтического поведения, противоречащего концепции разработки киборгов. Общество должно получать технику с ожидаемыми умениями и свойствами, посему важно заранее разработать концепцию этики для робототехники, выделить основные требования к разработчикам.
Несмотря на военное финансирование, способные на обман роботы пригодятся и в мирных целях, например, подчас проведения спасательных операций, когда только ложь способна заставить жертву техногенной или природной катастрофы действовать себе во благо. Используемые в бытовых нуждах роботы подобной возможностью в обозримом будущем наделяться, очевидно, не будут.
В ходе разработки поведенческой модели особое внимание уделялось средствам коммуникации и представлению окружающей действительности с различных ракурсов, что позволило создать алгоритмы для воспроизведения хитрости и смекалки. Предварительно робот определяет необходимость введения в заблуждение другого робота, опираясь на наличии конфликта между двумя электронными системами и выгоду, которую можно получить в результате обмана. Далее хитрый робот начинает заметать следы, создает ложные посылы и старательно прячется.
Рабочий прототип испытывался в двух десятках ситуациях, приближенных к реальности, когда один киборг пытался отыскать другого. Механический врун проигрывал лишь в каждом четвертом случае, что позволяет говорить об успешном завершении первой фазы разработки. Кроме того, удалось в очередной раз доказать необходимость внедрения алгоритмов хитрости в поведенческую программу роботов, используемых в военной сфере: умение обманывать дает неоспоримое преимущество при контакте.
Разработчики не исключают возможность применения подобных технологий во вред людям. Через годы системы обмана будут развиты настолько, что роботы получат пространство для неэтического поведения, противоречащего концепции разработки киборгов. Общество должно получать технику с ожидаемыми умениями и свойствами, посему важно заранее разработать концепцию этики для робототехники, выделить основные требования к разработчикам.
Несмотря на военное финансирование, способные на обман роботы пригодятся и в мирных целях, например, подчас проведения спасательных операций, когда только ложь способна заставить жертву техногенной или природной катастрофы действовать себе во благо. Используемые в бытовых нуждах роботы подобной возможностью в обозримом будущем наделяться, очевидно, не будут.
Обсуждения Роботы-лгуны