Рубрики
МЕНЮ
Виталий Войчук
"Мы разработали алгоритмы, которые позволяют роботу вводить в заблуждение человека или машину, обладающую искусственным интеллектом, а также научили его выбирать лучшую стратегию в разных обстоятельствах", — уточняет руководитель научной группы Рональд Аркин.
Это умение не обязательно должно пригодиться; робот, скорее всего, не будет наделяться им для выполнения каких-то специальных задач. "И всё же это важный инструмент в его интерактивном арсенале, потому что робот, который понимает необходимость хитрости, имеет преимущество с точки зрения конечного результата по сравнению с роботами, не имеющими представления об этом", — подчёркивает соавтор исследования Алан Вагнер.
В будущем подобные машины могут оказаться полезными в самых разных сферах. Например, при спасении паникующей жертвы. Но в данном случае учёные сконцентрировались на том, чтобы научить подопечного прятаться от противника. Во-первых, робот должен распознавать ситуации, в которых имело бы смысл применить хитрость. Ситуация должна удовлетворять двум главным условиям: конфликт между роботами и наличие выгоды для одного из них, если он будет хитрить.
Учёные установили на полу маркеры, которые вели к трём местам, где можно было прятаться. Когда робот понимал, что возникли обстоятельства, при которых надо обмануть соперника, он сбивал маркер, ведущий в одно убежище, а сам прятался в другом. Только в пяти случаях из двадцати он не смог сообразить, как обмануть соперника.
Создание машин, понимающих ценность лжи в определённых условиях, — весьма смелый вызов человеческой цивилизации, который она опять делает сама себе. Безусловно, разработка подобных роботов требует дискуссии об этической стороне дела.
Результаты исследования опубликованы в издании International Journal of Social Robotics.
Подготовлено по материалам Технологического института Джорджии.
По материалам: "Компьюлента"
Обсуждения
Новости партнеров
Новости