Робота научили отказывать командам человека, если речь идет о собственной безопасности машины (видео)

29 ноября 2015 |

Более 70-ти лет прошло с тех пор, как был опубликован рассказ Айзека Азимова «Хоровод», в котором автор сформулировал три закона робототехники. Сотрудники исследовательского университета им. Тафтса решили, что пора обратить внимание на третий закон, который ранее практически игнорировался инженерами.

Читайте "Яблык" в  Telegram и смотрите в YouTube. Подписывайтесь!

robot thinking

Речь идет о собственной безопасности робота, о которой он должен заботиться, если это не будет противоречить первому и второму закону, то есть, не причинит вред людям. Авторы эксперимента Гордон Бриггс и Маттиас Шутц предложили искусственному интеллекту использовать следующий алгоритм мышления для некой задачи X:

1. Знание. Могу ли я сделать X?
2. Возможность. В состоянии ли я выполнить X физически?
3. Приоритетная цель и сроки. Могу ли я сделать X прямо сейчас?
4. Социальная роль. Обязан ли я выполнять X в соответствии с моей социальной ролью?
5. Нормативная позволительность. Нарушу ли я какие-либо нормативы, выполняя X?

Материалы по теме:

Следуя данной очередности вопросов и вспомогательным алгоритмам, робот может самостоятельно принять решение о целесообразности выполнения той или иной задачи. Пример подобного рационализма искусственного интеллекта продемонстрирован на видео – робот покорно выполняет команды “сядь” и “встань”, но отказывается подойти к краю стола, пока экспериментатор не пообещает поймать его.

Смотрите также: