Более 70-ти лет прошло с тех пор, как был опубликован рассказ Айзека Азимова «Хоровод», в котором автор сформулировал три закона робототехники. Сотрудники исследовательского университета им. Тафтса решили, что пора обратить внимание на третий закон, который ранее практически игнорировался инженерами.
Речь идет о собственной безопасности робота, о которой он должен заботиться, если это не будет противоречить первому и второму закону, то есть, не причинит вред людям. Авторы эксперимента Гордон Бриггс и Маттиас Шутц предложили искусственному интеллекту использовать следующий алгоритм мышления для некой задачи X:
1. Знание. Могу ли я сделать X?
2. Возможность. В состоянии ли я выполнить X физически?
3. Приоритетная цель и сроки. Могу ли я сделать X прямо сейчас?
4. Социальная роль. Обязан ли я выполнять X в соответствии с моей социальной ролью?
5. Нормативная позволительность. Нарушу ли я какие-либо нормативы, выполняя X?
Материалы по теме:
- Впервые за всю историю Apple в очереди за новым iPhone стоит симпатичный робот.
- Создан робот, способный пройти игру Flappy Bird (видео).
- «Рука мертвеца» или проверенное средство против игнорирования будильника.
Следуя данной очередности вопросов и вспомогательным алгоритмам, робот может самостоятельно принять решение о целесообразности выполнения той или иной задачи. Пример подобного рационализма искусственного интеллекта продемонстрирован на видео – робот покорно выполняет команды “сядь” и “встань”, но отказывается подойти к краю стола, пока экспериментатор не пообещает поймать его.
Смотрите также: