Сервис бесплатных рассылок о Германии
 







 




Почему роботы должны уметь говорить «нет»

Делаете ли вы все то, что вам говорят другие люди? Очевидно, что нет. Отсюда вопрос, которым задались аналитики из издания Time: должны ли будущие роботы всегда подчиняться нашим командам? На первый взгляд, кажется, что должны, потому как они бездушные машины, которые для того и созданы – выполнять наши поручения. С другой стороны – далеко не все команды должны быть исполнены.   

По мнению аналитиков, существует множество гипотетических ситуаций, которые, в случае выполнения роботом поставленной задачи, могут иметь негативные последствия. При этом сами команды могут быть вполне безобидными.  

Например, компьютеру, установленному в машине, дают команду сдать назад, когда там спит собака. Или же роботу Kitchen Aid приказывают взять в руки нож и идти вперед, прямо на шеф-повара. Команды просты, но последствия плачевны.

Как же люди могут избежать подобного? Если машина не сможет объехать вокруг собаки, то поездка, считай, невозможна в принципе. Тоже касается и второго примера. Робот либо не должен уметь ходить, либо брать предметы в руки. Однако какой тогда от него толк?

В любом случае, в этих двух случаях крайне важно определить потенциальный вред, который они могут принести при полном послушании. Если при просчитывании вариантов развития событий беды не избежать, значит, робот должен уметь сказать «нет».   

Другой вопрос - как роботы могут знать, что будет дальше?

Над ответом работает профессор когнитивных и компьютерных наук из Tufts University Маттиас Шеутс. «В нашей лаборатории мы начали разрабатывать автоматизированные системы управления, которые делают простые выводы, основанные на человеческих командах. Они будут определять, следует ли роботу их выполнять в соответствии с инструкциями или отклонить их, потому что они нарушают этические принципы», - говорит ученый.

- Мы должны объяснить роботам, в каких именно ситуациях можно не повиноваться. Для этого нужно выяснить, какой вред или проблемы, могут возникнуть. Например, мяч, выброшенный в окно, не несет опасности. Однако мяч на оживленной улице – потенциальная причина для возникновения ДТП. Из этого следует, что контекст имеет значение, - продолжает Шеутс.

Помимо этого робот должен знать юридические и моральные нормы, а также нормы этикета. Созданием такой программы и занят Маттиас. Результаты его труда будут обнародованы уже в ближайшее время. 



Кирилл Ефимов











  Карта сайта