Ученый-юрист из Йельского университета считает, что роботы должны нести моральную и уголовную ответственность за свои поступки. Искусственный интеллект постоянно самообучается, и его алгоритм принятия решений со временем может стать настолько сложным, что любое решение робота будет продиктовано исключительно его собственным выбором.
С появлением все более совершенных систем искусственного интеллекта, все чаще стал подниматься вопрос, а кто несет ответственность за ущерб, причиненный умной машиной. Многие склоняются к тому, что вина лежит на создателе робота или его владельце. Однако, ученый-юрист Йинг Ху из Йельского университета считает, что роботы сами должны привлекаться к ответственности. Его мнение приводит
Йинг Ху считает, что роботы должны нести моральную и уголовную ответственность за свои действия и за любой вред, который они могут причинить. Чтобы аргументировать свое мнение, Ху сравнивает роботов с корпорациями, которые согласно законодательству США считаются «лицами», хотя их деятельность зачастую нельзя отождествлять с действиями отдельных людей в компании.
Робот с искусственным интеллектом постоянно учится и корректирует свое поведение, это влияет на его алгоритмы принятия решений. Эта структура со временем может стать настолько сложной, что нельзя будет приписывать действия робота дефектам его конструкции или влиянию какого-то человека. Другими словами, даже очень хороший и качественно протестированный робот в какой-то момент может принять вредное решение, и оно будет продиктовано исключительно его собственным выбором.
А это значит, что должен быть наказан не создатель этой машины, а сам робот. Наказание может включать в себя деактивацию, перепрограммирование или просто объявление робота преступником. И вопрос уголовной ответственности роботов в свете развития беспилотных автомобилей нужно решать как можно быстрее, считает Ху.
Комментарии (0)