acm-header
登录

ACM通信

ACM TechNews

人工智能可以讨论智能助手是否应该告发你


机器有道德吗?

挪威卑尔根大学(University of Bergen)的研究人员表示,由于道德行为在各个社会中是不一致的,人工智能系统应该灵活地反映当地法律和所有者的偏好。

图片来源:dpa图片联盟/Alamy

挪威卑尔根大学(University of Bergen)的研究人员提出,由于道德行为在整个社会或个人中是不一致的,人工智能(AI)系统应该是灵活的,允许它们更好地反映当地法律和所有者的偏好。

上个月,研究人员在夏威夷举行的AAAI/ACM人工智能、伦理和社会会议(AIES 2019)上提出了这一想法。

该团队认为,一些人工智能机器人应该在做出决定之前讨论道德困境的可能性。

道德ai代表了其中一个利益相关者,他们根据他们代表的对象有各自的优先级:合法,安全运作,或者优先考虑个人自治。

系统列出了来自每个涉众的各种参数,并指出哪些参数彼此冲突。

冲突的要求被删除,系统根据剩余的指令决定行动的过程。

《新科学家》
查看全文

版权所有©2019SmithBucklin美国华盛顿特区


没有发现记录

登录为完全访问
»忘记密码? *创建ACM Web帐户
Baidu
map