挪威卑尔根大学(University of Bergen)的研究人员提出,由于道德行为在整个社会或个人中是不一致的,人工智能(AI)系统应该是灵活的,允许它们更好地反映当地法律和所有者的偏好。
上个月,研究人员在夏威夷举行的AAAI/ACM人工智能、伦理和社会会议(AIES 2019)上提出了这一想法。
该团队认为,一些人工智能机器人应该在做出决定之前讨论道德困境的可能性。
道德ai代表了其中一个利益相关者,他们根据他们代表的对象有各自的优先级:合法,安全运作,或者优先考虑个人自治。
系统列出了来自每个涉众的各种参数,并指出哪些参数彼此冲突。
冲突的要求被删除,系统根据剩余的指令决定行动的过程。
从《新科学家》
查看全文
版权所有©2019SmithBucklin美国华盛顿特区
没有发现记录