美国陆军研究实验室和中佛罗里达大学的一项研究发现,在机器人犯错后,即使机器人的推理过程是透明的,人类对机器人的信心也会下降。
研究人员探索了人-代理团队,以定义代理(如机器人、无人驾驶车辆或软件代理)的透明度如何影响人类信任、任务性能、工作量和代理感知。观察机器人犯错的受试者降低了它的可靠性,即使后来机器人没有再犯任何错误。
提高代理的透明度提高了参与者对机器人的信任,但只有在机器人收集或过滤数据时才会这样。
陆军研究实验室的Julia Wright说:“了解机器人的行为如何影响他们的人类队友,对于发展有效的人-机器人团队,以及团队成员之间的接口和通信方法的设计都是至关重要的。”
从美国陆军
查看全文
版权所有©2019SmithBucklin,美国华盛顿特区
没有发现记录