意见档案可通过日期从ACM和其他来源传播到过去的意见故事。
生产真正的自动驾驶汽车需要进行当前方法的根本转变。
任何正在考虑使用机器学习的公司都无法忽略一种技术选择:受监督或无监督的学习。
公司应该被禁止分析人们所说的和它们如何推荐产品或个性化广告信息。
作者监视资本主义时代谈论为什么人们应该注意大型技术公司如何使用他们的信息。
NSCAI专员和PCLOB成员敦促工作队检查在联邦机构中使用AI系统的挑战。
AI合作伙伴关系的一份白皮书就AI研究的风险和负责任的出版物提供了建议。
如果没有对数据措施的基本了解以及它们的计算方式,数据驱动的疫苗安全和有效性消息可能会成为无意义的声音叮咬。
大脑电脑界面技术的进步令人印象深刻,但并不接近类似于思维控制的任何东西。
诺贝尔赢了心理学家Daniel Kahneman讨论了科学,避免了系统噪音,以及AI对人类智慧的不可避免性。
欧盟AI的监管可能会限制使用案例和创新,并将欧盟放在全球技术上劣势中。
Mariarosaria Taddeo,牛津互联网研究所和艾伦图灵研究所的贸易委员会互联网学院副教授和高级研究员讨论了U.K.和美国最近的两份报告。
激增的军事人工智能将使世界留下更不安全 - 因此我们必须专注于道德和全球合作,丹尼斯拉西亚,国际机器人军备控制委员会副主席丹尼斯加西亚。
量子物理学家查理·马库斯(Charlie Marcus)认为,为未来的量子计算机制作量子量子的秘诀可能取决于知道如何用异常材料打结。
哈佛医科大学教授Gabriel Kreiman提供了一种讲述人类和动物过程的视觉数据以及如何在计算机中复制这些功能。
Aalto University教授Arno Solin讨论了如何通过博士生Lassi Meronen改进深入学习不确定性。
为了帮助人类解决合作的基本问题,科学家需要将人工智能重新认识为深刻的社会。
为了建立一般的人工智能,我们可能需要了解更多关于我们自己的思想,争论计算机科学家Melanie Mitchell。
唯一的填字游戏困扰?专业填字游戏作家和AI科学家Matt Ginsberg编写了一个解决填字游戏的程序。
UC Berkeley AI研究小组成员Alison Gopnik表示,探索性学习是儿童展示的那种可能比成年人使用的习惯学习过程更好地为AI开发提供了信息。
解决数据共享的当前限制基础的信任问题。
追求计算专业人员的专业地位。
也许更合适的问题是“为什么不”?
为什么法律对计算机科学家和其他人很重要。
寻求纠正比较计算能力编码和仿真的两种互斥方式。
专注于远程软件工程师生产力的人类元素。