该意见存档提供了通过ACM和其他来源的通信到日期的过去看法故事。
限制计算设备发送重要信息,但企业将在规则周围找到方法
深度学习必须在AI可以扩展到安全应用程序之前解决一些主要问题
目前的AI政策建议对人类自主权的风险有所不同
最大的科技公司似乎很准备扩大他们对剩余经济的影响和影响,而不是放弃它
我们需要一个针对现代AI工作的意识的图灵测试
在一些美国,5克比旧4G系统慢;华盛顿必须使它成为优先权
伟大的IT革命是预防,而不是促进经济活力
AI Pioneer说,他已经确定了人工智能的下一个大转变
专家认为,建设偏见将需要几乎每种芯片都是今天更强大的数量级
alphacode等技术不能考虑并设计自己的问题,但它们是非常好的问题解释者
新书编年史计算机从科学仪器到通用设备的旅程
虚拟世界需要强大,可执行的规则,以避免在社交媒体平台上骚扰和跟踪常见
寻找加密用例仍在继续
量子计算机革命可能会破坏加密,但更安全的算法可以保护隐私
富士通CTO Vivek Mahajan说,云的真正力量将与民主化的HPC和量子计算机为群众来源
人类程序员处于控制权,但他们必须学会利用AI生成的代码的权力和限制
在一次采访中,计算机建筑师Richard L.网站讨论了他的新书
美国政府应对面部识别技术的使用和宣传进行更多的照顾和尽职调查
AI研究员Connor Leahy谈判关于复制GPT-2 / GPT-3,超人AI,AI对准,AI风险和研究规范,以及更多
那么Web3究竟是什么,为什么硅谷的每个人都痴迷于此?
自治核武器的挑战是一个严重的人,它受到了很少的关注
NBC通讯员的新书探讨了使用“行为设计”来挂钩用户的长期危险
一些印度技术研究所正在努力建立自己,并且必须迅速转变一下
“我无法讨论我看不到的东西。。。”-katherine goble,隐藏的人物
这里的课程比简单“不要这样做”更广泛。
一种新的现代计算的新历史。
一起学习负责任的AI。
建议评估自动车辆智能性的更好的路线。
人工智能是管理在社交网络中在线话语的任务吗?