acm-header
登录

ACM通信

BLOG@CACM

ChatGPT真的是谷歌搜索的“红色代码”吗?


原载于我们可以信任的人工智能之路。

上周,《纽约时报》说ChatGPT是一个“红色代码”谷歌。无数人在推特上表达了同样的观点,比如埃隆·马斯克曾经的对手乔治·霍兹,他被Twitter雇佣来修复搜索,只对5周后戒烟

果然,公司喜欢perplexity.aineeva.com而且you.com已经在测试将传统搜索与大型语言模型(如ChatGPT)合并的系统。甚至我的好朋友也在尝试。一位著名的作家朋友刚刚写信给我:

我昨天崩溃了,申请了一个ChatGPT账号,并一直在用它做两个目的。我已经开始写一本新书....我想我可以用它来代替谷歌,作为一种更智能的搜索引擎,用于搜索那些不容易在文本字符串中指定的引用(例如,“哪个民意调查显示大多数美国人觉得他们必须经常注意自己说的话?”)。另一个只是为了填补我日渐衰老的记忆中的空白(例如,“一部关于21世纪初正统犹太人的英国喜剧电影叫什么名字?”)

ChatGPT真的能做到这一切吗?谷歌应该吓得发抖吗?

§

也许。但我不确定。12月1日,我判断第一轮到谷歌:

今天是第二轮;那是近一个月前,人工智能的宣传几乎是永恒的。现在,十二月底怎么样?

结果我的作家朋友也不太高兴:

令我失望的是,这是完全无用的——没有可用的点击,尽管有很多关于你永远不应该概括一群人的样板文件,人们必须尊重他们的言论和信仰。这才两天,但我想知道你反复发现的浅薄的理解是否会成为其最合理的使用的真正障碍,即作为一个更概念化和语义化的搜索引擎

公平地说,大型语言模型并不是天生的超级pc。ChatGPT;当然是MetaAI的卡拉狄加不是,写论文所谓的反犹太主义的好处等等,这就导致了Meta AI突然删除.相反,OpenAI与ChatGPT一起添加的护栏会屏蔽llm可能产生的许多最具攻击性的响应。

问题是,这些护栏不是免费的;这个体系还很肤浅;ChatGPT并不真正知道它在防范什么;它似乎只是在寻找关键字,这就是为什么它容易产生这样的废话:

我喜欢称这种为无稽之谈discomprehension没有头脑的答案表明系统根本不知道它在说什么。

§

还有另一个问题,在搜索引擎的背景下,可以说是更大的担忧:幻觉。当ChatGPT(它并不是特意设计成一个搜索引擎)拒绝了我朋友的查询时,我试着把它们提交给YouChat,它(不像ChatGPT)已经明确地为搜索量身定制。结果,他又一次写出了流畅的散文,而幻觉又一次占据了上风:

听起来很有道理。但狂风大作不是关于正统犹太人的,也不是英国喜剧。(还有到底在哪里哈利希勒?我们把一堆真实的东西(克里斯托弗·盖斯特确实执导过,那一年确实是2003年)和其他一些不属于这里的东西混在一起。我想可以说这不是我作家朋友想要的电影。

一个胡编乱造的搜索引擎有什么用?

这是我朋友的另一个问题:

对不起,又错了。NORC公共事务研究中心有时会与美联社进行研究,但据我所知,他们在2019年没有就这个特定主题进行过研究,而且这些数字是编造的。(当我再次尝试时,我得到了不同的号码。)

等等,如果我想要搜索引擎,也许我想要一个链接到实际的研究?因为也许我想自己看一下细节?

对不起,没有这样的运气。正如ResearchRabbit创始人迈克尔·马所说。我用DM跟我说,有了谷歌,你可以跟进事情,而纯聊天“输出仅限于几行文字——你的发现之旅就结束了”。

§

好吧,最后一次机会。这是perplexity.ai。我更喜欢它的界面——而且它提供了参考!真正的人!

但是等等,他们在底部链接的2019年皮尤研究真的解决了人们看他们说话的更大问题吗?我点开了,主要是关于宗教;完全不清楚这是不是我的作家朋友想要的研究。(正如我猜的那样,后来也和他确认了,他想要的是这个2020年的研究卡托研究所?相信我把人类的聪明才智和传统搜索引擎的强大结合起来的能力一页老派的,一个链接一个链接的结果).

与此同时,一位可以访问Neeva.com的朋友刚刚就我的观点进行了查询,得到的简历大约有90%是正确的,但有10%是可怕的,他错误地把我(对当代人工智能持怀疑态度的人)认为“几年后90%的工作岗位将由人工智能提供”的说法归因给我。(剧透一下:我从来没有说过这样的话)。

真相和虚假如此彻底而权威地混合在一起,这是阴险的。就我个人而言,我还没有准备好接受我们的后真相信息霸主。

§

这是怎么回事?我以前说过在一篇叫做为什么GPT上一分钟看起来如此聪明,下一分钟就变得如此愚蠢?但我要用不同的术语再说一遍:大型语言模型是数据库。它们都是一些并不总是在一起的碎片。

(传统)搜索引擎数据库可以随意存储、更新和检索的有组织的数据集合。(传统的)搜索引擎是索引。一种数据库形式,将关键字等内容连接到url;它们可以快速地、增量地、一点一点地更新(就像你在保存联系人的数据库中更新电话号码一样)。

大型语言模型做一些非常不同的事情:它们不是数据库;他们是文本预测,涡轮增压版自动完成.从根本上说,他们学习的是文本片段之间的关系,比如单词、短语,甚至整个句子。他们利用这些关系来预测其他文本。然后他们做了一些几乎不可思议的事情:他们释义这些文本,几乎像词典一样,但要好得多。但当他们这样做的时候在翻译的过程中,他们常常会漏掉一些东西:哪些文本应该放在一起,哪些不应该放在一起。

这句话一部关于21世纪初正统犹太人的英国喜剧电影是一个完全合理的短语,关于《Mighty Wind》是克里斯托弗·盖斯特的电影的短语也是如此。但这并不意味着这两个部分是在一起的

(更新:还记得关于我和人工智能在短期内取代工作的古怪说法吗?在Medium上的链接文章中,我们可以清楚地看到,我在2017年北京的一次会议上发表了讲话,还有一位杰出的中国研究人员也发表了讲话王飞跃,在王的开幕主题演讲中,王说这都归功于我,法学硕士错误地把他的话和我的名字连在一起——这又是一个错误地把零碎信息混在一起的完美例子。)

碰巧的是,大型语言模型也很难更新,通常需要全面的再培训,有时需要几周或几个月的时间。例如,11月发布的ChatGPT太老了,以至于不知道谁拥有Twitter:

谷歌又得一分。

§

关于我能说的最好的事情是困惑。人工智能和you.com的聊天确实在探索一个有趣的想法:将经典搜索引擎与大型语言模型结合起来,可能会实现更快的更新。但是仍然有一个要正确地整合经典搜索和大型语言模型,还有很多工作要做。我们已经证明了概念,而且一些有趣的研究方向但没有什么比系统更可靠的了。(还有经济问题和速度问题.平均谷歌搜索几乎是即时的,而且肯定花费谷歌不到一分钱,而ChatGPT查询的答案可能需要几秒钟来编译,并且一些人估计ChatGPT查询每次只花费几美分;如何放置广告也不太清楚。)

我也渴望有一天,搜索引擎能够可靠地输出文本,加上真实、适当的参考,就像困惑一样。艾未未的目标是。但在这些细节以一种我们可以信任的方式结合在一起之前,我更喜欢借用爱莉安娜·格兰德(Ariana Grande)的一句令人难忘的话:谢谢你,下一位。

无人驾驶汽车已经比我们最初被告知的时间长了许多年;离群值(又名边缘情况)至少到目前为止阻止了它们从演示版本过渡到广泛可用的现实。在追求新奇的搜索的过程中,我怀疑我们再次陷入了一段艰难的旅程。

加里·马库斯(@garymarcus)是一位科学家、畅销书作家和企业家。他最近与欧内斯特·戴维斯合著的一本书,重新启动人工智能,是福布斯评选的人工智能领域7本必读书籍之一。


没有找到条目

登录全面存取
忘记密码? »创建ACM Web帐户
Baidu
map