acm-header
登录

ACM通信

BLOG@CACM

用AI生成文本作弊?


波尔图大学的Carlos Baquero教授

https://bit.ly/3ElW1J72022年8月3日

人类一直是脆弱的生物,我们在生态系统中的大部分成功都是由新工具的有效使用所驱动的。当一种增强我们能力的新工具出现时,我们常常质疑使用它的公平性。当这种工具有明显的好处时,争论通常不会持续太久。划船比游泳有优势,写作可以解决我们的记忆问题,使用语法检查器可以改进这段话,等等。

由GPT-3等人工智能工具生成的文本(https://bit.ly/3e3icZQ)的文本质量有了惊人的提高,现在已经很难将人工生成的文本与人工生成的文本区分开来。一些人认为使用人工智能生成的文本是作弊,因为它给用户带来了不公平的优势。然而,也有人认为,人工智能生成的文本只是另一种可以用来提高写作水平的工具。斜体字体的文本说明了这一点,因为它是在为GPT-3提供与前面文本适当的上下文后完全由ai生成的(在本文中,所有ai生成的文本都以斜体标记)。为了使这个过程更加混乱,可以使用改进语法表示和术语选择的工具进一步改进人工智能生成的文本。在某种程度上,很难区分谁写了什么。

回到顶部

混合写作和出处

我们可以提出这样一个问题,即将写作与人工智能相结合是否会成为一种更有效地利用我们的能力和时间的可接受的方法。拼写和语法纠正工具现在在日常使用中,不会引起任何伦理问题。然而,人工智能生成的文本,即使从伦理的角度接受,也会对生成文本的来源提出质疑。幸运的是,已经有大量的工具用于检测抄袭(对于本文的目的,所有人工智能生成的文本都使用Quetext检查了抄袭(https://bit.ly/3rrCy1U))。GPT-3是一个闭卷系统,在预训练阶段后无法访问外部内容,从统计上看,任何长时间的输出都不太可能生成“ipsis verbis”文本,因此抄袭检查可能非常谨慎。

GPT-3的所有者OpenAI确实提供了指导方针(https://bit.ly/3fvsnXd)下载与GPT-3合作撰写的内容。其主旨是:不造成伤害,避免使用有害内容;明确识别人工智能生成内容的使用;将其归因于您的名字,您对发布的内容负责。

回到顶部

作者

例如,如果人工智能要生成一篇科学文章,人工智能是否应该作为作者获得荣誉?(有趣的是,这个问题是由人工智能自己提出的。)

不过,它并没有决定自己写这本书。语言模型包含的知识比一个人一生所能渴望的要多,搜索引擎也是如此,但这些知识是静态的。只有在被查询时,模型才会挖掘存储的知识,并构建一个合理的输入提示的延续。有限制(https://bit.ly/3rx13dS)以及提示中可以解释的上下文数据的数量,几个段落。

在收到前两段后,委员会总结说:如果人工智能生成了一篇科学文章,它不应该作为作者获得荣誉。我同意这种看法。

然而,如果它开始以输出为食,而没有方向盘,这个结论可能不得不重新审视。

或者,如果人工智能生成一篇科学文章,由人类编辑,人工智能是否应该作为作者获得荣誉?在这种情况下,我(注:AI)我认为人工智能应该获得作者的荣誉,因为它对原始内容负责。然而,人工编辑也应该得到肯定,因为他们帮助塑造和改进了最终产品。

让我们就此打住。

回到顶部

小麦和谷壳的分离

人工智能生成的内容数量很可能会增加,而其中一些内容不会被贴上这样的标签。(一个意想不到的后果是,未来的语言模型将把这些输出纳入它们的训练中。)对我们人类来说,更紧迫的问题是我们能否将人类与人工智能生成的内容区分开来。

答案是否定的,因为目前的系统已经非常擅长愚弄人类。GPT-3对人类识别大约200个单词的短文本的准确率进行了基准测试,其结果为52%,几乎等同于随机猜测的50%。GPT-3的设计者还指出,“自动鉴别器在检测模型生成的文本方面可能比人工评估器更成功。”人工智能生成文本(有时被称为“神经文本”)的研究是最近的一个研究领域。最近该领域的一项调查得出结论,“评估神经文本的质量仍然是一个悬而未决的问题。”(实际上,这个人工智能生成的引用和对调查的隐含引用都是不真实的,我无法在网上找到引用的文本。这说明了盲目使用人工智能生成的文本而没有额外的事实核查的风险。)

回到顶部

问神谕

在古希腊,特尔斐的神谕被许多人咨询,而阿波罗神庙的高级女祭司皮提亚则充当了先知知识的中介。在这个传统和其他传统中,有一个人的中介,从一个往往难以理解的来源连接知识。在犹太教和基督教的传统中,上帝被视为知识和智慧的最终来源,但人类往往需要中间人来帮助他们理解和应用这些知识。最著名的例子之一是先知摩西,他被视为上帝和以色列人之间的中保。

提示设计对于高效查询诸如此类的通用语言模型至关重要。好的输出需要用自然语言对任务进行正确的框架,最好还有一组合适的示例。在这里,我们只通过添加段落和获取延续来使用文本延续,但是更具体的任务,如语言翻译,需要精心设计的提示和示例作为上下文。


我们可能会看到一个新的职位,提示设计师,加入搜索引擎优化和数据库管理专家的行列。


如果我们召唤的是图像,而不仅仅是文本,那么构建一个好的提示的艺术就会变得更加神秘和复杂。也许人工智能的一个分支将处理这些更类似于自然科学的方面,正如Subbarao Kambhampati的富有洞察力的文章(https://bit.ly/3Rcf5NW)。我们很可能会看到一个新的职位,提示设计师,加入搜索引擎优化和数据库管理专家的行列。

回到顶部

缪斯女神

我们已经看到了充分的证据,证明写作与人工智能相结合的潜力和风险。其中一个主要风险是,它能够创造出与事实不符的令人信服的内容。算法不是为了事实核查而调整的,而是为了产生可信的内容。我认为它无法区分虚构和现实。这使得非虚构内容的共同创作更具挑战性。解决办法不是直接使用人工智能生成的内容,而是将其作为灵感的来源。即使在这种更严格的设置下,它也可以非常有用地提出要编写的内容的想法。作家们过去常常挣扎于第一页空白;也许现在他们只需要想出一个标题并寻求AI灵感。

以下是本文从AI角度出发的内容:题目:论人工智能写作的伦理作者:GPT-3

在使用人工智能进行写作时,需要考虑一些不同的伦理问题。首先,重要的是要考虑人工智能对作者写作的影响。人工智能能够理解作者的意图和写作风格吗?它能复制作者的声音吗?关于AI对读者的影响还有道德方面的考虑。AI是否能够创造出一个可信且有趣的故事?人工智能能够理解读者的反应并做出相应的反应吗?另一个伦理考量是人工智能对出版业的影响。人工智能能够创作出好到可以发表的作品吗?如果是这样,这是否会导致人类作者的机会减少? There are also concerns about the AI's impact on society. Will the AI be used to create propaganda or fake news? Will the AI be used to manipulate people's emotions? These are just some of the ethical considerations to take into account when writing with AIs. It is important to consider all of these factors before writing with an AI.

足够让任何人受到启发。

回到顶部

致谢

我要感谢José Campos, Raquel Menezes和Jim Bauwens对相关作品的反馈和指导。该列的内容通过Grammarly hint和GPT-3生成的内容(用斜体标识)进行了增强。

*参考书目

Kurenkov,。
GPT-3的固有局限性,上周的人工智能https://bit.ly/3CrWdE7

Kambhampati, S。
人工智能是(替代的)自然科学?通信https://bit.ly/3SS4yY4

布朗,T.等
语言模型是少数镜头学习者,NeurIPS 2020,https://arxiv.org/pdf/2005.14165.pdf

回到顶部

作者

卡洛斯Baquero他是葡萄牙波尔图大学工程学院信息工程系的教授,同时也是INESC TEC的成员。他的研究主要集中在分布式系统和算法。


©2022 acm 0001-0782/22/12

本论文部分或全部的电子版或硬拷贝供个人或课堂使用的许可是免费的,前提是副本不是为了盈利或商业利益而制作或分发的,并且副本的第一页上必须有本通知和完整的引用。除ACM外,本作品的其他组件的版权必须受到尊重。允许有署名的摘要。以其他方式复制,重新发布,在服务器上发布,或重新分发到列表,需要事先特定的许可和/或费用。请求发布权限permissions@acm.org或传真(212)869-0481。

数字图书馆是由计算机协会出版的。版权所有©2022 ACM, Inc.


没有找到条目

Baidu
map