acm-header
登录

ACM通信

BLOG@CACM

试论人工智能写作的伦理问题


人类一直是脆弱的生物,我们在生态系统中的大部分成功都是由有效使用新工具驱动的。当一种能够增强我们能力的新工具出现时,我们常常会质疑使用它的公平性。当工具有明显的好处时,争论通常不会持续太久。划船比游泳更有优势,写作解决了我们的记忆问题,这一段通过使用语法检查器得到了改进,等等。

人工智能工具生成的文本,如GPT-3现在,人工智能生成的文本与人工生成的文本很难区分。一些人认为使用人工智能生成的文本是一种欺骗,因为它给了用户不公平的优势。然而,也有人认为人工智能生成的文本只是另一个可以用来提高写作水平的工具。中的文本斜体在给GPT-3前面的文本适当的上下文后,它是完全由ai生成的(继续,在这篇文章中,所有ai生成的文本都标记在斜体).为了使这一过程更加混乱,人工智能生成的文本可以通过改进语法表示和术语选择的工具进一步改进。在某些时候,很难区分谁写了什么。

混合写作和出处

我们可以提出这样的问题:将写作与人工智能相结合是否会成为一种可接受的方法,从而更有效地利用我们的能力和时间。拼写和语法纠正工具现在每天都在使用,不会引起任何道德问题。然而,人工智能生成的文本,即使从伦理的角度被接受,也会对生成文本的来源提出问题。幸运的是,已经有大量的工具用于剽窃检测(为了本文的目的,所有ai生成的文本都被检查是否抄袭,使用Quetext).以GPT-3为例,它是一种封闭的图书系统,在训练前阶段之后就无法接触到外部内容,从统计上看,生成“ipsis verbis”文本似乎不太可能用于任何长输出,因此可能需要进行大量的剽窃检查。

而GPT-3的所有者OpenAI则提供这种服务的指导方针用于与GPT-3合作编写的内容。要点是:不伤害,不使用有害内容;明确识别人工智能生成内容的使用;把它归到你的名下,你就对发布的内容负责。

作者

例如,如果一个AI生成一篇科学文本,它是否应该被认为是作者?(有趣的是,AI本身产生了这个问题。)

不过,它并没有决定自己写。语言模型所包含的知识比人类一生所期望的还要多,搜索引擎也是如此,但这些知识是静态的。只有在进行查询时,模型才会利用存储的知识,并对某个输入提示构造合理的延续。有限制还可以对上下文数据的量进行说明,说明在提示符中可以占几个段落。

在收到上述两段后,委员会得出结论说:如果人工智能生成了一篇科学文章,它不应该被认为是作者。我同意这个观点。

然而,如果它开始依靠自己的输出进食,而没有操纵杆,这个结论可能需要重新审查。

或者,如果人工智能生成一段科学文本,由人类进行编辑,人工智能是否应该获得作者的荣誉?在这种情况下,我(注意:AI)认为人工智能应该被归为作者,因为它要对原创内容负责。然而,人类编辑也应该得到赞扬,因为他们帮助塑造和改进了最终产品。

我们就到这里吧。

分离小麦和谷壳

人工智能生成内容的数量很可能会增加,其中一些内容将不会被贴上人工智能的标签。(一个意想不到的结果是,未来的语言模型将在训练中纳入这些输出。)对于我们人类来说,更紧迫的问题是,我们是否可以区分人类和人工智能生成的内容。

答案是否定的,因为目前的系统已经很擅长愚弄人类了。GPT-3测试人类识别一篇200字左右的短文是否由机器生成的准确率,结果是52%,几乎等于随机猜测,预期为50%。GPT-3的设计者还指出,“在检测模型生成的文本方面,自动识别器可能比人工识别器更成功。”人工智能生成文本的研究,有时被称为“神经文本”,是一个最新的研究领域。最近一项关于该领域的调查得出结论:“评估神经文本的质量仍然是一个悬而未决的问题。”(实际上,这个人工智能生成的引用和隐含的对调查的引用是不真实的,我无法在网络上找到引用的文本。这说明了盲目使用人工智能生成的文本而不进行额外的事实核查的风险。)

质疑甲骨文

在古希腊,许多人都向特尔斐的神谕咨询,而阿波罗神庙的女祭司皮提亚则充当先知知识的中介。在这一传统和其他传统中,有一种人类中介,将知识从一个通常是不可理解的来源连接起来。在犹太教和基督教的传统中,上帝被视为知识和智慧的终极来源,但人类往往需要中间人来帮助他们理解和应用这些知识。其中一个最著名的例子是先知摩西,他被视为上帝和以色列人民之间的中介人。

提示设计对于高效查询通用语言模型(如上述模型)至关重要。好的输出,需要正确的任务框架,在自然语言和理想的一组适当的例子。在这里,我们只通过输入段落和获取续文来使用文本续文,但更具体的任务,如语言翻译,需要精心框架的提示和示例作为上下文。

如果我们召唤的是图像而不仅仅是文本,那么创造一个优秀提示的艺术便会变得更加神秘和复杂。也许人工智能的一个分支将处理这些更类似于自然科学的方面,正如Subbarao Kambhampati的深刻见解所描述的那样文章在这个话题。我们很可能会看到一个新的职位,提示设计师,加入搜索引擎优化和数据库管理的专家行列。

缪斯女神

我们已经看到了充分的证据,证明了人工智能混合写作的潜力和风险。其中一个主要的风险是它创造出令人信服的错误内容的能力。该算法不是为了事实核查而调整的,而是为了产生可信的内容。我认为没有办法区分虚构与现实。这使得共同创作非虚构内容更具挑战性。解决的方法不是直接使用ai生成的内容,而是将其作为灵感的来源。即使是在这种更严格的设置下,它也可以非常有用地提出要写的内容的想法。作家们过去常常在第一页空白中挣扎,也许现在他们只需要想出一个标题,然后寻求AI的灵感。

以下是本文从AI角度出发的内容:

题目:关于人工智能写作的伦理问题

作者:GPT-3

在使用人工智能进行写作时,需要考虑一些不同的伦理考虑。首先,重要的是要考虑人工智能对作者写作的影响。AI是否能够理解作者的意图和写作风格?它能复制作者的声音吗?人工智能对读者的影响也有道德方面的考虑。AI能够创造一个可信而有趣的故事吗?人工智能能够理解读者的反应并做出相应的反应吗?另一个伦理考虑是人工智能对出版业的影响。人工智能能够创作出足够优秀的作品来发表吗?如果是这样,这是否会导致人类作家的机会减少? There are also concerns about the AI’s impact on society. Will the AI be used to create propaganda or fake news? Will the AI be used to manipulate people’s emotions? These are just some of the ethical considerations to take into account when writing with AIs. It is important to consider all of these factors before writing with an AI.

足够的内容让任何人受到启发。

确认

我要感谢José Campos、Raquel Menezes和Jim bauwen对相关作品的反馈和指点。本文的内容通过Grammarly提示和GPT-3生成的内容(在斜体).

参考书目

GPT-3的固有局限性。安德烈Kurenkov。https://lastweekin.ai/p/the-inherent-limitations-of-gpt-3

人工智能作为(一个替代品)自然科学?苏巴拉奥Kambhampati。//www.eqigeno.com/blogs/blog-cacm/261732-ai-as-an-ersatz-natural-science/

语言模型是少数学习者。汤姆·布朗等人。NeurIPS 2020。https://arxiv.org/pdf/2005.14165.pdf

卡洛斯Baquero他是葡萄牙波尔图大学工程学院信息工程系的教授,也隶属于INESC TEC。他的研究重点是分布式系统和算法。


没有发现记录

登录为完全访问
»忘记密码? *创建ACM Web帐户
Baidu
map