随着chatGPT为主的人工智能内容生成工具的持续火热,人类交流越来越多地与人工智能生成的语言混合在一起。在聊天、电子邮件和社交媒体中,AI 系统会建议单词、完整的句子或生成完整的对话。人工智能生成的语言通常不会被识别出来,而是呈现为人类书写的语言,这引发了人们对新型欺骗和操纵形式的担忧。
康奈尔大学信息科学系和斯坦福大学传播系的研究人员日前在美国科学院院报(PNAS)上发布了名为“人工智能生成语言的人类启发法存在缺陷”的报告,这项研究的目的是调查人类是否能够区分人类撰写的自我介绍和人工智能系统生成的自我介绍,讨论了人工智能生成的语言对人类交流的影响。
为了研究这个问题,研究人员训练了多个定制版本的最先进的人工智能语言模型,以在三种社交环境中生成自我介绍,三种设计环境包括专业(如工作申请)、浪漫(如在线约会)和酒店(如Airbnb) 。然后,他们要求4600名参与者阅读总共7600篇自我介绍,并识别哪些是由人工智能生成的。
结果显示,参与者通常无法区分人工智能系统生成的自我介绍和人类编写的自我介绍。这是因为他们使用启发式方法来判断文本是否是由人工智能系统生成的。然而,这些启发式方法是有缺陷的,可以被人工智能系统利用来生成比人类更“类似人类”的文本。
具体来说,在专业环境中,参与者认为只有大约50%的自我介绍是由人工智能生成的;在浪漫的环境中,只有44%;而在酒店的环境中,只有31%。这表明,参与者在根据上下文判断文本是否由人工智能系统生成时存在不同程度的困难。
作者认为,这种现象可能是由于对“如何判断文本是否由AI系统生成”的误解所致。我们倾向于关注表面特征,如拼写错误或语法问题。然而,这些特征并不能完全反映文本是否是由人工智能系统生成的。相反,我们需要对文本中包含的信息和思想有更深入的理解,并考虑它们是否符合人类的思维和表达。
简单来说,人类目前无法很好的区分信息是否由人工智能生成。于是,作者提出了一个重要的问题:我们如何适应人工智能生成的文本?他们建议,我们需要重新思考如何设计和实现人工智能语言系统,以便它们更好地模拟人类语言和思维过程,并与人类更好地互动。
这项研究强调了由于越来越多地使用人工智能生成的语言,在线交流中存在欺骗的可能性。它还强调了开发更复杂的方法来检测这种欺骗的重要性,以保护个人不受误导或操纵。
报告地址:https://www.pnas.org/doi/abs/10.1073/pnas.2208839120,点我下载PDF报告。