亚马逊云科技深度解析机器写作与人类智慧的边界何在

人工智能的进化,会在未来取代人吗?

近日,国外一家统计网站Tooltester(工具测评者)发布了针对ChatGPT使用情况的最新调查报告。该调查分两次进行,首次测评于2023年2月下旬开展,面向1920名ChatGPT的美国使用者,罗列了75段分别由真人写作、机器写作,以及机器写作结合真人编辑的内容,以问卷形式请受试者识别。在GPT-4推出后,补充征集了1394人进行二轮调查。结果表明,由于聊天机器人的迭代速度超出了普通大众的预估,大多数使用者对机器写作内容的复杂程度了解有限,因此难以区分哪些网络内容是由真人编写。

在内容识别方面,这项任务更为棘手:超过53.1%的人无法准确从文本中挑出机器写作段落。而当GPT-4发布后,这一比例甚至升至63.5%,揭示了一种潜在风险,即人们可能被误导接受虚假信息。即便是对AI类工具更熟悉的人,也只能正确判断48%的情况。这意味着尽管技术发展迅速,但公众对于AI生成内容的辨认能力仍然不足。

值得注意的是,不同年龄层群体表现出不同的辨识能力。在所有年龄段中,最容易被误导的是18到24岁之间的人,他们中有59.8%无法做出正确判断,而65岁以上老年人的正确率则最高,为52%。

图源:Tooltester官网。

此外,该报告还探讨了是否存在特定主题领域,比如健康和旅行,那里AI生成文本似乎特别擅长模仿人类风格,并且更加“自然”。研究发现,对于健康和旅行类文章,大约有60%的人错误地认为它们是由真人撰寫,而非AI系统。这可能反映出一个危险趋势,即随着时间推移,我们越来越依赖这些看似“自然”的但实际上由算法创造出来的信息来源。

然而,在技术性较强的问题上,如解释软件更新或硬件故障等问题,大约51%的人能够区分哪些回答来自AI,并且女性受访者的表现略好于男性,这显示了一定的自我意识。

这项调查也询问了用户关于他们对这种自动产生内容信任度以及支持制定相关规则意愿。大约80%的人表示支持制定有关自动产生内容标准。此外,有71.3%的人说,如果没有标明情况下商业机构或出版物发布这样的自动产生文章,将大幅降低他们对品牌信任度。这提出了一个问题:是否我们将迎来一种新常态,其中提供方必须清楚地指示所用资料来源?

自OpenAI在2022年11月30日发布ChatGPT以来,就一直引发广泛讨论。这个能理解语境、学习人类语言并完成各种任务的大型聊天平台仅几天内就吸引上百万注册用户。而今年3月份,当GPT-4出现时,这场讨论再次爆发。这份最新数据再次证明,我们已经很难区分真正的手动输入与计算机程序生成的手动输入。

参考链接:

Survey: ChatGPT and AI Content - Can people tell the difference?

https://www.tooltester.com/en/blog/chatgpt-survey-can-people-tell-the-difference/#Younger_people_struggle_more_with_identifying_AI_content

Half of Americans can't pick phony AI writing from human writing.

https://lithub.com/half-of-americans-cant-pick-phony-ai-writing-from-human-writing/

作者/申璐

编辑/青青子

校对/赵琳

上一篇:空调热风系统优化研究探索最大化热量输出的技术策略
下一篇:空调室内机多样款式壁挂式吊装式柜体式窗户集成