人工智能的进化,会在未来取代人吗?
近日,国外一家统计网站Tooltester(工具测评者)发布了针对ChatGPT使用情况的最新调查报告。该调查分两次进行,首次测评于2023年2月下旬开展,面向1920名ChatGPT的美国使用者,罗列了75段分别由真人写作、机器写作,以及机器写作结合真人编辑的内容,以问卷形式请受试者识别。在GPT-4推出后,补充征集了1394人进行二轮调查。结果表明,由于聊天机器人的迭代速度超出了普通大众的预估,大多数使用者对机器写作内容的复杂程度了解有限,因此难以区分哪些网络内容是由真人编写。
在内容识别方面,这超过53.1%的人无法准确从文本中挑出机器写作段落。而当GPT-4发布后,这一比例甚至升至63.5%。即便是对于AI类工具更熟悉的人,也只能正确判断48%的情况。这意味着,即使对于那些经常接触到AI生成内容的人来说,他们仍然难以区分人类和AI创造的文字。
值得注意的是,不同年龄段的人对此有不同的表现。在所有年龄段中,只有65岁以上老年人的正确识别率最高,为52%。
此外,该调查还揭示了一个有趣现象:尽管人们倾向于认为健康和旅行相关的话题可能是由人类撰写,但实际上这些话题往往被误认为是AI生成的。这可能意味着AI生成的话题已经变得如此精细和个人化,以至于它们看起来像是被人类所创造。
总体而言,对於技术文章则相反,被问及是否能够区分技术性文章与非技术性文章时,有51%的人能够做到这一点,而女性受试者的能力略高于男性。此数据显示,我们正在逐步走向一个深度融入生活中的未来,其中包括医疗保健领域。
最后,该调查还探讨了一些关于人们如何看待以及信任这些自动创建内容的问题。80%以上的人支持制定相关规章制度来规范这种自动创建过程,并且71.3%表示,如果商家或出版社不透露信息来源,那么他们对品牌信任度将会降低。这提出了一个问题:是否我们将看到一种新的常态,其中提供方必须主动标记其内容是否为自动创建?
自2022年11月30日OpenAI发布ChatGPT以来,它迅速吸引了数百万用户注册并引发广泛讨论。本次报告再次强调了一件令人不安的事实:目前我们的确难以区分人类手笔与机械制造出的文字。
参考链接:
Survey: ChatGPT and AI Content - Can people tell the difference?
https://www.tooltester.com/en/blog/chatgpt-survey-can-people-tell-the-difference/#Younger_people_struggle_more_with_identifying_AI_content
Half of Americans can't pick phony AI writing from human writing.
https://lithub.com/half-of-americans-cant-pick-phony-ai-writing-from-human-writing/
作者/申璐
编辑/青青子
校对/赵琳