IT之家11月8日消息,科技媒体Ars Technica今天(11月8日)发布博文,报道称最新研究称AI模型在社交媒体上极易被识破,其致命弱点竟是“过于礼貌”。
苏黎世大学、阿姆斯特丹大学、杜克大学和纽约大学的研究人员于近日联合发布报告指出,在社交媒体互动中,AI模型因其过于友好的情感基调而极易暴露身份。
研究团队开发的自动化分类器在 Twitter/X、Bluesky 和Reddit三大平台上进行测试,识别AI生成回复的准确率高达70% 至80%。这意味着,当你在网上遇到一个异常礼貌的回复时,对方很可能是一个试图融入人群却以失败告终的AI机器人。
为量化 AI 与人类语言的差距,该研究引入了一种名为“计算图灵测试”的新框架。与依赖人类主观判断的传统图灵测试不同,该框架运用自动化分类器和语言学分析,精准识别机器生成内容与人类原创内容的具体特征。
研究团队负责人、苏黎世大学的尼科洛・帕根(Nicolò Pagan)表示,即便校准相关模型,其输出内容仍在情感基调和情绪表达上与人类文本存在明显区别,这些深层情感线索成为识别AI的可靠依据。
研究的核心发现被称为“毒性特征暴露”。团队测试了包括Llama 3.1、Mistral 7B、Deepseek R1,Qwen 2.5在内的九款主流开源大语言模型。
阅读全文