快科技3月6日消息,以DeepSeek为代表的AI大模型,正在以前所未有的速度进入人们的日常生活和工作。但你有没有发现,当你在使用AI时候,它会胡编乱造,凭空捏造细节?
事实上,在大家沉浸在AI带来的效率和便利的同时,杜撰和造假已经成为当下AI最大的槽点。
知名互联网评论人、知名媒体人阑夕认为,DeepSeek的胡编乱造,正在淹没中文互联网。
他表示,最近一个星期以来,自己看到的刷屏文章,至少有三例都是DeepSeek-R1生成出来的、充满了事实错误的内容,却因其以假乱真的迷惑性,让很多朋友信以为真,情绪激动的分享传播。
比如知乎的这条高赞回答,就是DeepSeek 一本正经胡说八道 的最典型的例证,而且由于输出的提示词到位,文风也接近人类,一般人还真不容易看出来。
比如,文章说哪吒电影里的敖丙变身镜头在法国昂西动画节上轰动业界。
问题是,法国是有一个昂西动画节,哪吒的电影也是送去参展过,但那是追光动画出品的《哪吒重生》,而不是饺子导演的《哪吒》。
而且因为审核原因,这部送展的《哪吒重生》宣传片实际上是一部品牌概念片,内容是在一个现代都市里的赛车动作演示,哪吒根本就没出现,更不存在敖丙的变身。
另外,关于文章提到的哪吒的制片方给员工分成都房子、攻克水下流体特效之类的描述,全都是DeepSeek为了完成这篇命题作文 脑补 出来的,压根不存在。
这样的例子,可太多了。之前笔者也尝试用DeepSeek写过一篇命题稿件,就发现DeepSeek为了迎合你的要求,会自己加戏,从而凭空想象出很多不存在,或者还未发生的细节,直接当成真实事件嵌入到文章里。
而如果一旦这样的内容多了,这些看似真实的内容甚至会被AI重新咀嚼回去训练,再被下一次输出时引用。这时候,真真假假就更难以分辨了。
事实上,两会期间,全国人大代表、科大讯飞董事长刘庆峰就提到了 AI幻觉 的话题。他拟提交一份《预防大模型生成 幻觉数据 充斥互联网带来的危害,从技术研发和管理机制上构建可信的信息环境》的建议。
刘庆峰提到,中国互联网络信息中心(CNNIC)发布的《生成式人工智能应用发展报告(2024)》显示,我国生成式人工智能产品的用户规模已达2.49亿人。
生成式人工智能存在幻觉,特别是深度推理模型的逻辑自洽性提升,使得AI生成内容真假难辨。带有算法偏差的虚假信息会被新一代AI系统循环学习,形成恶性循环,影响公众信任和社会稳定。
刘庆峰建议,应构建安全可信数据标签体系,提升内容可靠性。通过建立安全可信、动态更新的信源和数据知识库,对不同类型数据的可信度和危害程度建立标签体系,降低人工智能幻觉出现概率,提升生成内容可靠性。
另一方面,要研发AIGC幻觉治理技术和平台,定期清理幻觉数据。通过研究幻觉自动分析的技术和软件平台,开展幻觉自动分析、AIGC深度鉴伪、虚假信息检测、有害内容识别以及互联网传播溯源,由相关部门定期清理幻觉数据,为公众提供AIGC幻觉信息检测工具与服务。
阑夕也认为,AI当然可以创造内容,但前提一定要是注明它由AI生成,不能鱼目混珠,让它以一种不可辨识的方式成为互联网的原生信息。
此外,大模型厂商和内容平台也有义务,把类似数字水印那种兜底方案同步推进起来。
如果放任自流,眼前的信息是真是假,我们可能很难再辨别了。
0 条