【转】DeepSeek的胡编乱造,正在淹没中文互联网

七级用户 miku233 1月前 2298

转自 钛媒体APP

文 | 阑夕

虽然DeepSeek-R1确实好用,但它在爆火之后,成了人手一个的AI工具,也对中文互联网的信息环境造成了严重的污染情况,这是一个固然难以避免但也理应得到重视的问题。

最近一个星期以来,就我看到的刷屏文章,至少有三例都是DeepSeek-R1生成出来的、充满了事实错误的内容,却因其以假乱真的迷惑性,让很多朋友信以为真,情绪激动的分享传播。

第一例,是知乎的这条高赞回答:

1.webp

即使在我指出来之后,依然有人不可置信的表示,看不出来其中的「AI味」,所谓的「AI味」,指的是DeepSeek-R1创作文本时特有的「极繁主义」,比如生造概念、堆叠名词、滥用修辞等等。

而这条知乎回答,或因提示词喂得好,或因后期润色得力,在很大程度上消除了它的「AI味」,但从表达结构上,经常和AI打交道的用户都能一眼看出痕迹,纯正的DeepSeek-R1风格,当然普通人确实难以识别。

不过我也不是直接得到这个结论的,在看到朋友分享这条回答时,我原本也和他一样,是带着对于国产动画电影崛起的兴奋全盘接受了如此言之有物的论证,直到一个致命的纰漏让我察觉到了不对劲。

作者说哪吒电影里的敖丙变身镜头在法国昂西动画节上轰动业界,问题是,法国是有一个昂西动画节,哪吒的电影也是送去参展过,但那是追光动画出品的「哪吒重生」,而不是饺子导演的「哪吒」……

而且因为审核原因,这部送展的「哪吒重生」宣传片实际上是一部品牌概念片,内容是在一个现代都市里的赛车动作演示,哪吒根本就没出现,更不存在敖丙的变身……


屏幕截图 2025-03-05 150134.png

继续查证也能发现,关于「哪吒」的制片方给员工分成都房子、攻克水下流体特效之类的描述,全都是DeepSeek-R1为了完成这篇命题作文自己脑补的。

第二个例子,就更离谱了,离谱到我不太能把完整截图发在这里,因为有些胆子够粗的自媒体,已经在拿DeepSeek去写涉军政的东西了。

其中有一篇写军工打虎的选题,原文现在已经被删了,应该是被被转得太广作者害怕了,但很多「金句」的截图还在到处传,什么直升机的设计图纸在暗网里开价200比特B出售、收受金条贿赂时要求熔成发动机叶片形状,如果你能记得这些细节,就一定知道我说的是哪篇文章。

不好意思,这也全都是DeepSeek-R1自己编的。

为什么我能确信是DeepSeek-R1的手笔呢?为什么不能是ChatGPT、Claude、文心一言?因为DeepSeek-R1是当前唯一能用的免费推理模型,且对中文的支持度足够高,这本来是DeepSeek-R1的优势,只是没被用在正道上。

此时就需要补充一个推理模型的特点了,那就是推理模型的训练过程特别注重奖惩机制,通过思维链的暴露我们也能看出它通常都会想得缜密、生怕自己没有摸清用户意图,以致于经常到了「谄媚」的程度。

这种训练模式的好处在于,可以让推理模型拥有举一反三的能力,能够更加灵活和完善的去完成任务,但是相对的,为了完成任务,推理模型也会在「不自知」的情况下,同时表现出欺骗性,当用户要求它写一篇作文时,哪怕缺少论据,它也会为了不辜负用户的指令,去自行编造一些材料出来,以便于自圆其说。

这就是大模型行业至今仍在致力于解决的「幻觉」现象。

屏幕截图 2025-03-05 150342.png

上图就是一个经典用例,用户为DeepSeek-R1设立了阿里估值逻辑改变的靶心,于是DeepSeek-R1就逼迫自己去对着靶心射箭——它不会也不能反驳用户,或是质疑阿里的估值逻辑到底变没变——于是就「情不得已」的编造出了可以用来证明用户观点的数据。

根据Vectara发布的大模型幻觉排行榜,DeepSeek-R1的幻觉率达到了14.3%,远高于Deepseek-V3的3.9%,也在所有主流模型里属于较差的一档。

按理来说,R1是比V3更新、更强大的模型版本,之所以反而表现得更加拉垮,还是因为推理模型比普通模型先天就更加具有「创造力」,其实在AI研究领域,幻觉本身并不是单纯的缺点,甚至可以说,幻觉就是科学家们希望在AI身上看到的所谓意识,只是我们还没有把AI调教得当,让它在该天马行空的时候自由创作,在该遵守事实的时候有理有据。

所以我的这篇文章也不是在说DeepSeek-R1有问题,而是滥用它来批量化生成真假难辨的信息、并海量投放到公网的这种行为,问题很大。

越是公共讨论聚集的地方,比如时政、历史、文化、娱乐等领域,越是重灾区,这和自媒体的商业模式有关,有流量就有收入,流量取决于内容的吸引力,同时内容又受到生产成本的限制,而当DeepSeek-R1这种降维打击的武器被交到了每一个人手里,失控就是不可避免的了。

第二个例子里的作者大概是察觉到流量太高也容易出事,已经会在新的文章里——依然都还是DeepSeek-R1写的——加上一条下面这样的声明,不过只能说聊胜于无,很少有人会注意到并理解这句话的意思——上面的内容有一半是我编的,但我不告诉你们是哪一半。

事实上作者也确实不知道DeepSeek-R1交稿的内容里哪些是真哪些是假,他可能会提供一些参考资料,以及开放全网搜索的权限,但就像我说的,推理模型的运作模式,决定了它不是简单的洗稿,而是会自行完善故事的骨架和细节,最后的结果就是真假参杂,迷惑性反而更大了。

第三个例子,是历史博主知北遊的豆瓣记录,简单来说,是有人拿虚构的历史材料,布局七天来钓他上钩,如果不是他本身具有很强的反诈意识,加上三次元有人脉关系进行证伪,他一定会继续沉迷在这个局里,这个局的破绽在于AI搞错了两个历史人物的死亡顺序,打破了他在发现新的史料上如获珍宝的兴奋感。

2.webp

一直以来,文史圈都是AI污染的重灾区,因为有大量的文献材料还没有数字化,可用的网络资源有限,考据成本很高,但凡较真起来,都会陷入「造谣一张嘴、辟谣跑断腿」的困境。

就,真的很让人焦心,用AI解决自己的问题是一码事,将AI杜撰的信息混到公网里又是另一码事了,当在这些言之凿凿的内容成为互联网信息库的一部分之后,甚至又会被AI重新咀嚼回去训练,事实数据和生成数据之间的界限将会更加模糊,这绝对不是一件好事。

有人可能会问,在没有AI的时候,人类也会造谣,也会发到网上到处都是,怎么没见到你这么痛心疾首?

其一,「抛开剂量谈毒性都是耍流氓」,AI的工业化生产能力,和个体户的伏案写作流程,在效率上是天差地别的,实际上在我写这篇文章以前,搜索引擎、线上文库、各类网站上的AI填充情况就已经非常不堪了,在有了推理模型——精通于一本正经的胡说八道——之后,整个污染趋势会向深处蔓延,从相对次要的资料层触及创作上游的信源层,覆水难收;

其二,人类造谣起来是有局限性的,比如他不可能出现在一个自己没理由出现的场合,真要这么编造起来很容易露馅,但AI则会脸不红心不跳的直接生造,比如栩栩如生的细节,或是身临其境的描写,在说谎这件事情上,AI的主观恶意或许不及人类,但它的发挥能力,却是独一档的;

其三,AI内容的生产者一般都是营销号,而为内容背书的,则是传播者的信誉,比如大V博主上钩后的转发分享,通过这种扩散机制,实现从寄生到合理化的存在目标,才是最可怕的,人会爱惜羽毛,会知道信誉下滑的后果,但营销号不在乎,只要避开敏感话题,有太多的流量可以消费,尤其是在掌握了「创造」独家信息这个技术之后;

其四,AI的便利性已经把虚假信息的泛滥推到了生活的各个方向,有人拿着它推荐的菜单去点菜结果发现店里没这个菜,有人拿着旅游攻略发现当地根本没这个景点,经我实测它还会捏造不属于「山海经」的古典异兽。

我想说的是,AIGC是技术发展的未来,DeepSeek也是国产模型的翘楚,工具没有错,错的是滥用、恶用工具的行为,AI当然可以创造内容,但前提一定要是注明它由AI生成,不能鱼目混珠,放任它以一种不可辨识的方式成为互联网的原生信息,大模型厂商和内容平台也有义务把类似数字水印那种兜底方案同步推进起来,每迟一天,治理成本都会几何级的变得更高。


上一篇:那个以爷爷的名义破案的高中生的爷爷终于出马了
下一篇:现在拼多多该如何刷卷?
热门回复
  • 五级用户 立宝宝龙 1月前
    10
    本身中文互联网,就有一大堆狗屎没用的东西,现在更上一层楼了
  • 五级用户 ma_er233 1月前
    6

    有 DeepSeek 之前中文互联网就已经全是洗稿+胡编乱造的营销号了。但是营销号那种狗屁不通文章一般人看了至少会怀疑一下,DeepSeek 一是无比自信的 hallucinate,二是这玩意已经被媒体捧上天了,一般人根本不愿意去了解这玩意到底是什么原理,就一个劲盲信,当它是真理生成机,真是无语。居然还有人找 DeepSeek 求医,还有人找它问投资,真是无知到无以复加

    • 老男人游戏网配套论坛
      31
        立即登录 立即注册
最新回复 (29)
  • 四级用户 zjf1983 1月前
    1 2
    主要很多诱导dp刷出言论,然后断章取义的贴出来,搞得很专业!
    真的是很乱
  • 五级用户 乱月 1月前
    3 3
    这事从ChatGPT火起来就开始有大量瞎编乱造的内容了,deepseek只是把门槛进一步降低罢了。
  • 五级用户 swf3000 1月前
    0 4
    你这篇帖子也活不了多久
  • 五级用户 立宝宝龙 1月前
    10 5
    本身中文互联网,就有一大堆狗屎没用的东西,现在更上一层楼了
  • 五级用户 ma_er233 1月前
    6 6

    有 DeepSeek 之前中文互联网就已经全是洗稿+胡编乱造的营销号了。但是营销号那种狗屁不通文章一般人看了至少会怀疑一下,DeepSeek 一是无比自信的 hallucinate,二是这玩意已经被媒体捧上天了,一般人根本不愿意去了解这玩意到底是什么原理,就一个劲盲信,当它是真理生成机,真是无语。居然还有人找 DeepSeek 求医,还有人找它问投资,真是无知到无以复加

  • 四级用户 skk4120356 1月前
    0 7

    “请把文章去AI味”

  • 五级用户 Ludens 1月前
    2 8
    百家号和爬虫洗稿早就把互联网环境搞得乱七八糟了,还记得没有AI的时候搜个攻略前排每一个靠谱的,现在AI只不过在这个基础上推波助澜
  • 四级用户 pzani1 1月前
    0 9
    需要ai内容检测插件
  • 四级用户 haskaxi 1月前
    0 10
    你问DS,2年修仙,它TM都能给你整出个像模像样的计划方案来。
  • 四级用户 wNg333 1月前
    1 11
    以后新闻更要靠自己分辨了。一不小心连大官媒都有可能被牵连。
  • 六级用户 高木同学 1月前
    0 12
    haskaxi 你问DS,2年修仙,它TM都能给你整出个像模像样的计划方案来。
    我告诉千问,修仙是真的,他不信....
  • 五级用户 wangyu1221 1月前
    0 13
    对网友去芜存菁能力的要求越来越高
  • 五级用户 峰回路转 1月前
    1 14
    以前是屎山里找资料,现在是由AI把屎山变成由屎为原料做成巧克力山的样子
  • 三级用户 jianghan0303 1月前
    0 15
    正常,原来就各种胡编乱造,只不过现在有AI,写的更快了
  • 三级用户 sunwen550 1月前
    0 16
    我说过,凡是大炼xx的,都没有好下场,不曾想这么快
  • 三级用户 sunwen550 1月前
    0 17
    用ai来鉴别ai,赢两次你看
  • 四级用户 cooky 1月前
    0 18
    DeepSeek 对百家号这类垃圾应该算降维打击了,更难从垃圾堆里找金子了
  • 四级用户 stevec 1月前
    0 19
    AI技术对信息冗余的影响及应对策略
    AI技术确实有可能引起互联网信息冗余,但这并非不可避免。以下是AI可能引发信息冗余的几个方面,以及如何应对这些挑战:

    ### 1. **自动化内容生成**
       - **原因**:AI可以快速生成大量内容,如新闻、评论、社交媒体帖子等。如果这些内容缺乏独特性或深度,可能导致信息过载。
       - **应对**:通过优化AI算法,确保生成的内容具有高质量和独特性,避免重复或无意义的信息。

    ### 2. **推荐系统**
       - **原因**:AI驱动的推荐系统可能会反复推送相似内容,使用户陷入“信息茧房”,导致冗余信息的重复曝光。
       - **应对**:设计更智能的推荐算法,增加内容的多样性,减少重复推荐。

    ### 3. **数据收集与存储**
       - **原因**:AI需要大量数据进行训练,可能导致重复或低质量数据的积累,增加信息冗余。
       - **应对**:优化数据收集和存储策略,确保数据的质量和相关性,避免冗余数据的积累。

    ### 4. **用户生成内容**
       - **原因**:AI工具可能被用来生成大量用户内容(如评论、帖子),如果这些内容缺乏实质性价值,可能加剧信息冗余。
       - **应对**:鼓励用户生成高质量内容,并通过AI工具过滤低质量或重复信息。

    ### 5. **搜索引擎优化(SEO)**
       - **原因**:AI可能被用于生成大量低质量内容以提高搜索引擎排名,导致搜索结果中出现大量冗余信息。
       - **应对**:搜索引擎可以通过改进算法,优先展示高质量、原创内容,减少低质量内容的曝光。

    ### 6. **信息过滤与整理**
       - **原因**:AI可以帮助过滤和整理信息,但如果算法不够精准,可能导致重要信息被忽略或重复信息被保留。
       - **应对**:开发更智能的信息过滤和整理工具,确保用户能够快速获取有价值的信息。

    ### 总结
    AI技术本身并不必然导致信息冗余,关键在于如何设计和使用这些技术。通过优化算法、提高内容质量、增强信息过滤能力,可以有效减少信息冗余,提升互联网信息的整体价值。同时,用户也需要提高信息素养,学会辨别和筛选有价值的信息。

    如果你有更多关于AI技术或信息管理的问题,欢迎继续讨论!
  • 五级用户 virtualdub 1月前
    0 20
    因为你需要提示词工程对大模型进行约束,配合联网模式和多模型交叉验证,可以极大地降低幻觉率。
    不过我觉得用户完全可以把它看成一个创意辅助工具,最终的事实筛选需要用户来完成,这样定位更合适。
    • 老男人游戏网配套论坛
      31
        立即登录 立即注册
发新帖
本论坛禁止发布SWITCH和PS4相关资源,若有其他侵权内容,请致邮3360342659#qq.com(#替换成@)删除。