AI都有幻觉,归根到底是大模型缺少某些方面的具体的知识,不得不按设定的逻辑去“脑补”,就会产生错误,毕竟马和鹿对于机器软件来说都是四条腿,指鹿为马也就不奇怪。
还有一方面原因就是网络搜索,毕竟网上的信息,鱼龙混杂,真的假的都有,即是人都不一定能完全分辨清楚,更何况还有大量未定论的东西,不能指望AI来就能确定真实。
到了DeepSeek R1的推出,这种幻觉可能就比别的AI更严重,因为它拥有较强的推理能力,这个能力在一定程度上成了双刃剑,既带来丰富高超的申想象力,也会生造更多不存在的东西。
所以当发现DeepSeek在天马行空给你胡说八道,不用太惊诧,也不用幸灾乐祸(当然又是一个流量热点),严格意义上算不上技术层面的大BUG。就象有人说的,这种特性如果用到语言创作领域,说不定有很出彩的表现,但是到了要求高度真实的具体环境,就会引起很大麻烦。关键还是怎么用,要用对地方。
怎么减少幻觉带来的危害?就像很多建议说的,首先要保持警惕,别一味相信AI,它出的东西不一定都是对的,不仅是DeepSeek,包括chatGPT在内的所有AI都是如此,该验证的要验证。在这点,禁止AI写论文,还是有道理的。
DeepSeek和ChatGPT的提醒
然后在使用AI时,要加限定条件,特别是对结果的真实性要求较高时,需要AI自己先核对事实。必要时选上网络搜索,扩大它的知识面,弥补数据库不足,省得它自己没有学习过就开始瞎编。
但如前述,网络搜索结果也是有错误,虚假信息、垃圾信息以及矛盾信息充斥着现在的互联网,所以同样要对搜索加上限定指令,比如要求引用的文献、数据必须真实存在,并提供引用文献、数据出处的具体信息(如作者、发表时间、发表网站或期刊名称等),也可以限制仅接受权威学术期刊、官方报告等可靠来源,而不引用论坛、博客等无法证实网站的信息,特别是要求无可靠信息时不要自行编造补充。
AI是工具,使用要灵活。就像前面说的不引用博客、论坛,这要区分搜索什么信息,比如IT类的一些东西,在论坛、博客、微信上说不定更能找到合适的答案。还有,在准确性要求高的地方,可以使用DeepSeek V3,而不是R1,V3的幻觉率比R1低。还比如,虽然网络搜索可以扩大信息源,但有的情况并不需要联网时就别打开这个选项,能减少信息干扰,等等。
说到底,AI是人在用的,正确使用,用到刀刃上,别再用AI制造无聊的信息,用某某过往作家的语气写月结的报告,有啥意义,浪费算力。浪费AI和发明火药只做了鞭炮、上坟烧纸、指南针看风水有啥区别。
AI是个好东西,但不要被AI带偏了,不迷信AI,也不用惧怕AI,学会使用就好了。当然不是让你听信那些推广AI培训的广告里说的,不管有没有用先领了课程学起来,这种广告,看过去,满脸写的就是骗钱,AI很好学,它本来就是让人轻松的科学,如果不好学就是做的不对,所以没必要花钱,或者是花大钱去学,免费的渠道很多,基本够用了。
>> 除非说明均为原创,如转载请注明来源于http://www.stormcn.cn/post/2330.html