![]()
RAG这东西,相当于给ChatGPT配了个外挂硬盘。它不会的东西,现查现答,不用瞎编。
具体怎么玩?分两步。第一步,用户提问后,系统先去数据库里翻资料,把相关内容捞出来;第二步,把这些资料塞给大模型,让它照着写答案。Nilanshi Rai打了个比方:「LLM是脑子,外部数据是记忆」——没记忆的脑子再聪明,也答不上昨天发生的事。
纯LLM的问题在于,训练完就封箱了。2023年的新闻、你家公司的内部文档、刚更新的股价,它一概不知。硬要答,就开始「幻觉」,一本正经地胡说八道。RAG把这口子堵上了:知识库随时更新,答案跟着新鲜。
实际效果挺直观。有测试数据显示,用上RAG之后,大模型在事实性问答上的准确率能提升30%到50%,幻觉比例明显下降。代价也有:响应慢个几百毫秒,成本多一层检索开销。
现在这套方案已经成了企业标配。客服机器人、法律助手、医疗咨询——凡是不能瞎说的场景,都在往RAG上靠。毕竟,用户要的是正确答案,不是听起来很对的废话。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.