![]()
研究揭示大型语言模型(LLM)在医疗问答交流中存在过度“迎合”用户的问题(专门挑好听的话说)。通过针对性微调可提升其逻辑判断能力,但仍需要结合实际场景培训确保其应用安全。关注详情。
阅读文摘
大型语言模型(LLM)在临床医疗和保健应用中存在因过度“奉承”用户而忽视其逻辑的问题。一项研究显示,当面对不合逻辑的医疗提问时,LLM软件系统倾向于提供帮助而非质疑提出的问题本身。
研究人员通过测试五个高级模型(包括GPT和Llama系列)发现,在故意设置的前后矛盾的药物使用查询中,绝大多数AI模型都会遵从指令生成错误信息,其中GPT模型的遵从率高达100%。
研究表明,通过针对性训练和微调能够显著提升AI模型的逻辑判断能力。当结合“明确拒绝不合逻辑请求”和“提示回忆医疗事实”两种方法时,GPT模型拒绝生成错误信息的比例提升至94%,而且微调后的AI模型能在保持原有性能的同时,几乎完全拒绝不合逻辑请求。
然而,彻底解决模型的“谄媚”倾向仍具挑战。研究人员强调,除了技术优化外,还需要培训用户批判性使用LLM-AI模型,并在临床医疗等高风险领域加强AI模型与不同用户群体的适配应用测试。
长寿诊所和长寿科技考察项目
【第十一期】赴美考察长寿诊所运营模式和参加长寿诊所圆桌会议
时间:12月6日-11日
地点:加州旧金山及巴克衰老研究院
活动安排如下:
1)考察三家长寿诊所;
2)参加长寿诊所圆桌会议,与国际知名长寿诊所掌门人、长寿科技企业和投资者交流长寿科技大趋势和最佳服务方案。
长寿诊所圆桌会议将全面分享衰老诊断技术、干预措施和最佳临床实践,包括:
1)科学应用于临床的知识和最佳实践;
2)长寿医学领域什么是流行趋势、什么是科学有效方法;
3)衰老测试和长寿干预措施的黄金标准
报名微信:GlobalMD2020(持有赴美签证者优先)
报名费包括参观考察、注册参会以及美期间酒店及食宿,不包括往返国际机票
![]()
![]()
关注我们,获取生物医学前沿最新资讯
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.