新闻偏见检测一直是个笑话——左边是0,右边是10,你的文章落在3.5。这种单轴评分对缩略图够用,但对真正干活的人毫无意义:新闻编辑室的标准编辑、事实核查员、教新闻框架的讲师、做虚假信息分类器的AI安全研究员。他们需要的是结构化、多维度、可查询的框架数据。有人做了这件事,而且做成了任何AI助手都能调用的服务。
为什么单轴评分是死路
大多数"新闻偏见"工具把报道压缩成左右轴上的单一数字。缩略图够用了,但粒度完全错误——对新闻编辑室标准编辑、筛选病毒式声明的事实核查员、教授框架的新闻学院讲师、构建虚假信息分类器的AI安全研究员来说,几乎任何实际工作流都用不上。
这些工作流真正需要的是结构化、多维度、可查询的框架数据。于是有人把它做出来,封装成MCP服务器,任何AI助手都能调用。
31维评分体系
Helium MCP对每篇文章从31个维度打分。部分示例如下:
- liberal_conservative——标准左右轴(保留以兼容旧系统)
- credibility——信源密度、具名信源比例、证据引用模式
- opinion_vs_fact——观点语言与陈述事实语言的比例
- scapegoating——行为者归责模式vs结构性解释模式
- covering_responses——文章是否给被批评的个人/组织留出回应空间
- fearful——情感效价、威胁性语言
- sensationalism——标题与正文的放大效应、最高级密度
- overconfidence——模糊限定语vs陈述确定性
- intelligence——阅读难度、概念密度
- begging_the_question——框架中预设结论
- oversimplification——将复杂因果关系简化为单一因素
- ai_authorship_probability——文章由大模型生成的显式估计
还有19个维度未列出。关键是每个维度都实现了可操作化——不是凭"感觉"贴标签,而是从文本特征计算得出。
数据规模与覆盖
- 320万+篇文章
- 5000+个信源
- 持续更新
- 覆盖全球主流媒体、美国党派媒体、商业媒体、科技媒体、地方媒体及长尾/超本地信源
MCP接口设计
Helium MCP通过三个主要工具向AI助手开放:
- get_source_bias(source)——聚合某信源近期语料的评分
- get_bias_from_url(url)——抓取并评分指定URL
- search_articles(query, filters)——按偏见维度筛选文章
所有工具返回结构化JSON,包含各维度原始分、置信区间、解释性元数据。AI助手可以据此做事实核查、生成偏见对比、或训练自己的分类器。
谁在用
早期用户包括:事实核查机构(批量筛选待核查声明)、新闻素养课程(让学生对比同一事件的不同框架)、AI安全团队(为红队测试生成偏见变体)。
开发者表示,单轴偏见评分是"给用户他们以为自己想要的",而31维框架是"给他们真正需要的"。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.