「我们既想要AI带来的钱,又担心它把我们卖了。」——这大概是6万多条加拿大民众反馈里最诚实的内心独白。
联邦政府去年搞了场30天的AI战略公开咨询,收了11,300多人提交的64,600多条意见。官方报告说大家诉求很分散,有人想商业化,有人怕安全风险。但到底有多分散?BetaKit做了份独立数据分析,发现加拿大人对AI的态度堪称精分现场:谈经济好处的占35.6%,担心AI作恶的占34.6%,几乎打平。
![]()
一张图看懂:加拿大人的AI焦虑图谱
这张数据图的核心就四个字:左右互搏。
经济成长(35.6%)和伦理伤害(34.6%)并列前两名,中间只隔1个百分点。环境伤害和生产力紧随其后。这不是「有人担心有人乐观」的简单分布,是同一批人在同一篇反馈里同时喊「快上车」和「踩刹车」。
政府咨询的问题设计本身就暴露了这种张力:怎么安全采纳AI、怎么扶持本土AI冠军企业、怎么吸引投资、怎么建主权AI基础设施、怎么建立公众信任——五个方向,三个半跟钱有关,一个半跟安全有关。民众的回答把这五个方向撕成了两半。
83%的反馈来自个人而非组织。这意味着不是行业协会在唱对台戏,是普通人在自家键盘前敲完了「AI能创造就业」又补一句「但算法歧视怎么办」。
政府的AI分析AI:黑箱里的黑箱
Innovation, Science, and Economic Development Canada(加拿大创新、科学和经济发展部,简称ISED)处理这6万多条反馈的方式,本身就是个隐喻。
他们用了内部搭建的大语言模型(LLM,即大规模语言模型)流水线,人类监督,AI归类,AI总结。官方没公布用了什么提示词,没给各主题的权重数字,也没解释「AI分析公众对AI的担忧」这个套娃结构有没有影响结论。
BetaKit找ISED部长Evan Solomon的办公室要说法,对方只甩了个链接:公众摘要和完整数据文件都在网上,自己看。至于AI怎么加权、怎么分类、有没有系统性地弱化某些声音——沉默。
这很AI时代的公关:用算法处理对算法的焦虑,用透明度话术回避透明度。
1%差距背后的政策赌局
35.6% vs 34.6%,这个差距小到可以忽略,又大到决定战略走向。
如果政府选择相信「经济」那一边,政策会偏向快速商业化、放松监管、砸钱搞算力基建。如果倒向「伦理」一边,就会看到更多安全审查、算法问责、使用限制。现在两边几乎一样重,意味着任何单边押注都会得罪近半民意。
更麻烦的是,这两个35%大概率高度重叠。同一个人既填了「AI能提升医疗效率」又勾了「担心隐私泄露」。这不是两拨人在打架,是一个人在纠结。
政府的回应话术是「继续加强与代表性不足群体和地区的接触」,翻译过来:样本还不够,我再听听。但6万多条意见已经是个庞大样本,再听下去,可能听到的还是同样的左右互搏。
为什么这件事值得科技从业者盯着
加拿大不是特例。全球发达经济体都在经历同一道选择题:AI竞赛的窗口期有限,但社会信任的消耗速度可能更快。
这份数据的真正价值在于量化了一个模糊感受——民众的焦虑不是边缘噪音,是与经济期待同等分量的主流诉求。做产品的、做政策的、做投资的,如果还把「伦理担忧」当成可以公关掉的杂音,会误判市场真实温度。
下次看到某国放出「民众热烈拥抱AI」的宏大叙事,记得问一句:你们的大语言模型是怎么分类「热烈」和「拥抱」的?原始数据开源了吗?
数据不会说谎,但分析数据的人可以选性不说。在加拿大这个案例里,连分析者自己都用了被分析的对象(AI)来处理数据——这层套娃结构,可能比那1%的差距更值得玩味。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.