最近,OpenAI突然公布的一项“禁令”,被质疑将对普通的AI检索服务进行收费。
11月2日据Teknotum报道,OpenAI更新后明确禁用ChatGPT为普通用户提供医疗诊断、法律建议等领域服务,仅向专业人士开放相关功能,宣称此举是为符合欧盟《人工智能法案》与美国FDA指导要求。但很多用户吐槽称,AI曾帮自己节省大量医疗和法律开支,禁用该项功能的本质是为了维护某些特殊职业的“护城河”。更值得关注的是,OpenAI此前已推出每月200美元的ChatGPTPro会员服务,此次禁令或为“付费解锁高价值功能”铺路,暴露出该AI巨头意图将普惠技术转化为盈利工具的野心。
![]()
按照ChatGPT新政策,普通用户的“询问慢性病管理建议”和“解读合同条款”今后将成为禁区,但若能证明医生、律师身份,就能正常使用这些功能。
OpenAI给出的理由是:医疗、法律属于高风险领域,需符合严格监管要求。欧盟《人工智能法案》确实将医疗AI归为“高风险”类别,要求全程严格监管;美国FDA也发布指南强调,AI医疗设备需通过风险评估。但网友争议的焦点在于:“风险是否存在和用户的身份并没有必然联系,难道专业人士用AI就不会出错?”
“普通人用就是风险,专业人士用就是辅助?普通人想学习了解知识也不被允许?”网友的吐槽戳中了问题关键。
禁令一出,大多用户认为,“合规说辞”只是官方的借口,诱导用户氪金才是OpenAI的目的。
![]()
用户“8bit-meow”在下方留言:“它对我慢性病的帮助远超我的医生,省了无数无谓就诊开销,显然他们不想让普通人真的降低医疗支出。”另一位用户“bhannik-itiswatitis”也表示,ChatGPT的法律建议帮自己省了大笔律师费,禁用大概率是“动了别人的蛋糕”。
这些吐槽并非空穴来风。AI在医疗领域应用的优势非常明显:AI健康助手能处理基础问诊,还支持多种语言交互;在法律领域,AI整理案例、解读条款的效率是人工的数倍。对普通用户而言,这意味着不用为“小事”花大价钱找专业人士,可对依赖信息差盈利的行业来说,这无疑是“砸饭碗”的威胁。
况且,众所周知,AI的作用仅仅只是辅助工具,误诊、误判的责任原本就是由用户自己承担,最终决策肯定是由专业人士负责,而非简单粗暴地给普通用户“一刀切”禁权。
这场禁令最耐人寻味的地方,是与OpenAI的盈利布局高度重合。早在2024年12月,OpenAI就推出了每月200美元(约1450元人民币)的ChatGPTPro服务,宣称能为专业人士提供“更精准的高难度问题答案”,还向医学研究者赠送过免费名额。
![]()
如今再看这场禁令,更像为付费服务“清场”:普通用户想继续用AI查病问法?要么花钱找专业人士代问,要么直接氪金解锁“专业级权限”。有网友算过一笔账:此前ChatGPTPlus会员仅需20美元/月,Pro版价格直接翻10倍,今后普通人想要获得AI的协助,不能更便捷了,而是更贵了。
此次ChatGPT针对高价值领域的禁令,等于把用户最刚需的功能打包进高价套餐,完美踩中“稀缺性盈利”的套路——毕竟医疗、法律需求从不会因禁令消失,只会转向更贵的渠道。
ChatGPT的诞生曾让人们看到AI普惠的希望:偏远地区用户能靠它获取基础医疗建议,普通人能借它看懂繁琐的法律合同陷阱。可如今的政策转向,却让AI从“打破壁垒的工具”变成了“制造新鸿沟的推手”。
![]()
网友的评论一针见血:“AI服务今后可能将变成‘富人专属’,OpenAI的所谓合规,就是把刚需功能卖成高价套餐。”这种“双重标准”本质是维护既得利益的遮羞布。
那么问题来了,如果今后国内的AI工具也有样学样,对基础的AI辅助功能开始收费,你还会使用吗?
笔者认为,AI技术本不该有“身份门槛”。医疗AI的风险,该靠技术迭代和制度规范来化解,而非剥夺普通用户的便利。当OpenAI把“合规”当借口,用禁令倒逼用户氪金,消耗的不仅是自身信誉,更是公众对AI技术的信任。
当200美元的Pro会员就能代替医生律师的身份解锁“查病问法权”,当普通用户只能在禁令外望洋兴叹,所谓的“AI革命”,不过是场换了包装的商业收割。正如网友说的:“技术从不是问题,问题是技术掌握在只想赚钱的人手里。”
来源引用:Teknotum
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.