纽约市教育局去年还在封禁聊天机器人,今年却给全校师生发了一份"红绿灯"使用手册。这种180度转弯背后,是教育管理者在作弊恐惧与教学效率之间的艰难平衡。
我翻遍了纽约、洛杉矶、芝加哥三个最大公立学区的最新政策文件,发现一件有意思的事:没有一家学区敢彻底放开AI,但也没有一家再敢彻底禁止。他们都在摸索同一条细线——怎么让学生用上工具,又不让工具替学生思考。
![]()
纽约:从"一刀切"到"红绿灯"
纽约公立学校系统覆盖90多万名学生、1597所公立学校加近300所特许学校。市教育局是全市最大政府机构,眼下还在扩张学前班项目。
这个庞大系统对AI的态度转变极快。ChatGPT刚流行时,纽约是首批全面封禁的学区之一。没过多久,禁令解除。现在,他们拿出了一份由AI特别工作组起草的新指南,面向学生、教师和家庭。
这份指南的亮点是"红绿灯"分级系统。绿灯工具经官方审核,教师可在课堂自由使用;黄灯工具需额外审批,通常限制特定场景;红灯工具原则上禁用,除非特批。
所有AI工具必须通过ERMA(企业审查管理应用)流程。这个原本管隐私安全的系统,现在新增了AI使用参数:必须人工监督审核、禁止向未批准系统输入学生个人信息、严格执行年龄限制、对AI输出保持审慎。
但具体哪些工具亮什么灯,文件里没列清单。学校层面仍有裁量空间,这也是"用户友好"的另一面——模糊地带不少。
洛杉矶:禁令仍在,但裂缝已现
洛杉矶联合学区是美国第二大学区,服务约43万名学生。他们的AI政策走向与纽约不同——官方禁令至今未解除,但执行层面早已松动。
2023年初,洛杉矶教育委员会投票禁止ChatGPT进入校园网络和学区设备。禁令背景很具体:当时出现多起学生用AI生成作业的案例,教师识别困难,家长投诉激增。
但禁令只封网络不封认知。学生用手机、家用电脑照样访问,教师私下也在摸索怎么用AI减负。一位高中英语教师在接受EdSurge采访时说,她试过用聊天机器人生成作文评语模板,"省下的时间可以跟学生一对一聊"。
学区管理层并非不知情。2024年秋季,洛杉矶悄悄启动"AI教育创新试点",选定12所学校测试经审核的AI工具。试点范围极小,官方口径仍是"研究性质",但信号明确:完全禁止不可持续。
目前洛杉矶的正式政策仍是"禁止未经授权的生成式AI工具",但授权流程已经存在。教师可申请使用特定平台,需提交教学用途说明、学生数据保护方案、替代评估方式。审批周期约两周,通过率据内部人士称"比想象中高"。
芝加哥:最保守的"观望派"
芝加哥公立学区排名第三,学生规模约32万。他们的AI政策是三者中最谨慎的——没有全面禁令,也没有系统指南,只有一份2024年3月发布的"临时建议"。
这份建议的核心就两句话:教师使用AI工具需向校长报备;学生使用需家长书面同意。没有审核清单,没有分级标准,没有培训要求。
芝加哥教育委员会的解释是"等待更清晰的研究证据"。他们引用了几份尚未发表的学术预印本,指出AI对K-12学习效果的长期影响仍不明确。一位委员会成员在公开会议上说,"我们不想成为实验品,也不想落后太远"。
这种模糊策略有其现实考量。芝加哥学区近年深陷财务危机,2023年刚避免破产,2024年又面临4亿美元预算缺口。AI基础设施投入、教师培训、合规审查都需要钱,而"临时建议"的成本接近于零。
但空白政策带来混乱。有的学校自发组织AI工作坊,有的学校明令禁止任何AI相关讨论,还有学校出现教师用、学生禁的双标场面。一位芝加哥高中生在Reddit发帖抱怨:"我的历史老师用ChatGPT写教案,我写论文用Grammarly却被叫家长。"
正方:AI是教育公平的杠杆
支持派的核心论据集中在两个维度。
第一是教师减负。美国教师平均每周工作54小时,其中近一半花在行政事务。AI可以批量生成测验题、整理学生进度报告、提供差异化教学素材。纽约市教师工会的内部调查显示,使用过AI工具的教师中,67%认为"每周节省3小时以上"。
第二是个性化学习。传统课堂一个教师对30名学生,AI可以实现"虚拟一对一"。可汗学院与OpenAI合作的"可汗导师"(Khanmigo)已进驻部分学区,能针对学生错误实时调整讲解方式。纽约市指南特别提到这类"辅导型AI"的绿灯潜力。
更激进的观点认为,禁止AI反而加剧不平等。富裕家庭的孩子在家用AI,禁令只困住公共资源依赖者。纽约大学教育政策研究所2024年报告指出,全面封禁的学区,学生校外AI使用率与不禁学区差距仅7%,但"有效使用能力"差距达34%——前者更多用来抄作业,后者更多用来改思路。
反方:学习过程正在被掏空
反对派的担忧同样具体。
最尖锐的批评指向"认知外包"。写作、推导、试错——这些曾被视作学习核心的过程,现在可以被AI一键替代。一位洛杉矶高中数学教师在学区听证会上说:"我的学生用Photomath解方程,答案对了,但问到步骤原理,一脸茫然。"
心理健康风险也被反复提及。生成式AI可以模拟对话、生成图像,已被用于校园霸凌升级。2024年美国校园安全中心记录到127起"深度伪造"(Deepfake,用AI合成虚假影像)相关事件,其中43%发生在K-12阶段。洛杉矶禁令的原始文本中,"保护学生免受AI生成内容伤害"是首要理由。
数据隐私是另一块硬骨头。K-12学生是特殊保护群体,但AI公司的隐私条款多为成人设计。纽约市ERMA流程的设立,直接回应了2023年的一起诉讼:家长发现某AI辅导平台将学生对话数据用于模型训练,而用户协议中"教育用途"条款藏在小字附录里。
我的判断:政策滞后是常态,但窗口期正在收窄
三个学区的政策差异,本质是风险偏好的差异,而非事实判断的分歧。他们都承认AI不会消失,都在寻找"可控开放"的边界。
纽约的"红绿灯"最成体系,但执行成本最高——ERMA审核积压已超过90天,部分教师转向未经审核的"灰色工具"。洛杉矶的"明禁暗放"最灵活,但公平性最差——试点学校多为资源充足的磁石学校,普通学校教师只能自行摸索。芝加哥的"拖延"最省钱,但正在积累系统性风险,一旦政策被迫转向,追赶成本将远高于先发投入。
真正值得关注的信号在合同层面。原文提到,数千所高校已与OpenAI、Google、Anthropic签订协议,这三家同时推出了面向普通用户的"辅导"版本。K-12层面,Canva、Microsoft等厂商专为教师设计工具,并向学生开放"受控AI代理"。
这些商业动作正在重塑政策选项。当AI工具成为教育采购合同的标准条款,学区的谈判空间将被压缩。纽约市正在重新谈判现有教育技术合同,以纳入免费AI产品——而这些产品在最初签约时还不存在。这种"合同追认"模式,意味着技术部署先于政策审查,事后监管永远慢半拍。
对科技从业者而言,这个领域的商业逻辑已经清晰:得教师者得入口,得学生者得未来。但产品设计的真正考验不在功能,而在"可审计性"——如何让学校管理者确信,AI的使用痕迹可被追踪、可被解释、可被问责。
如果你在做教育科技产品,现在该去下载这三份政策原文,逐条对照ERMA流程、家长同意书模板、试点申请表格。这些文档的空白处,就是下一代合规功能的规格说明书。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.