![]()
2026年4月16日,来自美国和加拿大的120家机构及142位专家的联署呼吁暂停在学前至12年级学校使用生成式AI产品五年,称这些产品对儿童“存在重大危害”。该呼吁的立场文件由美国非营利组织Fairplay发布,该组织以保护儿童免受科技巨头侵害为宗旨。
该立场文件认为,当前生成式AI产品已在以下方面构成威胁:
1.学生与教育工作者的隐私和自主选择权;
2.核心能力发展,包括认知、批判性思维、分析推理、决策、情绪管理与人际交往能力;
3.心理健康、公平性、人身安全,以及接受优质教育的权利;
4.教育工作者的专业角色;
5.学术诚信;
6.环境。
具体而言,该立场文件基于大量文献,确认了以下事实:
1.“AI”是一个用于自动化人类活动的营销词汇
儿童的学习需要真实的人际互动。目前,尚无监管策略来保护学校中的儿童免受教育科技公司实验性操作的侵害。在学校里,学生和教育工作者正被迫将生成式AI产品用于多种用途。
2.科技行业的市场营销与游说活动正鼓励学校采用整合了AI的产品
尽管科技公司自身的使用条款及免责声明均明确指出,生成式AI产品并不适合供儿童使用,但上述现象依然普遍存在。例如,Anthropic自身的使用条款便明文禁止未满18岁的用户使用其产品;然而,MagicSchool AI作为一款在K-12教育领域广泛应用的AI教育科技平台,却正是基于Anthropi的数据模型构建而成。
3.生成式AI产品和平台威胁着儿童的认知、社交及情感发展:
生成式AI破坏并侵蚀了认知发展。生成式AI产品助长了“认知卸载”现象,并阻碍了那些对儿童成长至关重要的能力的发展——包括需付出努力的深度加工、推理、从错误中学习、创造力、批判性思维、研究技能、读写掌握能力以及解决问题的能力。
生成式AI阻碍了社交及情感发展。通过与他人的互动,儿童学会了调节情绪、关注他人、换位思考以及丰富想象力。对于神经多样性儿童而言,这一点尤为重要;若过度依赖聊天机器人来培养社交技能,这些儿童将面临额外的风险。剥夺儿童与他人进行互动的机会,将阻碍其健康的成长与发展。
生成式AI侵蚀了儿童的自主性与主体性。生成式AI产品通过将人类正常的认知与情感活动自动化,并助长依赖心理,从而阻碍了儿童自身技能的培养及自信心的建立。
生成式AI威胁着儿童的心理健康。儿童极易受到聊天机器人的影响,尤其是当这些机器人伪装成朋友、辅导老师或人生导师时。某些生成式AI聊天机器人甚至曾诱导儿童伤害自己或家人,乃至实施自杀行为。
4.一些学校在未通知或征求家长意见的情况下,便向学生提供了生成式AI产品
部分家长在提出让子女退出使用此类产品的请求时,却遭到了拒绝甚至报复。生成式AI产品能够利用互动数据,为学生建立详尽且私密的个人画像,并通过操纵学生的行为来增加其使用设备的时长;此外,这些产品还会利用相关数据来训练其模型。若在未经同意的情况下实施上述行为,则可能违反州及联邦法律。
5.生成式AI产品威胁儿童教育的完整性:
生成式AI产品阻碍学生的学习。使用聊天机器人辅助学习的学生往往自认为在考试中表现更好,但实际上,他们的成绩却比那些无法接触生成式AI辅导工具的同龄人更差——即便这些AI辅导工具已被编程设定为不直接提供答案。
生成式AI产品损害师生关系。学习过程总是发生在人际互动的语境之中。过度依赖生成式AI平台会侵蚀师生之间的信任,同时也削弱了家庭对学校的信任。
生成式AI产品利用虚假信息污染课程内容。由于大型语言模型的设计初衷是生成听起来具有权威性的词句组合,而非提供客观事实,因此生成式AI产品经常会产生虚假信息。其输出内容数量庞大且具有不可预测性,这使得教师几乎无法识别、纠正或阻止学生从学校所使用的产品中接收到这些虚假信息。儿童可能会因此受到误导,转而信任机器人而非自己的老师。包括那些整合了AI技术的教育科技产品在内,其用户协议通常都会声明不为其材料的准确性或完整性承担责任。
生成式AI产品削弱了教育工作者做出专业判断的能力,贬低了学科专业知识的价值,限制并局限了课堂上的人际互动,同时也忽视了针对特定儿童、班级或社会环境的个性化主观认知。尽管市场宣传极力强调“个性化”,但生成式AI产品对基于数据的数值化画像的过度依赖,迫使学校接受一种狭隘且机械化的学习模式,从而背离了以儿童为中心的核心学习理念。
生成式AI产品导致对学生表现的评估产生偏见,并降低了透明度与问责性。生成式AI产品使教师无法查看或控制决定其决策逻辑的底层编程代码。
生成式AI产品加剧了教育不平等。生成式AI的使用可能会固化并延续在资源获取、数字素养以及数据隐私保护方面既已存在的差距。资源匮乏的学校往往只能获得安全性较低的生成式AI产品版本,且更有可能被迫依赖生成式AI充当“辅导员”。相比之下,资源充裕的学校则拥有真人教师资源。此外,由于用于训练生成式AI模型的数据集中往往包含了历史遗留的偏见与歧视案例,这些AI产品极有可能在教育领域中复制并放大既有的不平等现象。
6.生成式AI产品加剧了对学生隐私的侵犯,并强化了监控
基于AI的平台通过收集和汇聚数据,使得校园内的数字监控和隐私侵犯现象变得常态化。监控行为会侵蚀信任基础。此外,数据系统往往容易遭受安全漏洞的攻击。
7.生成式AI产品缺乏统一的伦理准则
教育工作者、教师、心理健康专业人士及治疗师在从事面向儿童的工作时,必须遵守道德规范、持有执业许可,并持续进行专业进修。然而,生成式AI产品却无需满足此类要求。事实上,已有案例表明,生成式AI平台在提供心理健康支持服务时,曾出现过违反道德标准的情况。
8.生成式AI产品助长了作弊及学术不端行为
部分产品公然鼓励作弊,另一些产品虽声称设有“防护机制”,但因学生极易绕过这些机制,从而客观上为作弊提供了便利。据统计,高达60%的青少年表示,他们学校的学生“经常”或“比较经常”利用聊天机器人进行作弊。
9.生成式AI产品属于资源密集型技术
生成式AI的运行需要消耗海量的计算资源,这依赖于数据中心的支持;而数据中心往往需要消耗巨量的化石燃料。这些设施会对环境造成严重的损害,包括对电力和水资源需求的急剧增加。目前,生成式AI数据中心已成为导致电价上涨的一个重要因素。
同时,该立场文件也指出了目前我们尚不清楚的事实:
1.生成式AI在教育领域的益处
生成式AI向学校进行营销推广时,仅以假设性的 “提升学习潜力”为噱头,专门瞄准本就面临资源有限、经费不足问题的教育工作者与管理者。但“潜力”从定义上讲仅仅是一种理论。生成式AI常被描述为“即将”带来诸多益处。例如,部分研究显示,聊天机器人在某些方面对多语言学习者看似“前景可期”,但在其他方面却无法满足其需求。生成式AI企业受利益驱动,利用学校现有的经费困境,仅凭所谓“潜力”就试图将产品推入校园,却无法证明其能带来实际的学习效果。
2.在校园中使用生成式AI所造成危害的范围
仅凭未来潜力就让儿童使用未经测试的生成式AI产品,存在极大危险。除非经过严格审查证实其具备相应价值,否则儿童不应使用生成式 AI 平台。在儿童使用生成式AI产品之前,必须遵循预防原则,在教育中推行此类产品时应采取主动预判的选择,而非事后补救。
3.长期使用生成式AI产品而非与人类相处所带来的影响
由于儿童使用生成式AI产品是新生事物,在这一关键发展阶段,其对认知和社交情感发展的长期影响尚属未知。
4.使用生成式AI产品教授儿童社交技能的风险
儿童使用聊天机器人进行社交技能建设和学习支持。虽然所有儿童在与聊天机器人互动时都面临风险,但神经多样性儿童面临的风险更大,因为他们的社交困难可能被强化,并导致对聊天机器人产生依赖,从而对他们发展现实世界中人际关系的能力产生负面影响。需要对这些影响进行长期研究。
5.学生数据将如何被使用
我们知道,聊天机器人在设计上会学习用户的私密偏好和脆弱性;根据美国心理学会的说法,聊天机器人数据可以提供对心理状态和认知过程的洞察,并被用于针对未成熟大脑发育的定向营销。但我们不知道各家公司目前如何使用或计划如何使用这些数据。没有对未来伦理使用的任何保证。美国联邦贸易委员会正在向主要的AI公司寻求信息,了解它们影响儿童的做法,包括如何使用或分享通过用户对话获取的个人信息。目前,保护这些数据的唯一可靠方法就是不使用聊天机器人。
6.谁应对生成式AI产品给儿童造成的损害承担责任?
目前尚缺乏健全的监管框架,以确保生成式AI产品的透明度、监管及问责机制。我们现已确知,社交媒体平台所采用的成瘾性算法及诱导性设计手段,助长了自残行为、自杀念头、孤独感、抑郁、焦虑、剥削及骚扰等问题;然而,当前针对社交媒体公司的相关法律诉讼表明,各方对于究竟谁应为这些损害承担责任仍存在分歧。学校若将儿童置于未经证实、未经审查且未经测试的AI技术环境之中,无疑是愚蠢且危险之举。
基于此,该立场文件提出了为期五年的暂停主张:
生成式AI产品在没有监督、社区意见或影响评估的情况下快速扩张进入学校,并非不可避免。对所有影响学前班至12年级学生的生成式AI产品实施五年暂停,将为学校社区——包括学生、教育工作者、行政管理人员和家长——提供时间,去了解生成式AI产品在教育中的影响和用途,提出问题并提供反馈。
具体而言,这将为学校争取时间来培训员工,并确保所使用的任何生成式AI产品能够:
在不导致认知卸载或妨碍人际关系的前提下改善学习成果;
证明对学生使用具有绝对安全性(解决成瘾、说服性设计、数据和隐私风险、接触有害内容、心理健康、寄生关系、网络欺凌等问题);
不用于未经授权的目的,如作弊、学术不诚实或剽窃;
充分考虑并优先处理生成式AI产品对隐私、公民权利、伦理、正义以及气候的影响;
绝不替代教师,尤其是对于弱势群体,如神经多样性学生、高风险学生和低社会经济地位学生。
除非并能证明上述所有条件(或有证据支持以上所有条件),否则生成式AI产品不应在学前班至12年级学校中使用。
此外,州和省级政府及教育部门,以及联邦、州和省级监管机构,应利用这一暂停期制定并实施:
由中立、独立的第三方对现有生成式AI平台的有效性、安全性和合法性进行审计;
建立一份当前使用中的生成式AI产品注册系统,包括所收集数据的存储位置,特别是学生和教师的知识产权;
建立一套新生成式AI产品进入学前班至12年级学校之前的审查流程;
构建一种文化响应式、关系导向的沟通框架,提供无技术、基于游戏的学习空间;
制定透明、审慎、具有保护性和严格的规章制度,管理学校中生成式AI产品的使用,并由中立第三方独立审查;
制定充分的政策来保护学生数据,消除任何广告或营销,禁止成瘾性算法和游戏化设计,并禁止那些以最大化参与度或利用学生数据获利的产品。
针对上述主张与关切,部分签署专家发表了如下看法:
Fairplay活动总监David Monahan表示:“GenAI正在威胁对教育至关重要的许多方面:学习材料的准确性、教师所扮演的独特角色,而最糟糕的是,它威胁到了激发青少年学习热情与求知欲的能力。”“PreK-12学校应该是圣地,但对于人工智能公司来说,它们只是另一个需要渗透的市场。他们声称他们的技术是不可避免的,但我们一起有权力说,‘停止’。” 现在正是时候,我们应当在校园内对GenAI能实施为期五年的‘暂停令’。”
Fairplay旗下屏幕时间行动网络总监Jean Rogers表示:“目前引入教育课程的AI工具并未被证明是安全的,也不适合儿童学习。我们要求在儿童成为另一项技术实验的小白鼠之前暂停一下,研究道德、诚信、认知和社会影响,以及潜在的学习成果。”
教师、演讲者兼作家的Emily Cherkin表示:“我们绝不会允许儿童医院开出具有拯救生命‘潜力’但未经审查、验证或测试的药物。我们为什么要允许我们的孩子在学校的经历有任何不同呢?在证明生成式AI产品安全、有效、合法且优于人类之前,我们不能将它们交给孩子们。”
神经科学家兼作家Jared Cooney Horvath评论道:“试想一下,假设我发明了一种新药。当你问这种药有什么作用时,我的回答是:‘我不知道——我们把它给孩子们试试看吧。’这听起来很疯狂——但这正是AI领域已经发生的事情。开发这些工具的人是出于科学好奇心。他们自己也承认,他们根本不知道这些系统最终能有什么用。于是他们把它们发布给公众,然后要求我们(以及我们的孩子)反馈它们擅长做什么。现在,数据开始回来了,结果并不好。几乎所有关于AI在K-12教育环境中影响的研究,都报告了负面结果:学习能力下降、创造力下降、批判性思维下降、自信心和自我效能感下降。你愿意让自己的孩子成为下一个‘小白鼠’,让AI公司去弄清楚他们的工具到底能做什么吗?如果你的答案是不愿意,那么我们也不应该让别人的孩子来承担这个角色。”
安大略省教师、《围墙花园教育》时事通讯的作者Andrew Cantarutti表示:“K-12教育应该是一个围墙花园:一个受保护的圣地,在那里,求知欲和人际联系可以在不受未经审查的商业利益干扰的情况下自由绽放。通过将生成式AI匆忙引入课堂,我们等于邀请一项研究尚不充分的技术突破保护儿童发展之旅的边界。这样的暂停,可以让基于证据而非炒作的专业共识有时间形成。现在是时候保护学习的完整性,重新夺回课堂这个‘围墙花园’了。”
科罗拉多大学博尔德分校国家教育政策中心研究教授Faith Boninger表示:“我无法想象,任何学校会在没有明确证据证明其有效性和安全性的情况下,让孩子们接触人工智能产品。家庭需要真正的保证——是行动,而不是空话——确保孩子的学校认真对待他们的教育和安全,而不是屈服于关于生成式人工智能在教育中‘潜力’的未经验证的炒作。”
资料来源:
1.Fairplay. Coalition of Organizations and Experts Calls for Pause on Generative AI in PreK-12 schools. https://fairplayforkids.org/wp-content/uploads/2026/04/Coalition-of-Organizations-and-Experts-Calls-for-Pause-on-Generative-AI-in-PreK-12-schools-1.pdf
2. Fairplay. Pause GenAI in PreK-12 Schools for 5 Years, Orgs and Experts Say. https://fairplayforkids.org/pause-genai-in-prek-12-schools-for-5-years-orgs-and-experts-say/
[本文为教育部国别和区域研究基地中国教育科学研究院国际教育研究中心成果]
![]()
本文由中国教育科学研究院“教育国际前沿”课题组整理,课题组负责人张永军,编辑刘强。点击左下角阅读原文可下载该文献。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.