![]()
![]()
近日,“2026精神健康AI算法生态构建研讨会”在上海市精神卫生中心徐汇院区举行。本次研讨会的主题为“技术的哲学追问”,来自精神心理、数据科学、信息科学、科技伦理及技术哲学领域的多学科专家学者,聚焦人工智能在精神健康领域的应用、风险与治理展开研讨。研讨会由国家精神疾病医学中心/上海市精神卫生中心、天桥脑科学研究院(中国)、同济大学技术与未来研究院和人工智能与精神健康前沿实验室共同主办。
我们已踏入技术与治理的“无人区”
“当前精神心理领域的体系边界正日趋模糊,我们关注的不再仅仅是精神障碍患者,更拓展至广泛社会人群的心理状态与亚健康问题。可以说,我们已踏入一个技术与治理的‘无人区’。”国家心理健康和精神卫生防治中心政策研究部主任肖月从智能诊断和早期筛查、数字干预和个体化治疗、全周期监测与预警、科研与教育支撑等方向系统梳理了AI在精神和心理健康领域的主要应用路径,同时也直言当前在数据孤岛、模型泛化能力和应用“最后一公里”方面依然存在较大挑战,呼吁在技术创新的同时尽快完善标准规范与评估体系。
同济大学技术与未来研究院院长杜严勇指出,医疗是人工智能应用中最重要的方向之一,社会对医疗AI的总体态度较为积极,这为技术推广创造了良好环境,但也对风险识别与伦理治理提出更高要求。他强调,AI治理应结合具体场景,构建“柔性治理”路径,通过程序性设计和多主体参与,在风险可控范围内实现人机协同。可依托国家智能社会治理实验综合基地,加强社会实验,前置风险识别与治理,“新药研发要经过长期多层次试验才能上市,AI技术和产品推广也应遵循类似逻辑”。
与会学者一致认为,人工智能在精神健康领域的价值不可忽视,但其角色必须被明确限定为在专业人员监督下的辅助工具,尤其在高风险情境下不得自动决策;精神健康AI的评估与监管应同时关注知识正确性、伦理合规性和情感交互质量;以抑郁症为突破口开展算法偏差治理试点,有望为其他精神障碍AI应用提供可复制的经验;未来需尽快推动早期卫生技术评估与伦理前置审查制度化,加快精神健康AI相关行业标准和团体规范的制定,并建立起临床、工程、哲学、法学和政策等多学科长期协同的研究与治理机制。
警惕永远顺从、没有摩擦力的人机交互
AI能否拯救孤独?2024年,美国佛罗里达州一位14岁男孩在与聊天机器人对话数个月之后选择自杀,让人们看到了“温情脉脉”背后的危机。复旦大学哲学学院教授王国豫强调,当前许多面向情感陪伴的聊天机器人,表面上似乎在“填补孤独”,实则更多只是在提供一种基于概率预测的人机交互,而非承载真实情感与责任的人际交往。她借用“平滑世界”的概念,提醒人们警惕永远顺从、不反驳、不纠正、没有摩擦力的AI互动环境,认为这可能弱化个体在现实人际互动中的应对能力,甚至在深层上加剧孤立感。从长远看,孤独问题的应对仍离不开家庭、学校和社会等来自于真实世界的关怀网络。
上海交通大学教授闫宏秀指出,在生成式AI时代,每一个人不再只是技术的被动使用者,而是在无形中通过提问和反馈参与塑造算法生态。她提醒,数据投毒、提示词规避安全设置等现象表明,使用者本身也可能成为风险的制造者,单纯强调开发者责任已经不够。因此,我们需要一场“数字成人礼”。她倡导在全社会范围内开展AI素养教育,帮助用户在享受AI便利的同时建立起对风险与责任的基本觉察与自律。
上海社会科学院哲学研究所教授成素梅认为,随着人工智能深度嵌入决策、创作和日常交往场景,现实世界正在从“只有人类是唯一主体”的格局,转变为“人类与AI双主体共在”的“智能世界”。在此格局下,人们在使用导航、对话大模型、算法推荐时,常将记忆、判断和创造力“外包”给系统,形成“认知卸载”。她呼吁,在以技术解放生产力为核心的“第一次解放”之后,人类需要完成面向内在世界的“第二次解放”,在技术包围中重建认知卫生、在场关系与意义追问,通过制度与实践设计,使人机关系从“替代”转向“共生”。
原标题:《资讯 | AI能治“心”病吗?我们亟需一场“数字成人礼”》
栏目主编:杨逸淇
来源:作者:文汇报 陈瑜
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.