嘉宾介绍
快问快答
一、产品与技术
Q:请提供一段对于公司、产品和创始人的简要介绍
镜象科技是一家AI情感心理诊疗服务商,提供临床心理大模型和AI智能体产品,为学校、政府、企业等客户提供倾听陪伴、心理筛查和轻症干预等服务。企业创始人黄立毕业于北京大学和剑桥大学心理学系,是华东师范大学心理与认知科学学院校外导师,同时在BAT等大厂从事大数据与AI产品研发多年,是心理学和AI双领域人才。
Q:如何定义产品的核心价值定位?与通用大模型(如ChatGPT)相比,您的AI应用在垂直场景中解决了哪些独特痛点?
产品的核心价值是提供垂直行业的解决方案,跟通用大模型相比,我们的智能体训练自私有的心理咨询诊疗数据,并使用微调和强化学习等技术构建独有的行业模型,提升模型在理解情绪、换位思考和共情回应等专业技术上的能力。
Q:在数据整合与应用中,如何应对企业数据孤岛、格式差异及实时性要求等挑战?
异构数据处理、数据实时性要求等问题其实都好处理,最难的是业务的隐私要求。我们这个行业有极强的数据隐私要求,容易形成孤岛效应。比如一个学生打AI心理热线,如果需要报姓名学号,将大大阻碍了他求助的欲望,但如果不报,学生发生心理危机事件时,无法第一时间找到该学生防止悲剧发生,另外学校也不放心把学生隐私的数据都交给我们管理。因此,我们学习微信公众号的账户体系,构建出了一套学生既可以对我们匿名,危机时候又可以解码ID反查用户的创新方案。
Q:如何平衡生成式AI的创新能力与输出可靠性?在降低“幻觉”风险方面有哪些技术或流程保障?
这个是很难的问题,创新和幻觉是天平的两端,比如Deepseek R1模型推理能力增强的同时也带来了幻觉。我们有两种做法来平衡,第一是加入一个模型作为裁判审核输出质量,第二是在垂直场景应用中,要求模型结合规则引擎或者参考数据库/知识图谱的内容,不能放任模型过度生成。
二、市场与商业化
Q:面对通用大模型厂商的竞争,如何构建差异化护城河?是否考虑与基础模型厂商形成生态合作?
通用大模型与我们这种垂类模型各有优势,我们有更多的医疗行业专业属性,大模型很难深入。目前,我们已经和通用大模型厂商形成生态合作,我们一些智能体用RAG架构也可以跑在他们大模型上,然后他们集成我们的智能体做行业方案推给客户。
Q:AI应用的定价策略如何设计?是否存在从“按调用量付费”向“价值导向定价”转型的趋势?
大模型都在走开源,按调用量付费目前是很难走通的。目前,我们的商业模式是:1)按SaaS服务卖,卖订阅;2)卖硬件+软件一体,通过硬件载体来溢价。
三、伦理与社会影响
Q:在AI产品开发中,如何应对伦理风险(如数据偏见、深度伪造)与监管合规要求?
心理咨询这个领域,容易产生亲密的咨访关系,伦理规范是比较多的,风险也比一般的行业要大,因此除了一般的用户知情同意以外,我们还对模型进行了单独的微调和对齐。而针对监管的部分,按照大模型一般的规范做,如果涉及出海,还要适配当地的语言和合规条例。
Q:如何看待AI技术对就业市场的影响?您的产品是否设计了对“人机协作”模式的优化支持?
AI技术将会逐渐替换掉一些岗位,企业常规岗位的招聘将变少,但使用AI的新岗位会出现。我们的产品本身就是作为人力的一种补充,往帮助人工提效的方向设计,因此是属于人机协同的模式,比如用AI扮演来访培养咨询师,或者帮助咨询师进行前期的筛查和访谈,进而导流给咨询师。当咨询师忙不过来时,AI又可以向用户提供轻症干预服务,把人工咨询这种高附加值服务留给有钱又有需要的人。
四、未来趋势
Q:未来3年,哪些技术趋势将深刻影响AI应用层的发展?您认为“AI管人”与“人管AI”哪种模式更具商业潜力?
我认为最大的机会将是具身智能与多模态AI、语言大模型的结合,使AI智能体除了在工作场景,还能够走入社会和家庭,彻底改变人们的生产力和生活方式。届时,可能并不是单纯的AI管人或者人管AI,而是人类和AI协同共存的一种模式。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.