媒体教授佩特·贝·布兰兹泰格表示,人工智能在为我们形成思想和表达观点方面的优越能力削弱了我们的判断力和批判性思维能力。
三年前没有人知道Chat GPT。如今,已有8亿人使用这项技术。人工智能的推广速度打破了所有记录,已成为新常态。
许多人工智能研究者,包括布兰兹泰格在内,对此持怀疑态度。人工智能是一种干扰我们思考、阅读和写作能力的技术。“我们在很大程度上可以避免社交媒体,但无法避免人工智能。它已融入社交媒体、Word、在线报纸、电子邮件程序等。我们都成了人工智能的合作伙伴——不管我们愿不愿意,”布兰兹泰格说。
奥斯陆大学的媒体创新教授研究了人工智能如何影响我们,并在最近完成的项目“一个由人工智能驱动的社会”中进行了探讨。
言论自由委员会忽视了人工智能
这个项目是与研究机构SINTEF合作进行的。它是挪威首个研究生成性人工智能的项目,即创造内容的人工智能,以及它如何影响用户和公众。
背景是布兰兹泰格对挪威言论自由委员会在2022年发布的报告未能充分讨论人工智能对社会影响的事实,尤其是生成性人工智能。
研究表明,人工智能可能会削弱我们的批判性思维。它影响我们的语言、思维方式、理解世界的方式以及我们的道德判断,”布兰兹泰格说。
在言论自由委员会报告发布几个月后,ChatGPT上线,让他的研究变得更加重要。
“我们想要理解生成式人工智能如何影响社会,特别是人工智能如何改变社会结构和人际关系。”
人工智能-个人主义
生成式人工智能的社会影响是一个相对较新的领域,理论和概念仍然匮乏,因此研究人员提出了“人工智能个人主义”的概念。它建立在“网络个人主义”之上,这是一个在2000年代初期提出的框架。
当时的需求是表达智能手机、互联网和社交媒体如何使人们能够超越家庭、朋友和邻居,创建和定制自己的社交网络。
网络个人主义展示了技术如何削弱时间和地点的旧限制,使灵活、个性化的网络成为可能。随着人工智能的发展,情况发生了变化:人和系统之间的界限也开始模糊,因为人工智能开始承担曾经属于人类的角色。
“人工智能也可以满足个人、社会和情感需求,”Brandtzæg说。
他有心理学背景,长期研究人类与人工智能的关系,比如与聊天机器人Replika的互动。ChatGPT和类似的社交人工智能可以为各种事情提供即时、个人化的支持。
“它通过促进更自主的行为,减少我们对周围人的依赖,从而增强个人主义。虽然它可以增强个人自主性,但也可能削弱社区联系。因此,向人工智能个人主义的转变可能会重塑核心社会结构。”
他认为“人工智能个人主义”这一概念为理解和解释人工智能如何改变社会中的人际关系提供了新的视角。“我们把它当作关系伙伴和工作中的协作伙伴来做决策,”Brandtzæg说。
学生们选择聊天机器人
这个项目是基于几项调查的,包含对166名高中生的开放式问卷,了解他们是如何使用人工智能的。
一位高中生提到人工智能的好处时说:“它们(ChatGPT和MyAI)直接回答我们的问题,所以我们不需要在书本或网上无休止地查找。”
另一位学生回应说:“ChatGPT帮我解决问题,我可以敞开心扉,聊聊那些困难的事,得到安慰和好的建议。”
在另一项研究中,通过在线实验和盲测发现,当他们有心理健康问题时,很多人更喜欢聊天机器人的回答,而不是专业人士的。
Brandtzæg说:“这显示了这项技术的强大,有时候我们更喜欢人工智能生成的内容,而不是人类的。”
‘模型权力’
“模型权力”理论是他们提出的另一个概念。它建立在50年前社会学家Stein Bråten发展的一种权力关系理论之上。
根据文章《Modellmakt og styring》(在线报纸Panorama—挪威语),模型权力是指一个人通过拥有有影响力的现实模型而获得的影响力,而其他人必须在没有自己等效的权力模型的情况下接受这个模型。
在1970年代,这主要是关于媒体、科学和各种权威团体如何影响人们,并拥有模型权力。而现在,这种影响力转向了人工智能。
Brandtzæg 的观点是,AI 生成的内容不再孤立存在。它无处不在,出现在公共报告、新媒体、研究和百科全书中。当我们进行谷歌搜索时,首先得到的是 AI 生成的摘要。
“一种 AI 层覆盖了一切。我们认为,社交 AI 的模型能力可能会导致垄断现象,显著影响人类的信念和行为。”
因为 AI 模型,如 ChatGPT,是基于对话的,所以称它们为社交 AI。但和一个被大量文本喂养的机器对话,真的有那么真实吗?
“社交 AI 可以营造出真实对话和独立性的假象——通过伪对话实现伪自主,”Brandtzæg 说。
批判但仍然遵循 AI 的建议
根据挪威通信管理局 (Nkom) 在 2025 年 8 月的一项调查,91% 的挪威人对 AI 服务(如 Copilot、ChatGPT 和 Gemini)传播虚假信息感到担忧。
AI 可能会产生幻觉。一个众所周知的例子是,特罗姆瑟市用于关闭八所学校的提案报告,竟然是基于 AI 编造的来源。因此,AI 可能会助长错误信息,并可能削弱用户对 AI、服务提供商和公共机构的信任。
Brandtzæg 问还有多少其他较小的市政当局和公共机构也做了同样的事情,他对这种无意中传播错误信息的现象感到担忧。
他和他的研究同事回顾了各种研究,表明虽然我们总是说自己很批判,但实际上还是会听从 AI 的建议,这突显了此类 AI 系统中的模型能力。
“我们遵循所获得的建议,这也许并不令人惊讶。这是历史上第一次我们与一种强大的实体对话,它阅读了如此之多的内容。但这让模型拥有了一种可怕的权力。我们相信我们在进行对话,这是一种合作,但实际上这是一种单向沟通。”
美国单一文化
这种模型权力的另一个方面是,人工智能公司位于美国,并依赖于大量的美国数据。
“我们估计,在像 ChatGPT 这样的人工智能模型中,挪威数据的比例少至 0.1%。这意味着我们所关联的信息是美国的信息,这可能会影响我们的价值观、规范和决策。”
这对多样性来说意味着什么?原则就是“赢家通吃”。人工智能并不考虑少数群体的利益的情况。Brandtzæg 指出,世界从未面临如此侵入性的技术,这需要进行监管,并与真实的人类需求和价值观相平衡。
“我们要记住,人工智能并不是一个公共的、民主的项目。它是商业化的,背后是少数几家美国公司和亿万富翁,”Brandtzæg 说。
了解更多信息: Marita Skjuve 等, 《年轻人与健康信息》,福利研究期刊 (2025)。 DOI: 10.18261/tfv.27.4.2
Petter Bae Brandtzaeg 等, 《人工智能个人主义》,牛津交叉点:社会中的人工智能 (2025)。 DOI: 10.1093/9780198945215.003.0099
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.