撰文:李小蕾 加州大学戴维斯分校社会学系博士生
责编:李婷 中国人民大学人口与健康学院教授
从编写代码到生成图片;从充当“百度百科”,到成为你的聊天搭子,人工智能已然“入侵”了我们生活的方方面面。甚至越来越多短剧都不再需要真人演员,让 AI 直接生成剧情就好。
学术界当然不会置身事外。越来越多的研究者已经把 AI 工具引入自己的工作流程之中。对于社会科学领域来说,一个有趣而重要的问题是:社会学家、人口学家等社会科学工作者目前是如何使用人工智能的?他们又如何看待这项新技术?
![]()
在回答这个问题之前,我们先对本文所讨论的“AI”做一个简单的界定。这里主要指的是生成式人工智能(Generative AI, GenAI)。这类模型被设计用来生成文本、图像、音频或视频等内容。在社会科学研究中,目前使用最广泛的一类生成式 AI 是文本生成模型。在使用这些模型时,研究者通常需要先输入一段提示语或指令。模型会以这段文字为起点,生成相应的回答或内容。
1.社会科学领域:
是谁在如何用 AI?
Alvero 等人在 2026 年发表的一项研究对 50 本社会学和人口学领域的顶级期刊的作者进行了调查和访谈(期刊包括 Demography、American Journal of Sociology、Annual Review of Sociology等)。
研究者从中选取了 219 名非计算社会科学学者和 214 名计算社会科学学者进行分析。计算社会科学学者在文章中的定义为那些在标题、摘要和关键字中包含计算机术语的文章的作者,而非计算社会科学学者则更多包括定性研究者,以及主要使用经典统计方法的量化研究者。
很多人可能会直觉地认为,既然计算社会科学学者本身就更熟悉技术,并且他们的工作更多的和代码打交道,他们应该会更加离不开 AI。但研究结果却显示,事实并非如此。计算社会科学学者和非计算社会科学学者在 AI 的使用频率和态度上差异其实非常小。对于计算型学者来说,“每周使用”是最常见的回答,但紧随其后的则是“从不使用”。而对于非计算社会科学学者来说,“至少使用过一次”是最常见的回答,“每周使用”则排在第二位。
不过,这并不意味着社会科学研究靠 AI 已是风气。在这项调查中,研究者将完成一项研究所涉及的不同阶段进行了拆分,结果发现,大多数学者在各个研究阶段其实都没有使用人工智能。在那些确实使用过 AI 辅助科研的社会学家中,无论是计算型学者还是非计算型学者,最常见的使用场景都是写作阶段。例如,研究者会用 AI 来帮助润色段落或者整理表达思路。与此同时,计算社会科学学者在数据分析任务中使用GenAI的比例(约 21.9%)略高于非计算型学者(约 13.6%)。
一些受访者在访谈中还提到,他们会用 AI 来生成论文标题,或者自动化处理一些与科研相关的邮件沟通。
![]()
图:社会科学研究者在科研中使用GenAI的频率与研究阶段
Source: Alvero, A. J. et al., 2026
2. 学者们为什么(不) 使用AI?
谁更相信它?
那么社会科学学者为什么会使用AI?又为什么对它仍然保持谨慎?
对于已经使用 AI 的社会科学学者来说,一个最直接的原因是:它确实能节省时间,也能满足研究者的好奇心。与此同时,一个很现实的因素是,很多日常使用的工具已经开始整合 AI 功能。例如,在使用搜索引擎时,搜索结果页面往往会自动生成 AI 摘要。这意味着,即使研究者没有刻意去使用 AI,也无法避免它出现在自己的工作流程里。
此外,同辈压力可能也是一个推动因素。有人担心如果自己不使用 AI,就会在学术竞争中落后。正如一位受访者所说:“我担心我的研究过程会变得太‘慢’,甚至显得过时。”不过,从整体调查结果来看,来自合作者、学科领域或学术机构的外部压力其实并不强,即学界目前其实并没有形成一种必须使用 AI 的制度性要求。
与此同时,一些母语非英语的学者也提到,AI 在写作上的帮助让他们在表达学术观点时更加自信。
![]()
然而,在 AI 是否能够真正改善研究工作这一点上,学者们的态度其实相当谨慎。在多数受访者看来,AI 并不会让原本不可能完成的研究突然变得可能。并且,对于 AI 是否能让研究者把精力更多地放在更有意义的研究问题上,或者是否能够显著降低科研成本,很多人并没有明确答案。
与这些潜在收益相比,学者们更担心的其实是一些更现实的问题,例如:信息质量、数据隐私,以及大型科技公司对生成式 AI 工具的控制权。许多学者还担心过度依赖 AI 可能会削弱研究者自身的批判性思维能力。正如一位受访者所说:“理想情况下,生成式人工智能应该帮助减轻‘publish or perish’(不发表就淘汰)的学术压力。但如果它带来的只是更快的产出速度,从而让学界对产出的要求进一步提高,那么它可能只会增加论文数量,却未必能真正改善那些已经压力巨大、过度工作的研究者和学生的处境。”
![]()
整体来看,对于AI在学术领域的发展前景,学者们对于 GenAI 在未来两到三年内持续改进持乐观态度。然而,或者 GenAI 目前的优势是否超过其对该领域的负面影响,学者们仍持矛盾态度。换言之,学者们相信技术会进步,但仍然做不到完全相信它的结果。此外,研究发现男性学者通常比其他群体对 AI 持有更乐观、更信任的态度。这也与针对美国成年人口的调查结果一致,女性、非二元性别和跨性别群体对人工智能持有更负面的态度。
3. 社会科学应该塑造什么样的 AI ?
社会科学研究的核心对象始终是人。而生成式 AI 的特别之处在于,它在某些情境中能够“像人一样”说话、回应、互动、分类,甚至模拟行为。这一点恰好和社会科学研究的对象高度相关。
从研究的角度,AI 现在或者未来确实可以帮助社会科学研究做不少事。首先,它可以帮助研究者设计调查和实验材料。在很多社会科学实验中,研究者需要准备各种材料,例如一段新闻报道、一条招聘广告,或者一张带有性别和种族线索的图片。过去这些材料往往需要研究者反复修改、人工撰写,很难保证不同实验条件之间完全可比。而生成式 AI 可以帮助研究者更快地产生这些材料,并通过多次调整,让不同版本之间更加一致,也更接近真实世界的表达方式。某些情况下,它甚至还能帮助保护隐私。
![]()
AI 还可以在一定程度上模拟调查受访者。如果给模型设定一些人口属性,例如年龄、教育水平或政治立场,它有时能够生成与现实群体相似的回答。在一些场景中,它可以作为调查研究的辅助工具。
除此之外,AI 在某些情况下可以复制经典的社会科学实验结果。在文本分析方面,AI 也能帮助研究者更快地处理大规模文本资料,例如新闻、社交媒体内容或访谈记录,并完成初步的编码和分类。更进一步,如果把 AI 引入实验环境,研究者甚至可以设计人机互动实验:让部分参与者与 AI 互动,从而观察群体行为和社会互动过程。这些方法都为社会科学研究提供了新的可能性。
![]()
AI 的应用带来的伦理问题从来是争论的焦点。例如,一项来自苏黎世大学的研究,试图在一个在线讨论社区中测试 AI 是否比真人更擅长说服别人。他们创建了多个账号,让 AI 冒充不同身份参与讨论,并根据用户过往发言推测其性别、族裔和政治立场,从而进行定制化的说服。问题在于,这种研究实际上试图改变参与者的行为并观察其影响,但参与者并不知道自己正在参与实验。这类干预性研究通常需要获得知情同意,而这项研究并没有做到,因此被认为越过了研究伦理的红线。
![]()
(本文不是用AI写的,严八永远坚持手搓)
那么如果未来的大趋势无法阻挡,社会科学家应该参与塑造什么样的 AI,才更好更适合用来研究社会?
一些学者认为,未来的发展方向应该是发展更加透明、可检查、可复制的模型体系,而非完全依赖由科技公司控制的封闭模型。其原因很简单。商业模型会不断更新,今天使用的模型在几个月之后可能已经发生变化,研究结果也很难再被复制。同时,生成式 AI 的输出对提示语非常敏感,稍微改变一句话的表达方式,结果就可能完全不同。相比之下,开源模型能够让研究者更清楚地了解研究过程,同时也有助于保护隐私、提高研究透明度。更重要的是,开源模型能够形成一个共同的研究社区,在这个社区中,研究者可以共同讨论规范和共享工具,更好的推进学术平等。如果未来只有少数资金充足的大学和研究机构能够承担商业模型和算力成本,那么生成式 AI 反而可能进一步扩大学术资源的不平等。
科学研究的根本始终是求真与务实。一些本应强调创作与表达的领域,不应完全交给人工智能。AI 的边界,仍然需要继续讨论与反思——即便有时候,我们已经对充斥在日常生活中的人工智能感到审美疲劳,甚至有些厌烦。
至于未来人工智能会走向何处,我们也不必对一个工具过度焦虑,没来得及学和用最新的技术也并不会使你慢人一步。至少在社会科学领域,现在看来最重要的仍然是人。
技术可以改变工具,但不能取代人的判断。真正能够引起共鸣与认可的,往往仍然是那些从人出发、带着温度与思考的光点。
Sources:
Alvero, A. J., Stoltz, D. S., Stuhler, O., & Taylor, M. A. (2026). Generative AI in Sociological Research: State of the Discipline.
Sociological Science, 13, 45-62.
Bail, C. A. (2024). Can generative AI improve social science?.
Proceedings of the National Academy of Sciences, 121(21), e2314021121.
O'Grady, C. (2025). 'Unethical'AI research on Reddit under fire.
Science, 388(6747).
Spirling, A. (2023). Why open-source generative AI models are an ethical way forward for science.
Nature, 616(7957), 413-413.
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.