在历史长河中,鲜有技术能像今天的人工智能(AI)一样,如此迅速地渗透到社会的每一个角落,并引发广泛的公共想象与集体焦虑。从阿尔法围棋到大语言模型的横空出世,我们正被一股强大的技术浪潮席卷。面对这股浪潮,社会科学的角色亟待明晰。当前,大多数社会科学的相关研究聚焦于AI的“使用端”——自动化对就业的冲击、算法偏见对社会公平的侵蚀、数据隐私的伦理困境或人工智能对社会科学研究本身的“赋能”等。这些研究无疑是重要且必不可少的,但并非全部。社会科学的使命不仅是对技术发展和“影响”的滞后分析,更需要对人工智能技术系统本身进行“去神秘化”。

社会科学研究者要将分析性目光从技术的“使用端”更多转向“生产端”。我们必须深入AI的生产过程——从算法设计和架构创新、数据的采集标注,到模型的训练部署,乃至其背后的资本逻辑与组织文化。只有这样,去神秘化才有可能揭开AI“超级智能”的神秘面纱,揭示其作为一种具体的、由人构建的、充满社会属性的“数据实践”和“技术实践”的本质。这不仅是智识上的挑战,更是重塑人类与技术关系、夺回未来的能动性的关键一步。 



“神秘化”的AI与公共焦虑


当前,围绕AI的公共叙事普遍被一种“神秘化”的倾向所笼罩。无论是国内外科技巨头充满未来感的发布会,还是各行各业对被AI冲击的焦虑,都在无形中强化了这种印象。这种神秘化主要体现在三个层面:一是心智的神秘化,将统计性的预测能力等同于人类的理解、推理与创造力,模糊了模型的现有能力和尚未被完全理解的“智能本质”之间的界限;二是动力的神秘化,将AI的发展视为一种不可阻挡、不以人的意志为转移的技术必然,导向一种“技术奇点”式的宿命论;三是过程的神秘化,将其复杂的生产过程简化为“机器自动学习”的魔法,掩盖了背后大规模的人力投入、资源消耗和决策的社会历史过程。

这种神秘化倾向本身可能带来严重的社会后果,容易在公众中催生出两极化的情绪:要么是毫无保留的乐观与崇拜,要么是因自身技能被技术超越产生无力感。当技术被神秘化,人们便容易丧失构想和选择的能力,在“被取代”的焦虑和“被赋能”的幻想之间摇摆。去神秘化,正是要打破这种虚假的二元对立,将AI从神坛上请下来,让人们能够平视、理解它及其背后的社会技术结构。  




技术自省的局限与社会科学的穿透力


深入AI的生产端之所以必要,也是因为技术自身的去神秘化努力存在天然的局限性。我们看到,Anthropic等人工智能研发公司正努力推进“可解释性”研究,试图理解模型的内部运作机制。这无疑是积极的尝试,但它本质上是一种技术的自省,旨在揭示模型内部权重、网络连接的模式,是对模型“如何运作”的技术性阐释,却无法回答“为何这样运作”的社会性问题。它无法解释:为何是特定的群体、基于特定的价值观、为了某种商业目标、用某些数据,构建出具有某种假设和特征的智能模型。

而这正是社会科学,特别是科学技术研究(Science and Technology Studies, STS)能发挥作用的地方。社会学家阿德里安·麦肯齐(Adrian Mackenzie)在其著作《机器学习者》中为我们提供了一个范例。他没有将早期的机器学习视为一套抽象算法,而是对其进行了细致的“知识考古学”分析。他分析了该领域的核心教科书、关键的数学概念、编程实践,以及研究者社群的互动,最终将机器学习描绘为一个由多元力量共同塑造的“操作性构成”(operational formation)。麦肯齐的研究只关注了相对早期的机器学习技术。而今天,面对由数千亿参数、万亿级数据和巨型算力集群支撑起来的人工智能模型,对其生产端的社会科学研究,无疑是一项更为艰巨也更为重要的任务。  




人工智能生产的社会科学议程


将AI的生产过程作为社会科学的考察对象,意味着开启一个多方面的研究议程。这并非要求社会科学家成为算法工程师,而是要利用社会科学家运用业已熟练掌握的独特理论工具和田野方法,对以下几个关键环节进行社会学人类学的深入剖析。

第一,对模型架构的知识考古学研究。我们不能将当前流行的模型架构视为理所当然,社会科学需要追溯其知识谱系,考察这些模型是如何从早期神经网络、注意力机制等思想中演化而来的。要分析其核心的“认知图式”,分析模型背后看待和处理信息的基本逻辑,并探讨为何这种特定的“图式”会在特定的技术、商业和文化环境中胜出。

第二,数据实践的政治经济学。模型开发的基础之一是数据,但数据并非“原生”的客观存在。社会科学需要研究数据从采集、清洗到标注的生产过程。比如,数据标注的规范制定、标注员的劳动力市场形成等。

第三,基础设施的物质性。AI的智能并非凭空产生,它建立在庞大的物质基础上——从先进制程的GPU芯片,到耗能巨大的数据中心和云服务平台。社会科学应关注这一“计算—能源—地缘政治”复合体,像分析“甜与权力”一样,分析芯片等基础设施背后的生产和算力分配、流转的社会学逻辑。

第四,对基准构建开展评估文化的社会学研究。一个AI模型的好坏,是由一系列“基准”(Benchmark)和排行榜来定义的。社会科学需要研究这些评估体系是如何被建立和维护的。它们不仅是技术的赛场,更是塑造技术发展方向、定义“成功”标准、分配学术与商业资本的场域。

第五,创新场域的科学社会学。人工智能技术的开发和创新发生在特定的实验室、公司与开源社区中。社会科学需要对AI实验室、科技公司的AI部门以及Hugging Face等开源社区进行深入的组织社会学与科学社会学研究。比如,分析其内部的组织文化、人才流动、声望模式以及团队构成如何形塑了人工智能相关创新。

对AI生产端进行去神秘化的社会科学研究,最终目的并非为了批判而批判,也不是要阻碍技术的发展。恰恰相反,它可能为构建一个更健康、更可持续的人机社会,探索一条以人为本的“人类增强”路径。通过深入理解AI的生产逻辑、内在偏好和结构性局限,人们才能知道它的优势在哪里,局限在何处,从而在科学研究、艺术创作、公共服务等领域更妥善地使用它;也才能更好地理解和反思人类智能中那些难以言明的、真正宝贵的东西——创造和批判性思维、共情能力、伦理决断和对意义的追寻。