——访清华大学人工智能国际治理研究院专家陈天昊
近期,国家网信办就《数字虚拟人信息服务管理办法(征求意见稿)》公开征求意见。与此同时,社交平台上围绕“AI蒸馏”的讨论持续升温。从“同事.skill”到“张雪峰.skill”,一些开发者试图将个人的思维方式、表达风格等提炼成可反复调用的“AI技能包”。这一做法不仅拓展了人工智能的应用场景,也引发了关于“智能体是否可以人格化”及其风险的讨论。围绕上述话题,中国经济时报记者日前专访了清华大学人工智能国际治理研究院专家陈天昊。
从“同事.skill”到“张雪峰.skill”的争议升级
中国经济时报:前段时间,一个名为“同事.skill”的项目在GitHub上线后爆火。随后,有开发者试图复活知名教育博主张雪峰,推出“张雪峰.skill”,您如何看待这一系列事件?
陈天昊:近期社交媒体上的讨论主要围绕“skill”展开,最早引发关注的是“同事.skill”,其基于员工在职期间留下的飞书、钉钉、邮件等数字痕迹,提炼其中的工作经验与行为模式,在离职后继续复用其工作经验、沟通方式和行为模式。
随后出现的“张雪峰.skill”又将这一做法推进了一大步:该项目明确提出,要基于著作、采访、语录、关键决策记录和人生时间线,提炼张雪峰老师的“核心心智模型”“决策启发式”和“表达DNA”,使系统能够以其视角回应教育选择和职业规划问题。
由此,争议焦点也就发生了变化:同事.skill中最值得关注的乃是劳动者的权益保障问题,以及由此延伸出的就业替代问题。而张雪峰.skill则将一个更为深刻的挑战呈现在社会面前,那就是一个现实中的人,是否能够被蒸馏为一套可调用、可交互、可持续运行的人格化文档。
智能体人格化应坚持分级分类的治理思路
中国经济时报:智能体人格化是技术发展的必然趋势吗?面对这一趋势,我们应如何理解其风险并确立相应的治理思路?
陈天昊:从技术演进来看,ai应用(886108)已从大语言模型驱动的聊天系统,发展为具备记忆能力与工具调用能力的智能体。为支撑连续、长程和复杂交互,智能体往往需要通过相对稳定的人格设定来维持行为一致性。
因此,今天讨论的不应该是智能体会不会出现人格化倾向的问题,而是这种人格化正在变得更低门槛、更易复制、更易扩散。所以,围绕人格形成、人格模仿和人格边界的治理问题,也就不再是一个可以留待将来讨论的学理议题,而是一个已经进入现实场景的紧迫挑战。
面对这一挑战,较为可行的应对思路是建立分级分类的治理框架。其基本尺度,至少可以从两个维度来把握:一是对象的人格敏感程度,二是技术路径和蒸馏强度对人格内核的贴近程度。前者意味着,并非所有个体都处于同一保护层级;后者则意味着,并非所有人格蒸馏技术都具有同等风险。两者叠加,决定了监管强度也应有所不同。
后续应当形成由强到弱的差异化规则:对最接近人格内核、同时又高度敏感的情形,应当严格禁止或者施加特别严格的限制;对足以识别特定自然人、并能够形成稳定人格外观的情形,应当要求特别同意,且不得通过概括授权一并处理;对距离人格核心较远、主要体现为一般知识组织和功能调用的部分,则可以更多通过一般同意、合同安排、平台规则和行业自律来调节。
规范重心应逐步从“外形模拟”转向“人格特质”
中国经济时报:近期,国家网信办就《数字虚拟人信息服务(III)管理办法(征求意见稿)》公开征求意见。您如何评价这份文件与上述议题的关联?
陈天昊:这一征求意见稿已经在一定程度上体现出分类分级监管的思路:一方面,它对未成年人、英雄烈士等高敏感对象设置了更严格的保护要求;另一方面,它也围绕技术支持者、服务提供者、使用者、传播平台等不同主体,尝试建立覆盖生成、使用、传播各环节的治理框架。就此而言,现有规则已经开始回应人格化风险,不再只是把问题理解为一般内容生成。
但这份征求意见稿也存在一定优化空间。它的规范重心仍然更多放在建模、形象建立和外在呈现上,对数字人形象、声音、动作等外部特征的模拟回应较多,而对人格特质作为一个整体系统的保护展开得还不够。现实中的人格化智能体,并不一定依赖高度拟真的图像或动作,也可能通过表达风格、互动方式、行为规则、记忆结构和判断逻辑,持续塑造出一个接近特定自然人的人格外观。
也正因此,后续完善的方向,不宜停留在外形模拟层面,而应当进一步吸收前述分级分类的治理思路,把规制重心逐步推进到人格特质的整体建构过程本身。只有这样,现有制度才能更完整地回应新的治理挑战。
