近日,国家网信办发布《数字虚拟人信息服务管理办法(征求意见稿)》并面向社会公开征求意见,与此同时,社交平台上关于“AI蒸馏”技术的讨论热度持续攀升。从“同事.skill”到“张雪峰.skill”,开发者尝试将个人思维模式、表达风格转化为可重复使用的“AI技能包”,这一创新应用在拓展人工智能场景的同时,也引发了关于智能体人格化及其潜在风险的广泛争议。
以“同事.skill”项目为例,该技术通过分析员工在职期间产生的飞书、钉钉、邮件等数字痕迹,提炼其工作经验与行为模式,使其离职后仍能通过系统复用原有沟通方式。而“张雪峰.skill”则进一步将目标转向公众人物,试图基于著作、采访、语录等资料,构建包含“核心心智模型”“决策启发式”和“表达DNA”的虚拟人格,使其能够模拟张雪峰的视角回答教育规划问题。清华大学人工智能国际治理研究院专家陈天昊指出,前者主要涉及劳动者权益保障与就业替代问题,后者则将“现实个体能否被转化为可交互的人格化文档”这一伦理挑战推至台前。
针对智能体人格化是否为技术发展必然趋势的疑问,陈天昊分析称,当前AI应用已从基础聊天系统演进为具备记忆与工具调用能力的智能体,为维持复杂交互中的行为一致性,系统往往需要稳定的人格设定。他强调,当前讨论的核心不应是“是否会出现人格化”,而是这种趋势正以更低门槛、更高复制性加速扩散,使得人格形成、模仿与边界的治理成为迫在眉睫的现实问题。
在治理路径方面,陈天昊提出建立分级分类框架的思路。他建议从两个维度衡量风险:一是对象的人格敏感程度,例如未成年人、英雄烈士等群体需更高强度保护;二是技术路径对人格内核的贴近程度,不同蒸馏技术带来的风险差异需差异化监管。他以“张雪峰.skill”为例说明,若系统仅模拟表达风格与互动方式,其风险可能低于深度解析决策逻辑与记忆结构的技术。
对于正在征求意见的管理办法,陈天昊认为其已体现分类监管意识,例如对高敏感对象设置严格保护条款,并尝试覆盖技术提供者、使用者、传播平台等全链条。但他同时指出,文件目前侧重于数字人形象、声音等外在特征的模拟,对人格特质作为整体系统的保护仍显不足。他举例称,现实中的人格化智能体可能通过行为规则、判断逻辑等非视觉元素构建虚拟人格,因此后续完善需将规制重心从外形模拟转向人格特质的建构过程,以更全面应对技术变革带来的挑战。