【中南大学法学院】郑煌杰团队在《科技进步与对策》发表论文《生成式人工智能的伦理风险与可信治理路径研究》。该研究聚焦ChatGPT、Sora等生成式人工智能(AIGC)带来的伦理挑战,剖析其伦理风险成因与生成逻辑,提出以“可信治理”为核心的系统性治理框架,为AIGC规范发展、赋能新质生产力提供理论支撑与实践路径。
随着“人工智能+”行动深入推进,AIGC在提升生产效能与创新潜能的同时,伦理风险日益凸显。研究指出,AIGC存在三重核心伦理风险:算法歧视加剧伦理价值失衡,训练数据中的隐性偏见导致性别、种族歧视等问题被放大;法律伦理框架滞后引发规范失控,侵权责任界定模糊、责任推诿等问题突出;技术发展冲击人机关系,导致人类主体地位被削弱,甚至出现模拟人类情感、突破数字约束的潜在风险。

深入分析风险成因,团队发现算法“黑箱”的隐秘性与技术不可预测性、价值理性与工具理性的内在张力、人类风险感知与应对机制的局限性,是导致伦理风险滋生扩散的关键因素。对此,研究提出AIGC伦理风险管控应转向“可信治理”范式,核心要旨是确保技术具备可控性、可问责性、公平性、可靠性、可解释性和安全性六大标准。
在治理策略上,团队构建了多层次解决方案:完善数据风险治理架构,通过跨境协同治理与企业内部精细治理,防范数据偏见与安全漏洞;优化侵权风险防控与归责体系,明确开发者、服务提供者与用户的差异化义务,建立动态责任认定机制;健全伦理治理制度,设立跨学科伦理治理机构,发挥政策、法律与技术的协同优势,保护数字弱势群体权益,破解算法“黑箱”难题。
该研究立足我国AIGC发展实际,结合《人工智能法(学者建议稿)》相关规范,搭建起技术、法律、伦理多维度协同的治理体系,为防范AIGC伦理风险、释放技术创新潜能提供了重要指引,对推动数字经济高质量发展具有现实意义。