核心咨询网,国内外期刊推荐与投稿指导的专业指导服务平台

郑煌杰团队在《科技进步与对策》发表生成式人工智能伦理研究论文

来源:核心期刊咨询网 发布时间: 咨询:

摘要:【中南大学法学院】郑煌杰团队在《 科技进步与对策 》发表论文《 生成式人工智能的伦理风险与可信治理路径研究 》。该研究聚焦ChatGPT、Sora等生成式人工智能(AIGC)带来的伦理挑战,剖析其伦理风险成因与生成逻辑,提出以可信治理为核心的系统性治理框架,为AIGC规范发

  【中南大学法学院】郑煌杰团队在《科技进步与对策》发表论文《生成式人工智能的伦理风险与可信治理路径研究》。该研究聚焦ChatGPT、Sora等生成式人工智能(AIGC)带来的伦理挑战,剖析其伦理风险成因与生成逻辑,提出以“可信治理”为核心的系统性治理框架,为AIGC规范发展、赋能新质生产力提供理论支撑与实践路径。

  随着“人工智能+”行动深入推进,AIGC在提升生产效能与创新潜能的同时,伦理风险日益凸显。研究指出,AIGC存在三重核心伦理风险:算法歧视加剧伦理价值失衡,训练数据中的隐性偏见导致性别、种族歧视等问题被放大;法律伦理框架滞后引发规范失控,侵权责任界定模糊、责任推诿等问题突出;技术发展冲击人机关系,导致人类主体地位被削弱,甚至出现模拟人类情感、突破数字约束的潜在风险。

生成式人工智能的伦理风险与可信治理路径研究

  深入分析风险成因,团队发现算法“黑箱”的隐秘性与技术不可预测性、价值理性与工具理性的内在张力、人类风险感知与应对机制的局限性,是导致伦理风险滋生扩散的关键因素。对此,研究提出AIGC伦理风险管控应转向“可信治理”范式,核心要旨是确保技术具备可控性、可问责性、公平性、可靠性、可解释性和安全性六大标准。

  在治理策略上,团队构建了多层次解决方案:完善数据风险治理架构,通过跨境协同治理与企业内部精细治理,防范数据偏见与安全漏洞;优化侵权风险防控与归责体系,明确开发者、服务提供者与用户的差异化义务,建立动态责任认定机制;健全伦理治理制度,设立跨学科伦理治理机构,发挥政策、法律与技术的协同优势,保护数字弱势群体权益,破解算法“黑箱”难题。

  该研究立足我国AIGC发展实际,结合《人工智能法(学者建议稿)》相关规范,搭建起技术、法律、伦理多维度协同的治理体系,为防范AIGC伦理风险、释放技术创新潜能提供了重要指引,对推动数字经济高质量发展具有现实意义。

转载请注明来自:http://www.qikan2017.com/changjianwenti/23484.html
论文润色预审 助力快速录用

SCI指导

SSCI指导

EI指导

SCOPUS指导

英文论文发表

论文润色预审 助力快速录用

学术问题

中文出版

英文出版

论文润色预审 助力快速录用

学术指导范围

范文文献库

学术期刊库

首页 期刊推荐 学术指导