加强我国人工智能领域伦理治理
加强我国人工智能领域伦理治理
民进中央拟向全国政协十四届一次会议提交《关于加强我国人工智能领域伦理治理的提案》。
民进中央在提案中指出,中***二十大报告提出,在人工智能等领域构建新的增长引擎。随着人工智能技术的快速发展,面临的科技伦理挑战日益凸显,近期火爆全网的ChatGPT再次引发国际社会对人工智能领域伦理问题的担忧。中办、国办印发《关于加强科技伦理治理的意见》,将人工智能作为需要加强科技伦理治理的重点领域之一。我国人工智能领域伦理治理仍面临不少问题。
一是体系建设相对滞后。
在制度方面,可落地实施的法律法规比较欠缺,合规底线和惩戒力度不够明确。在管理方面,缺乏统筹的问题比较突出,职责分工不够明确,伦理治理审查与监管仍存在空白。
二是能力建设比较薄弱。
我国人工智能领域伦理治理还处于起步阶段,存在人员构成不合理、伦理意识不强、专业能力不足、工作规则和操作规范不完善等问题,能力建设有待进一步增强。
三是企业参与治理不足。
我国在推动人工智能企业自主参与伦理治理方面尚处于初步探索阶段,对于企业参与的边界、机制等缺乏明确的规定和操作性的制度保障,并且面临企业参与治理的意愿不强、经验和能力不足等问题。
解决办法:
一是构建多方参与的治理体系。
由工信部牵头,从领导机构、组织架构、领域分工、社会协同等方面设计人工智能领域伦理治理顶层架构,明确人工智能应用链条中各方需要履行的义务和责任。推进法律法规建设,明晰法律合规底线,对数据滥用、侵犯个人隐私等行为明确惩戒力度。同时,通过国标、行标、企业自律规则等“软法”方式,引导企业合规创新。吸纳人工智能企业专家担任国家科技伦理委员会人工智能分委员会委员,更好地研究和解决企业在技术创新中面临的伦理问题。发挥国家新一代人工智能治理专业委员会的科技伦理咨询作用,围绕技术发展中可能出现的伦理风险进行前瞻预研、预判。发挥国家科技智库和相关研究力量的作用,对人工智能伦理问题进行系统研究储备,提供决策咨询支撑。
二是开展多维度、多层次的伦理建设。
开展全生命周期的价值敏感设计,在研究开发阶段,对新技术可能产生的伦理问题进行分析,从源头控制潜在的伦理风险;在设计制造阶段,对新产品在道德上被社会接受的成本和带来的收益进行权衡;在实验推广阶段,根据社会的价值选择对新产品进行调整,提高新产品与社会价值的相容性;在部署应用阶段,分析用户对于新产品的认可和接受程度,对应用过程中引发的伦理风险进行审视和反思。开展多应用场景的伦理规制,人工智能在不同应用场景产生的伦理问题和需要治理的工作重点不同,其伦理规制需要分别研究。如自动驾驶、医疗诊断等日常应用需要企业、社会公众等基于应用场景特点及实际伦理问题开展伦理规制;人工智能技术运用于军事对抗等带来的伦理风险,需要通过国际协议来约束。开展交叉领域的伦理规制,人工智能与其他学科领域交叉应用后形成新的领域,如人工智能与神经技术交叉形成类脑器官,需要结合各交叉领域特点开展差异化的伦理规制研究。
三是鼓励企业自主参与治理。
明确企业开展伦理治理的驱动力,主要包括:成为守伦理规则的企业,树立在业界的企业形象;企业的产品不仅应有技术竞争力,而且在伦理道德上能够让消费者和业界信任;在全球范围内推出负责任的新技术,引领人工智能发展的方向等。开展企业伦理意识培养,对于企业高管,加强人工智能伦理的培训学习,提高伦理认知与判断;对于技术研发人员,倡导其开展负责任的技术研发,树立“可信负责”的伦理观。借鉴微软等国际人工智能企业设立伦理委员会的经验,支持企业内部设立伦理委员会,审查人工智能可能带来的失控性、侵权性、歧视性、责任性等风险,并为其独立开展工作提供必要的条件保障。