您的位置:首页 > 社会 > 科学 > 科学综合 科学综合
“人文——科技——业界”跨界对话,寻求AI伦理解决“最大公约数”——“AI伦理关键问题及其解决路径”学术研讨会在深圳召开
作者:吴定海 来源:深圳社会科学年鉴(2022) 责任编辑:chen 2024-07-16 人已围观
2021年12月11日,由南方科技大学主办,南科大人文科学中心、斯发基斯可信自主系统研究院、腾讯研究院共同承办的“AI伦理关键问题及其解决路径”学术研讨会,在南科大人文社会科学学院报告厅召开。斯发基斯可信自主系统研究院邀请的陶大程、巩志国、潘毅、刘江、王轩、张成奇、姚新、郝祁、刘佳琳9位人工智能领域的院士、IEEE会士和技术专家,南科大人文科学中心邀请的陈跃红、高建平、段伟文、李蓝、陈捷、吴岩、田松、荆志淳、杨果、刘洋10位人文社会科学领域的知名学者、作家,腾讯研究院司晓院长和秘书长张钦坤带队的,包括李孜、吴保元、樊艳波、吴秉哲、卞亚涛、唐梦云、陈楚仪、曹建峰在内的业界研究团队,三家共28人一起共话。从可信AI发展趋势及其治理、人文社会科学关于AI伦理的观察重心与AI技术应用的伦理解决实践等不同视角,通过邀请报告和互动对话的讨论模式,深度辨析当前可信人工智能领域的关键伦理问题,探讨未来人工智能发展的可行路径。会议场面热烈,效果超出预期。
南方科技大学人文科学中心与计算机科学与工程系自2018年起,议定共同举办人工智能跨学科论坛,此前两届已经就“人工智能时代的技术与人文”和“可信自主系统发展趋势及其社会价值意义”展开过深入讨论,发表了一批专辑文章。今年是第三届,本届会议由南科大人文社会科学学院院长陈跃红教授和计算机科学与工程系主任姚新教授共同主持,会议突破了以往“9+9”和“10+10”的对话模式,选择以“三场邀请报告+三轮系统跨界对话”的形式,将技术研发、应用实践、人文反思三大领域有关人工智能伦理问题的最新思考予以交叉呈现、循环对话。开场环节,陈跃红教授结合国内高校有关人工智能合作与治理问题最新讨论的背景,提出“建立完整的AI伦理治理体系的依据是什么”的命题,姚新教授则从人工智能技术研发与实践应用的角度追问“治理的对象是什么”的命题。两个极具针对性的问题为本次研讨会奠定了个案硬核、议论务实的基调。
欧洲科学院外籍院士及澳大利亚科学院院士、京东探索研究院院长、京东集团高级副总裁陶大程带来本次研讨会的第一场报告,他的话题是“可信人工智能的前世今生”。陶院士在大量案例的基础上,指出当前人工智能系统所面临的“对抗冲击”等技术挑战以及数据隐私、潜在歧视等多方面的伦理问题,介绍了计算机领域通过建立“相关的综合治理框架或者统一的研究范式”展开基础理论分析,探寻可信AI系统各项度量标准,从而推动人工智能的进一步落地与产业更新的最新工作情况。随后,潘毅教授从生物大数据的研究角度,提出了可信AI在技术上实现二维识别到三维识别的重要性,指出数据背后的复杂原因、人类参与数据分析以及培养跨学科人才的必要性。陈跃红教授就数据的“时效保护”问题、“对抗标签”等与陶大程院士进行了具体探讨。吴秉哲研究员从隐私保护的专业视角,提出了从系统层面及硬件层面丰富可信AI、可信算法思考维度的必要性。陈捷教授就最新的美国Delphi问询机器人事件引发的伦理问题与陶院士讨论了人工智能系统在价值观展现层面的现实问题,腾讯研究院司晓院长也结合相关案例,与陶院士就人工智能系统的“可解释性”问题展开了交流。
本次研讨会的第二场主题报告,是由腾讯研究院秘书长张钦坤带来的“AI伦理治理的实践路径”。张博士从企业自律的角度,重点谈了两方面的看法:一是解读“立法者和监管者关心哪些问题”,二是“从行业来讲,怎么做一些改变,才能打消他们对这些问题的疑问或者打消社会层面对这些问题的焦虑”。在结合具体案例,对法律层面与人工智能紧密相关的公平性问题、可解释问题、隐私问题、安全和责任承担的问题以及人类与AI协作的问题、技术滥用六个问题展开分析之后,张秘书长又依次介绍了企业层面解决科技伦理问题的几条探讨路径,比如建立企业伦理委员会,健全企业内部伦理审查制度;开发AI伦理解决方案,用技术创新解决技术应用带来的问题,包括联邦学习、合成数据等;以伦理即服务助力整个行业打造伦理AI;建立行业性AI伦理认证等行业自律措施;建立AI伦理培训机制,提升AI从业人员的科技伦理素养,等等。报告结束之后,高建平教授就人文学者在AI伦理规范制定方面所能发挥的作用的问题与张秘书长做了交流。悉尼科技大学副校长张成奇教授强调解决AI伦理问题应在做好技术防范的同时加大法律监管力度,“技术上要防,法律上要罚”。巩志国教授指出了大数据分析的程式化与现实复杂性之间存在着的“技术永远解决不了的问题”,提醒人们技术是有限度的。田松教授从科学哲学的角度,提出在“科技向善、以人为本”和“可信自主系统”的讨论语境中,应注意“人”的复杂性和多样性问题。科学技术的大踏步前进,把经验技术范畴中尚存的“人”的因素不断消解,人的主体性不断退缩,这才是人们面对AI感到忧虑的根本原因。此外,李孜研究员结合自己参与新加坡智慧国规划的经历,提出“AI和相关产业应该实时对社会反馈做出调整,避免高端服务业(如金融产业)引领发展而带来城市的社会分裂”。王轩教授则指出“可信计算”和“AI治理”都跟人有关,无法摆脱主观性的考量,因此技术与人文总是紧密相关。
本次研讨会的第三场主题报告是“超越承诺:人工智能的伦理回调与社会许可”,报告人为中国社科院哲学研究所科技哲学研究室主任、国家科技伦理委员会人工智能分委会专家委员段伟文教授。段教授认为,“科技创新既是一个科技试验也是一个社会伦理试验”,而“从科技上讲,任何颠覆性的科技,它都要有一个伦理的软着陆机制,不过是迟或早”。科技伦理问题需要从整体上加以系统的考虑,对于颠覆性技术应提供一种“多维的保护空间”。技术、社会、企业都要有弹性,“伦理回调”是自然的趋势。建构社会许可与社会信任是解决包括AI在内的技术伦理问题的基础之一。
结合段教授的报告,吴保元教授从技术研发的实践出发,指出符合人们期待的诸种技术指标之间常常相互牵制,很难同时实现各个量化指标的对齐。技术治理的弹性或者说“软边界”,对于技术人员在看似矛盾的东西之间找到其机制或原则的“最大公约数”而言,的确非常重要。姚新教授就AI治理的评价标准问题与段伟文教授进行了研讨。张钦坤博士提供了公司科技伦理治理中“企业自身的风险把控”和“企业对外能力的输出”两个参考指标。陶大程院士再次强调了从不同角度思考AI伦理问题、寻求多元解决方案的重要性。司晓院长介绍了腾讯“科技向善”理念提出的背景,在回应相关发言人观点的同时,强调了打破行业内卷,建立第三方技术与伦理监督机构的必要性。随后,陈跃红教授、陈捷教授、刘佳琳教授、唐梦云研究员等就AI可信性、数据可信性、技术应用中的性别伦理等问题,与段伟文教授及其他与会者展开了热烈交流。经过深入交流、热烈对话,研讨会在与会者意犹未尽的氛围中圆满结束。与会者一致认为,这样的对话有价值、有深度、有启发。大学科技界、人文社科界、产业界及其研究机构的三方沟通形成的问题意识、解决思路,充分体现了各领域的互补性和互为启发的广泛空间。这样的交叉对话应该多举办,增加更多主题和个案研讨。本次会议的三个承办方会后一致约定,2022年将择机举办第四届跨学科三方论坛,让这种话题集中、有趣、有用的跨界交流继续下去。
南方科技大学人文科学中心与计算机科学与工程系自2018年起,议定共同举办人工智能跨学科论坛,此前两届已经就“人工智能时代的技术与人文”和“可信自主系统发展趋势及其社会价值意义”展开过深入讨论,发表了一批专辑文章。今年是第三届,本届会议由南科大人文社会科学学院院长陈跃红教授和计算机科学与工程系主任姚新教授共同主持,会议突破了以往“9+9”和“10+10”的对话模式,选择以“三场邀请报告+三轮系统跨界对话”的形式,将技术研发、应用实践、人文反思三大领域有关人工智能伦理问题的最新思考予以交叉呈现、循环对话。开场环节,陈跃红教授结合国内高校有关人工智能合作与治理问题最新讨论的背景,提出“建立完整的AI伦理治理体系的依据是什么”的命题,姚新教授则从人工智能技术研发与实践应用的角度追问“治理的对象是什么”的命题。两个极具针对性的问题为本次研讨会奠定了个案硬核、议论务实的基调。
欧洲科学院外籍院士及澳大利亚科学院院士、京东探索研究院院长、京东集团高级副总裁陶大程带来本次研讨会的第一场报告,他的话题是“可信人工智能的前世今生”。陶院士在大量案例的基础上,指出当前人工智能系统所面临的“对抗冲击”等技术挑战以及数据隐私、潜在歧视等多方面的伦理问题,介绍了计算机领域通过建立“相关的综合治理框架或者统一的研究范式”展开基础理论分析,探寻可信AI系统各项度量标准,从而推动人工智能的进一步落地与产业更新的最新工作情况。随后,潘毅教授从生物大数据的研究角度,提出了可信AI在技术上实现二维识别到三维识别的重要性,指出数据背后的复杂原因、人类参与数据分析以及培养跨学科人才的必要性。陈跃红教授就数据的“时效保护”问题、“对抗标签”等与陶大程院士进行了具体探讨。吴秉哲研究员从隐私保护的专业视角,提出了从系统层面及硬件层面丰富可信AI、可信算法思考维度的必要性。陈捷教授就最新的美国Delphi问询机器人事件引发的伦理问题与陶院士讨论了人工智能系统在价值观展现层面的现实问题,腾讯研究院司晓院长也结合相关案例,与陶院士就人工智能系统的“可解释性”问题展开了交流。
本次研讨会的第二场主题报告,是由腾讯研究院秘书长张钦坤带来的“AI伦理治理的实践路径”。张博士从企业自律的角度,重点谈了两方面的看法:一是解读“立法者和监管者关心哪些问题”,二是“从行业来讲,怎么做一些改变,才能打消他们对这些问题的疑问或者打消社会层面对这些问题的焦虑”。在结合具体案例,对法律层面与人工智能紧密相关的公平性问题、可解释问题、隐私问题、安全和责任承担的问题以及人类与AI协作的问题、技术滥用六个问题展开分析之后,张秘书长又依次介绍了企业层面解决科技伦理问题的几条探讨路径,比如建立企业伦理委员会,健全企业内部伦理审查制度;开发AI伦理解决方案,用技术创新解决技术应用带来的问题,包括联邦学习、合成数据等;以伦理即服务助力整个行业打造伦理AI;建立行业性AI伦理认证等行业自律措施;建立AI伦理培训机制,提升AI从业人员的科技伦理素养,等等。报告结束之后,高建平教授就人文学者在AI伦理规范制定方面所能发挥的作用的问题与张秘书长做了交流。悉尼科技大学副校长张成奇教授强调解决AI伦理问题应在做好技术防范的同时加大法律监管力度,“技术上要防,法律上要罚”。巩志国教授指出了大数据分析的程式化与现实复杂性之间存在着的“技术永远解决不了的问题”,提醒人们技术是有限度的。田松教授从科学哲学的角度,提出在“科技向善、以人为本”和“可信自主系统”的讨论语境中,应注意“人”的复杂性和多样性问题。科学技术的大踏步前进,把经验技术范畴中尚存的“人”的因素不断消解,人的主体性不断退缩,这才是人们面对AI感到忧虑的根本原因。此外,李孜研究员结合自己参与新加坡智慧国规划的经历,提出“AI和相关产业应该实时对社会反馈做出调整,避免高端服务业(如金融产业)引领发展而带来城市的社会分裂”。王轩教授则指出“可信计算”和“AI治理”都跟人有关,无法摆脱主观性的考量,因此技术与人文总是紧密相关。
本次研讨会的第三场主题报告是“超越承诺:人工智能的伦理回调与社会许可”,报告人为中国社科院哲学研究所科技哲学研究室主任、国家科技伦理委员会人工智能分委会专家委员段伟文教授。段教授认为,“科技创新既是一个科技试验也是一个社会伦理试验”,而“从科技上讲,任何颠覆性的科技,它都要有一个伦理的软着陆机制,不过是迟或早”。科技伦理问题需要从整体上加以系统的考虑,对于颠覆性技术应提供一种“多维的保护空间”。技术、社会、企业都要有弹性,“伦理回调”是自然的趋势。建构社会许可与社会信任是解决包括AI在内的技术伦理问题的基础之一。
▲ 12 月11日,“人文—科技—业界”跨界对话,寻求 AI 伦理解决“最大公约数”—“AI 伦理关 键问题及其解决路径”学术研讨会召开
结合段教授的报告,吴保元教授从技术研发的实践出发,指出符合人们期待的诸种技术指标之间常常相互牵制,很难同时实现各个量化指标的对齐。技术治理的弹性或者说“软边界”,对于技术人员在看似矛盾的东西之间找到其机制或原则的“最大公约数”而言,的确非常重要。姚新教授就AI治理的评价标准问题与段伟文教授进行了研讨。张钦坤博士提供了公司科技伦理治理中“企业自身的风险把控”和“企业对外能力的输出”两个参考指标。陶大程院士再次强调了从不同角度思考AI伦理问题、寻求多元解决方案的重要性。司晓院长介绍了腾讯“科技向善”理念提出的背景,在回应相关发言人观点的同时,强调了打破行业内卷,建立第三方技术与伦理监督机构的必要性。随后,陈跃红教授、陈捷教授、刘佳琳教授、唐梦云研究员等就AI可信性、数据可信性、技术应用中的性别伦理等问题,与段伟文教授及其他与会者展开了热烈交流。经过深入交流、热烈对话,研讨会在与会者意犹未尽的氛围中圆满结束。与会者一致认为,这样的对话有价值、有深度、有启发。大学科技界、人文社科界、产业界及其研究机构的三方沟通形成的问题意识、解决思路,充分体现了各领域的互补性和互为启发的广泛空间。这样的交叉对话应该多举办,增加更多主题和个案研讨。本次会议的三个承办方会后一致约定,2022年将择机举办第四届跨学科三方论坛,让这种话题集中、有趣、有用的跨界交流继续下去。
很赞哦! ( )
评论
0
搜一搜
相关文章
- 深圳职业技术学院走访、调研深圳市人工智能产业协会、深圳市玩具行业协会、
- “人文——科技——业界”跨界对话,寻求AI伦理解决“最大公约数”——“AI伦
- 中美湾区对话会举办
- 第十三届深圳学术年会主题学术研讨会暨全国城市社科院第三十一次院长联席会
- 第十三届深圳学术年会“创新文化建设”国际学术研讨会召开
- “改革开放先进文化”系列高端讲座第十讲开讲
- 中巴教育联合示范项目启动,深圳信息职业技术学院推进中巴职业教育合作对话
- 广东省法学会港澳基本法研究会2021年年会暨第四届粤港澳大湾区青年发展法律
- 全国语言治疗能力标准建设与教育论坛举办
- 中欧世界城市理论与实践比较研讨会——基于以人民为中心的视角暨智慧城市实