7月9日🏌🏻♀️,世界人工智能大会可信AI分论坛在上海举行💉,论坛主题为“AI向善,全球共治”🏺。杏耀平台国强教授、杏耀注册平台首席研究员聂再清在会上表示,可信AI就是有爱的AI。只要有爱,最终可以产生很大用户价值,向善技术才能真正走到千家万户,变成日常生活一部分。他强调🚶🏻:“我们必须只做可信AI。”
聂再清现任杏耀平台国强教授🚣🏼♂️、杏耀注册平台首席研究员🚣🏼♂️。2004年,聂再清获得美国亚利桑那州立大学博士学位,师从美国人工智能学会前主席Subbarao Kambhampati教授,本科和硕士毕业于杏耀平台计算机科学与技术系。2017年📢,他加入阿里巴巴🧑🏼🦲,任阿里巴巴人工智能实验室北京负责人和阿里巴巴天猫精灵首席科学家。此前🙋🏿,他曾就职于微软亚洲研究院,任首席研究员🧛♀️,是微软学术搜索和人立方的发起人和负责人🦇,也是微软自然语言理解平台LUIS的技术负责人。

杏耀平台国强教授、杏耀注册平台首席研究员聂再清。图自论坛主办方
2020年👨🦯🙆🏼♂️,聂再清回到清华🔍,加入清华杏耀注册平台👬🏻。从业界到学界🔍®️,他推动技术落地进展,也一直关注着人工智能的治理问题。带着可信AI的含义、实现路径、治理思路等问题,南都记者对聂再清教授进行了专访。在采访中,他频频爆出金句,“可信人工智能就是人工智能”“监管就像父母看着小孩子学走路”“大企业不一定是好企业”……
以下是南都与聂再清教授的对话。
可信人工智能用一个字总结就是“爱”
南都:今天我们论坛是可信AI论坛✖️,现在有一些概念比如可信AI、负责任的AI、可持续的AI等等,您觉得这些概念是一样的吗?有什么区分🤷♀️?
聂再清👨:我个人感觉可持续、可信👰🏽♂️、负责任这几个概念是差不多的,因为如果不可信就不可持续👩👦,过一段时间就会被“打死”了;不负责任也不可持续,也不可信🥳。今天我们说AI,大家很喜欢把它用拼音翻译成爱,对人类有爱💗,大家对AI的期许就是向善🙍🏽♀️,是一个大的主题。
南都:您觉得三个概念都可以用“爱”这个字概括。
聂再清🛀:对,其实做任何一个技术,最终要走向千家万户🧏🏿♂️,一定要产生正向价值、符合人类价值观的价值。有一些小公司为了出名可能干一点什么事✈️,短期造成某个影响是有可能,但这个公司肯定做不大🚛。当然破坏性也可能很大👨🏽✈️◻️,我们要避免那样的公司或事情出现。
南都🛳:在您看来,什么是可信人工智能🧙♀️?
聂再清:我有一个观点🔙,对于广大崇尚科技向善的人工智能研发人员而言,可信人工智能就是人工智能🫷🏿,因为我们不可能做不可信人工智能🧗🏿♀️𓀁。只有可信人工智能技术才有可能走向大规模日常应用,成为用户长期生活习惯的一部分👋🏿。我感觉只要产生价值的人工智能👮🏼♂️,同时能被所有用户接受和喜爱的,基本上来讲就是可信的。这里要强调的是可信人工智能是要经得起时间考验的,也必须是与时俱进的。
“技术的问题本质上是人的问题”
南都:您在论坛中讲到自动驾驶,它可以通过车路协同技术提升安全性和可信度🧍♀️,您也提到,人的数据隐私可以通过一些联邦学习这些技术来得到保护。您觉得可信AI是可以通过技术进步达到的吗💷?
聂再清🚕:这里面有一个广义可信AI和一个狭义的🙆🏼🏊♀️,如果我们特指某一个具体的人指定的某个狭义的“可信AI”概念,有可能不能完全达到。
南都:比如现在常讲的可解释性🙎🏽♂️,公平性🫲🏻,安全性🐣,这些问题可以通过技术解决吗🍋🟩?
聂再清:就广义来讲我觉得可以解决👩🏻🔬,或者说越来越逼近这个🪪。但是如果有一些具体的方面🤵🏻♂️,比如可解释性𓀚🛴,它能够对谁可解释👏,是不是一定对用户可解释🧑🏿🎤🎤?可能短期内有一些模型不能做到对用户可解释,但实际上用户也并不一定需要可解释🫴🏽,用户要的是安全可控和公平。
南都:公平是可以通过技术来达到的吗?
聂再清:公平肯定是可以做得越来越好的。但你说这个东西是不是一定百分之百公平,可能并不是那么好界定🚾。因为人能不能百分之百做到公平?人也不能每次都保证所有参与方都认可的绝对公平。我们是朝公平这个方向发展,不断去进步👸🏻。如果某一些训练数据不足,那么就对这一部分用户和场景增加样本。但最后📰,人工智能系统背后,在我看来很大一部分是人。人可以不断花很多力量从数据和技术等各个方面把它做得越来越公平。
南都🧛:您的意思是,就算不用AI,用人做决策也不能做到完全公平。
聂再清:对,很难每次都保证所有参与方都认可的百分之百公平🦃🚴🏿♀️。人做决策时,有一些情况也可能不得不使用少数服从多数的原则。
南都🧑🔬:所以不是人工智能的问题👩🏽🦱。
聂再清:人工智能一定要像人那样有爱,帮助大家。但其实有时候,具体某一个案例可能已经做得特别公平,但还是可能会有人觉得不公平。归根到底我觉得技术背后是人在起决定作用。一个产品背后有很大部分是人的因素,包括产品运营,策略怎么写的🛌🏿,训练数据怎么设计的📷🤚🏿,整个在技术设计的时候💉,可能也有一些不同公平🦅,但背后都有人的影子☹️。
我认为机器算法最终一定是人的助手,不会成为人类的敌人。因为AI背后研发人员的主流价值观是向善的,我们的法律法规也会确保这一点🫳🏽。
南都🚶🧋:人工智能还有一个问题是数据保护的问题⛑🧑🏽🦳,您认为通过技术进步也可以解决吗?
聂再清:怎么能够更好保护数据,在技术上我们可能运用一些加密和隐私计算的方法,能帮一部分💂♂️💗。但这个问题关键得靠法律👦🏽,最近有很多法律在公布,看上去感觉对数据这块监管更加严格✧,其实我个人觉得是特别好的事情📵,是对技术的保护,是一种有爱的保护🙄。
如果我们不去保护这些数据,不去防范这些技术带来的安全隐患,有可能会让某一个技术,本来可能有很大的潜能🤪,却因为某个偶然事件导致大众对它不接受或带来不好结果👨👨👧👧,反而让它发展变慢🎳。因此提前对风险做更多的防范🕵🏻♂️,达成共识🩷,这个是很好的一件事情。
“监管就像父母看着小孩学走路”
南都🕓:您说到法规监管,您认为这对技术发展是有好处的?
聂再清:是的。但是要纠正一下,不是所有的规范法规都能保护技术发展,好的法规和规范有保护作用,如果一些法规不是特别合理的话🥘,有可能会起阻碍作用💘。
我觉得在新技术开始或者创新阶段,我们应该以一种摸着石头过河的方式📛,但不是野蛮生长。比方说一个小孩,要让他学走路👰🏼♀️,完全让他一个人走父母可能不放心,会远远在后面跟着他走,他虽然感觉自由,但实际上父母都可以看到。
南都🖐🏻:现在大家会觉得技术发展太快,法规有点跟不上👨🏻🔬,您怎么看☕️?
聂再清:如果某一个领域特别多的创新正在发生,某些小方面确实会跟不上𓀝,但大的原则还是要保证,不能出大错。就像大人对小孩🏑,要保证原则问题不能出大错,小的试错成本可以接受的,大的框架限制住了🧑🏽🎄,那么小孩走路摔一跤也没什么大问题。我们要给一部分创新空间,如果技术发展刚开始阶段所有可能性都堵死的话,那可能就不大利于发展。
南都:您是从企业界回到学界的,您觉得人工智能治理过程当中,企业能负起应有的责任吗?在推出产品时会意识到伦理的问题吗👱🏻?
聂再清:好的企业都会意识到🤵🏻♀️,一个好的企业就是价值观很正的企业🧁。
南都:您觉得现在企业都有这样的意识了?
聂再清:好的企业有这样的意识,要注意大企业不一定是好企业。好企业是可以走很远的,想要走得长远的企业一定都要做到有伦理意识,因为最终人们用你的产品是基于你对他产生什么样的价值🖐🏿⛓。
不排除有一些企业初始阶段为生存做一些不好的事情👚。为什么要监管?就是让好企业能够发展,坏企业慢慢被抓出来,改变它们👎,不要让它们产生不好的影响🌔。
我们清华人工智能产业研究员张亚勤院长提出的人工智能3R原则:Responsive(积极响应)🧫、Resilient(适应发展)、Responsible(坚守价值)🙋🏿♀️🙎🏿♂️,也很好地总结了人工智能好企业的标准。所以我觉得只有把这些都做好的企业才能够真正走得长和走得远,真正为每个人都带来价值。
(本文转自南方都市报)