人工智能(AI)技术近年发展迅速,关于AI安全的讨论也层出不穷。人们对这项技术充满憧憬,也抱有疑虑。在业界不乏有人担忧,若重视AI安全,随之而来的监管可能会拖累技术创新。

有“计算机安全教母”之称的宋晓冬教授认为,对负责任的创新而言,AI安全和防护(AI safety and security)是关键的要素和支柱;就像开车时系上“安全带”,并不是让你慢下来,而是为了帮助车子跑得更快。

在计算机系统和网络安全研究领域知名的美国加州大学伯克利分校计算机系教授宋晓冬,星期三(5月28日)在新加坡亚洲科技会展(Asia Tech x SG)一场“炉边对话”中,分享了她对于AI安全和治理的看法。

专注深度学习与安全 兼顾系统和隐私保护

宋晓冬教授的研究重点聚焦于深度学习和安全,涵盖计算机系统和网络中的安全和隐私问题,研究领域包括软件安全、网络安全和数据库安全,以及机器学习与安全等。目前,她也是伯克利负责任去中心化智能中心(Berkeley Center for Responsible Decentralised Intelligence)的联合负责人。

在这次分享中,她将AI安全比作创新的“安全带”,和早前到访新加坡的另一位知名AI学者李飞飞所作出的比喻,可谓不谋而合。

两个月前,人称“AI教母”的斯坦福大学教授李飞飞在一场活动上分享说,汽车曾经也被认为不安全,但务实的解决方法不是关掉造车厂,而是用限速和安全带等方式来监管。

延伸阅读

宋晓冬和李飞飞都参与了近期多位AI学界知名学者共同发表的一项提案署名,名为“基于科学和证据的人工智能政策之路”(A Path for Science‑ and Evidence‑based AI Policy),旨在呼吁AI政策应以科学和证据为依据。

宋晓冬指出,目前人们对AI模型的运作方式和风险评估方法等内容的理解仍非常有限,社会和相关社群在理解什么才是制定AI政策的最佳方法时,也存在很大的分歧。因此,他们呼吁将AI政策的讨论建立在科学与证据之上,用更系统而严谨的方法来看待AI风险。

AI模型风险理解有限 科学评估成政策制定关键

“我们目前的评估和制定以科学与证据为基础的AI政策路径,还处在起步阶段。我们列出的关键事项之一是如何推进所谓‘评估科学’(the science of evaluation),因为目前我们所用的评估方式依然很零散,缺乏系统性……我们需要在这个方面取得进展。”

谈及正加速发展AI技术的业界,她认为,许多公司在提升模型和AI系统能力上投入了大量资源,但用于AI安全问题的少之又少。

这类情况在过去的网络安全领域也很常见,但公司也开始意识到,若一开始就考虑安全问题,长远来看,系统维护和安全保障成本可能反而更低。宋晓冬希望,企业在AI安全方面也能吸取类似经验。