清研智库:透明度“悖论”困扰人工智能发展

近年来,由于许多充分的理由,学术界和企业界专业人士要求提高人工智能(AI)模型内部工作的透明度。
在《哈佛商业评论》的一篇文章中,Immuta的首席法律官安德鲁·伯特指出,透明性可以帮助缓解某些问题,例如公平、歧视和信任,例如,新的Apple信用卡被指控存在性别歧视贷款模式,而亚马逊则在发现AI工具歧视女性后,取消了它的雇佣。
同时,越来越明显的是,AI信息的披露具有自身的风险:信息披露越大,人工智能就越容易受到攻击,而信息披露越多,企业就越容易受到诉讼或监管行动的影响。
“我们称它为AI透明悖论:虽然生成有关AI的更多信息可以带来真正的好处,但也可能带来新的风险。为了解决这一矛盾,组织将需要仔细考虑他们如何处理AI风险,生成的有关这些风险的信息,以及如何共享和保护这些信息,”伯特说。
最近的一些研究表明了这些趋势。哈佛大学和加州大学欧文分校的一篇研究论文解释了LIME和SHAP(用于解释所谓暗箱算法的两种流行技术)是如何被入侵的。
为了说明LIME的强大功能,2016年的一篇宣布使用该工具的文章解释了一个无法理解的图像分类器如何在一幅图像中识别不同的物体:一把电吉他通过琴桥和指板零件识别,而拉布拉多猎犬则通过狗脸右侧的特定面部特征识别。
LIME以及AI的一般可解释性动作,被称赞为能够使不透明算法更加透明的进步。实际上,AI的好处已被院士和技术专家广泛接受。现在,LIME和SHAP中进一步受到攻击的可能性凸显了一个被忽视的缺点:如研究所示,可以故意操纵解释,导致不仅对模型而且对解释失去信心。
这项研究不是唯一一项证明AI透明化潜在危险的研究。最近,研究人员Reza Shokri和她的同事展示了如何暴露有关机器学习算法的信息,可以使它们更容易受到攻击。同时,加利福尼亚大学伯克利分校的研究人员已经证明,完整的算法只有根据它们的解释才能被窃取。
伯特表示,因为安全和隐私研究人员将更多精力放在人工智能上,这些研究和许多其他研究得出了相同的结论:模型制作者揭示的算法越多,恶意参与者的损失就越大。这意味着披露有关模型内部工作的信息实际上会降低其安全性或使公司承担更大的责任。总而言之,所有数据都有风险。
伯特指出,所有这一切的好处是,组织长期以来一直面临隐私、安全和其他方面面临透明度的悖论。今天,他们只需要更新其AI方法即可。“首先,试图使用人工智能的公司必须认识到透明度带来的成本。当然,这并不意味着它不值得实现,它只是带来了必须充分理解的缺点。他指出,这些成本必须纳入一个更广泛的风险模型中,该模型控制如何与可解释的模型进行交互以及在多大程度上该模型的信息可供他人使用。
伯特说各组织还必须认识到,在人工智能领域,安全性正在成为一个越来越令人担忧的问题。随着AI被更广泛地采用,肯定会发现更多的漏洞和安全漏洞。实际上,安全性可能是采用AI的最大长期障碍之一。
最后,伯特也指出,在创建和部署AI时,尽早并经常与律师接触非常重要。确保法律部门的参与能够促进一个开放和合法的环境。
文章链接:https://analyticsindiamag.com/ai-transparency-lets-talk-about-ai-accountability/
清研智库李梓涵编译。

相关文章