AI不听话,Google会对TAs下“魔咒”!
栏目:公司新闻 发布时间:2018-11-16
谷歌认为,比起杀人AI机器人,我们更该担心的是AI偏见问题。谷歌提出AI技术开发的道德准则,成立了专门的机器学习道德部门,对公司的产品和服务进行分析测试,提出改进意见,尽可能避免AI偏见的产生。在去年举行的谷歌会议上,谷歌当时的人工智能(AI)负责人

    谷歌认为,人工智能偏见比杀死人工智能机器人更令人担忧。Google提出了AI技术开发的伦理问题,成立了专门的机器学习伦理部门,对公司的产品和服务进行了分析和测试,并提出了改进建议,尽可能避免AI偏差。

    在去年举行的谷歌会议上,时任谷歌人工智能(AI)主管的约翰詹南德里亚(JohnGiannandrea)表示,我们不需要担心杀手级机器人。相反,我们需要担心AI的偏见。

    “如果要说真正的安全问题,也就是说如果给这些系统提供有偏差的数据,生成的AI模型就会有偏差。”他说。

    这是谷歌过去一直在努力解决的问题。2015年6月,GooglePhotos使用的算法曾将黑人误划为“大猩猩”,引起轩然大波。所以每一家公司,从IBM到Airbnb,都在努力保证自己的算法不会有类似的偏差。

    最近谷歌拼了一把解决AI偏向。

AI不听话,Google会对TAs下“魔咒”!(图1)

    对于谷歌机器学习(GoogleMachineLearning)的道德、信任和安全主管詹根奈(JenGennai)来说,防止数据和人工智能偏见实际上是他的工作。Gennai负责领导一个跨公司团队,对谷歌的新产品和服务进行分析和咨询,以确保所有新产品都符合这一道德标准。

    “如果我们想建立一项新技术,我们需要确保它从一开始就走在正确的轨道上。”她说。

    谷歌为人工智能技术发展制定了七项指导方针

    今年6月,谷歌CEOSundarPichai发布了该公司的人工智能原则,以指导谷歌在这些领域的工作和研究,包括确保谷歌员工不会创造或加强不公平的人工智能偏见。

    Pichai表示,ai的开发和使用将在未来很多年对社会产生巨大影响。作为AI的领导者,我们觉得我们有责任做到这一点。

    这种对人类AI技术的新定位是在谷歌问题的影响下提出的。除了“大猩猩”事件,哈佛大学研究员拉塔尼亚斯威尼在谷歌搜索中发现了种族歧视。在搜索类似的黑人名字时,与“逮捕”相关的广告会比搜索类似的白人名字更容易出现。

    “这些现象是我们部门成立的原因。我们不应该让我们的用户看到这些。我们需要首先停止这些偏见。”根奈说。

    谷歌机器学习的道德、信任和安全主管詹根奈说

    现在,每当谷歌推出一款新产品,它都会受到根奈及其团队的严格测试。技术、法律、隐私、社会科学等领域的专家齐聚一堂,按照Google制定的AI标准对每一款产品进行分析。

    这个测试主要是找出产品的优缺点。“我们不是公司里糟糕的主管。”根奈说。“我们想要的是希望公司能推出最好的产品,所以我们需要找出所有可能出错的漏洞,以解决问题。

    关于GoogleAssistant呼叫真人的功能,产品团队在AI如何提前处理不同口音的问题上做了大量的工作,但是根奈的测试团队提出了一些其他的问题。

    “我们研究了用户如何与他们互动,以及如何使用技术来减少人工智能偏差。我们问如何判断用户是口吃还是语言障碍。产品开发团队做了大量工作,但我们努力缩小所有差距,提高产品性能。”她说。

    提高数据集质量

    改善AI偏向的一个方法是改善数据集。根奈举了一个婚礼的例子。

    以前如果在谷歌图片上搜索“婚礼”,结果是一张白人穿婚纱的图片,因为算法是在基于西方人的数据源上训练出来的。但是,这并不适合印度或中国的谷歌用户。谷歌要求人们提交来自世界各地的婚纱照,以改善数据集。

    “现在,我们收到了很多印度用户的反馈,他们给我们发了很多彩色的婚纱照。”我们希望了解自己现有的资源,以相对较少的偏见创造新的资源。"

    让用户也理解算法

    了解Google算法的内部工作流程,有助于团队更好的修改。比如用Google搜索“CEO”的时候,在搜索栏输入“CEO”的时候,会看到一些西装革履的白人男性的图片。

    根奈的团队发现,这种现象不是人为偏见,而是技术偏见。

    “从算法上看,海军蓝像素等于CEO,而且因为白人男性更容易穿蓝色西装,所以纯粹是模型学习的问题。但这表明我们需要仔细检查数据。对谷歌用户来说,了解该公司的算法是如何工作的也很重要。谷歌用户现在可以为你看到广告的原因,看到算法做出的决定。用户还可以看到为什么在谷歌搜索结果中看到一个链接,这取决于他们以前的搜索记录。根奈说,这是为了帮助用户更多地了解谷歌,让他们信任谷歌搜索。

    透明度也是谷歌AI原则的一部分。但是“和用户分享一个完整的算法是没有用的。反而可能会造成更多的困惑,觉得我们是故意混淆。”。然而,用用户可读的语言解释算法将有助于人们理解谷歌试图做什么,即使我们做错了什么。”根奈说。

    要解决AI偏见,单靠谷歌是不够的

    归根结底,偏见的根源其实来自人类。“我们每个人都有偏见。我们现有的所有数据来源都是基于我们每个人和过去的历史偏见。”

    然而,正因为如此,也不能说我们不能停止偏见。相反,谷歌试图调查和解释偏见的最大来源,并试图改变它。

    从这个角度来说,谷歌的AI标准在公司内部非常重要。为此,谷歌为公司外部使用其开源软件构建人工智能和机器学习算法的人创建了一个“负责任的人工智能”开发实践项目。

    “我们希望以身作则,并提供相关的工具和知识,以便更多的人能够遵循这些指导方针。”她说。