找回密码
 立即注册
  • QQ空间
  • 回复
  • 收藏

算法黑箱操作的时代正在过去

admin 2019-5-7 20:57 386人围观 C++相关



大家好,我是鹅师傅。



(着急和大家见面的鹅师傅



今天想要和大家聊一聊那些带有偏见的算法,以及法律对算法的问责。

作为一个现代人,算法对我们的影响无处不在。在我们打开的每一个网页,使用的每一个软件,每天使用的手机背后,都是算法在影响着我们体验。



我们开始变得越来越依赖算法,比如购买电商平台推送的商品,看资讯平台用算法推送的新闻,用在线心理测试去了解自己是怎么样的人……

没错,好像人类变得越来越懒,让机器算法帮自己做决定了。

前段时间,科技巨头亚马逊被曝光用一套人工智能系统追踪每一名物流仓储员工的工作效率,统计他们在上班时摸鱼的时间,然后自动生成炒鱿鱼的指令。



这个系统一年在一个总人数为2500人仓库炒掉300人,高达12%。在这个算法监工的鞭挞下,很多亚马逊仓库员工苦不堪言,甚至不敢喝水、不敢上厕所。



亚马逊早些年还曾经把人工智能算法用在招人上。后来他们发现,这个招聘系统貌似并不喜欢女性,也就是存在一定程度上的性别歧视。于是他们不得不在反对声浪中,停用这个招人系统。

可以想象的是,当一个带有偏见的算法用来为大量的用户做决策时,这个算法怕是在让世道变得越来越坏吧。

机器算法也是人写的。当我们在吐槽算法不公时,或许也应该对编写、使用算法的平台、组织、人员进行问责。

然而从2018年开始,地球人才开始拥有对算法进行问责的法律工具,目前很多国家和地区在这个领域上依然是一片空白。



2018年5月25日,《欧盟一般数据保护条例》(GDPR)生效,其中最具争议性的条款之一就是消费者有自动化决策“解释权”,并且在某些条件下,消费者有权利不接受完全由(人工智能)自动化系统做出的重大决定。

在这项法案生效前,全球消费者没有任何法律工具对人工智能算法作出的自动化决策进行挑战或提出异议。

这是立法者们第一次尝试对算法“黑箱”问题进行规制。

早在2017年12月,美国纽约通过了全美第一个算法问责法案,成立了专门的工作组,去研究城市机构如何使用算法来做出影响纽约人生活的决策,以及这些算法是否对人有年龄、种族、宗教、性别、性取向或国籍方面的歧视。

2019年4月10日,美国两位民主党参议员布克(Cory Booker)和怀登(Ron Wyden)联合提出了《2019算法问责制法案》,试图对人工智能机器学习中的偏见和个人敏感信息使用问题进行规制。

怀登对美联社表示:

计算机正在越来越多地参与到美国人日常生活中的关键决策。例如申请人是否可以买房、找什么工作,甚至是否应将某人送进监狱。当这些公司(根据法案)开始评估和调查的时候,他们将在系统中发现很多带有偏见的决策意见。

对于人工智能公司在透明度和公开性方面做出的努力,怀登表示:“很明显,自我监管在这里已经失败。”

《2019算法问责制法案》提出,联邦贸易委员会应尽快制定关于“高风险自动决策系统”(high-risk automated decision system)的评估规则,科技企业必须评估算法是否存在歧视性偏见,以及它们是否对消费者构成隐私或安全风险。

此项法案主要针对的是在数据领域获得大量个人信息的科技巨头们。

年收入超过5000万美元,拥有至少100万个人或设备信息的公司,或主要业务就是买卖个人数据的科技公司将属于这项法案主要的规制目标。

在这项法案中,“高风险自动决策系统”主要指涉及种族、肤色、民族、政治见解、宗教、工会成员、遗传数据、生物特征数据、健康、性别认同、性取向、刑事定罪或逮捕的个人信息的系统。

当这些系统试图分析或预测个人的工作业绩、经济状况、健康、个人偏好、利益、行为、所在地点或行动,从而改变个人的合法权利的时候,或当这些系统被用于监测一个大的公共场所时,它们必须被相关法案评估和监测。

大家怎么看?

科技公司支持的智库“信息技术和创新基金会 ”副总裁卡斯特罗 (Daniel Castro) 对法案表示了不满。他认为:

如果某个决定有很高风险损害消费者利益,那么无论是算法还是个人做出这个决定都是一样的。用更高标准要求算法意味着自动化决策在本质上比人类决策更不可信或更危险,但事实并非如此。

卡斯特罗还表示,这项法案对大公司很不公平。如果公司需要对每一次软件更新都进行评估的话一定会损害产品开发过程。这只会给人工智能的使用带来耻辱和阻碍,从而降低它对社会和经济的有益影响。

美联社认为,这项法案的提交表明,对数据经济加强管理正逐渐成为受到两党支持的重大议题。一旦法案在国会通过,从社交媒体、在线数据经纪公司、金融算法到自动驾驶软件等都将受到影响。

湖南师范大学人工智能道德决策研究所博士、上海玛娜数据科技发展基金会研究员胡晓萌表示:

(算法)技术人员通常在自动决策系统的设计、研发、运营等过程中负责一个子集,很少有人可以了解技术的全貌。没有人了解,也就意味着无人能牢固地、抑或有效地控制技术(的使用和发展)。

而由于机器学习算法又是基于历史数据之上的产物,胡晓萌认为“算法会不可避免地将价值观和伦理带入产品和服务的设计过程中,将价值观蕴藏于商业决策之中。

对于企业来说,考量价值观和伦理的目的不仅在于解决当前问题和带来丰厚收益等,更在于决策本身是否会被企业自身和用户接受、算法输出的结果是否会被用户信赖。”



AI Now的创始人克劳福德(Kate Crawford)说:“在算法做出的自动化决定中,我们应当为人们提供和人类决定一样的正当程序保护。”

对于算法偏见对社会的整体影响,戈利普尔表示:“如果这一问题不能得到解决,那它将会摧毁我们的社会。因为这些算法将确保我们努力挣脱的所有歧视被永久地编码到我们的未来之中。”

科技杂志《连线》也曾表示过,机器学习的自动决策机制对美国宪法所保障的“正当程序权”(due process)产生了威胁。

美国信息技术和创新基金会(ITIF)认为,政策制定者应拒绝这些提议,而要确保政策能支持算法的发展和采用。与任何新技术一样,开发人员和采用者都有强烈的动机来改进算法决策,并确保其应用程序不包含诸如偏差之类的缺陷。

因此,政策制定者不应该为所有算法建立一个主要的监管框架,而应该做他们一直在技术监管方面做的事情:只在需要的地方实施监管,通过已有的专门监管机构针对特定应用领域的特定危害监督该特定部门。要做到这一点,监管机构应追求算法问责制 ,算法系统应采用各种控制措施以确保运营商(即负责部署该算法的一方)可根据其意图验证其行为的原则,以及识别和纠正有害结果。

采用这个框架既可以促进算法决策的巨大收益,又可以减少有害结果,同时也可以确保适用于人类决策的法律可以有效地应用于算法决策。

那么,你怎么看待算法问责呢,欢迎跟鹅师傅一起讨论下!

文中图片来自网络



算法需要被问责



----------------------------------------------------------------------------------------------------------------------
我们尊重原创,也注重分享,文章来源于微信公众号:腾讯网络安全与犯罪研究基地,建议关注公众号查看原文。如若侵权请联系qter@qter.org。
----------------------------------------------------------------------------------------------------------------------

鲜花

握手

雷人

路过

鸡蛋

yafeilinux和他的朋友们微信公众号二维码

微信公众号

专注于Qt嵌入式Linux开发等。扫一扫立即关注。

Qt开源社区官方QQ群二维码

QQ交流群

欢迎加入QQ群大家庭,一起讨论学习!

我有话说......