数据主宰世界后,如何与AI共存?
作者:邱莉燕
2020-06-13
摘要:现代社会数据无所不在,可怕的是,你我似乎也离不开它。人类又该如何面对未来AI治理的世界?是被绑架还是能保有自由意志?或许是人类得严肃面对的课题。

现代社会数据无所不在,可怕的是,你我似乎也离不开它。人类又该如何面对未来AI治理的世界?是被绑架还是能保有自由意志?或许是人类得严肃面对的课题。

A最近却将宝贵的时间拿来做一件看似不必要的琐事:努力将10万张存在Google相簿里的照片下载到自己的计算机里,之后再删掉这些云端照片。

缘由,或许是出自职业的本能。

 

免费网络空间,“只能继续被绑架”

41岁的A常年经手上百亿元专利交易,基于无形资产所有权的敏锐,令他对这项免费服务起了一份警觉心。

身为Google相簿的重度使用者,十年来,他存放了海量的家庭照片。这个软件是如此聪明,每用手机拍一张照片就自动上传,也总能准确辨识自己长得很像的三个孩子,好用到终于有一天让他害怕失去。

“总是会担心,如果它有一天不给我用怎么办?”A抿起嘴角道,左手顺势托起了下巴,象是托起莫名的忧虑。

于是,他想将宝贵的小孩成长照,在计算机硬盘里也备份一套,一种被绑架的感觉也油然而生。

糟糕的是,尽管如此,他自知很难脱离AI的贴心服务,“我只能继续被绑架。”

当科技巨擘提供免费服务,来换取你我的各项数据之后,人们可能不只是这些大企业的用户,个人的数据还可能是它们的商品。

个人的数据资产彷彿变成大公司的了,这种被互联网大咖公司等数据霸权宰制的感觉并不好受。“因为决定权是在那个霸主身上,”A认为,集权者判断对的时候天下太平,“判断错大家都完蛋。”

迎战数据大未来,管控风险挑战艰巨。

人工智能,可说是未来十年内最具破坏性创新的技术,也是最有价值的投资领域之一。但,随之而来的风险也是愈发显著。

当然,AI引发的问题不会只有数据霸权。资诚智能风险管理咨询公司执行董事张晋瑞归纳,举凡就业、不平等、隐私、网络安全、道德、社会责任等层面,AI都已经造成冲击,就像被打开的潘朵拉盒子一样,一发不可收拾。

高度演化的AI,对工作“入侵”有多深?去年科技巨头亚马逊发生的事,即为经典。

美国科技媒体《The Verge》,披露一份亚马逊的内部文件,显示有一套用来监控仓储物流员工的AI系统,不但能追踪每个人的工作进度,还能精确判断员工有没有偷懒,甚至可以根据实时数据,计算出“摸鱼时间”,未达标准者,便自动生成解雇指令,作为开除工人的依据。

由于AI决定我能不能保有工作”实在太惊悚,报导一出来,便引发社会舆论强烈抗议,抨击亚马逊违反美国宪法保障的公民权利。亚马逊虽辩称,(人类)主管有权限改变系统的解雇决定,但后续也因此制定相关的道德准则,让自家软件更加符合道德标准。

“我们用人类的道德标准来要求AI,”深入研究AI风险的B,分析该案后得到结论是,AI只是技术,听从人类指令,技术本身没有对错,“但用在某些地方,就会产生道德问题。”

的确,尽管AI是中性的技术,但根据人类设计的算法做出的判断,就是有可能产生歧视不公平。

 

核发信用卡涉歧视,苹果挨告

2019年底,苹果信用卡挨告案,即为鲜明案例。

首次跨足信用卡业务的高盛银行,找上美国苹果公司合作,打造这张号称“地表最狂”的苹果信用卡:整合了Apple Pay、现金反馈无上限、提供财务健康检测等,功能强大无比,被誉为信仰之卡。

没想到正式发行三个月后就吃上官司。一位科技公司老板到纽约金管单位告状,表示苹果信用卡核定他的信用额度,是他太太的20倍;偏偏,在线下的信评机构根据信用历史与过往履约能力,其实太太的信用分数(credit point)应该比先生还高。结果,以“性别歧视”的理由起诉苹果信用卡,因为核卡标准貌似“男女有别”。

专家研判,问题应当出在苹果信用卡的核卡系统,交给计算机算法来设定的关系。

再细究下去,会更令人不寒而栗:每个人的网页广告,其实都是从过往搜索和浏览等大数据推导出来的。每一次的定位、点赞,也都在加强“有心人士”对生活的控制,透过监视、宣传或营销管道,成为潜伏于日常的“隐私大盗”。

有鉴于此,C就有个习惯,一定关掉手机上GoogleGPS功能。他担心,Google会知道他每天固定的移动路线,根据这些足迹数据,进而推算出他的上班地点、下班时间等。“数据是两面刃,”C说,科技若剥离道德,其实有点可怕。

假设在很窄的山路上,一辆自驾车载着总统,另一辆自驾巴士是20个小学生,两车将对撞,且无法闪避,两车在“智能沟通”后决定,得牺牲一辆车闪下山谷以避免对撞。难题是,到底要救谁?

接着,分析师抛出的问题,一个比一个犀利:

“无论最终是救了总统还是小学生,谁来解释AI为什么做这样的判断?”

“如果没有人帮AI解释的话,是不是等于人类社会的决策与价值观,留给没有办法解释的机器来决策?”

“如此,是不是就违背了人类存在的价值?我们就没有自由意志了?”

 

AI判断价值观,仍待人类辩论

在技术无罪的状况下,对于AI的悲观,其实是对人性弱点的悲观。

症结仍在于伦理尺度的拿捏。如果没做好准备,人类一手主导的AI将会迎面撞上自己。更糟糕的是,如同电影情节,被自己仰仗的高科技反噬。

“社会应该来场大辩论,”从2000年前希腊哲人的时代之后,人类社会再也没有针对价值观,进行大规模而广泛的辩论。如果不在未来1020年内,有更多关于AI价值观的辩论与判断:“可能会造成未来AI形成的状态,并不是大部分人喜欢的。”

对此,人类还有计可施吗?2020219日,欧盟执委会发布的两份新报告《人工智能白皮书》及《欧盟资料策略》,尝试了某些解方。

尽管这两份文件都没有法律效力,却透出曙光:不仅点出AI应用及资料分享带来的机会与利益,同时明定了AI的使用规范。譬如,必须要详细记录AI的训练过程,以规避潜在的危机,同时列出欧盟即将采取的行动计划。

基本上,两份报告继承了“史上最严的个资法”GDPR(欧盟通用资料保护规则)的精神,也难怪欧盟执委会副主席维斯塔格尔(Margrethe Vestager)会说:“中国有数据、美国有钱,而我们有意志。”所谓的意志,便是维护人权的精神。

欧盟AI白皮书其中有一个重要目的——建立信任生态圈(ecosystem of trust)。

诸如收集数据要广泛,标注时避免偏见;算法不可以隐含性别、宗教或种族歧视;训练人工智能的过程要记录,决定机制要透明可解释可追溯。

白皮书还定义了AI应用的风险值,高度风险的领域有个人健康照护、自驾车、物联网,较低的则为金融科技、智慧工厂、智慧农业,后者相对前者比较不会直接危害到生命。

“因为只有这样才会有信任,产业才发展得下去,”当欧盟提出了信任的作法,其他国家也会朝同样的方向走。

 

摆对主次,监管整体原则

欧盟的举措,是找出一套面对AI的总体原则,加以监管,以获得一定程度的保障。

另一方面,如果人类永远只把AI当成工具,在使用工具时,怀抱谦虚和更多人性,也不失为一种应对之道。

AI对我来讲,就是辅助式的智能,”面对AI的隐忧与风险,摆对自己与AI的主次位置很重要,不要放弃自由意志的选择。

如何发展AI?如何管理AI?能否相信AI?就在政府与企业热中于数据科技中挖掘金山的此刻,面对“数据风险”这头房间里的大象,再也不能视而不见。


热门文章