“iPhone里发生了什么,就留在iPhone里”?
高举保护隐私大旗
这是正义的特例,还是潘多拉魔盒的开启?此事虽已公布半个月,犹如一石激起千层浪,但由此引发的争议和猜测却无法解决。真正的后续影响可能会在未来逐渐显现。
“iPhone里发生了什么,留在iPhone里”。还记得这个覆盖整栋楼的巨大广告吗?2019年拉斯维加斯CES展会上,没有参加展会的苹果给了自己最好的广告。过去几年,苹果在科技行业一直高举保护用户隐私的大旗,将其作为旗下最大产品的卖点之一,打出“iPhone专为保护用户隐私而设计”的口号。
不仅如此,苹果还瞄准了从用户大数据中获利的互联网公司。库克曾多次公开批评脸书等互联网公司以出售用户隐私牟利,强调苹果绝不会触碰用户数据,甚至让用户在今年通过iOS系统更新自行决定是否允许数据追踪,给脸书等互联网公司的定向广告模式带来了很大冲击。
为了保证用户数据的安全,苹果在过去几年里一直封锁美国政府的压力,坚决拒绝美国政府以反恐为名在iPhone中设置数据读取后门的要求。此外,在2016年和2020年,苹果至少两次公开拒绝了美国政府解锁恐怖分子iPhone的请求,甚至将政府告上法庭。
这两起事件的背景是加州圣贝纳迪诺枪击案和佛罗里达州海军基地枪击案。两名枪手都被伊斯兰极端宗教势力渗透。联邦调查局希望从手机通讯记录中调查恐怖分子的动机和联系组织。由于苹果公司的坚决抵制,美国政府最终寻求第三方破解公司的帮助,从恐怖分子的手机中获取数据。
然而,无条件保护用户隐私的苹果,会搬起石头砸自己的脚,公开宣布会扫描用户的文件,还有iPhone的本地照片。即使出发点是伸张正义,这件事也不符合苹果的风格,引起了很多关于用户隐私的热议。这到底是怎么回事?
本地扫描用户照片
本月早些时候,苹果公开宣布,将在随后发布的iOS和iPadOS系统升级中引入新功能,并在本地扫描用户设备上是否有与儿童性虐待相关的照片,并与美国儿童性剥削数据库的官方图片进行对比。如果发现大量非法图片,苹果会通知执法人员。
这项功能是苹果打击儿童性侵犯的整体项目的一部分。此外,iMessage短信服务还将增加家长控制功能。如果12岁以下的未成年人通过iMessage发送或浏览裸照,其父母会收到系统报警。
即使停止剥削儿童和贩卖人口是为了伸张正义,但扫描用户本地图片的功能仍然过于敏感,引发了诸多争议和担忧。消息发布10天后,面对外界的诸多猜测和批评,苹果负责iOS的高级副总裁克雷格费德里基(Craig Federighi)终于不得不站出来再次澄清。
Federrich特别解释了这个功能:当iPad和iPhone用户将本地图片上传到iCloud cloud时,苹果会在本地设备中扫描这些图片,并与国家失踪和被剥削儿童中心(NCMEC)的数据图进行对比。如果发现大量图片一致,则意味着用户持有失踪和遭受性剥削儿童的图片。苹果会把它们送到审计部门,重新确认后通知执法部门,但不会提醒用户。不过苹果稍后会屏蔽用户的iCloud账号,相当于变相通知用户。
但值得注意的是,系统只会在比对发现大量非法图片时才会触发报警,而不会在单个图片出现问题时触发报警,这显然是为了避免识别错误。而且,苹果会聘请第三方审查员确认系统识别的内容是否违法,并通知警方。不过苹果并没有透露这个识别非法内容的门槛,外界也不知道在自动触发之前发现了多少非法图片。
此前,苹果表示,这项扫描功能只会先在美国推出,未来会视情况在其他国家推出。Federrich进一步解释说,这个CSAM数据库包含在iOS和iPadOS的系统升级中,但仅在美国市场激活;“我们在中国、欧洲和美国的设备都使用相同的软件,包括相同的数据库。”
儿童色情不属隐私
最注重用户隐私的苹果为什么要公开宣布扫描用户本地照片?用户存在iPhone和iPad的照片,是否完全属于用户隐私?互联网公司是否要为此类违法内容负责?
美国1996年《联邦通信规范法》230条款规定,“任何交互式计算机服务的提供商或者用户不应被视为另一信息内容提供商提供的任何信息的发布者和发言人。”这一条款又被视为互联网公司的免责保护伞。
这个条款实际上包括两个意思:互联网公司无须为平台上的第三方信息负责,用户在平台发布的内容与平台无关;互联网公司无须为他们善意删除平台内容的行为负责,他们有权根据审核标准删除用户发布的内容。
但是这把保护伞也并不是没有边界的。2018年美国国会通过《打击性贩卖行为法》,明确规定互联网公司有责任举报和移除网络平台上的此类违法内容,否则将会面临相关法律的处罚;其中明确包括了儿童色情内容。这是230免责条款的第一个豁口。
根据这一法律,如果用户开通了iCloud图片上传,存在本地设备的图片连上了互联网,那么苹果作为互联网平台,就有责任和权力举报和处理此类违法内容。而大多数iPhone用户,iCloud上传功能是默认开启的。
实际上,美国各大互联网企业早就扫描用户图片库,识别儿童色情相关内容。Facebook、Twitter、Reddit都会对用户存在自己平台的内容进行比对扫描,无论是否公开发布。和苹果一样,他们也是通过NCMEC的数据库进行比对,发现违规之后进行报警。
更为重要的是,儿童色情内容并不属于美国宪法第一修正案关于言论自由权利的保护范围。用户持有儿童色情图片本就是违法行为,无论传播与否。美国《打击儿童性剥削法》和《打击贩卖儿童法》都明确规定,生成、分发、接受和持有此类内容都属于联邦重罪,会面临着至少5年,至多30年监禁的严厉惩罚。
在欧洲,这方面的互联网监管措施甚至更早。早在2013年,英国就已经制定监管细则,要求从互联网服务提供商(ISP)这里屏蔽色情内容,用户必须自己手动关闭过滤内容,才能访问色情网站。同一时期,英国政府还要求谷歌微软等搜索服务商移除儿童色情搜索结果。不过,儿童色情图片原本就很少出现在搜索结果中。
不会扫描其他内容
即便美国互联网企业早就开始打击儿童色情内容,但苹果宣布扫描用户图片依然引发了诸多质疑。苹果向美国媒体确认,此前也曾经对iCloud Mail内容进行此类内容的扫描,但却从未扫描过用户的iCloud Photos图片数据。网络信息安全专家泰特(Matt Tait)指出,儿童色情图片本来就是美国执法部门打击的高压线,执法部门很容易获得传票,要求苹果扫描用户iCloud图片库,苹果也会愿意配合这一要求。
苹果所做的,和其他互联网公司有什么不同?其他互联网公司是扫描用户上传在云端服务器的内容,而此次苹果则是在用户本地进行扫描(前提是开启iCloud同步)。为什么苹果会选择在本地进行扫描?
苹果高级副总裁费德里希强调,这项扫描机制将在设备本地进行,而不是联网进行比对,目前只面向美国市场。“如果有人在云端扫描图片,那谁知道会扫描什么内容(意思是可能会失控)。在我们这项功能里面,NCMEC的数据库是传输到本地的。”
在iOS和iPad新版系统中,将自带一个叫NeuralHash的工具,对图片分解成诸多碎片进行标注与识别,对比NCMEC的数百万份碎片数据进行比对。发现吻合的违规内容之后,在iOS或iPadOS之中生成一个包括违规内容的“保险库文件”,在此类违规内容积累到一定阈值之后才会发送给苹果的审核人员。
苹果隐私主管纽恩施万德特别对此强调,如果用户关闭了iCloud图片同步功能,那么NeuralHash工具就无法运行,苹果不会,也无法进行儿童色情图片扫描。
即便苹果已经尽可能公开透明地宣布这项扫描功能,依然引发了一些互联网隐私保护机构的不满和担忧。这毕竟是苹果第一次对用户在本地的文件进行扫描和监控,如果这次是打击儿童色情,那么下次又会是什么,反恐?
苹果高级副总裁费德里希再次强调,除了非法的CSAM儿童色情内容,苹果不会扩大目前的数据扫描范围。他强调,“如果某国政府向我们提出CSAM内容之外的数据扫描要求,我们会直接拒绝。如果你对此没有信心,不相信苹果会敢于拒绝,那么我们还设置了多层的保护机制,我们希望让用户安心,在扫描什么文件的问题上,你不需要相信任何公司,或是任何国家。”
可能开启后门魔盒
苹果的确公开拒绝过美国政府的反恐后门和解锁手机的要求,也不害怕和美国政府打官司抵制行政命令,但是如果面临着司法部门的合法传票和命令,苹果也只能接受和服从,这是他们所无力抗拒的。
就在两个月前,苹果承认他们曾经在2018年2月按照特朗普政府司法部的要求,提供了一系列用户的身份识别码,用于确认一些用户的电子邮件和电话号码。当时处在“通俄门”调查中的特朗普政府正在秘密调查是谁向民主党众议员泄露了政府机密。
苹果之所以愿意配合特朗普政府调查,是因为收到了联邦大陪审团的传票,而且这份传票还附带保密要求。这意味着苹果不仅需要遵守命令要向政府交出数据,还必须就此事守口如瓶,直到今年5月保密期限结束后,苹果才通知相关用户。除苹果之外,微软也收到了此类附带保密要求的传票。
美国电子前线基金会(Electronic Frontier Foundation)在向新浪科技发送的声明中明确表示,苹果以打击儿童色情为由的扫描用户文件行为违反了苹果此前关于保密用户隐私和加密通信的承诺,创造了一个很容易被政府利用进行监控和审核的技术架构。这一机制会让苹果未来无力抵制政府的更多要求。
电子前线基金会谈到,美国政府从不避讳要求获得用户加密通信,通过搜查令和法庭命令等手段施压科技公司帮助他们获得数据。虽然苹果一直承诺会抵制政府(设立后门)要求降低用户隐私保护的命令,但在推出这一扫描机制之后,苹果不得不继续抵制政府扩大扫描范围的压力。
这样的处境并不只是在美国。2018年“五眼联盟”(美国、英国、加拿大、新西兰和澳大利亚)曾经明确表示,如果科技公司拒绝提供加密数据,他们会通过技术、执法、立法以及其他手段实现合法获取数据。随后英国通过《调查权限法》(IPA),要求电信运营商通过技术手段,在政府发布数据获取命令时提供协助。
尽管这次苹果在iOS和iPadOS系统设置扫描机制,是为了打击儿童色情和性剥削的正义目的,但也给自己预埋了一个危险的“地雷”。2016年苹果在拒绝美国司法部解锁圣伯纳迪纳恐怖分子iPhone时,曾经公开表示自己没有在iOS设置任何后门。但这一次呢?“如果你设置了(后门),他们就会跟进。苹果此举是给全球各国加强监控审核开启了后门。”电子前线基金会这样总结。
“iPhone里发生的,就留在iPhone里”,苹果的这一标志性承诺现在需要加上一个豁免条款——如果不涉及儿童色情的话,未来是否还有更多的例外?