大模型的安全问题正在悄悄逼近。
就在全球都在因大模型而狂欢时,大模型的安全问题也随之来临。
不过,科技发展向来是一个不可逆的过程。
即便在GPT-4发布后不久,就有上千位科学家、科技大佬在去年3月签署了警惕AI发展的公开信,之后又有OpenAI、DeepMind、Anthropic三大大模型团队掌门人联合300多位科学家再度署名发布警惕AI发展的公开信,但这并没有改变AI大势。
2023年全球科技领域的关键词是「百模大战」,2024年这一关键词已经是「大模型降价」。
前者揭示了关于大模型的技术竞争水深火热,后者则预示着大模型产业落地已经正式启航。
然而,就在科技巨头大模型产品发布最集中、连在大模型领域研究略显滞后的苹果也上车了大模型的这个月里,大模型奔向市场时的安全问题悄然显现。
01 微软“延毕”AI核心功能
还记得在前不久的微软Build大会上,微软用来硬刚苹果Mac的「Copilot+PC」吗?
当时在发布会上关于人工智能最亮眼的一项功能是一个名为「Recall」的,查找你之前在电脑上的任意操作的功能。
Recall的工作原理是,在用户授权后,PC通过本地的端侧大模型以快照形式记忆用户每天电脑的使用情况,并在你想要回溯的时候,通过滚动时间轴找到当时的操作页面。
有点类似办公软件中的历史版本回溯功能,不同之处在于,基于大模型,现在你可以对任意软件、任意时间点进行快速回溯。
从后来微软官方博客中公布和外媒曝出的消息来看,微软这一功能此前是在内部秘密研发,正式发布时甚至只在微软内部进行了测试,没有在Windows Insider进行公测。
Windows Insider计划是微软2014年10月为Windows 10推出的一个公测计划,这一计划一直被微软沿用至今,发展成了微软Windows系统功能更新的一个公测社区。
或许是AI PC势头太猛,微软有些着急,本该先在Windows Insider公测的Recall功能,在今年的Build大会上直接被微软拿来做压轴功能,甚至官宣了要在6月18日随「Copilot+PC」一并上线。
微软Build大会举办于今年5月,意外发生在6月13日。
这一天,美国众议院国土安全委员会召开了一场关于网络安全的听证会,微软是出席单位之一,微软总裁Brad Smith称,“微软安全未来计划(SFI)是比公司在人工智能布局更重要的工作。”
值得注意的是,微软SFI计划的提出是在2023年11月,而Recall立项是在微软安全改革计划SFI提出之前,这就让Recall阴差阳错地跳过了SFI,秘密研发了下去,直到最终发布。
不过,人工智能的安全问题早在2023年年初就已经在硅谷得到了重视,甚至已经上升为一个重要的社会议题,Recall功能在官宣发布后,外媒关于Recall带来的隐私安全问题进行了颇多质疑。
这就有了微软6月13日在官方博客上表示,Recall将不会随「Copilot+PC」在6月18日上线,而是先进入到Windows Insider公测阶段。
微软推迟Recall正式上线,严格意义上来说,算是微软一次在功能上线前的紧急叫停,而接下的公测,一方面可以让微软看到这一功能是否存在安全漏洞,另一方面也可以通过公测看到社会层面对于这一功能的真实反馈。
要知道,在Recall出现之前,AI PC称得上“大模型”的功能还是智能语音、协同办公,以及系统层面的改善,没有一个拿得出手、颠覆用户观感的新功能。
美国社会和政府层面给微软的压力,让微软对这一功能的隐私安全问题再次有了担忧,“延毕”Recall,成了缓解压力的一个折中的手段。
02 苹果AI不敢进欧盟
同样遭受到质疑的,还有美国另一家科技巨头,苹果。
苹果原本在大模型的领域研发上并不激进,甚至略显滞后,在今年WWDC 2024上官宣启用大模型,搞出一个Apple Intelligence时,还是借了OpenAI的助力。
与微软类似的是,苹果也是在大模型上线之前,官宣拿到紧急撤退自查。
就在苹果对外发布iOS 18及Apple Intelligence后不久,有消 息传出,Apple Intelligence今年或将不会在欧盟地区上线。
随后,苹果证实了这一消息,并称,之所以如此,是因为对欧盟DMA要求苹果允许第三方公司与其服务可以进行互联互通、互操作的担忧。
这就意味着,要想进入欧盟,苹果就无法完全将Apple Intelligence的隐私安全性掌握在自己的手中,这是苹果所不能容忍的。
这里值得一提的是欧盟的DMA。
DMA,即《数字市场法案》,是欧盟在2024年3月7日正式落地生效的、用于狙击科技巨头垄断问题的一项法案。
该项法案将苹果、谷歌、微软、亚马逊等一众科技巨头定义为「gatekeeper」,要求这些科技巨头在数据访问、数据共享、隐私保护在内的22项核心产品与服务上进行整改。
苹果此前曾允许将第三方浏览器设置为默认浏览器,正是为了应对这一法案做出的调整。
严格意义上来说,DMA针对的是科技巨头的垄断问题,但苹果一直赖以维系的是闭环生态为硬件产品带来的干净体验,类似默认浏览器这类权限的逐步开放,意味着苹果闭环生态在欧盟将被打开一个缺口。
尤其是今年苹果将大模型提上日程,Apple Intelligence进入落地阶段,在首限DMA的同时,欧盟还有着全球最严格的数据保护条例GDPR。
在此之前,包括苹果、谷歌、微软等一众科技巨头,都曾在欧盟因数据安全和隐私问题遭受过数亿,乃至数十亿欧元的巨额罚款。
就在今年3月,谷歌就曾在法国因违规使用当地新闻和出版机构的数据训练大模型,拿到了一张2.5亿欧元(约19.7亿元)的罚单。
Apple Intelligence今年不进欧盟,除了受限DMA法案,显然也有着隐私安全因素的考量。
03 高效、安全难兼得
一个全新业态到来之时,初期的野蛮生长往往是一种必然,大模型当然也不例外。
从以深度学习为计算范式的人工智能,到如今以生成式AI、大模型为计算范式的人工智能,我们看到了人工智能已经是一个不可逆的趋势。
然而,随着大模型进入产业,尤其是在进入消费市场时,面对数亿十亿计、没有专业的隐私安全分析能力的普通消费者,如何在标准、规范,乃至政策监管层面为普通消费者挡去这一时代洪流下的安全隐患,就成了一个最具挑战的任务。
从这个角度来看,无论是微软Recall在美国社会层面遭受到的安全质疑,还是苹果Apple Intelligence进入欧盟受到的阻力,都算是一件好事。
最近还有另外两件事儿,锌产业从中看到了企业对于大模型的隐私安全在技术侧和产品侧的主动防御。
其一是前OpenAI联合创始人、首席科学家Ilya Sutskever最近离职创业了,做了一家名为Safe Super intelligenceinc(SSI)的公司。
此前,OpenAI内部一直分为激进派和保守派两大派系,激进派认为应该通过资本手段全力推进大模型产品迭代演进,保守派则认为更应关注大模型的安全性和可解释性。
Ilya是OpenAI保守派的代表人物,在去年那场宫斗大戏后,Ilya最终在今年5月官宣离职,随后如愿拉团队单独成立了一个聚焦大模型安全的公司,Ilya称,新团队将只关注安全的超级智能。
由这一理念驱动的大模型技术研究路径,以及未来可能由SSI或受SSI影响的其他团队创造出的、将隐私安全贯彻到超级智能体中的方法论,将会成为大模型未来产业化过程中的一项配套基础设施。
其二是在今年HDC 2024上,华为官方提到了搭载盘古大模型的纯血鸿蒙系统的一个安全理念——从以往的授权应用权限,调整为授权数据权限。
以某个APP注册时需要使用用户的图库权限,现在在纯血鸿蒙上则只需要提供某一张图片的权限,提供这张图片的使用权。
另外,在分享某个文件给好友时,通过加密,这一文件将只有被分享好友可以看到,二次转发后,其他人也无法看到文件内容。
作为新一代生产力工具,大模型带来的高效性和便利性已经不言而喻,对于这一技术的学习、应用,也成了一种“不得不”。
微软和苹果遇到的困境为所有人提了个醒,如何兼顾大模型的高效性和安全性,将会是这个时代接下来一个永恒的主题。
文章来源于“锌产业”,作者“山竹”
发评论,每天都得现金奖励!超多礼品等你来拿
登录 后,在评论区留言并审核通过后,即可获得现金奖励,奖励规则可见: 查看奖励规则