被马斯克炮轰的智能,为什么更接近理想的形态?
今年的苹果WWDC,是一场事先张扬的AI发布会,库克罕见地从几个月前就在各种场合渲染气氛。
可当你上个月看过OpenAI和Google、微软的发布会,又会觉得这不像一场AI发布会。
苹果甚至没有正式发布一款大模型,没有对比友商参数量、多模态能力这些常规环节,没谈AGI的未来,也没有祭出像Copilot这种被媒体高呼「颠覆一切」的爆款应用。
苹果反而造了一个叫AppleIntelligence(下称「Apple智能」)的词,这个谐音梗是在告诉人们,苹果发布的不是一款软件或硬件,而是一种新的用户体验。
库克认为AI必须以用户为中心,需要无缝集成到你日常使用的体验中:
它必须了解你,并基于你的个人背景,比如你的日常生活、你的人际关系、你的沟通等等,所有这一切都超出了人工智能的范围。这是个人智能,也是苹果公司的下一个重大举措。
苹果选择将AI能力渗透到整个生态之中,这意味着很难看到GPT-4o那种让人欢呼的演示,但这种「没有惊喜」和去年iPhone15发布时有所不同,那是智能手机宏大叙事终结的侧写。
而Apple智能,是在给AI应用铺垫一种新的叙事,这可能不只是苹果的新篇章。
个人智能和个人隐私
在Apple智能亮相时,苹果就总结了它的五个特点:强大、易用、深度整合、个人化、私人化。
要想让AI融合生活细节,甚至不被察觉,得让AI甚至比你还了解你自己。这也意味着你的个人数据越多,就越可能实现,随后不能不面对的问题就是:这是否要建立在让渡个人隐私的基础上实现?
这也是今天发布会后,马斯克批评苹果的由来。
他甚至直接在库克的推文下表示「要禁止所有苹果设备进入我公司的办公场所」,并对苹果和OpenAI合作后用户隐私安全的保护提出质疑。
其实这也的确是用户会担忧的问题,尤其对于活跃设备高达22亿的苹果。但这也和苹果对隐私保护一向慎重的行事风格相悖。
过去苹果设备和AI相关的功能基本都是依靠本地机器学习实现的,所需的数据量很少,很大程度上就是基于对个人隐私的考虑。
虽然苹果在发布会上对这些问题没有一一介绍,但我们通过会后的一些媒体分享会,也了解到更多Apple智能在隐私方面的处理方式,可以试着厘清目前网络上争议较大的一些问题。
APPSO获悉,苹果针对涉及云端的数据处理提供了两个新的解决方案。
首先,用户不必将所有数据、所有邮件、所有消息、所有照片、所有文档发送到别人的云端并存储在那里,以便服务器模型在需要时可以探测它们。
相反,用户的设备上的Apple智能会找出哪些小部分信息与回答这个问题相关。因此,向云端提出的问题只包含这些小部分信息,而苹果对小部分信息再进行保密处理。
苹果创建了一个加密系统,比如iPhone只能与带有指定标签的服务器通信。换句话说,如果这台服务器上的软件有任何更改,其签名也会随之改变,而你可以拒绝与其通信。
包括和OpenAI合作的用户数据处理也是,拥有注册账号的用户IP地址在使用服务时会被隐藏掉,OpenAI也不被允许记录用户请求。
这或许会在一定程度解答公众的疑惑,苹果也的确有必要在这方面披露更多信息。强调「个人化」的Apple智能,要实现发布会上的蓝图,这是必须要处理好的问题。
而且苹果和OpenAI的合作模式很可能并非独家,未来在不同的场景,不同的地区,显然是保留了其他大模型合作的空间。
这也并非苹果一家厂商要面临的问题,但无论是谁都必须慎重挑选合作伙伴,当AI随着大量终端设备渗透生活,隐私和便利的交锋会愈加激烈,即便被认为是忍受度更高的中国市场亦是如此。
一场没有硬件的发布会,却对硬件影响很大
Apple智能从命名到实现方式,都看出苹果要以自己的方式来定义AI硬件,将AI能力渗透到整个生态之中,而不是推出某一个杀手级应用和功能。
这是和目前大量AI硬件最大的不同,去年开始硬件厂商掀起了AI硬件的潮流。当中不少都是将AI硬件简单等同于大模型 终端设备,结果就是推出的往往是某个功能,更新实验性质的半成品。
这也是AiPin和RabbitR1等网红AI硬件热闹一波就折戟沉沙的重要原因。
Apple智能的思路和过去机器学习在苹果产品的应用方式类似,尽管苹果不怎么提AI,但已经融入到很多常用的小功能,比如AirPodsPro自适应音频模式也是通过机器学习实现。
很多人说在大模型时代苹果已经掉队,从单一技术上来说很可能的确如此,但苹果需要的从来不是一个比ChatGPT更牛逼的模型,而是将算力转化为整体而非局部的体验。
虽然这场发布会系统和软件是主角,但硬件是没有被明示但却至关重要的一环。APPSO了解到,这次Apple智能在端侧运行的是规模在30亿参数的模型。
苹果对此低调但却充满信心,据悉苹果工程师认为这是目前最好的端侧模型。
作为对比,不久前微软发布的端侧小模型Phi-Silica参数为33亿,而国内手机厂商在端侧大部分场景的模型大约在70亿-130亿参数之间。
参数越高大概率意味着更高的性能,但如果能以更小的参数规模实现同样的性能,这对移动设备和大模型的结合有更大的意义。
而且业内很多研究已经证明,经过微调的小模型性能在某些使用场景下未必不如大模型。苹果此前曝光的开源小模型OpenELM,就涵盖2.7亿、4.5亿、11亿和30亿参数。
尽管苹果认为用户看重的是体验,并非参数规模,但端侧模型大概率是苹果在悄悄发力的地方。
如果顺利,苹果极有可能推动一波新的硬件浪潮,从VisionPro到带摄像头的AirPods,以及传言中的家务机器人等。凭借强大的设计生产和供应链能力,苹果可以重新用软件来塑造硬件。
这场没有发布任何新硬件的发布会,可能才是近年来对苹果硬件影响最大的一次发布会。
Siri将成为苹果真正的操作系统
当苹果要将AI的能力集成到操作系统中,Siri就成为重要的桥梁。
在今天的媒体分享会上,苹果公司机器学习和人工智能战略高级副总裁JohnGiannandrea就表示:
Siri不再仅仅是一个语音助手,它实际上成为了一种设备系统。
我们之前在WWDC前瞻文章也预测过,苹果AI最终的目标是实现这样的场景:早上起床,用一句「Siri」唤醒Siri,被马斯克炮轰的智能,为什么更接近理想的形态?再让它打开微信公众号「爱范儿」,朗读最新的文章,就这样在完全不用动手的情况下,听取爱范儿的早报。
Siri能变聪明,其实就是语义理解能力的提升,能像人一样理解所有这些数据的含义。随着时间的推移,这种理解会变得更加丰富。
大模型兴起后的自然交互语言,一直被认为将取代我们现在和设备的图形界面GUI,背后是计算机对自然语言的理解能力大幅提升。
基于自然语言的交互到来,影响的不只是我们的随身设备,应用的形态也将完全改变,比如Siri通过API调用具体的能力执行各种任务,甚至app都将不需要了,或以一种新的形态出现。
OpenAI已经离职的联合创始人AndrejKarpathy也表达了类似的观点,他认为这是Apple最令人兴奋的地方,并列举了六点理由:
1.
多模态I/O:支持文本、音频、图像和视频的读写功能。这些可以说是人类的原生API。
2.
代理性:允许操作系统和应用程序的所有部分通过「函数调用」进行互操作;内核进程的LLM可以根据用户查询调度和协调工作。
3.
无缝体验:以高度无缝、快速、始终在线的方式完全集成这些功能。无需复制粘贴信息或提示工程,相应地调整UI。
4.
主动性:不仅是根据提示执行任务,而是预测提示、提供建议并主动执行。
5.
委派层级:尽可能多地在设备上运行智能(AppleSilicon非常适用),但也允许将工作委派到云端。
6.
模块化:允许操作系统访问和支持整个不断增长的LLM生态系统(例如ChatGPT的发布)。
7.
隐私保护:<3
今天苹果WWDC各种细节,都在隐隐指向这个未来。但苹果也知道这大概率还不会在几年内实现,所以只告诉你,起码Siri好用多了。
过去两年,我们最不缺的,其实就是AIGC带的「Amazing」。但犹如手机和互联网那般,深度嵌入生活肌理的技术或产品,还不见端倪。
润物细无声,才是技术革新的终极目标,也是AI的理想形态,这也是Apple智能最值得期待的地方。