苹果的年度全球开发者大会(WWDC)经常被误认为是硬件产品发布会。然而,WWDC的主要目的是向第三方开发者介绍苹果最新的软件和工具,以供开发人员为苹果平台开发应用。不过,硬件和软件都在推动苹果未来发展的计划中扮演了重要角色,而WWDC则充当着该公司战略方向的延伸路线图。下面就让我们了解下苹果2018年开发者大会采用的秘密策略:
不断进化的WWDC发展战略
WWDC始终试图让苹果第三方开发者更深入地了解该公司软件平台的总体战略方向,主要目的是说服开发者将时间和精力投入到为其构建应用程序方面。与此同时,WWDC也会推出新的硬件或更新产品,比如去年的iMac Pro和智能音箱HomePod。对于第三方开发者来说,苹果智能音箱几乎没有明显的相关性。然而,苹果公司之前的许多例子已经说明,WWDC的战略往往需要数年时间后才会完全显现出来。
20年前的1998年WWDC大会上,苹果已故联合创始人史蒂夫·乔布斯(Steve Jobs)详细阐述了苹果最终推出macOS X的计划。这款新软件当时还未完全成熟,直到2000年才推出测试版本,又过了2年苹果才开始将其先进的新版操作系统默认为Mac硬件的软件平台。在这漫长的等待中,苹果推出了iBook、PowerBook G3以及iPod。
10年前的2008年WWDC大会上,乔布斯专注于介绍全新的移动平台,当时苹果公司称其为“OS X iPhone”。该公司还新引入了iOS应用店的概念,为开发者提供了与内部相同的开发API进行协作的能力,以便在设备上创建iPhone应用程序。
乔布斯还为iCloud制定了未来发展战略,即所谓的“MobileMe”。这种以云计算为基础的云存储功能也经历了数年的艰难开发,而且最初遭遇到诸多挑战。然而几年后,它成为苹果公司整体战略中的重要组成部分,并已深深植入了macOS X、iOS和苹果其他平台中,现在正应用到包括HomePod在内的新硬件中。
第二年,苹果开始称其移动平台为“iOS”,并在随后的一年里推出了iPad,以及基于平板电脑的iOS计算愿景,它甚至早于苹果的智能手机计划。苹果内部开发的真正时间表与我们从外部观察到的公开发布时间截然不同。
机器学习/AI/AR
去年,苹果进一步公开了内部工作,作为第三方的公共开发界面。其中包括Core ML,即苹果的计算机视觉和自然语言处理机器学习框架,苹果已经在Siri内部、Camera应用以及QuickType键盘中采用它。现在,开发人员可以开始构建他们自己的、基于模型的ML功能。
自从为MobileFirst发布Watson Services for Core ML,用于对图像进行分析、对视觉内容进行分类,并利用Watson Services对模型进行训练以来,IBM已经将Core ML引入企业移动应用程序中。
▲IBM很快将Core ML引入企业移动应用程序中
苹果还在WWDC上详细介绍了其双镜头Portrait照片背后的“魔法”,并公开了它的Depth API,供开发者在自己的应用中使用。它同样适用于iPhone X的True Depth结构传感器摄像头,使第三方能够进行面部跟踪。苹果还发布了全新的ARKit工具,用于构建增强现实(AR)体验,该功能适用于任何配置A9以上处理器的iOS设备。
CoreMotion/可穿戴设备/VR/Metal/GPU
ARKit是苹果公司Core Motion(加速仪与陀螺仪)项目的重点延伸。2010年,乔布斯首次在装有陀螺仪的iPhone 4上推出了这个功能。此后,苹果公司在其移动设备上引入了自定义动作协处理器,以在HealthKit中追踪正在进行的健康和健身活动。与摄像头视觉ML匹配,iOS设备现在可以处理视觉惯性里程计(Visual Inertial Odometry) 。
▲ARKit中的苹果园
我们可以预见,在经过去年令人惊讶的亮相后,我们将看到更多新的飞跃,不仅是ARKit,苹果还在Apple Watch的健康相关追踪方面取得进展。对于苹果来说,Core Motion是非常重要的,它是2月份年度股东报告中的焦点之一。苹果曾专门发布视频,显示人们的生活被其可穿戴技术改变的场景,这项技术可充当健身教练、仿生保镖和与外部世界的移动链接。
苹果在可穿戴设备上的定位特别好,它已经提供了一款触觉的、可浏览的电脑,看起来就像时尚手表,还有廉价耳机形式的AR音频体验。有传言称,苹果下一款眼镜将展示视觉AR和虚拟现实(VR)体验。苹果公司去年在Mac电脑上推出了新的VR内容开发,与外部GPU支持捆绑起来。
苹果公司也逐步推出了对Metal的改进,其GPU编码硬件优化框架于2014年首次推出。在过去几年里,苹果将Metal引入了Mac,先进的Metal可以完成更多工作。去年,它用定制的苹果GPU设计,配置自家A11仿生芯片来支持Metal 2。对于这样重要的突破,苹果却出乎意料地保持低调。
iOS UI/智能/信息应用
具体到iPad,去年苹果推出了iOS 11拖放功能,这是一种多任务导航体验,需要重写整个上层界面。今年,随着又一年的努力,我们可以预计iOS 12将关注稳定性,因为在过去这段时间里,用户界面出现了更多的故障,而iOS用户可能不得不忍受这种情况。
还有人说,苹果会将iOS和macOS的UI开发联系得更紧密,这可能会促进iOS代码的移植,使其更容易在Mac电脑上运行。在过去的几年里,苹果公司做了些类似于APFS的事情,从根本上更新和协调核心文件系统,在iOS和Mac系统上,用户都很少受到干扰。
我们还可能看到苹果在诸如Data Detectors和文本服务等领域取得的进展,iOS和Mac电脑经常会在走向衰落之前变得近乎伟大。最近有些功能,比如在不同设备上进行持续复制和粘贴、文档交接、地址映射、内部映射以及依据日历计算旅行时间等,这表明在增加我们的现代设备所显示的智能方面,苹果依然有很大的增长空间。
随着苹果公司对健身和苹果手表移动性的重视,或许我们会看到地图在提供城市自行车的方向指南,并为远足者、山地自行车爱好者、滑雪者和其他户外运动爱好者提供更好的导航和离线地图。
此外,另一个值得重视的服务是新iMessage功能,特别是iMessage应用,去年支持Apple Business Chat。这是企业可用的新平台,可帮助他们与客户直接沟通,处理订单、付款、安排约会以及进行自定义选择等。当iMessage应用首次出现时,有些人只看到了这款简单聊天应用程序的轻浮和不受欢迎的复杂性,而苹果实际上是在推出一个新的平台。
▲使用自定义iMessage应用,企业开发人员可以添加交互式软件元素来聊天?
WWDC其他新进展
苹果似乎在不断地准备着类似的进步。正如我们之前提到的,苹果公司最近进行了一系列收购,包括“杂志版Netflix”《Texture》,显然是打算推出定期订阅服务。
苹果已经在努力改进新闻应用,增加更多视频内容,同时也在努力为Apple Music开发定制内容,最终可能成为自己的并行订阅视频服务。
苹果公司最近还收购了Lattice Data,这是一种用于分析非结构化数据的统计推断编程和执行框架。苹果还收购了自动化应用Workflow,它能帮助我们省去每次重复操作的过程,而且还能完成许多不可思议的任务。
图:工作流把复杂的任务变成了可触发事件
通过将Workflow与Siri结合起来,通过让用户更容易地设置可以由语音请求触发的常规任务,或者使用Apple Watch,苹果可以大大扩展开发者甚至是普通用户所能做的事情。
据报道,苹果还收购了自然语言初创企业Init.ai,并将其员工纳入旗下团队。此外,苹果最近聘请了古哥AI首席科学家约翰·贾安里安德(John Giannandrea)负责苹果的机器学习和AI战略。苹果首席执行官蒂姆·库克(Tim Cook)在发给员工的电子邮件中指出:“贾安里安德和我们一样致力于隐私和我们深思熟虑的方法,因为我们都想让电脑变得更智能、更人性化。”
更多有关Siri改进
苹果始终在努力让Siri的声音听起来更自然,就像真正的人类对话那样。它还复制了亚马逊和古哥最先推出的“随时倾听(always listening)”功能,允许iOS、Apple Watch和HomePod检索“Hey Siri”指令。Siri的另一种改进方式是在本地使用更多命令。苹果已经在这方面做了些初步尝试,但预计在今年的全球开发者大会上会看到更多进展。
与其他语音助手一样,当云极端平台被关闭或连接丢失时,Siri的用途同样会大打折扣。最近,当网络瘫痪时,HomePod甚至无法告诉用户最基本的时间,尽管它拥有所有的计算能力。回放控制和基本功能(如时间和本地数据细节,包括日历和联系人)都是Siri可以通过在本地进行更多的处理而大大提高的性能。
对于像AirPods这样缺乏本地计算能力的设备,Continuity网格可以处理你手机上的Siri任务,甚至也可能处理Apple Watch任务,加快语音指令的执行速度,即使是在互联网云连接受限的情况下。
在与其他相似服务进行对比时,人们经常抱怨Siri的不足,但它有自己独特的策略和意图,人们也很少注意到,苹果的策略包括让Siri在更多的语言和地区工作。这不仅与它想要了解的语言有关,而且与其他国家用户的兴趣有关。Siri支持全球100多个体育联盟的信息,例如,让用户了解正在自己国家进行的比赛更新情况。
还