距离 WWDC 2019(苹果全球开发者大会)已经不足两个月的时间了,目前有关苹果四大软件平台的新一代系统的传闻开始多了起来。继上周独家披露有关 iOS 13 和 macOS 10.15 的部分新功能之后,科技网站 9to5Mac 今天又带来几条与开发者有关的消息。
▲ WWDC 2019宣传海报
新增大量Siri意图指令
对于需要接入 Siri 的开发者来讲,苹果为其准备了一些新的 Siri 意图指令,包括多媒体播放、搜索、语音通话、活动票务、消息附件、列车信息、航班信息、登机口和座位信息等。
Marzipan跨平台App计划得到改进
对于打算开发 iOS 和 macOS 跨平台应用的开发者来讲,苹果提供了全新 API,可以用来将其 UIKit 应用与 Mac 特有的功能进行集成,比如 MacBook Pro 的 Touch Bar 触控栏和桌面的菜单栏(包括键盘快捷键)。UIKit 应用在 Mac 上将也可以开启多个窗口。
对于在 iOS 上提供了 Split View 分屏功能的应用将可以通过在 Mac 上(用鼠标)拖拽分隔栏的方式进行窗口调整,若想重置位置双击分割栏即可。
另外,为 iOS 应用开启 Mac 支持非常简单,只需在 Xcode 里的目标设置中勾选一个选项即可。
AR的强化
今年苹果为 AR 开发方面带来不少的改进,包括全新 AR 框架(Swift 语言独有)和一个全新的辅助工具,开发者可以使用该工具打造可视的 AR 体验。ARKit 开发工具将可以侦测人体姿态。而对于 AR 游戏开发者来讲,新的框架将可以支持带触控板的手柄以及立体声 AR 头盔。
振动引擎、CoreML和NFC等方面的改进
苹果这次将让开发者可以更全面地利用 iPhone、Apple Watch 和 Mac 上的振动引擎,以往第三方开发者只被允许使用很少的几种振动回馈类型。
新的开发框架可以让开发者在 App 中添加链接预览,类似于 iMessage 对话已有的功能。
NFC 功能也得到改进,可以让第三方开发者设计可以读取 ISO7816、FeliCa 和 MiFare 标签的应用,以往只能使用第三方 App 读取 NDEF 格式的标签。
通过新版 CoreML 开发框架,开发者将能够在设备上更新机器学习模型。目前,模型必须要先经过预先培训,而且部署后也是静态的。新框架可以让 App 通过用户操作进行学习并改进其行为。苹果还为开发者提供了一个可以利用机器学习分析声音的新 API。Vision 框架也将内置图像分类器,不再需要开发者嵌入机器学习模型来进行图像分类。
iOS 提供的文档扫描功能将以全新公有框架向开发者开放。以后应用可以从外接设备,比如摄像头和 SD 卡片上采集图像,无需通过照片应用。
▲ 来自全球各地的开发者将齐聚圣何塞,与苹果工程师们欢聚一堂
WWDC 如今已成为苹果规模最大的特别活动,今年的 WWDC 2019 全球开发者大会将于 6 月 3 日 ~ 7 日在加州圣何塞 McEnery 会议中心举行,届时该公司将会公开预览新一代系统 iOS 13、tvOS 13、macOS 10.15 和 watchOS 6 的核心功能。除了精心准备的数百场讲座和实验活动外,苹果还将派出近千名工程师到现场为数千名与会开发者提供技术支持。
特别提醒:本网内容转载自其他媒体,目的在于传递更多信息,并不代表本网赞同其观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,并请自行核实相关内容。本站不承担此类作品侵权行为的直接责任及连带责任。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。