Vision Pro重新定义了计算平台的可能性,开发者可使用他们熟悉的工具框架着手构建visionOS app,并利用Reality Composer Pro等新的创新工具和技术进一步推进开发工作,为用户设计全新体验。那么苹果开发架构、开发工具如何与VisionOS结合呢?接下来集英科技小编就给大家简单的介绍一下。
苹果在开发者官网更新了大量visionOS开发相关内容,我们也发现苹果首次详细说明了这些开发工具如何在具体开发工作中发挥作用,我们能从Xcode、SwiftUI、RealityKit、ARKit等几项关键开发工具和框架的更新中发现不少新的细节。
Xcode:Xcode是VisionOS开发的重要基础工具,Xcode已经支持了visionOS SDK。开发者可以将visionOS目标添加到现有的项目中,或者构建一个全新的app、在Xcode预览中迭代app。开发者可以在新的visionOS模拟器中与app交互,探索各种房间布局和照明条件,创建测试和可视化项目来测试碰撞、遮挡和对空间内容的场景理解。
SwiftUI:SwiftUI可以构建新的visionOS app,或者将现有的iPadOS或iOS app直接引入visionOS。SwiftUI支持3D功能,并且对深度、手势、效果和沉浸式场景有相应的工具适配。此外,RealityKit还与SwiftUI深度集成,可以帮助开发者构建清晰、响应迅速和面积达的界面。
RealityKit:通过苹果3D渲染引擎RealityKit ,开发者可以在app中展示3D内容、动画和视觉效果。RealityKit可以自动调整物理照明条件和投影,RealityKit采用开放标准matrialX,这是电影、视觉效果、娱乐和游戏公司所使用的表面和几何着色器。
ARKit:在Vision Pro上,ARKit可以完全了解一个人的周围环境,让app以新的方式与周围的空间进行交互。在默认情况下,ARKit支持核心系统功能,开发者可以利用ARKit API,如平面估计、场景重建、图像锚定、世界追踪和手部骨骼追踪,给app创造新的功能,可以实现的效果包括把水泼到墙上、把球从地板上弹起来。简单总结就是它可以把现实世界和app内容结合起来。