一、首篇
Apple Vision Pro 是 Apple 这几年下了很大功夫去开发的一款产品,从 2016 年开始,陆续有报道, Apple 正在研发一款 XR 眼镜。
2023 年,在 WWDC23 苹果全球开发者大会上 Apple 正式发布了,自研多年的 MR 头戴式电子设备 -- Apple Vision Pro。其运行 visionOS 系统,使用 Apple M2 和 R1 芯片。于2024年2月2日在美国上市。
1. 数字技术概念
在了解 Apple Vision Pro 之前,我们需要先简单了解一下当下主流的数字技术:
看完上述图表对AR、MR、VR有了大致的了解,我们继续举三个例子来加深他们的概念:
- AR -- 游戏《Pokémon GO》
- VR -- 电影 《头号玩家》【头号玩家/蓝光/60帧】欢迎来到极致丝滑绿洲世界,寻找彩蛋吧!!_哔哩哔哩_bilibili
- MR -- 空间计算头戴设备: Apple Vision Pro
随着数字技术的发展,还提出了很多R的概念,其他的就不一一赘述,有兴趣的同学可以自己去了解一下。
2. 什么是 Apple Vision Pro
Apple Vision Pro is a spatial computer that blends digital content and apps into your physical space, and lets you navigate using your eyes, hands, and voice.
-- support.apple.com/zh-cn/guide…
官方的解释是,Apple Vision Pro 是一台空间计算设备,可以将数字内容和应用程序融入到您的物理空间中,并通过你的眼睛、手和语音进行交互。
符合我们上面所描述的对 MR 的定义。为了直观感受这一概念,我们来看一段演示视频:
二、硬件参数解析
Apple Vision Pro 3D模型地址:
Apple Vision Pro - Download Free 3D model by DextonOfficial
1. Apple Vision Pro 三视图
2. Apple Vision Pro 整机结构
3. Apple Vision Pro 基础配件
4. Apple Vision Pro 参数规格
下面是 Apple Vision Pro 的参数规格,跟目前比较火的 Meta Quest 3 做了个对比:
| Apple Vision Pro | Meta Quest 3 | |
|---|---|---|
| 操作系统 | visionOS | 基于安卓定制的 QuestOS |
| 镜头调整 | 全自动 | 手动 |
| 支持的 IPD(瞳距) | 51毫米~75 毫米 | 53毫米~75毫米 |
| 显示类型 | Micro-OLED | LCD |
| 单眼分辨率 | 3680×3140 | 2064×2208 |
| 刷新率 | 90/96/100 Hz | 72/80/90/120 Hz |
| HDR | ✓ | x |
| 芯片组 | 苹果 M2 (5nm) 带 10 核 GPU | 高通 XR2 Gen 2 (4nm) 带 6 核 GPU |
| CPU核心 | 4 倍性能 + 4 倍效率 | 2 倍性能 + 4 倍效率 |
| 内存 | 16 GB | 8GB |
| 彩色透视摄像头 | 2x 650万像素 | 2x 400万像素 |
| 追踪摄像头 | 6 | 4 |
| 深度传感器 | 红外传感器 +激光雷达 | 红外传感器 |
| 眼动追踪 | ✓ | x |
| 人脸追踪 | ✓ | x |
| 电池位置 | 独立电池包 | 内置电池 |
| 电池寿命 | 2 小时(一般) 2.5 小时(视频) | 1.5-2.5 小时 (取决于使用情况) |
| 前置显示屏 | ✓ | x |
| 麦克风 | 6 | 3 |
| 无线上网 | 6 (2.4+5GHz) | 6E (2.4+5+6GHz) |
| 验证 | 光学ID | 图案 |
| 重量 | 600–650克(仅头显)(重量因 Light Seal 和头带配置而异。独立电池重 353 克) | 515克 |
| 控制器 | x | ✓ |
| 眼镜支架 | x | ✓ |
| 配光镜片 | 150 美元 | 50 美元 |
| 储存及价格 | 3500 美元(256GB)3700 美元(512GB)3900 美元(1TB) | 500 美元(128GB)650 美元(512GB) |
Meta Quest 3 是在 Apple Vision Pro 发布之前,各方面表现基本都是主流较为优秀的头显。通过上述表格的对比,可以看出 Apple Vision Pro 堆料十足,这也导致重量略重,价格偏高。
4.1. 佩戴体验
当然,Apple Vision Pro 采用了定制的铝合金框架,支撑着弯曲的“三维成型”夹层玻璃前板。加上 Apple Vision Pro 的头带设计,并同时配备“针织头带”和“双环头带”,使得佩戴体验较为舒适。
4.1.1. 显示方面
Apple Vision Pro 采用双 Micro-OLED,具有前所未有的像素密度,将总共 2300 万个像素压缩成两个矩形,Apple 称其大小相当于邮票大小。像素间隙仅为7.5微米,有效消除了“纱窗效应”。
OLED 技术的应用使得 Apple Vision Pro 能够展现真正的黑色,而非 LCD 屏幕所呈现的暗灰色。
此外,显示器支持 90Hz / 96Hz / 100Hz 的刷新率,系统会根据用户观看的内容动态调整,以提供最佳的观看体验。例如,在观看24帧每秒的电影时,屏幕将以96Hz的刷新率运行。
4.1.2. 色彩表现
Apple Vision Pro 的色域覆盖了 92% 的 DCI-P3 标准,虽然略低于采用 QD-LCD 技术的 Meta Quest 3 等现代显示器,但仍然优于大多数常规 LCD 屏幕。
在摄像头和传感器配置上,Apple Vision Pro 装备了 12 个摄像头、一个 LiDAR 传感器、一个深度传感器和 6 个麦克风,其中 8 个摄像头位于前玻璃面板下方。
特别值得一提的是,两个摄像头提供了 650 万像素的高分辨率色彩透视视图,相比之下,Meta Quest 3 的透视摄像头分辨率为 400 万像素。其余的前置摄像头则用于头显的位置跟踪,配备鱼眼红外摄像头以提供宽广的视野。
此外,Apple Vision Pro 还内置了环境光传感器和防闪烁传感器,以确保虚拟元素的渲染能够与真实环境的照明条件相匹配,增强了沉浸感和真实感。
4.2. FaceTime 等面部和眼动追踪
两个朝下的摄像头跟踪用户脸部,而旁边的四个内置红外摄像头则在镜头周围的一圈 LED 照明器的帮助下追踪用户的眼睛。Apple Vision Pro 的眼动追踪具有三个用途:身份验证、注视点渲染和驱动 FaceTime 头像。
4.2.1. 身份验证
Apple 将其新的虹膜扫描身份验证称为“OpticID”,沿袭了其他设备的 TouchID 和 FaceID 的命名方案。OpticID 是解锁 Vision Pro 的方式,它也适用于 Apple Pay 购买和密码自动填充。与 TouchID 和 FaceID 一样,为 OpticID 提供支持的生物识别数据由 Secure Enclave 处理器在设备上进行处理。
4.2.2. 注视点渲染
而注视点渲染是一种技术,仅以全分辨率渲染你眼睛当前正在查看的显示器的小区域,从而释放性能,因为其余部分的分辨率较低。释放的 GPU 资源可用于获得更好的性能、提高渲染分辨率或增加图形设置。它利用了这样一个事实:我们的眼睛只能以高分辨率看到中央凹的正中心。
4.2.3. 驱动 FaceTime 头像
最后,眼动追踪与向下摄像头相结合,可以实时追踪你的面部表情,以驱动你的 FaceTime Persona(Apple 的照片级真实化身)。Meta 已经展示了这方面的研究四年多了,但 Apple 是第一个推出的产品 -- 尽管看起来与 Meta 研究的质量不一样。
4.3. R1 超低延迟芯片
为了将所有这些摄像头、传感器和麦克风的输入融合在一起,Apple 开发了一款名为 R1 的定制芯片。R1 芯片具有 256GB/s 的内存带宽,超过任何其他移动芯片,Apple 声称它几乎消除了延迟,在 12 毫秒内将新图像传输到显示器”,这与高通声称的 Snapdragon XR2 Gen 2 头显的延迟相同就像 Meta Quest 3 一样。
4.4. EyeSight
Apple Vision Pro 的一个完全独特的功能是外部显示屏,它可以向房间内的其他人显示用户的眼睛。Apple将这项技术称为 EyeSight。
EyeSight 使用双凸透镜显示屏,因此无论人们从哪个角度观看头显,眼睛的视角看起来都是正确的。
4.5. Apple M2 芯片
Apple Vision Pro 是一款高性能的虚拟现实头显,它搭载了与最新 MacBook Air、Mac Mini 和 iPad Pro 相同的 Apple M2 芯片组,并且特别配备了具有 10 核 GPU 的型号。
这款头显的图形处理能力极为出色,其 GPU 性能比高通最新的 Snapdragon XR2+ Gen 2 芯片中的超频 Adreno 740 GPU 至少高出 50%。
此外,Vision Pro 还支持眼动追踪注视点渲染技术,这项技术通过仅对用户视线聚焦的区域进行全分辨率渲染,从而优化资源使用,提升整体性能。
综合这些参数规格,开发者在 Apple Vision Pro 上能够创造出比 Meta Quest 3 以及其他即将面世的同类产品更高质量的体验。比以前的独立头显更接近 PC VR。
4.6. 个性化光线追踪空间音频
Apple Vision Pro 侧面扬声器,每个都有两个驱动器。苹果将其描述为“有史以来最先进的空间音频系统”。
5. 小结
到这里,我们能看出,Apple Vision Pro 的料堆的很足,搭载许多高规格硬件,同时加上专门开发的 visionOS 系统,调教出来的 MR 头显设备独树一帜。当然,Apple 也一直在把 MR、空间计算这些概念植入人们的脑中,就是想告诉大家,Apple Vision Pro 是一款具有颠覆性的头显设备。
Apple Vision Pro 出来有一段时间,也看到一些用户体验反馈的文章,比如说头显太重,导致无法长时间佩戴、价格太贵等问题。
三、visionOS - Apple 的首个空间计算操作系统
上面我们提到了 Apple Vision Pro 硬件参数部分,接下来我们来聊聊 Apple Vision Pro 内嵌的操作系统 - visionOS。
1. visionOS 初识
All-new platform. Familiar frameworks and tools. Get ready to design and build an entirely new universe of apps and games for Apple Vision Pro.
-- developer.apple.com/visionos/
visionOS ,Apple 官方给出的介绍是,这是一个全新的平台;熟悉的架构和工具;专为 Apple Vision Pro 构建全新应用与游戏的宇宙。Apple 称其为 “第一个为空间计算而设计的操作系统”。
1.1. visionOS 系统架构
“一个全新的平台;熟悉的架构和工具”,是因为 visionOS 是建立在 macOS、iOS 和 iPadOS的基础上。它们共享一套底层核心模块,并增加了一个 “实时子系统 (real-time subsystem)” 用于在 Apple Vision Pro 上处理交互式视觉效果。
由于通用的底层架构,在 visionOS 上,也是可以执行 iOS/iPad 应用。这完美解决了初期生态短缺的问题,但也会出现因为设备交互差异,导致在 visionOS 上体验不佳的问题,比如微信扫码登陆。
1.2. visionOS 依赖库架构
Apple Vision Pro 发布的一大亮点就是空间计算的概念, 那 visionOS 通过什么来支撑起空间计算?
(空间计算概念:空间计算技术的核心在于映射和融合 VR、AR、MR 等技术的计算模式,旨在创建一个三维的空间环境,其中设备能够理解和响应用户在三维空间中的动作和位置。)
下图是 visionOS 依赖库架构图,可以看出,ARKit、RealityKit、SwiftUI、UIKit 以及底层核心库等,共同支撑了 visionOS 整个空间计算的能力。
ARKit、RealityKit、SwiftUI 这三个依赖库,我们并不陌生,在 visionOS 还没出来之前,就相继在 Apple 主流设备系统上已经集成。
它们都在 visionOS 中扮演各自角色,通过 SwiftUI/UIKit 来构建用户界面,RealityKit 用于显示3D内容、动画和视觉效果,ARKit 为应用程序提供对用户周围真实世界空间的理解,并使该理解在应用程序中的代码中可用。
1.2.1. ARKit
ARKit 理解用户周围的空间,允许应用的内容与环境空间进行交互。ARKit 托管着 visionOS 的实时算法,为大量核心的系统功能提供支持。这些算法从始至终一直在运行着,意味着你的应用程序能自动从所处的共享空间中获取 ARKit 的支持。持久性和世界映射由系统处理,分隔、遮罩和环境照明灯会自动适用于整个物理空间。
在用户的授权下,ARKit 功能可以直接用于你创建的 Full Space 中的应用程序。通过启用 ARKit 的以下能力(与 iOS 上相同的 Anchor 概念,能让你很方便地将现有的 ARKit 应用整合到 visionOS 中)与房间进行真实互动。
- Plane estimation(平面预算)
- Scene reconstruction(场景重建)
- Image anchoring(图像锚点)
- World tracking(世界追踪)
- Skeletal Hand tracking(手部追踪):为你的 APP 体验创建自定义的手势交互;构建虚拟用户的双手以增强交互体验。
1.2.2. RealityKit
从头开始构建用于渲染空间体验,它是 Apple 的 3D 渲染引擎。早在 2019 年,RealityKit 和 SwiftUI 就作为单独的 framework 进行介绍了,在 visionOS 中它们深度融合。
- 结合 SwiftUI 和 RealityKit:可以结合使用它们来构建炫酷且体积庞大的用户界面。3D 对象能够绑定 SwiftUI 视图和状态,无缝衔接 2D 和 3D 视觉元素。
- 物理照明和阴影:根据物理照明条件进行调整,并通过在地板和桌面上投射阴影来营造现实体验。
- 创建新的入口:可以在 3D 场景中创建新的入口,比如展现恐龙效果,为用户带来更加生动的体验。
- 渲染清晰文件:利用高效的渲染能力,可以生成令人难以置信清晰的文件,提高用户的阅读舒适度。
- 可自定义的材质系统:可以创造出令人惊叹的视觉效果,通过自定义材质系统,使得场景更加生动。
- 动态注视渲染(Dynamic foveation):利用眼动追踪技术,选择性地渲染用户注视的区域,降低外围内容的渲染成本,提高渲染效率。
- 物理属性设置:可以设置物理属性,如金属材质、反光值等,以实现更加逼真的视觉效果。
- 自定义导入照明资源:允许自定义导入基于图像的照明资源或IBL,进一步增强场景的视觉效果。
- 支持 MaterialX:MaterialX 是一个用于描述和传输物理材质的标准,通过支持 MaterialX,可以更加灵活地处理材质属性。
- 全新的 SwiftUI 视图 RealityView:可以在 Window、Volume 和 Space 中使用,可以在控制的场景中放置 3D 物体,并支持在 3D 物体上附加 2D SwiftUI 视图,提供了更加灵活的布局方式。
1.2.3. SwiftUI
- ZStack 的能力扩展,利用新的 z-offset 属性添加深度的细微变化,就可以让你的二维应用具有三维的立体感。较大的 offset View 将会展示在靠前的位置。你可以使用深度信息的不同去用来强调或表明模态的改变。
- Gesture 的能力扩展,让人们能在他们的物理空间的任何地方移动或旋转物体。
- 等等
1.2.4. accessibility
VisionOS 为有障碍人士设计了大量辅助功能。无障碍辅助功能这是 Apple 一直坚持在做的事情。在 Apple Vision Pro 中,无障碍辅助不仅能给有障碍人士使用,在一些带着 Apple Vision Pro 的场景下,使用者也需要无障碍辅助功能来更好的辅助自己。
2. 交互与设计
Apple Vision Pro 由于是 XR 设备,visionOS 做了很多有特点的交互和设计。下面是网上做的不错的官方文档整理pdf,我们通过这个来了解一下 Apple Vision Pro 的交互与设计, 如有侵权可删,单纯分享:
3. 小结
Vision Pro的交互设计强调了人机交互的自然化和直观性。它摒弃了传统的工具操作,转而采用更加贴近人体自然习惯的方式,让人类自己成为自然的交互工具。这种设计理念不仅提升了用户体验,也使得设备充满了科幻的魅力。并且给其他同类产品做出了典范,以后的头显产品多多少少会借鉴此类设计。
这个章节最后,给大家放几个有意思的 App Vision Pro 应用。
waytoagi.feishu.cn/wiki/Havywn…
四、构建第一个 Apple Vision Pro 应用
1. 构建前的准备
1.1. 必要条件
- 掌握 Swift、SwiftUI
- 熟悉 RealityKit、ARKit、Accessibility
- 硬件环境:带有 M1 及以上芯片的 Mac
- 系统环境:macOS 13.5 及以上
- 开发工具:Xcode 15.2 及以上
- 运行环境:visionOS 1.0 及以上
1.2. 环境搭建
首先需要从官网下载 Xcode 15 及以上版本。下面是安装地址:
developer.apple.com/download/al…
下载完成后直接解压缩,将解压后的文件移动到应用程序(Applications)目录下,就可以启动 Xcode 了。启动 Xcode 后勾选 visionOS 平台下载安装:
2. 创建新项目
上面下载完成后,可以在面板中直接选择创建新项目,或者通过 File > New > Project 来创建新项目:
创建项目窗口选择 visionOS 选项,如果这里提示 visionOS Not Installed,直接点击 GET 去下载即可:
选择 App,最后点击 Next 来到项目配置窗口:
常规的内容包括 Product Name、Team 和 Organization Identifier;以及下面几个选项,简单介绍一下:
- Initial Scence:初始化场景,有两个选项 Window 和 Volume,如果展示 2D 内容,选择 Window,3D 内容则是 Volume。
- Immersive Space Renderer:沉浸式空间渲染器,也就是选择渲染引擎,有三个选项 None、RealityKit 和 Metal。
- Immersive Space:沉浸式空间,包括 Mixd (混合)、 Progressive (渐进)和 Full (填充)。对应 App 中的 immersionStyle 的参数 selection:
-
- full:一种沉浸式风格,显示无限制的内容,遮盖透明视频(用户的手除外)。
- mixd:一种沉浸式风格,显示与其他应用内容混合的无限内容以及透明视频。
- progressive:一种沉浸式风格,其中内容显示时不应用剪切边界。
这里沉浸式空间默认 full。
3. 目录结构
主要变化是多了 ImageBasedLighting.skybox 和 RealityKitContent。
3.1. ImageBasedLighting.skybox
ImageBasedLighting.skybox 是用于在 RealityKit 中设置天空盒(Skybox)的一种方式。天空盒是一种用于在虚拟环境中创建背景和环境光的技术。它由六个方向的纹理组成,分别对应着上、下、前、后、左、右六个方向,使得虚拟环境看起来更加逼真。
ImageBasedLighting.skybox 是一个属性,用于指定用于天空盒的图像资源。通常,您可以将六个方向的图像作为一个纹理集合加载到 ImageBasedLighting.skybox 中,以便在虚拟环境中显示天空盒。这样,当用户在虚拟环境中移动时,天空盒会相应地跟随移动,营造出更加逼真的感觉。
设置适当的天空盒图像可以显著改善虚拟环境的外观和氛围,使用户更加沉浸其中。
3.2. RealityKitContent
RealityKit 的内容包,主要就是一些 3D 模型资源。
4. 项目基础代码解析
4.1. VisionDemoApp.swift
struct VisionDemoApp: App {
var body: some Scene {
// 定义应用程序的主窗口
WindowGroup {
// 在主窗口中显示 ContentView
ContentView()
}
// 定义一个沉浸空间,并指定其 id 为 "ImmersiveSpace",以及其内容为 ImmersiveView
ImmersiveSpace(id: "ImmersiveSpace") {
ImmersiveView()
}
// 设置沉浸空间的样式,这里将其设置为 full
.immersionStyle(selection: .constant(.full), in: .full)
}
}
这段代码首先定义了一个 SwiftUI 应用程序 VisionDemoApp,然后在 body 属性中定义了应用程序的场景。在场景中,通过 WindowGroup 定义了应用程序的主窗口,并在主窗口中显示了一个名为 ContentView 的视图。
接着,通过 ImmersiveSpace 定义了一个沉浸空间,并指定了其 id 为 "ImmersiveSpace",以及其内容为 ImmersiveView。沉浸空间是一种 SwiftUI 视图,用于显示一些需要全屏展示的内容或体验,比如虚拟现实场景等。最后,通过 .immersionStyle 设置了沉浸空间的样式,将其设置为全屏显示。
4.2. ContentView.swift
struct ContentView: View {
/// @State 属性包装器创建了一个名为 showImmersiveSpace 的私有状态属性,用于控制是否显示沉浸空间
@State private var showImmersiveSpace = false
/// @State 属性包装器创建了一个名为 immersiveSpaceIsShown 的私有状态属性,用于跟踪沉浸空间是否已经显示
@State private var immersiveSpaceIsShown = false
/// @Environment 属性包装器用于访问全局环境中的预定义键的值
/// 这里通过 @Environment(.openImmersiveSpace) 访问了一个名为 openImmersiveSpace 的环境值
@Environment(.openImmersiveSpace) var openImmersiveSpace
/// 这里通过 @Environment(.dismissImmersiveSpace) 访问了一个名为 dismissImmersiveSpace 的环境值
@Environment(.dismissImmersiveSpace) var dismissImmersiveSpace
var body: some View {
VStack {
// 在 VStack 中放置了一个名为 Model3D 的自定义视图,用于显示一个 3D 模型场景
Model3D(named: "Scene", bundle: realityKitContentBundle)
.padding(.bottom, 50)
// 显示一个简单的文本
Text("Hello, world!")
// 使用 Toggle 控件,允许用户切换是否显示沉浸空间
Toggle("Show ImmersiveSpace", isOn: $showImmersiveSpace)
.font(.title)
.frame(width: 360)
.padding(24)
.glassBackgroundEffect()
}
.padding()
.onChange(of: showImmersiveSpace) { _, newValue in
// 当 showImmersiveSpace 的值发生变化时,执行下面的代码块
Task {
if newValue {
// 如果用户打开了开关按钮,则尝试进入沉浸模式
switch await openImmersiveSpace(id: "ImmersiveSpace") {
case .opened:
immersiveSpaceIsShown = true
case .error, .userCancelled:
fallthrough
@unknown default:
immersiveSpaceIsShown = false
showImmersiveSpace = false
}
} else if immersiveSpaceIsShown {
// 如果沉浸空间已经显示,并且用户关闭了开关按钮,则尝试退出沉浸模式
await dismissImmersiveSpace()
immersiveSpaceIsShown = false
}
}
}
}
}
4.3. ImmersiveView.swift
struct ImmersiveView: View {
@State var enlarge: Bool = false
var body: some View {
RealityView { content in
// RealityView 的初始化闭包
// 加载 RealityKit 内容包
if let immersiveContentEntity = try? await Entity(named: "Immersive", in: realityKitContentBundle) {
// 加载内容到视图中
content.add(immersiveContentEntity)
// 为沉浸式内容添加 ImageBasedLight
guard let resource = try? await EnvironmentResource(named: "ImageBasedLight") else { return }
let iblComponent = ImageBasedLightComponent(source: .single(resource), intensityExponent: 0.25)
immersiveContentEntity.components.set(iblComponent)
immersiveContentEntity.components.set(ImageBasedLightReceiverComponent(imageBasedLight: immersiveContentEntity))
}
} update: { content in
// 在 RealityView 的更新闭包中更新内容
// 这里不会实时渲染更新循环,不是每帧都会更新,只有状态发生变化才会更新
if let scene = content.entities.first {
// 缩放比例
let uniformScale: Float = enlarge ? 1.4 : 1.0
scene.transform.scale = [uniformScale, uniformScale, uniformScale]
}
}.gesture(TapGesture().targetedToAnyEntity().onEnded { _ in
// 手势触发任意实体结束,触发 enlarge 更新,就会触发上面刷新
enlarge.toggle()
})
}
}
5. Reality Composer Pro 基础使用教程
6. 小结
Apple Vision Pro 应用开发,对于 Apple 开发者上手相对容易些,语言没变,底层框架没变,主要是一些 SDK 的 api 调用需要熟悉。3D 模型这块的资源一般也不需要开发者去做,因为大部分都没这基础,所以大部分还是用代码实现业务。
五、总结
Apple Vision Pro 这款产品是首个完全由库克领导之下诞生的“新计算平台”。自发布以来,Apple Vision Pro 的销量都不及预期,昂贵的价格、无法长时间佩戴、生态还未完善,这都是客户望而却步的原因。库克也是对其缺少信心,Apple Vision Pro 的首年销售预期被设为 15 万台;但在最初的计划中,Apple 的目标是 300 万台/年。
虽然有这么多的问题,但是关于 XR 这块,都还在初期阶段,我们看过无数的科幻电影,未来也一定会有头戴式的发展空间。或许不久的将来,成熟的 XR + AI 的交互到来,人人一部 XR 头显成为可能。Apple Vision Pro 的创新性,给了一些未来 XR 产品交互体验的新思路。但 Apple 能否让 Apple Vision Pro 像 iPhone 当年那样成为颠覆性产品,我们还需要一些时间等待。
最后,我很好奇的想,如果是乔布斯,他会怎么做?
六、干货推荐
1. visionOS 官方公开课
developer.apple.com/visionos/le…
2. Apple Vision Pro 应用第三方商店/导航站
vision.directory
find vision app
www.findvisionapp.com/zh/categori…
3. 原型设计推荐
国外目前从业者用的比较高频的两个原型设计工具 Spline 和 Vectary,当然强大的 Figma 也必不可少:
3.1. Figma
Figma visionOS 设计套件包含一整套 UI 组件、视图、系统界面、文本样式、颜色样式和材质。快速创建高度逼真的 visionOS 应用程序设计所需的所有核心要素。
3.2. Spline
Spline(强烈推荐) 一个免费的轻量化3D制作软件,支持可在线制作,也支持可下载应用到电脑上使用。里面含有127个免费的3D预设库!
3.3. Vectary
Vectary 超强工具,XR设计师有福了。以前的移动互联网我们设计人员用的都是PS等,在XR世界设计,这些工具难免有些不方便,推荐大家一个好工具,主要针对3D人员的平常设计工作,最易访问的3D和增强现实 设计平台。无需下载,全部在浏览器中操作。 输出3D格式,超越图片和电影,将你的设计嵌入到你的网站中,在3D打印机上进行打印,或将其应用于增强现实。Vectary是基于云的,因此你甚至不必导出任何内容。
4. 适合小白的基于浏览器的3D建模工具
4.1. Bezel
【bezel】— 基于浏览器的3D建模工具,拖拉拽即可操作
【推荐理由】: 基于浏览器,易上手,支持多种模型和场景,试用版免费,适合元宇宙赛道的产品经理和没有建模经验的设计师
demo vr-interface