苹果下一代Vision Pro出厂时可能会配备处方镜片;Meta计划推出更低价的“Quest 3”公众号新闻2023-10-09 13:10看日报是个好习惯 苹果的下一代Vision Pro出厂时可能会配备处方镜片 马克·古尔曼 (Mark Gurman)今天在 Power On 时事通讯中写道,未来的苹果虚拟现实头显可能会更小、更轻,而且每个设备都可以在工厂为视力受损的人定制。在第一代 Vision Pro 的开发过程中,苹果决定通过省略处方眼镜的空间来缩小设备尺寸,该公司与蔡司合作销售通过磁性方式连接到头显镜片上的处方镜片。提供数千种不同镜片的组合,已被证明是令苹果运营团队头疼的问题。幸运的是,该公司可能有一个解决方案:定制头显——从工厂预装处方镜片。图源:theverge这可能会简化客户的体验,但也会带来新的问题。首先,内置处方镜片可以使苹果成为某种健康产品的提供商,该公司可能不想处理这一问题。此外,这种程度的定制将使消费者更难共享头显或转售头显。当然,用户的视力度数可能也会随着时间的推移而改变。苹果肯定已经考虑到了这一点,并且它最近在 8 月份提交了专利,表明它有兴趣制造可以调整以矫正用户视力的 VR 或 AR 光学方案。这样做可以降低产品的准入门槛,对于那些在购买新的 VR 头显时没有意识到自己视力不佳的客户来说,这可能也是件好事。 Meta计划推出更低价的“Quest 3” 近日,彭博社记者Mark Gurman爆料称,Meta已在筹备Quest 3后续的头显路线图,团队颇为重视苹果以及Vision Pro这款产品,并试图找到突破口。据Meta内部人士透露,Meta正处于一个“害怕苹果的阶段”,他们就像置身于iPhone发布前的手机行业中。Meta的路线图涉及了一款代号为Ventura的新头显,相较于Quest 3,该产品的价格会更加便宜,并且团队正在试图不牺牲屏幕分辨率的情况下让它获得更为舒适的体验。为了保持低价,Ventura或许会放弃标配手柄,转而采用手势操作。Meta和苹果所追求的是不同的市场,但是现有的VR头显市场用户只是一批“想要VR头显的人”(即早期用户)。Meta正试图弄清楚,当市场真正发展起来时,情况会有何变化。想要在这一市场站稳脚跟,Meta就需要一款与众不同的产品,否则Quest就有可能会走上功能机的老路。图源:网络 工信部等六部门:推动算力服务体系,支撑AR/VR设备等多场景应用 10月9日,工信部等六部门联合印发《算力基础设施高质量发展行动计划》。图源:工信部其中提出,构建一体化算力服务体系:打造集成多方算力资源和开发平台的算力服务,鼓励各地为中小企业、科研机构提供普惠算力资源,降低算力使用成本和门槛,保障算力使用需求。推动算力在更多生产生活场景的应用落地,支撑个人增强现实(AR)、虚拟现实(VR)设备在社交、娱乐方面的沉浸式场景应用;保障家电控制、环境控制、安防报警等智能家居应用算力供给。提升公共算力支撑能力,满足图书馆、美术馆、体育馆等大型惠民场所智能服务算力需求。持续推进算力对创新应用的支撑,推动算力在元宇宙、数字孪生等新业态拓展应用。 VR社交平台Resonite正式上架Steam商店 日前,VR社交平台Resonite已可在Steam上免费访问。Resonite支持PC和VR模式操作,内置了名为“ProtoFlux”的可视化编程语言,玩家可以在虚拟空间中与人交流并创建头像、世界、艺术作品、游戏、小工具等,同时Resonite还支持WebSockets(双向通信标准),可以开发与Resonite外部通信的功能。图源:Resonite据悉,Resonite由“NeosVR”前开发团队Solirax开发。由于NeosVR管理层和开发团队之间长期存在分歧,NeosVR的开发被冻结。此后,在今年9月22日NeosVR官方Discord对外证明了关键开发团队成员已经离开了NeosVR。同一天,Resonite在社交媒体上首次亮相,被视为NeosVR开发团队对冻结的NeosVR的重启。Resonite官方也表示,如果用户在创建账户时设置了与NeosVR账户相同的用户名,则可以从NeosVR传输数据。而关于NeosVR,目前还没有官方通知宣布将因这一事件而终止该服务,开发和运营可能仍会继续。 苹果智能眼镜新专利:或采用包括干涉传感器和扩展焦深光学器件的光学传感器模块 近日,美国专利商标局公布了苹果公司的一项专利申请,该专利申请涉及未来的智能眼镜、Apple Vision Pro 甚至 Apple Pencil 等设备,这些设备集成了干涉测量传感器,可以感知各种物理现象(如存在、距离、速度、大小、表面属性或粒子数)。包括干涉传感器和扩展焦距光学器件的光学传感器模块苹果公司在其专利中首先指出,相干光学传感技术(包括多普勒测速和干涉测量)可用于获取物体或目标的空间信息。例如,空间信息包括存在、距离、速度、大小、表面特性和粒子数。相干光学传感有时可用于获取目标的空间信息,其光学波长分辨率、量子极限信号水平和光子能量都大大低于飞行时间光学传感方法。对于干涉测量传感(包括自混合干涉测量传感)而言,一般感兴趣的目标是非光滑目标和/或具有可被光穿透的体积的目标,例如人的皮肤、衣服、桌面、墙壁或地面。下面的苹果专利图 15 展示了一副未来的智能眼镜,它使用了一系列干涉传感器,如自混合干涉测量(SMI)传感器或Mach-Zender干涉仪,以及使用此类传感器来感知各种物理现象(如存在、距离、速度、大小、表面属性或粒子数)的设备。图源:patentlyapple苹果公司进一步指出,为一个或多个干涉传感器(编号为1504、1506、1508)提供不同的聚焦深度可以帮助智能眼镜检测或描述更大范围的用户眼球位置、注视方向和/或移动,在某些情况下,这可以被解释为一个或多个手势或命令。不同的聚焦深度还可以帮助智能眼镜和 HMD 识别眼睛结构和/或周围面部特征之间的一个或多个结构界面,和/或眼睛结构的深度和/或体积。苹果公司的专利图 14 与 HMD 有关。目前尚不清楚这是否与 Apple Vision Pro 的第一个版本或未来版本有关。HMD 集成了一系列干涉测量传感器和其他光学元件(专利未描述)。图源:patentlyapple苹果公司的专利图 13 显示了集成到 Apple Pencil 中的干涉传感器和其他光学传感器的示例。目前还不得而知干涉传感器是否会成为未来版本 Apple Pencil 的一部分。图源:patentlyapple想了解更多详细专利信息,可查阅苹果公司于近日提交的专利申请 20230314185 。这是一项技术含量极高的发明,工程师、高级开发人员和技术专家会对其有更深入的了解。 苹果Vision Pro新专利曝光,涵盖基于视网膜成像和注册系统的视力追踪技术 近日,美国专利商标局公布了苹果公司的一项专利申请,再次深入解释了在设置苹果 Vision Pro 测试眼睛参数时,基于视网膜成像和注册系统的视力追踪技术。苹果公司在其专利背景中指出,现有的眼动追踪技术会分析从用户眼睛反射并通过图像传感器捕捉到的闪光。一些头戴式系统可能包含眼动追踪技术,利用位于设备边缘(如眼镜框)的光源投射的光线来分析闪光。眼动追踪系统可能无法准确确定观看者的注视深度,也无法实时跟踪用户的注视深度。因此,最好能为头戴式系统提供一种方法,精准地确定用户专注于场景的哪个部分(哪个距离或“深度”),以评估眼睛的特征(如注视方向、眼睛朝向、识别眼睛的虹膜等)。基于视网膜成像的视差跟踪苹果公司的专利涵盖了基于视网膜成像确定和跟踪眼睛特征(如眼睛调节距离或深度)的设备、系统和方法的各种实施方案。眼睛调节的变化会在视网膜图像中产生两种效应,即缩放和散焦。在某些方面,一种方法可以获取视网膜图像,获得注册图像,并根据模糊(如点扩散函数 PSF)和/或几何缩放确定用户相对于注册图像的适应性。通过确定(提高准确度)用户集中在场景的哪个部分(例如,哪个深度)以及用户的适应程度,可用于改进眼动追踪并增强XR体验。此外,跟踪适应性可用于更好地实时了解用户的精准行为,并相应地调整 XR 体验。在某些方面,跟踪适应可用于将内容(例如虚拟内容)的感知深度调整为用户当前适应的深度。本专利的一个创新方面可以体现在以下方法中:在具有处理器的电子设备上,产生从眼睛视网膜上反射的光;从图像传感器接收视网膜部分的图像,该图像对应于从眼睛视网膜散射的光的多个反射、 获取与第一容纳状态相对应的眼睛表征,该表征代表视网膜的至少一部分,并根据视网膜部分的图像与眼睛表征的比较来跟踪眼睛特征。在某些方面,眼睛的表示包括视网膜至少部分的映射。在某些方面,生成视网膜至少部分的映射包括在用户(i)将眼睛调节到注册深度,和(ii)扫描通过代表定义视场的注视角空间时,获取用户眼睛的注册图像,并基于组合两个或多个眼睛注册图像的至少一部分,生成视网膜至少部分的映射。在某些方面,基于视网膜部分的图像与眼睛表征的比较来跟踪眼睛特征,包括估计特征的散焦程度。在某些方面,根据焦点像素来估计特征的散焦程度。在某些方面,根据视网膜部分的图像与眼睛表征的比较来跟踪眼睛特征,包括锐化视网膜部分的图像质量,以及根据锐化视网膜部分的图像质量所需的镜头移动来确定散焦程度。下面的苹果专利图 8 是结合了其眼动追踪系统的头戴式设备(HMD/Vision Pro)的示例框图;图 2 展示了眼动追踪系统的示例;图 6 是跟踪眼球特征的注册过程方法的流程图。图源:patentlyapple关于苹果公司的专利,图 2 展示了眼动追踪系统的示例环境 #200。该示例环境的系统使用光源 #210,例如产生红外光的 LED 环(例如 HMD 或 iPad 上的光源 #34)。此外,眼动追踪系统还包括图像传感器 #220(例如,用于观察用户眼睛视网膜上的散射光,以获取视网膜 #47 的图像 #230。如图所示,获取的图像提供了眼睛血管的视图。此外,或者在某些实施方案中,获取的图像还可以提供除血管以外的其他信息,例如其他可检测的视网膜特征。在某些实施方案中,如图所示,图像传感器 #220 嵌入光源 #210 (例如,HMD 上的 LED 环)内或与光源 #210 保持一致。在某些实施方案中,如图 2 所示,光源 #220(例如 LED 或类似装置)在用户调节视力时(例如视角 α 202a)照亮用户眼睛视网膜的表面。然后,当光线从视网膜表面反射时,图像传感器 #210 获取基于视网膜的注视跟踪图像(例如,图像 #230 的 #235 部分显示了与视角 α #202a 相关的位置视角 α #202b)。例如,在注册过程中,用户可能会被指示将视线聚焦到显示屏远处的某个特定位置(例如,聚焦到 1.5 米外的某个位置)。特定位置也可以设置在设备的显示屏上。如果用户将设备戴在头上(例如 HMD),那么该位置可能会出现在显示屏上非常远的地方(例如,盯着一个小点,这样目光可能会望向无限远处)。光源发出的光波经眼睛视网膜反射后,被探测器(如图像传感器)检测到,从而获取视网膜表面的图像数据。图像传感器的镜头可以聚焦到无限远,这样当与眼睛的光学系统结合时,视网膜表面就会清晰地成像到图像传感器上(例如,当眼睛聚焦到无限远时,这是放松的健康眼睛的默认情况)。下面的苹果专利图 3 展示了一个眼动追踪系统的示例用户适应光学效应;图 4 展示了跟踪眼球特征的系统流程图。图源:patentlyapple想要了解更多专利细节,可查看苹果的专利申请 20230309824。 苹果Vision Pro相关新专利曝光,涉及在光学系统中抑制杂散光 苹果公司技术开发集团副总裁Mike Rockwell曾在今年 6 月表示,苹果 Vision Pro 背后有 5000 多项专利。这些专利涉及Vision Pro 的方方面面,每个方面都有来自不同团队的专利。本周,美国专利商标局又公布了一项与Vision Pro相关的眼动追踪专利申请。光学系统中的杂散光抑制苹果在这一主题上的专利申请涉及眼动追踪系统中用于减少杂散光的方法和装置,该系统包括至少一个安装在用户面部两侧的眼动追踪摄像头(如红外摄像头),以及一个向用户眼睛发光的照明光源,如点光源,例如红外发光二极管(LED)阵列或环形光源。这是苹果在 WWDC23 主题演讲中提出过的技术,如下所示。图源:patentlyapple苹果公司的专利文件进一步指出,例如,眼动追踪系统可以是头戴式设备(HMD)的一个组件,例如,XR系统的头戴式设备,如MR/AR系统或VR系统。为了减少杂散光遮挡或 HMD 组件上 LED 的反射等造成的伪影,需要在启用不同组 LED 的情况下捕捉眼睛的两幅图像。然后将捕捉到的图像合并,生成输出图像,其中杂散光造成的遮挡或伪影将得到缓解或消除。另外,RS 传感器可用于交错模式,以捕捉包含奇数行的第一幅图像(第一组照明光源已启用,第二组照明光源已禁用)和包含偶数行的第二幅图像(第一组照明光源已禁用,第二组照明光源已启用)。然后可以合并这两幅图像。下面的苹果专利图 12A 展示了一个头戴式设备的示例,该设备可以包括图 1A-C 所示的组件并实现图 1A-C 所示的方法;图 9 是用于减轻输出图像中遮挡的方法的高级流程图。图源:patentlyapple想要查看更多本专利的细节,请查看苹果公司的专利申请 20230315201。 第一时间了解XR资讯 关注VR陀螺官网(vrtuoluo.cn)VR陀螺的联系方式:商务合作 | 投稿 :西瓜(微信号 18659030320)六六(微信号 13138755620)寻求免费曝光:六六(微信号 13138755620)投稿邮箱:[email protected]推荐阅读微信扫码关注该文公众号作者戳这里提交新闻线索和高质量文章给我们。来源: qq点击查看作者最近其他文章