苹果将3D建模工具「Object Capture」带到iOS、iPadOS平台,使用者可利用iPhone、iPad的光达系统,可迅速完成3D建模,促进Vision Pro虚拟视觉头戴装置的应用发展。
在此次WWDC 2023期间,苹果将过去向开发者提供的「Object Capture」的API资源带到iOS、iPadOS平台作业系统,将能藉由iPhone、iPad所搭载光达 (LiDAR)系统围绕物体拍摄,即可在短短几分钟内完成被摄物体的3D建模。
实际上,先前已经有不少业者提出类似技术,包含直接透过机器学习方式将2D影像转换为3D模型,或是透过多张照片建构3D模型资料。
而苹果过去就推出的「Object Capture」建模工具,透过多张不同角度平面影像合成3D模型内容,但当时仅能在macOS作业系统环境执行,此次针对iPhone、iPad提供的新工具资源,则是可让使用者更方便藉由手持装置进行建模。
不过,由於需要透过光达捕捉精准距离等资讯,因此目前仅限搭载光达的iPhone Pro以上规格机种,以及搭载光达的iPad Pro系列机种才能使用。
至於拍摄之後建立的3D模型将以USDZ通用档案格式呈现,并且能用於相容此档案格式的专业3D软体进行後续调整。
此次提供此工具资源,自然也是希望开发者能藉此更快建立各类3D模型,或是打造可让使用者自行产生3D模型内容的服务,进而可推动Vision Pro虚拟视觉头戴装置应用体验。
当然,先前已经提供的ARKit、RealityKit,以及此次公布的Reality Composer Pro与Unity深度合作,同样也是为了扩展Vision Pro应用作准备。