我想了解亚马逊iOS应用如何允许在实时模式下搜索产品:
该应用的大小超过100MB,这似乎表明应用内嵌入了机器学习模型。考虑到用户的数据成本和使用服务器时的延迟,将图片数据发送到服务器进行分析似乎在实时模式下是不现实的。
在搜索过程中,您可以看到一些代表形状/文本/表面/最近物体的点,这是通过使用ARKit实现的吗?
如果是,它仅用于特征点的动画,还是对帮助正确识别物体有实际影响?
如果不是,他们是如何实现这一点的,又是出于什么原因?
任何帮助让我看得更清楚一些或提供新的观察方式都将不胜感激。
回答:
对于AR/VR用户体验,亚马逊使用Sumerian。它不依赖于特定平台。Sumerian基于开放的网络标准,支持Apple ARKit(适用于iOS应用)和Google ARCore(适用于Android和iOS应用,以及用于开发的网络),这意味着应用创建者可以构建一个Sumerian应用,适用于Android、iOS、Oculus Go、Oculus Rift、HTC Vive、HTC Vive Pro、Google Daydream和Lenovo Mirage。
无需AR/VR专业知识!亚马逊Sumerian让任何人都可以创建AR/VR应用。您不需要专门的编程或3D图形专业知识就可以开始。您可以使用Sumerian编辑器通过网络浏览器创建、编辑和发布应用。Sumerian拥有一个拖放式应用编辑器和3D对象库,其视觉状态机用于编写复杂的自动化场景,并且深入了解创建AI主机的过程,您可以在这些虚拟体验中与之进行完整的对话。
关于您的下一个问题:ARKit和ARCore框架特别设计用于6DOF的摄像头跟踪。任何运行的ARSession(无论是在ARKit还是在ARCore中)都有一个管理跟踪过程的所有事项的会话配置类,包括您在视频中看到的特征点。了解关于ARKit的ARWorldTrackingConfiguration和ARImageTrackingConfiguration。也了解关于ARCore的增强图像。
除了3D跟踪,还有图像识别(也称为图像检测)技术。视频中的对象在AWS云计算上进行处理(有足够的计算能力在毫秒内利用亚马逊的AI算法)。
希望这对您有帮助。