如何通过两张图像理解机器人在空间中的位置

我尝试教我的机器人在一个它不熟悉的有限空间中行走。机器人有一些传感器。它必须到达空间中的某个点,并找到返回起始位置的路径。

这项任务与机器人探索算法非常相似,但由于其腿部的物理限制,当它穿过空间时,它开始认为自己站在一个位置 (x1, y1),但实际上它站在另一个位置 (x2, y2)。

因此,它无法在现实世界中返回起始位置。我想使用一种算法来比较位置 (x1, y1) 的可见图像和位置 (x2, y2) 的可见图像,以纠正运动误差,但我不知道如何实现我的想法。

在我深入尝试解决这个问题之前,是否有人可以给我一些提示,告诉我如何实现这个算法?


回答:

图像是如何表示的?它是否只是从相机传感器输入的原始位图?如果是这样,那么你可能遇到麻烦了,因为这个问题非常困难。这个特定问题的名称叫做同时定位与地图构建(简称SLAM):

http://en.wikipedia.org/wiki/Simultaneous_localization_and_mapping

一般来说,解决这个问题非常困难,而且在不了解更多关于你的数据类型和处理限制的情况下,不可能回答你的问题。

Related Posts

使用LSTM在Python中预测未来值

这段代码可以预测指定股票的当前日期之前的值,但不能预测…

如何在gensim的word2vec模型中查找双词组的相似性

我有一个word2vec模型,假设我使用的是googl…

dask_xgboost.predict 可以工作但无法显示 – 数据必须是一维的

我试图使用 XGBoost 创建模型。 看起来我成功地…

ML Tuning – Cross Validation in Spark

我在https://spark.apache.org/…

如何在React JS中使用fetch从REST API获取预测

我正在开发一个应用程序,其中Flask REST AP…

如何分析ML.NET中多类分类预测得分数组?

我在ML.NET中创建了一个多类分类项目。该项目可以对…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注