2011-09-24 11 views
5

Comenzaré a trabajar en un proyecto de robótica que involucra un robot móvil que tiene montadas 2 cámaras (1.3 MP) fijadas a una distancia de 0.5m en el medio. También tengo algunas sensores ultrasónicos, pero tienen solo un rango de 10 metros y mi entorno es bastante grande (como un ejemplo, tomar un gran almacén con muchos pilares, cajas, paredes .etc). Mi tarea principal es identificar los obstáculos y también encontrar un roughly " la mejor "ruta que debe tomar el robot para navegar en un entorno" accidentado "(la planta baja no es lisa en absoluto). Todo el procesamiento de imágenes no se realiza en el robot, sino en una computadora con NVIDIA GT425 2Gb Ram.Evitación de obstáculos usando 2 cámaras fijas en un robot

Mis preguntas son:

  1. ¿Debo montar las cámaras en un suport de rotación, por lo que se toman fotografías en un ángulo más amplio?

  2. ¿Es posible crear una reconstrucción 3D razonable basada en solo 2 vistas a una distancia tan pequeña entre ellas? Si es así, ¿en qué medida puedo usar esto para evitar obstáculos y una mejor construcción de ruta?

  3. Si se puede realizar una representación tridimensional exacta del entorno, ¿cómo se puede usar para crear un mapa del entorno? (Considere el siguiente ejemplo: el robot debe barrer un área bastante grande y sería eficiente desde el punto de vista energético si no atravesara el mismo lugar (o curso) dos veces, sin embargo, cuando se realiza una reconstrucción 3D desde una dirección, ¿cómo puede decirse? si ya ha estado allí, si se trata de la dirección opuesta)

he encontrado que esto response sobre una cuestión similar, pero todavía estoy preocupado por la exactitud de la reconstrucción 3D (por ejemplo, un par de cajas situado a 100 m considerando la pequeña resolución y la distancia entre las cámaras).

Acabo de comenzar a reunir información para este proyecto, por lo que si ha trabajado en algo similar, por favor bríndeme algunas pautas (y algunos enlaces: D) sobre cómo abordar esta tarea específica.

Gracias de antemano, Tamash

+2

Hay una razón por la cual DARPA ha estado haciendo grandes desafíos en esta área. No es fácil. –

+1

Los vehículos de gran desafío DARPA tienen LIDAR,> 4 cámaras y densos puntos de referencia de GPS. Y todavía se quedan atascados. – koan

Respuesta

1

Si usted quiere hacer evitación de obstáculos, es probable que sea más fácil de utilizar los sensores ultrasónicos. Si el robot se mueve a velocidades adecuadas para un entorno humano, entonces su rango de 10 m le da un amplio margen de tiempo para detener el robot. Tenga en cuenta que ningún sistema garantizará que no golpee accidentalmente algo.

(2) ¿Es posible crear una reconstrucción 3D razonable basada en solo 2 vistas a una distancia tan pequeña entre ellas? Si es así, ¿en qué medida puedo usar esto para evitar obstáculos y una mejor construcción de ruta?

Sí, esto es posible. Eche un vistazo a ROS y su vSLAM. http://www.ros.org/wiki/vslam y http://www.ros.org/wiki/slam_gmapping serían dos de los muchos recursos posibles.

sin embargo cuando una reconstrucción en 3D está hecho de una sola dirección, ¿cómo puede decir si ya ha estado allí, si se trata de la dirección opuesta

Bueno, usted está tratando de encontrar su posición sobre todo teniendo una medida y un mapa. Eso debería ser posible, y no importaría en qué dirección se creó el mapa. Sin embargo, existe el problema de cierre de bucle.Debido a que está creando un mapa 3D al mismo tiempo que intenta orientarse, no sabe si se encuentra en un lugar nuevo o en un lugar que haya visto anteriormente.

CONCLUSIÓN ¡Esta es una tarea difícil!

En realidad, es más de uno. Primero tiene una simple evasión de obstáculos (es decir, Don't drive into things.). Luego, quiere hacer una localización y un mapeo simultáneos (SLAM, lea Wikipedia al respecto) y finalmente desea hacer la planificación del camino (es decir, barrer el piso sin cubrir el área dos veces).

Espero que ayude?

+0

El enlace SLAM es bastante útil. El problema con los sensores ultrasónicos es que ofrecen un rango bastante pequeño (10/20 m más o menos) y necesito construir de alguna manera, en función del paisaje que se avecina, una "mejor ruta" para barrer tanto como sea posible en la región (considere que quiero encontrar algunos objetos basados ​​en algunas ondas electrónicas que están emitiendo para un rango de 10 m en una vasta región (1 milla cuadrada), así que debo llegar a por lo menos 10 m para poder detectarlo). –

+0

Entiendo las limitaciones de sus sensores ultrasónicos y dije: ¡utilícenos para evitar obstáculos y no para hacer mapas! – Unapiedra

+0

¿Desea buscar balizas ultrasónicas? Por cierto, ¿cuál es tu tarea? Obtener de A a B, o barrer el área más grande posible, o construir un mapa completo, o encontrar ciertos objetos? – Unapiedra

1
  1. Yo diría que no si quiere decir que cada ojo gira independientemente. No obtendrá la precisión que necesita para hacer la correspondencia estereofónica y hará que la calibración sea una pesadilla. Pero si quieres que pivote la "cabeza" completa del robot, entonces eso puede ser factible. Pero deberías tener algunos buenos codificadores en las articulaciones.

  2. Si utiliza ROS, hay algunas herramientas que le ayudan a convertir las dos imágenes estéreo en una nube de puntos 3d. http://www.ros.org/wiki/stereo_image_proc. Existe una compensación entre su línea base (la distancia entre las cámaras) y su resolución en diferentes rangos. línea base grande = mayor resolución a grandes distancias, pero también tiene una distancia mínima grande. No creo que esperaría más de unos pocos centímetros de precisión desde una plataforma estéreo estéreo. y esta precisión solo empeora cuando compites la incertidumbre de la ubicación del robot.

    2.5. para el mapeo y la elusión de obstáculos, lo primero que trataría de hacer es segmentar el plano de tierra. el plano de tierra va a mapear, y todo lo de arriba es un obstáculo. echa un vistazo a PCL para algunas funciones operativas de nubes de puntos: http://pointclouds.org/

  3. si no se puede simplemente poner un láser plano en el robot como un enfermo o Hokuyo, entonces yo podría tratar de convertir a la nube de puntos 3D en una pseudo-láser -puede utilizar algunos de la plataforma SLAM en lugar de intentar hacer slam visual. creo que tendrás mejores resultados

Otros pensamientos: ahora que el Microsoft Kinect ha sido puesto en libertad, por lo general es más fácil (y barato) para utilizar simplemente que para obtener una nube de puntos 3D en lugar de hacer música real.

Este proyecto se parece mucho al programa DARPA LAGR. (aprendizaje aplicado a los robots terrestres). Ese programa ha terminado, pero es posible que pueda rastrear los artículos publicados a partir de él.

Cuestiones relacionadas