Skip to main content

Sistema asistido por robot con cámara Ensenso 3D para la manipulación segura de residuos nucleares.

El desmantelamiento de instalaciones nucleares plantea importantes desafíos para los operadores. Ya sea para el desmantelamiento o la contención segura, la cantidad de desechos nucleares que se eliminarán está creciendo a un ritmo abrumador en todo el mundo. La automatización es cada vez más necesaria para manejar los desechos nucleares, pero la industria nuclear es reacia a los métodos de control robótico totalmente autónomos por razones de seguridad, y los robots industriales controlados a distancia son los preferidos en entornos peligrosos. Sin embargo, tareas tan complejas como agarrar o cortar objetos desconocidos por control remoto con la ayuda de joysticks y cámaras de videovigilancia son difíciles de controlar y, a veces, incluso imposibles.

Para simplificar este proceso, el Centro Nacional de Robótica Nuclear dirigido por Extreme Robotics Lab en la Universidad de Birmingham en el Reino Unido está investigando opciones de manejo automatizado para desechos nucleares. El sistema de asistencia robótica desarrollado allí permite el control «compartido» para realizar tareas complejas de manipulación mediante retroalimentación háptica e información de visión proporcionada por la cámara 3D Ensenso. El operador, que siempre está presente en el circuito, puede mantener el control sobre las acciones automatizadas del robot, en caso de fallas del sistema.

Solicitud

Cualquiera que haya probado alguna vez una máquina de agarre de feria puede confirmarlo: el control manual de los brazos de agarre no es nada trivial. Tan inofensivo como es fallar al intentar agarrar un conejito de peluche, los intentos fallidos pueden ser tan dramáticos cuando se manejan desechos radiactivos. Para evitar daños con graves consecuencias para los seres humanos y el medio ambiente, el robot debe ser capaz de detectar los objetos radiactivos en la escena con extrema precisión y actuar con precisión. El operador lo tiene literalmente en sus manos, depende de él identificar las posiciones de agarre correctas. Al mismo tiempo, debe evaluar correctamente la cinemática inversa (transformación hacia atrás) y determinar correctamente los ángulos de articulación de los elementos del brazo del robot para posicionarlo correctamente y evitar colisiones.

El sistema escanea de forma autónoma los objetos de desecho desconocidos y crea un modelo 3D de ellos en forma de nube de puntos. Esto es extremadamente preciso porque las cámaras Ensenso 3D funcionan de acuerdo con el principio de visión espacial (visión estéreo), que se basa en la visión humana. Dos cámaras ven el objeto desde diferentes posiciones. Aunque el contenido de la imagen de ambas imágenes de la cámara parece idéntico, muestran diferencias en la posición de los objetos visualizados. Dado que se conocen la distancia y el ángulo de visión de las cámaras, así como la distancia focal de la óptica, el software Ensenso puede determinar la coordinación 3D del punto del objeto para cada píxel de la imagen individual. En este caso, la escena se captura utilizando diferentes posiciones de escaneo de la cámara y se combina para obtener una superficie 3D completa desde todos los ángulos de visión. Ensenso ‘ Las rutinas de calibración ayudan a transformar las nubes de puntos individuales en un sistema de coordenadas global, lo que mejora la imagen virtual completa. Por tanto, la nube de puntos resultante contiene toda la información espacial del objeto necesaria para comunicar al robot la posición correcta de agarre o corte.

Con la ayuda del software, la cámara Enseno 3D se hace cargo de la percepción y evaluación de la información de profundidad para el operador, cuya carga cognitiva se reduce considerablemente como resultado. El sistema de asistencia combina las características hápticas del objeto a agarrar con un algoritmo de agarre especial.

«Nuestro sistema utiliza la nube de escena para generar automáticamente varias posiciones de agarre estables. Dado que las nubes de puntos capturadas por la cámara 3D son densas y de alta resolución, es posible generar posiciones de agarre muy precisas para cada objeto en la escena. sobre esto, nuestro «algoritmo de clasificación de hipótesis» determina el siguiente objeto a recoger, en función de la posición actual del robot «, explica el Dr. Naresh Marturi, científico investigador principal del Centro Nacional de Robótica Nuclear.

(El principio es similar al del juego de habilidad Mikado, donde se debe quitar un palo a la vez sin mover ningún otro palo).

La guía de ruta determinada permite al robot navegar de manera suave y uniforme a lo largo de una ruta deseada hasta la posición de agarre objetivo. Al igual que un sistema de navegación, el sistema ayuda al operador a guiar el brazo del robot hacia un agarre seguro, si es necesario, también más allá de otros objetos desconocidos y peligrosos. El sistema calcula un corredor seguro para esto y ayuda al operador a no salir del corredor mediante retroalimentación háptica.

El sistema asigna los movimientos naturales de la mano del operador de forma exacta y fiable en tiempo real a los movimientos correspondientes del robot. Por lo tanto, el operador siempre conserva el control manual y puede asumir el control en caso de falla de un componente. Simplemente puede apagar la IA y volver a la inteligencia humana desactivando el «modo de retroalimentación de fuerza». De acuerdo con el principio de control compartido entre el hombre y la máquina, el sistema permanece bajo control en todo momento, algo esencial en un entorno con el mayor nivel de peligro.

Cámara

«Para todas nuestras tareas de planificación de agarre autónoma, control remoto y seguimiento visual de objetos, utilizamos cámaras 3D modelo Ensenso N35 con LED azules (465 nm) montadas en el efector final de los robots junto con otras herramientas», dice el Dr. Naresh Marturi. La mayoría de los sistemas del Extreme Robotic Lab han sido equipados hasta ahora con una sola cámara 3D. «Sin embargo, recientemente para acelerar el proceso de construcción de modelos 3D, hemos actualizado nuestros sistemas para usar tres cámaras Ensenso 3D adicionales montadas en escena junto con la que está a bordo del robot».

La serie Ensenso N está predestinada para esta tarea. Fue diseñado especialmente para su uso en condiciones ambientales adversas. Gracias a su diseño compacto, la serie N es igualmente adecuada para el uso estacionario o móvil que ahorra espacio en un brazo de robot para la detección 3D de objetos en movimiento y estáticos. Incluso en condiciones de iluminación difíciles, el proyector integrado proyecta una textura de alto contraste sobre el objeto a fotografiar por medio de una máscara de patrón con un patrón de puntos aleatorios, complementando así las estructuras que no están o solo están débilmente presentes en su superficie. La carcasa de aluminio de los modelos N30 garantiza una disipación de calor óptima de los componentes electrónicos y, por lo tanto, una salida de luz estable incluso en condiciones ambientales extremas. Esto asegura la alta calidad y solidez de los datos 3D de forma constante. Incluso en condiciones de iluminación difíciles.

Las cámaras de la familia de cámaras Ensenso N son fáciles de configurar y operar a través del Ensenso SDK. Ofrece procesamiento de imágenes basado en GPU para un procesamiento de datos 3D aún más rápido y permite la salida de una única nube de puntos 3D de todas las cámaras utilizadas en la operación multicámara, que se requiere en este caso, así como la composición en vivo del punto 3D. nubes desde múltiples direcciones de visualización. Para el sistema de asistencia, los investigadores han desarrollado su propio software en C ++ para procesar las nubes de puntos 3D capturadas por las cámaras.

«Nuestro software utiliza el Ensenso SDK (multiproceso) y sus rutinas de calibración para superponer la textura en las nubes de puntos de alta resolución y luego transformar estas nubes de puntos texturizadas en un sistema de coordenadas mundial», explica el Dr. Naresh Marturi. “Ensenso SDK es bastante fácil de integrar con nuestro software C ++. Ofrece una variedad de funciones y métodos sencillos para capturar y manejar nubes de puntos, así como imágenes de la cámara. Además, con el soporte de CUDA, las rutinas SDK nos permiten registrar múltiples nubes de puntos de alta resolución para generar nubes de escenas de alta calidad en un marco global. Esto es muy importante para nosotros, especialmente para generar hipótesis de comprensión precisas «.

Principales ventajas del sistema

• Los operadores no necesitan preocuparse por la profundidad de la escena o cómo alcanzar el objeto o dónde agarrarlo. El sistema puede descubrir todo en segundo plano y ayuda al operador a moverse exactamente al lugar donde el robot puede agarrar mejor el objeto.
• Con retroalimentación háptica, los operadores pueden sentir el robot en su mano incluso cuando el robot no está presente frente a ellos.
• Combinando háptica y planificación de agarre, los operadores pueden mover los objetos en una escena remota muy fácil y rápidamente con una carga cognitiva muy baja.

Esto ahorra tiempo y dinero, evita errores y aumenta la seguridad.

Panorama

Los investigadores del Extreme Robotic Lab en Birmingham están desarrollando actualmente una extensión del método para permitir el uso de una mano con varios dedos en lugar de una pinza de mandíbula paralela. Esto debería aumentar la flexibilidad y confiabilidad al agarrar objetos complejos. En el futuro, el operador también podrá sentir las fuerzas a las que están expuestos los dedos del robot de control remoto al agarrar un objeto. También se están desarrollando métodos de agarre totalmente autónomos, en los que el brazo del robot está controlado por una IA y guiado por un sistema de visión automática. El equipo también está trabajando en herramientas de visualización para mejorar la colaboración humano-robot para controlar robots remotos a través de un sistema de «control compartido».

Este es un enfoque prometedor para la seguridad y la salud de todos: la manipulación de objetos peligrosos como los desechos nucleares es, en última instancia, un asunto que nos preocupa a todos. Al capturar de manera confiable la información relevante del objeto, las cámaras Ensenso 3D están haciendo una contribución importante a esta tarea de creciente urgencia que prevalece en todo el mundo.

Cliente / Universidad

El Laboratorio de Robótica Extrema de la Universidad de Birmingham, Reino Unido, es líder en el mercado en muchos de los componentes necesarios para los crecientes esfuerzos para roboticizar las operaciones nucleares.

www.birmingham.ac.uk/research/activity/metallurgy-materials/robotics/our-technologies.aspx