Los especialistas en robótica de King’s College London ganan a lo grande en una importante competición europea de robótica

Un equipo del Departamento de Informática ganó el premio ‘Best Team’ en el concurso Milton Keynes Smart City de la European Robotics League.

Académico, graduados y estudiantes universitarios del Departamento de Informática se llevaron a casa el oro el mes pasado en una importante competencia de robótica en Milton Keynes que explora la interacción social entre humanos y robots y el despliegue de robots en el mundo real.

Cada vez más, la interacción social entre humanos y robots se ha convertido en un elemento clave de la investigación en robótica a medida que se explora el potencial de los robots autónomos en entornos como residencias de ancianos y hostelería para hacer frente al impacto del envejecimiento de la población y el cambio demográfico.

Dirigido por el profesor titular de Ciencias de la Computación Matteo Leonetti en colaboración con el profesor de sistemas autónomos Gerard Canal, el equipo estaba formado por los doctores Peter Tisnikar, Zoe Evans, Jared Swift y los estudiantes universitarios Nicole Lehchevska, Pawel Makles y Yousef Altaher.

Compitiendo en los “episodios” ‘Coffee Shop’ y ‘Elevator’ de la competición Smart City de Milton Keynes contra equipos de toda Europa, el grupo programó al robot TIAGo para tomar un ascensor y realizar pedidos en un café simulado para probar cómo interactuaría de forma autónoma con humanos. Esto incluía tareas como garantizar que los artículos se entregaran, que las mesas se mantuvieran limpias y que se abordara a los clientes cuando fuera conveniente para imitar las convenciones sociales de un buen servicio al cliente.

“Existe una enorme diferencia entre lo que funciona en la simulación de laboratorio y lo que funciona en el mundo real. Construir un sistema móvil y parlante que pueda afrontar los desafíos inesperados que plantea un entorno del mundo real es una gran experiencia de aprendizaje y muy gratificante”.

Zoe Evans, estudiante de doctorado

Para ello, el grupo desarrolló software para el comportamiento autónomo integrando y basándose en varias áreas de la inteligencia artificial, como la visión por ordenador, la detección de objetos y el reconocimiento de voz. Al implementar estos sistemas en TIAGo, el robot podría percibir el mundo y reaccionar a estímulos externos, como una petición de voz pidiendo café.

Sin embargo, la integración de estos sistemas y su implementación en escenarios del mundo real puede resultar difícil y presenta una serie de desafíos que deben superarse. Como explica la estudiante de doctorado Zoe Evans: “Cuando se implementa en el mundo real, no se garantiza que varios paquetes de software, como el reconocimiento de voz y la visión por ordenador, funcionan de manera óptima en la misma pieza de hardware. Además, los sistemas comunes como el sistema de detección de objetos YOLO, que tienden a funcionar bien para objetos generales, tienen más dificultades para identificar elementos específicos que probablemente encontrarás en una cafetería, como tazas de café y paquetes de galletas.

Leído en:

King’s College London