DeepLabCut: Nueva aplicación de aprendizaje profundo a la captura de movimiento

Un equipo de investigadores afiliados a muchas instituciones en Alemania y en Estados Unidos, han desarrollado un algoritmo de aprendizaje profundo que puede ser usado para capturar el movimiento de los animales de prácticamente cualquier tipo. En un artículo publicado en Nature Neuroscience, el grupo describe su herramienta para seguir el movimiento de un animal, llamado DeepLabCut, cómo trabaja y cómo se usa. Kunlin Wei y Konrad Kording, de la Universidad de Pekín y de Pennsylvania, respectivamente, ofrecen una visión del trabajo realizado por el grupo.

Optogenética: Controlando las neuronas con luz

De acuerdo al resumen presentado por Wei y Kording, los científicos han tratado de aplicar la captura de movimiento a humanos y animales por más de un siglo. La idea es capturar lo intrincado de los movimientos más sutiles que juntos hacen posible el movimiento que vemos, como por ejemplo, cuando se ejecuta un paso de baile. Poder capturar el movimiento en animales puede ofrecer pistas sobre sus biomecanismos y del cómo trabajan sus cerebros. De hecho, esto podría hacerse con humanos para ayudar en esfuerzos de terapia física o mejoras en el desempeño de un deportista. El proceso actual involucra el grabar en video al sujeto de estudio y hacer un laborioso proceso de marcar las imágenes, cuadro por cuadro. En este trabajo, los investigadores han desarrollado una técnica de automatización por computadora, el cual hace el proceso mucho más fácil y rápido.

Para crear DeepLabCut, el grupo entrenó una red neuronal usando información de una base de datos llamada Imagenet, la cual contiene un número masivo de imágenes con sus correspondientes metadatos. Entonces desarrollaron un algoritmo que optimiza la estimación de las poses. La tercera pieza del asunto es que el software interactúa con el usuario y ofrece los posibles resultados. Con ello se tiene una herramienta que puede ser usada para capturar movimiento en humanos o en cualquier otra criatura. Lo único que hay que hacer es subir imágenes del objeto a capturar, por ejemplo, fotos de una ardilla, con sus partes más grandes marcadas así como algunos videos demostrando cómo se mueve en general. Entonces el usuario puede subir el video de la ardilla a la cual se le quiere capturar wel movimiento y el software hace el resto, produciendo la captura de movimiento de la actividad.

El equipo a puesto DeepLabCut de forma gratuita a todo aquel que quiera usarla para el propósito que desee. Wei y Kording sugieren que esta nueva herramienta podría revolucionar la captura de movimiento, haciendo esta tecnología disponible para profesionales y aficionados.

Más información: Alexander Mathis et al. DeepLabCut: markerless pose estimation of user-defined body parts with deep learning, Nature Neuroscience (2018).

La entrada DeepLabCut: Nueva aplicación de aprendizaje profundo a la captura de movimiento se publicó primero en unocero.

Podría también gustarte...

Deja un comentario

A %d blogueros les gusta esto: