Cómo Ocean Vision AI nos ayudará a comprender la vida marina

Cómo Ocean Vision AI nos ayudará a comprender la vida marina

Hoy en día, hay más formas de tomar fotos del mundo submarino de lo que nadie podría haber imaginado al comienzo de los milenios, gracias a los diseños cada vez mejores para los animales acuáticos. cámaras. Por un lado, han proporcionado visiones esclarecedoras de la vida en los mares. Pero, por otro lado, estos dispositivos han inundado a los biólogos marinos con montañas de datos visuales que se han vuelto increíblemente tediosos y lentos de clasificar.

El Instituto de Investigación del Acuario de la Bahía de Monterey en California ha propuesto una solución: una plataforma de aprendizaje automático gamificada que puede ayudar a procesar videos e imágenes. Se llama IA de visión oceánica

, y funciona mediante la combinación de anotaciones hechas por humanos con inteligencia artificial. Piense en ello como la aplicación ebird o iNaturalist, pero modificada para la vida marina.

El proyecto es una colaboración multidisciplinaria entre científicos de datos, oceanógrafos, desarrolladores de juegos y expertos en interacción humano-computadora. En martesla Fundación Nacional de Ciencias mostró su apoyo al proyecto de dos años al otorgarle $ 5 millones en fondos.

“Solo una fracción de los cientos de miles de horas de video e imágenes oceánicas capturadas ha sido vista y analizada en su totalidad y aún menos compartida con la comunidad científica mundial”, Katy Croff Bell, fundadora y presidenta de Ocean Discovery League y miembro co-investigador principal de Ocean Vision AI, dijo en un presione soltar. El análisis de imágenes y videos en los que los organismos interactúan con su entorno y entre sí de manera compleja a menudo requiere el etiquetado manual por parte de expertos, un enfoque que requiere muchos recursos y no es fácilmente escalable.

[Related: Why ocean researchers want to create a global library of undersea sounds]

“A medida que más industrias e instituciones buscan utilizar el océano, existe una mayor necesidad de comprender el espacio en el que se cruzan sus actividades. El crecimiento de BlueEconomy requiere entender[ing] su impacto en el medio ambiente oceánico, particularmente en la vida que vive allí”, escribió Kakani Katija, ingeniera principal de MBARI e investigadora principal principal de Ocean Vision AI, en un publicación en Twitter.

Aquí es donde puede entrar la inteligencia artificial. Los biólogos marinos ya han estado experimentando con el uso de software de IA para clasificar sonidos, como cantos de ballenas, en el océano. La idea de Ocean Vision AI es crear un centro que pueda recopilar imágenes submarinas nuevas y existentes de grupos de investigación, usarlas para entrenar a un organismo que identifica algoritmo de inteligencia artificial

que diferencian el cangrejo de la esponja en el marco, por ejemplo, y comparten las imágenes anotadas con el público y la comunidad científica en general como fuente de datos abiertos.

[Related: Jacques Cousteau’s grandson is building a network of ocean floor research stations]

Una parte clave de la ecuación es una base de datos de imágenes de código abierto llamada Red de profundidad. Según NSF Cartera del Acelerador de Convergencia 2022“los datos en FathomNet se están utilizando para informar el diseño del OVAI [Ocean Vision AI] Portal, nuestra interfaz para que los profesionales del océano seleccionen conceptos de interés, adquieran datos de capacitación relevantes de FathomNet y ajusten modelos de aprendizaje automático. El objetivo final de OVAI es democratizar el acceso a las imágenes oceánicas y la infraestructura necesaria para analizarlas”.

Ocean Vision AI también tendrá un componente de videojuego que servirá para involucrar al público en el proyecto. El videojuego que está desarrollando el equipo “educará a los jugadores mientras genera nuevas anotaciones” que pueden mejorar la precisión de los modelos de IA.

Aunque el juego todavía está en pruebas de prototipo, se puede ver un adelanto en un video publicado por NSF para Youtube mostrando una interfaz que pregunta a los usuarios si una foto que vieron contenía una medusa (las imágenes de cómo se ve una medusa están presentes en la parte superior de la pantalla).

Así es como se ve la línea de tiempo actual para el proyecto. Para el próximo verano, el equipo espera que la primera versión de FathomNet (que ahora mismo está en beta) esté activa, con un conjunto preliminar de datos. En 2024, el equipo comenzará a exportar datos de encuestas ecológicas etiquetados con aprendizaje automático a repositorios como el Fondo de Información sobre Biodiversidad Global, y buscará construir un posible modelo de suscripción para instituciones. Durante este tiempo, los módulos del videojuego se integrarán en otros juegos populares, así como en experiencias de museos y acuarios. Después de probar diferentes versiones, el equipo finalizará su diseño y lanzará un juego multiplataforma independiente a fines de 2024.

“El océano juega un papel vital en la salud de nuestro planeta, pero solo hemos observado una pequeña fracción de él”, dijo Katija en un comunicado. presione soltar. “Juntos, estamos desarrollando herramientas que se necesitan con urgencia para ayudarnos a comprender mejor y proteger nuestro planeta azul”.

Leave a Reply

Your email address will not be published. Required fields are marked *