El uso de IA durante una pandemia crea soluciones y causa ansiedad; los reguladores deberían intervenir



Los años 1956 a 1965 se consideran el Big Bang para la Inteligencia Artificial (IA). Esto es cuando los primeros programadores pidieron a las computadoras que entendieran grandes conjuntos de datos. Hoy en día, las tecnologías de IA siguen siendo propensas a fallar e incapaces de realizar abstracciones, pero se han vuelto excelentes en la coincidencia de patrones. La capacidad de las máquinas para aprender de la experiencia y realizar tareas que antes solo eran posibles para los humanos ha creado una gama de posibilidades para enriquecer y mejorar las vidas humanas, así como para ponerlas en peligro.

La pandemia de 2020 puede haber reiniciado la IA, y con esto los sistemas de IA estarán arrasando nuestras vidas en los próximos años. Las implicaciones pueden ser enormes. La gente debería adoptar la IA, pero no confiar en ella todavía. No hasta que los ingenieros creen sistemas, y los gobiernos creen un entorno regulatorio y una transparencia que se ganen la confianza de la sociedad.

Durante los últimos meses, muchos han depositado su confianza en la IA, demostrando sus habilidades y desarrollando aplicaciones para mejorar la efectividad de las soluciones para combatir el virus.

En Europa, países como Francia están probando herramientas que trazan patrones para construir modelos de pronóstico con el propósito de comprender los puntos críticos emergentes de COVID-19. Están implementando sistemas impulsados ​​por IA que pueden ejecutar millones de patrones por minuto para descubrir ideas y construir modelos predictivos en una variedad de resultados.

Otro beneficio crucial de la implementación de robots de IA es que minimizan el riesgo de exposición de los trabajadores esenciales al tiempo que permiten que los hospitales o tiendas continúen con las actividades diarias. Blue Ocean Robotics, una nueva empresa danesa, por ejemplo, ha creado un robot de desinfección autónomo que utiliza luz ultravioleta para matar bacterias y virus en los hospitales. Sus robots se han desplegado en todas las provincias chinas para ayudar a combatir COVID-19.

Otros usos innovadores de la IA en el contexto de COVID-19 incluyen el seguimiento y pronóstico de brotes, el diagnóstico del virus, el procesamiento de reclamos de atención médica, la información sobre el estado de las restricciones locales, la entrega de alimentos y suministros médicos, la limpieza y esterilización de superficies, el seguimiento de contactos y la rápida -seguimiento del desarrollo de una vacuna.

Riesgos asociados con la IA

La IA se ha reiniciado este año y liderará el camino en el mundo posterior a la pandemia. Como es el caso con muchas tecnologías nuevas, a veces también se abusará de la IA. Su mayor uso causará interrupción laboral, vigilancia dirigida y masiva, nueva carrera armamentista, así como el desarrollo de herramientas de toma de decisiones algorítmicas sesgadas.

El uso no regulado de la IA en algunos casos ya está afectando las libertades civiles en nombre de los intereses de salud pública. Los países de todo el mundo han estado adoptando medidas de vigilancia que utilizan medios automatizados para recopilar datos y llevar a cabo el seguimiento de contactos, el control de cuarentena y el cercado electrónico.

Varios países europeos están obteniendo datos para evaluar el cumplimiento de las medidas de bloqueo. En el Reino Unido y España, se están utilizando imágenes de CCTV y drones de video para monitorear y hacer cumplir el cumplimiento del bloqueo general. Todavía está por verse si tales medidas permanecerán en todo el mundo después de la pandemia. Argumentamos que la IA debe desarrollarse y utilizarse más, siempre que podamos confiar en la tecnología y las personas que la utilizan.

Las preocupaciones de salud pública pueden superar los derechos de privacidad durante un estado de emergencia. Estamos aquí para reclamar que uno no debe excluir al otro. Los pasos de emergencia parecen tener una desagradable tendencia a convertirse en una nueva normalidad. Nos preocupan las medidas implementadas recientemente que parece poco probable que retrocedan una vez que termine la pandemia, lo que genera importantes riesgos de privacidad. Estamos señalando la réplica de los ataques terroristas de París en 2015, cuando un estado de emergencia se extendió cinco veces y duró dos años. Cuando se retiró, el gobierno francés absorbió los poderes antiterroristas excepcionales en noviembre de 2017.

Esto, así como el uso de IA en el mundo posterior a la pandemia, requiere una regulación cuidadosa y una supervisión diligente.

En los Estados Unidos, el proyecto de reglas sobre el uso de IA indica que el gobierno utilizará una regulación mínima y para alentar el crecimiento y la innovación de AI. Esto dará como resultado que la industria se adelante al gobierno y que las compañías de inteligencia artificial con sede en EE. UU. Obtengan una ventaja, como ha sido el caso con Internet y otras tecnologías.

La UE necesitará encontrar un enfoque equilibrado. La sobre regulación y el exceso de burocracia resultarán en una menor innovación. Los reguladores primero necesitan estar bien educados en IA, ya que el proceso de legislar y regular puede no darse a los menos informados. Deben asegurarse de que cualquier uso de IA sea proporcional al interés público, que no puede ser exagerado o politizado.

Del mismo modo, para el uso de datos en línea, debe haber una supervisión independiente sobre qué datos se recopilan y quién puede usarlos y cuándo. Ningún dato obtenido por AI debe ser comercializado o comercializado sin un consentimiento informado de la persona.

Los perros guardianes de la privacidad, los oficiales de privacidad de datos y las plataformas de privacidad deben aportar transparencia y ayudar a generar confianza en el uso de datos por parte de los sistemas de inteligencia artificial, auditándolos y ayudando a sus operadores con el desarrollo y la implementación del sistema.

Los usos excesivamente invasivos de la IA, como la vigilancia, deben finalizar cuando finalice la pandemia. Los datos recibidos para combatir el virus y las futuras pandemias no pueden ser utilizados para otros fines, comercialmente por empresas o gobiernos para controlar a las personas.

La UE debería esforzarse por defender el desarrollo y la implementación de la IA. Sin embargo, su progreso estará determinado no solo por la capacidad de las máquinas de descifrar más datos o ejecutar más operaciones. Los sistemas de inteligencia artificial deben ser verdaderamente inteligentes cuando se alinean con los valores humanos y respetan la privacidad.

LO MÁS LEÍDO

Leave a Reply

Your email address will not be published. Required fields are marked *