La IA responsable tiene un problema de agotamiento

La IA responsable tiene un problema de agotamiento

Velocidad vertiginosa

El rápido ritmo de la investigación en inteligencia artificial tampoco ayuda. Los nuevos avances vienen rápidos y espesos. Solo en el último año, las empresas de tecnología dieron a conocer sistemas de inteligencia artificial que generan imágenes a partir de texto, solo para anunciar, solo unas semanas después, un software de inteligencia artificial aún más impresionante que también puede crear videos solo a partir de texto. Ese es un progreso impresionante, pero los daños potencialmente asociados con cada nuevo avance pueden representar un desafío implacable. La IA de texto a imagen podría violar los derechos de autor y podría estar entrenada en conjuntos de datos llenos de material tóxico, lo que conduciría a resultados inseguros.

“Perseguir lo que está realmente de moda, el tema candente en Twitter, es agotador”, dice Chowdhury. Los especialistas en ética no pueden ser expertos en la miríada de problemas diferentes que plantea cada nuevo avance, dice, pero todavía siente que tiene que mantenerse al día con cada giro y vuelta del ciclo de información de IA por temor a perderse algo importante.

Chowdhury dice que trabajar como parte de un equipo con buenos recursos en Twitter ha ayudado, y le asegura que no tiene que soportar la carga sola. “Sé que puedo irme por una semana y las cosas no se derrumbarán, porque no soy la única persona que lo hace”, dice ella.

Pero Chowdhury trabaja en una gran empresa de tecnología con los fondos y el deseo de contratar a todo un equipo para trabajar en una IA responsable. No todo el mundo tiene la misma suerte.

Las personas en las empresas emergentes de IA más pequeñas enfrentan mucha presión de los inversionistas de capital de riesgo para hacer crecer el negocio, y los cheques que se escriben de los contratos con los inversionistas a menudo no reflejan el trabajo adicional que se requiere para construir tecnología responsable, dice Vivek Katial. , científico de datos en Multitudes, una startup australiana que trabaja en análisis de datos éticos.

El sector tecnológico debería exigir más a los capitalistas de riesgo para “reconocer el hecho de que deben pagar más por tecnología que será más responsable”, dice Katial.

El problema es que muchas empresas ni siquiera pueden darse cuenta de que, para empezar, tienen un problema, según un informe publicado por . Sloan Management Review y Boston Consulting Group este año. La IA era una prioridad estratégica principal para el 42 % de los encuestados en el informe, pero solo el 19 % dijo que su organización había implementado un programa de IA responsable.

Algunos pueden creer que están pensando en mitigar los riesgos de la IA, pero simplemente no están contratando a las personas adecuadas en los roles correctos y luego brindándoles los recursos que necesitan para poner en práctica la IA responsable, dice Gupta.

Leave a Reply

Your email address will not be published. Required fields are marked *