Cómo crear, lanzar y compartir IA generativa de manera responsable

“Si realmente queremos abordar estos problemas, debemos tomarnos en serio”, dice Farid. Por ejemplo, quiere que los proveedores de servicios en la nube y las tiendas de aplicaciones como las operadas por Amazon, Microsoft, Google y Apple, que forman parte del PAI, prohíban los servicios que permiten a las personas usar tecnología ultrafalsa con la intención de crear contenido sexual no consensuado. imágenes. Las marcas de agua en todo el contenido generado por IA también deberían ser obligatorias, no voluntarias, dice.

Otra cosa importante que falta es cómo los propios sistemas de IA podrían volverse más responsables, dice Ilke Demir, científica investigadora sénior de Intel que dirige el trabajo de la empresa sobre el desarrollo responsable de la IA generativa. Esto podría incluir más detalles sobre cómo se entrenó el modelo de IA, qué datos se incorporaron y si los modelos de IA generativa tienen algún sesgo.

Las pautas no mencionan la garantía de que no haya contenido tóxico en el conjunto de datos de los modelos generativos de IA. “Es una de las formas más significativas en que estos sistemas causan daños”, dice Daniel Leufer, analista principal de políticas del grupo de derechos digitales Access Now.

Las pautas incluyen una lista de daños que estas empresas quieren prevenir, como el fraude, el acoso y la desinformación. Pero un modelo de IA generativa que siempre crea personas blancas también está haciendo daño, y eso no figura actualmente en la lista, agrega Demir.

Farid plantea una cuestión más fundamental. Dado que las empresas reconocen que la tecnología podría provocar algunos daños graves y ofrecen formas de mitigarlos, “¿por qué no hacen la pregunta ‘¿Deberíamos hacer esto en primer lugar?'”

Leave a Reply

Your email address will not be published. Required fields are marked *