Las empresas de inteligencia artificial prometieron autorregularse hace un año. ¿Qué ha cambiado?

Las empresas de inteligencia artificial prometieron autorregularse hace un año. ¿Qué ha cambiado?

RESULTADO: Bien. En general, este es un resultado alentador. Si bien las marcas de agua siguen siendo experimentales y aún no son confiables, es bueno ver que se realizan investigaciones al respecto y que existe un compromiso con el estándar C2PA. Es mejor que nada, especialmente durante un año electoral ajetreado.

Compromiso 6

Las empresas se comprometen a informar públicamente sobre las capacidades, limitaciones y áreas de uso adecuado e inadecuado de sus sistemas de IA. Este informe cubrirá tanto los riesgos de seguridad como los riesgos sociales, como los efectos sobre la imparcialidad y los sesgos.

Los compromisos de la Casa Blanca dejan mucho margen para la interpretación. Por ejemplo, las empresas pueden cumplir técnicamente este compromiso de información pública con niveles muy variables de transparencia, siempre que cumplan con sus obligaciones. algo en esa dirección general.

Las soluciones más comunes que las empresas tecnológicas ofrecieron aquí fueron las llamadas tarjetas de modelo. Cada empresa las denomina con un nombre ligeramente diferente, pero en esencia actúan como una especie de descripción de producto para los modelos de IA. Pueden abordar cualquier tema, desde las capacidades y limitaciones del modelo (incluido cómo se compara con los puntos de referencia en materia de imparcialidad y explicabilidad) hasta la veracidad, la solidez, la gobernanza, la privacidad y la seguridad. Anthropic dijo que también prueba los modelos para detectar posibles problemas de seguridad que puedan surgir más adelante.

Microsoft ha publicado un informe anual Informe de transparencia sobre inteligencia artificial responsableque brinda información sobre cómo la empresa crea aplicaciones que utilizan IA generativa, toma decisiones y supervisa la implementación de esas aplicaciones. La empresa también dice que proporciona un aviso claro sobre dónde y cómo se utiliza la IA dentro de sus productos.

RESULTADO: Es necesario seguir trabajando. Un aspecto que las empresas de IA podrían mejorar sería aumentar la transparencia en sus estructuras de gobernanza y en las relaciones financieras entre empresas, afirma Hickok. También le habría gustado que las empresas hicieran más públicos los detalles sobre la procedencia de los datos, los procesos de entrenamiento de los modelos, los incidentes de seguridad y el uso de energía.

Compromiso 7

Las empresas se comprometen a priorizar la investigación sobre los riesgos sociales que pueden plantear los sistemas de IA, incluida la prevención de prejuicios y discriminación perjudiciales y la protección de la privacidad. El historial de la IA muestra lo insidiosos y la prevalencia de estos peligros, y las empresas se comprometen a implementar IA que los mitigue.

Las empresas tecnológicas han estado muy ocupadas en el frente de la investigación de seguridad y han incorporado sus hallazgos en sus productos. Amazon ha construido barandillas para Amazon Bedrock que pueden detectar alucinaciones y pueden aplicar protecciones de seguridad, privacidad y veracidad. Anthropic dice que emplea un equipo de investigadores dedicado a investigar los riesgos sociales y la privacidad. El año pasado, la empresa ha impulsado investigaciones sobre engaño, fuga de la cárcelestrategias para mitigar discriminacióny capacidades emergentes como la capacidad de los modelos para manipular su propio código o participar en persuasión. Y OpenAI dice que ha entrenado a sus modelos para evitar producir contenido de odio y negarse a generar resultados sobre contenido de odio o extremismo. Entrenó a su GPT-4V para rechazar muchas solicitudes que requieren recurrir a estereotipos para responder. Google DeepMind también ha lanzado investigación para evaluar las capacidades peligrosas, y la empresa ha hecho un estudiar sobre los usos indebidos de la IA generativa.