Sam Altman de OpenAI promete que su compañía no abandonará la UE, en realidad

Sam Altman de OpenAI promete que su compañía no abandonará la UE, en realidad

El director ejecutivo de OpenAI, Sam Altman, cuya empresa se ha convertido en una de las empresas más lucrativas para el despliegue de inteligencia artificial, también ha trabajado para convertirse en uno de los nuevos testaferros de la regulación de la IA. Es una línea difícil de caminar, y aunque se las arregló para hacer una número de congresistas estadounidenses sonríen y asienten con la cabeza, no ha encontrado el mismo éxito en Europa. Ahora se ha visto obligado a aclarar cuáles son los planes de su empresa para mantenerse fuera de los EE. UU.

Durante una parada en Londres, Reino Unido, el miércoles, Altman le dijo a una multitud que si la UE sigue en la misma línea con sus regulaciones de IA planificadas, les va a causar serios dolores de cabeza

. Dijo: “Si podemos cumplir, lo haremos, y si no podemos, dejaremos de operar… Lo intentaremos. Pero hay límites técnicos a lo que es posible”.

Altman revocó esa declaración hasta cierto punto el viernes después de regresar a casa de su gira mundial de una semana. Dijo que “estamos emocionados de seguir operando aquí y, por supuesto, no tenemos planes de irnos”.

Si bien la Casa Blanca ha emitió algunas orientaciones en la lucha contra los riesgos de la IA, los EE. UU. aún están muy por detrás de cualquier legislación real sobre la IA. Hay cierto movimiento dentro del Congreso como el de hace un año Ley de responsabilidad algorítmicay más recientemente con un “Grupo de Trabajo de IA” propuesto, pero en realidad no hay nada en los libros que pueda lidiar con el mundo en rápida expansión de la implementación de IA.

La UE, por otro lado, modificó una Ley de IA propuesta para tener en cuenta la IA generativa moderna como chatGPT. Específicamente, ese proyecto de ley podría tener enormes implicaciones sobre cómo los modelos de lenguaje grandes como GPT-4 de OpenAI se entrenan en terabyte tras terabyte de datos de usuario extraídos de Internet. La ley propuesta por el organismo gobernante europeo podría etiquetar los sistemas de inteligencia artificial como de “alto riesgo” si pudieran usarse para influir en las elecciones.

Por supuesto, OpenAI no es la única gran empresa de tecnología que quiere al menos parecer que está tratando de ponerse al frente del debate sobre la ética de la IA. El jueves, los ejecutivos de Microsoft realizaron un bombardeo mediático para explicar sus propias esperanzas de regulación. El presidente de Microsoft, Brad Smith, dijo durante una Transmisión en vivo de LinkedIn que Estados Unidos podría usar una nueva agencia para manejar la IA. Es una línea que hace eco La propia propuesta de Altman al Congreso

aunque también pidió leyes que aumentarían la transparencia y crearían “interrupciones de seguridad” para la IA utilizada en infraestructura crítica.

Incluso con un plano de cinco puntos para tratar con la IA, el discurso de Smith estuvo lleno de esperanzas pero ligero en detalles. Microsoft ha sido el más listo para proliferar AI en comparación con sus rivales, todo en un esfuerzo por adelantarse a las grandes empresas tecnológicas como Google y Apple. Sin mencionar que Microsoft está en un en curso asociación multimillonaria con OpenAI.

El jueves, OpenAI reveló que estaba creando un programa de subvenciones para financiar grupos que pudieran decidir las reglas sobre la IA. El fondo otorgaría 10 subvenciones de $ 100,000 a grupos dispuestos a hacer el trabajo preliminar y crear “pruebas de concepto para un proceso democrático que podría responder preguntas sobre qué reglas deben seguir los sistemas de IA”. La compañía dijo que la fecha límite para este programa era en solo un mes, el 24 de junio.

OpenAI ofreció algunos ejemplos de las preguntas que los solicitantes de subvenciones deberían buscar para responder. Un ejemplo fue si AI debería ofrecer “apoyo emocional” a las personas. Otra pregunta era si los modelos de inteligencia artificial de visión y lenguaje deberían poder identificar el género, la raza o la identidad de las personas en función de sus imágenes. Esa última pregunta podría aplicarse fácilmente a cualquier número de Sistemas de reconocimiento facial basados ​​en IAen cuyo caso la única respuesta aceptable es “no, nunca”.

Y hay bastantes cuestiones éticas que una empresa como OpenAI tiene el incentivo de dejar fuera de la conversación, particularmente en la forma en que decide publicar los datos de entrenamiento para sus modelos de IA.

Lo que se remonta al eterno problema de dejar que las empresas dicten cómo se puede regular su propia industria. Incluso si las intenciones de OpenAI son, en su mayor parte, impulsadas por un deseo consciente de reducir el daño de la IA, las empresas de tecnología tienen incentivos financieros para ayudarse a sí mismas antes de ayudar a los demás.


¿Quiere saber más sobre la IA, los chatbots y el futuro del aprendizaje automático? Consulte nuestra cobertura completa de inteligencia artificialo explore nuestras guías para Los mejores generadores de arte de IA gratuitos, Las mejores alternativas de ChatGPTy Todo lo que sabemos sobre ChatGPT de OpenAI.

Leave a Reply

Your email address will not be published. Required fields are marked *