A medida que se acercan las elecciones de 2024, OpenAI dice que está tomando medidas para prevenir el abuso de la IA

A medida que se acercan las elecciones de 2024, OpenAI dice que está tomando medidas para prevenir el abuso de la IA
Una foto pixelada de Donald Trump.

El lunes, OpenAI, creador de ChatGPT detalló sus planes para evitar el uso indebido de sus tecnologías de inteligencia artificial durante las próximas elecciones de 2024, prometiendo transparencia en el contenido generado por inteligencia artificial y mejorando el acceso a información electoral confiable. El desarrollador de IA dice que está trabajando en un enfoque que implica la aplicación de políticas, la colaboración con socios y el desarrollo de nuevas herramientas destinadas a clasificar los medios generados por IA.

“Mientras nos preparamos para las elecciones de 2024 en las democracias más grandes del mundo, nuestro enfoque es continuar nuestro trabajo de seguridad de la plataforma elevando información de votación precisa, aplicando políticas mesuradas y mejorando la transparencia”, escribe OpenAI en su publicación de blog. “Proteger la integridad de las elecciones requiere la colaboración de todos los rincones del proceso democrático, y queremos asegurarnos de que nuestra tecnología no se utilice de una manera que pueda socavar este proceso”.

Las iniciativas propuestas por OpenAI incluyen prevenir abusos mediante medios como deepfakes o bots que imitan candidatos, refinar las políticas de uso y lanzar un sistema de informes para que el público señale posibles abusos. Por ejemplo, la herramienta de generación de imágenes de OpenAI, DALL-E 3, incluye filtros integrados que rechazan solicitudes para crear imágenes de personas reales, incluidos políticos. “Durante años, hemos estado iterando herramientas para mejorar la precisión de los hechos, reducir el sesgo y rechazar ciertas solicitudes”, afirmó la compañía.

OpenAI dice que actualiza periódicamente sus Políticas de uso para ChatGPT y sus productos API para evitar el uso indebido, especialmente en el contexto de las elecciones. La organización ha implementado restricciones en el uso de sus tecnologías para campañas políticas y lobby hasta que comprenda mejor el potencial de la persuasión personalizada. Además, OpenAI prohíbe la creación de chatbots que se hagan pasar por personas o instituciones reales y no permite el desarrollo de aplicaciones que puedan disuadir a las personas de “participar en procesos democráticos”. Los usuarios pueden denunciar GPT que puedan violar las reglas.

OpenAI afirma estar involucrado de manera proactiva en estrategias detalladas para salvaguardar sus tecnologías contra el uso indebido. Según sus declaraciones, esto incluye formar equipos rojos con nuevos sistemas para anticipar desafíos, interactuar con usuarios y socios para obtener comentarios e implementar mitigaciones de seguridad sólidas. OpenAI afirma que estos esfuerzos son parte integral de su misión de perfeccionar continuamente las herramientas de IA para mejorar la precisión, reducir los sesgos y manejar responsablemente las solicitudes confidenciales.

En cuanto a la transparencia, OpenAI dice que está avanzando en sus esfuerzos para clasificar la procedencia de las imágenes. La compañía planea incorporar credenciales digitales, utilizando técnicas criptográficas, en imágenes producidas por DALL-E 3 como parte de la adopción de estándares por parte del Coalición para la procedencia y autenticidad del contenido. Además, OpenAI dice que está probando una herramienta diseñada para identificar imágenes generadas por DALL-E.

En un esfuerzo por conectar a los usuarios con información autorizada, particularmente sobre los procedimientos de votación, OpenAI dice que se ha asociado con la Asociación Nacional de Secretarios de Estado (NASS) en los Estados Unidos. ChatGPT dirigirá a los usuarios a CanIVote.org para obtener información verificada sobre la votación en EE. UU.

“Queremos asegurarnos de que nuestros sistemas de IA se construyan, implementen y utilicen de forma segura”, escribe OpenAI. “Como cualquier tecnología nueva, estas herramientas conllevan beneficios y desafíos. Tampoco tienen precedentes y seguiremos evolucionando nuestro enfoque a medida que aprendamos más sobre cómo se utilizan nuestras herramientas”.

Leave a Reply

Your email address will not be published. Required fields are marked *