Detectar contenido inadecuado en la era de la IA

Los modelos de lenguaje extenso aún luchan con el contexto, lo que significa que probablemente no podrán interpretar los matices de las publicaciones y las imágenes tan bien como los moderadores humanos. La escalabilidad y la especificidad en diferentes culturas también plantean preguntas. “¿Despliega un modelo para algún tipo particular de nicho? ¿Lo haces por país? ¿Lo haces por comunidad?… No es un problema de talla única”, dice DiResta.

Nuevas herramientas para nuevas tecnologías

El hecho de que la IA generativa termine siendo más dañina o útil para la esfera de la información en línea puede depender, en gran medida, de si las empresas de tecnología pueden crear herramientas buenas y ampliamente adoptadas para decirnos si el contenido es generado por IA o no.

Eso es todo un desafío técnico, y DiResta me dice que la detección de medios sintéticos probablemente sea una alta prioridad. Esto incluye métodos como marca de agua digital, que incorpora un fragmento de código que sirve como una especie de marca permanente para señalar que el contenido adjunto fue creado por inteligencia artificial. Las herramientas automatizadas para detectar publicaciones generadas o manipuladas por IA son atractivas porque, a diferencia de las marcas de agua, no requieren que el creador del contenido generado por IA lo etiquete de manera proactiva como tal. Dicho esto, las herramientas actuales que intentan hacer esto no han sido particularmente buenas para identificar contenido creado por máquinas.

Algunas empresas incluso han propuesto firmas criptográficas que usan matemáticas para registrar información de forma segura, como cómo se originó un contenido, pero esto dependería de técnicas de divulgación voluntaria como la marca de agua.

La versión más reciente de la Ley de IA de la Unión Europea, que se propuso esta semana, requiere que las empresas que usan IA generativa informen a los usuarios cuando el contenido es realmente generado por una máquina. Es probable que escuchemos mucho más sobre este tipo de herramientas emergentes en los próximos meses a medida que aumente la demanda de transparencia en torno al contenido generado por IA.

que mas estoy leyendo

  • La UE podría estar en el A punto de prohibir el reconocimiento facial en lugares públicos, así como algoritmos policiales predictivos. Si se aprueba, esta prohibición sería un gran logro para el movimiento contra el reconocimiento facial, que ha perdido impulso en los EE. UU. en los últimos meses.
  • El martes, Sam Altman, director ejecutivo de OpenAI, testificará ante el Congreso de EE.UU. como parte de una audiencia sobre la supervisión de AI luego de una cena bipartidista la noche anterior. Tengo muchas ganas de ver qué tan fluidos son los legisladores estadounidenses en inteligencia artificial y si sale algo tangible de la reunión, pero mis expectativas no son muy altas.
  • El fin de semana pasado, la policía china Arrestaron a un hombre por usar ChatGPT para difundir noticias falsas. China prohibió ChatGPT en febrero como parte de una lista de leyes más estrictas sobre el uso de la IA generativa. Este parece ser el primer arresto resultante.

Lo que aprendí esta semana

La desinformación es un gran problema para la sociedad, pero parece haber una audiencia más pequeña de lo que imaginas. Investigadores del Instituto de Internet de Oxford examinaron más de 200.000 publicaciones de Telegram y descubrieron que, aunque surge mucha información errónea, la mayoría de los usuarios no parecen compartirla.

en su papel, concluyen que “contrariamente a la sabiduría popular recibida, la audiencia de la desinformación no es general, sino una pequeña y activa comunidad de usuarios”. Telegram está relativamente poco moderado, pero la investigación sugiere que tal vez haya hasta cierto punto un efecto orgánico impulsado por la demanda que mantiene a raya la mala información.

Leave a Reply

Your email address will not be published. Required fields are marked *