Detectar contenido inadecuado y farmear desde el espacio

Big Tech es sorprendentemente malo para capturar, etiquetar y eliminar contenido dañino. En teoría, los nuevos avances en IA deberían mejorar nuestra capacidad para hacer eso. En la práctica, la IA no es muy buena para interpretar los matices y el contexto. Y la mayoría de los sistemas de moderación de contenido automatizados se entrenaron con datos en inglés, lo que significa que no funcionan bien con otros idiomas.

La reciente aparición de IA generativa y modelos de lenguaje extenso como ChatGPT significa que es probable que la moderación de contenido se vuelva aún más difícil.

Si la IA generativa termina siendo más dañina o útil para la esfera de la información en línea, depende en gran medida de una cosa: la detección y el etiquetado de contenido generado por IA. Lea la historia completa.

—Tate Ryan-Mosley

La historia de Tate es de The Technocrat, su boletín semanal que le brinda información privilegiada sobre todo lo relacionado con el poder en Silicon Valley. Inscribirse para recibirlo en tu bandeja de entrada todos los viernes.

Si está interesado en la IA generativa, ¿por qué no echa un vistazo a:

+ Cómo detectar texto generado por IA. Internet está cada vez más inundado de texto escrito por software de IA. Necesitamos nuevas herramientas para detectarlo. Lea la historia completa.

+ La historia interna de cómo se construyó ChatGPT a partir de las personas que lo hicieron. Lea nuestras conversaciones exclusivas con los actores clave detrás del fenómeno cultural de la IA.

+ Google está lanzando IA generativa en todo. Pero los expertos dicen que liberar estos modelos antes de corregir sus fallas podría resultar extremadamente riesgoso para la empresa. Lea la historia completa.

Heaven32: