Cómo hablar sobre IA (incluso si no sabes mucho sobre IA)

Cómo hablar sobre IA (incluso si no sabes mucho sobre IA)

Aprendizaje más profundo

Detectar contenido inadecuado en la era de la IA

En los últimos 10 años, Big Tech se ha vuelto realmente bueno en algunas cosas: lenguaje, predicción, personalización, archivado, análisis de texto y procesamiento de datos. Pero sigue siendo sorprendentemente malo para detectar, etiquetar y eliminar contenido dañino. Uno simplemente necesita recordar la difusión de teorías de conspiración sobre elecciones y vacunas en los Estados Unidos durante los últimos dos años para comprender el daño que esto causa en el mundo real. La facilidad de usar IA generativa podría potenciar la creación de contenido en línea más dañino. La gente ya está usando modelos de lenguaje de IA para crear sitios web de noticias falsas

.

Pero, ¿podría la IA ayudar con la moderación del contenido? Los modelos de lenguaje grande más nuevos son mucho mejores para interpretar texto que los sistemas de IA anteriores. En teoría, podrían usarse para impulsar la moderación automática de contenido. Lea más de Tate Ryan-Mosley en su boletín semanal, The Technocrat.

Bits y bytes

Los científicos usaron IA para encontrar un medicamento que pudiera combatir las infecciones resistentes a los medicamentos


Investigadores del . y la Universidad McMaster desarrollaron un algoritmo de inteligencia artificial que les permitió encontrar un nuevo antibiótico para matar un tipo de bacteria responsable de muchas infecciones resistentes a los medicamentos que son comunes en los hospitales. Este es un desarrollo emocionante que muestra cómo la IA puede acelerar y respaldar el descubrimiento científico. (Noticias del .)

Sam Altman advierte que OpenAI podría abandonar Europa por las reglas de IA
En un evento en Londres la semana pasada, el CEO dijo que OpenAI podría “dejar de operar” en la UE si no puede cumplir con la próxima Ley de IA. Altman dijo que su compañía encontró mucho que criticar en la forma en que se redactó la Ley de IA y que había “límites técnicos a lo que es posible”. Esta es probablemente una amenaza vacía. Escuché a Big Tech decir esto muchas veces antes

sobre una regla u otra. La mayoría de las veces, el riesgo de perder ingresos en el segundo bloque comercial más grande del mundo es demasiado grande y se las arreglan. La advertencia obvia aquí es que muchas empresas han optado por no operar o tener una presencia restringida en China. Pero esa también es una situación muy diferente. (Tiempo)

Los depredadores ya están explotando las herramientas de IA para generar material de abuso sexual infantil
El Centro Nacional para Niños Desaparecidos y Explotados advirtió que los depredadores están utilizando sistemas generativos de inteligencia artificial para crear y compartir material falso de abuso sexual infantil. Con poderosos modelos generativos implementados con protecciones que son inadecuadas y fáciles de piratear, era solo cuestión de tiempo antes de que viéramos casos como este. (Bloomberg)

Los despidos tecnológicos han devastado los equipos de ética de la IA
Esta es una buena descripción general de los drásticos recortes que Meta, Amazon, Alphabet y Twitter han hecho a sus equipos centrados en la confianza y la seguridad en Internet, así como en la ética de la IA. Meta, por ejemplo, finalizó un proyecto de verificación de hechos que había tardado medio año en construirse. Mientras las empresas se apresuran a implementar poderosos modelos de IA en sus productos, a los ejecutivos les gusta jactarse de que su desarrollo tecnológico es seguro y ético. Pero está claro que Big Tech considera que los equipos dedicados a estos temas son caros y prescindibles. (CNBC)

Leave a Reply

Your email address will not be published. Required fields are marked *