Aprendizaje más profundo
Detectar contenido inadecuado en la era de la IA
En los últimos 10 años, Big Tech se ha vuelto realmente bueno en algunas cosas: lenguaje, predicción, personalización, archivado, análisis de texto y procesamiento de datos. Pero sigue siendo sorprendentemente malo para detectar, etiquetar y eliminar contenido dañino. Uno simplemente necesita recordar la difusión de teorías de conspiración sobre elecciones y vacunas en los Estados Unidos durante los últimos dos años para comprender el daño que esto causa en el mundo real. La facilidad de usar IA generativa podría potenciar la creación de contenido en línea más dañino. La gente ya está usando modelos de lenguaje de IA para crear sitios web de noticias falsas
Pero, ¿podría la IA ayudar con la moderación del contenido? Los modelos de lenguaje grande más nuevos son mucho mejores para interpretar texto que los sistemas de IA anteriores. En teoría, podrían usarse para impulsar la moderación automática de contenido. Lea más de Tate Ryan-Mosley en su boletín semanal, The Technocrat.
Bits y bytes
Los científicos usaron IA para encontrar un medicamento que pudiera combatir las infecciones resistentes a los medicamentos
Investigadores del . y la Universidad McMaster desarrollaron un algoritmo de inteligencia artificial que les permitió encontrar un nuevo antibiótico para matar un tipo de bacteria responsable de muchas infecciones resistentes a los medicamentos que son comunes en los hospitales. Este es un desarrollo emocionante que muestra cómo la IA puede acelerar y respaldar el descubrimiento científico. (Noticias del .)
Sam Altman advierte que OpenAI podría abandonar Europa por las reglas de IA
En un evento en Londres la semana pasada, el CEO dijo que OpenAI podría “dejar de operar” en la UE si no puede cumplir con la próxima Ley de IA. Altman dijo que su compañía encontró mucho que criticar en la forma en que se redactó la Ley de IA y que había “límites técnicos a lo que es posible”. Esta es probablemente una amenaza vacía. Escuché a Big Tech decir esto muchas veces antes
Los depredadores ya están explotando las herramientas de IA para generar material de abuso sexual infantil
El Centro Nacional para Niños Desaparecidos y Explotados advirtió que los depredadores están utilizando sistemas generativos de inteligencia artificial para crear y compartir material falso de abuso sexual infantil. Con poderosos modelos generativos implementados con protecciones que son inadecuadas y fáciles de piratear, era solo cuestión de tiempo antes de que viéramos casos como este. (Bloomberg)
Los despidos tecnológicos han devastado los equipos de ética de la IA
Esta es una buena descripción general de los drásticos recortes que Meta, Amazon, Alphabet y Twitter han hecho a sus equipos centrados en la confianza y la seguridad en Internet, así como en la ética de la IA. Meta, por ejemplo, finalizó un proyecto de verificación de hechos que había tardado medio año en construirse. Mientras las empresas se apresuran a implementar poderosos modelos de IA en sus productos, a los ejecutivos les gusta jactarse de que su desarrollo tecnológico es seguro y ético. Pero está claro que Big Tech considera que los equipos dedicados a estos temas son caros y prescindibles. (CNBC)