Un matemático entra en un bar (de desinformación) – Heaven32

Desinformación, desinformación, infoentretenimiento, algowars: si los debates sobre el futuro de los medios de comunicación en las últimas décadas han significado algo, al menos han dejado una huella punzante en el idioma inglés. Ha habido muchas invectivas y miedo sobre lo que nos están haciendo las redes sociales, desde nuestras psicologías y neurologías individuales hasta preocupaciones más amplias sobre la fortaleza de las sociedades democráticas. Como dijo Joseph Bernstein recientemente, el cambio de la “sabiduría de las multitudes” a la “desinformación” ha sido de hecho abrupto.

¿Qué es desinformación? ¿Existe, y si es así, dónde está y cómo sabemos que lo estamos mirando? ¿Deberíamos preocuparnos por lo que nos muestran los algoritmos de nuestras plataformas favoritas mientras se esfuerzan por exprimir nuestra atención? Es solo ese tipo de intrincadas preguntas matemáticas y de ciencias sociales las que obtuvieron Noah Giansiracusa interesado en el tema.

Giansiracusa, profesor de la Universidad de Bentley en Boston, está capacitado en matemáticas (enfocando su investigación en áreas como la geometría algebraica) pero también ha tenido una inclinación por mirar temas sociales a través de una lente matemática, como conectar geometría computacional a la Corte Suprema. Más recientemente, ha publicado un libro llamado Cómo los algoritmos crean y previenen noticias falsas para explorar algunas de las preguntas desafiantes en torno al panorama de los medios de comunicación actual y cómo la tecnología está exacerbando y mejorando esas tendencias.

Recientemente, presenté a Giansiracusa en un espacio de Twitter, y dado que Twitter no ha facilitado la escucha de estas charlas después (¡efímeras!), Pensé que sacaría las partes más interesantes de nuestra conversación para ti y para la posteridad.

Esta entrevista ha sido editada y condensada para mayor claridad.

Danny Crichton: ¿Cómo decidiste investigar las noticias falsas y escribir este libro?

Noah Giansiracusa: Una cosa que noté es que hay muchas discusiones sociológicas y de ciencias políticas realmente interesantes sobre noticias falsas y este tipo de cosas. Y luego, en el aspecto técnico, tendrás cosas como Mark Zuckerberg diciendo que la IA solucionará todos estos problemas. Parecía que era un poco difícil cerrar esa brecha.

Probablemente todos hayan escuchado esta cita reciente de Biden diciendo: “están matando gente, ”Con respecto a la desinformación en las redes sociales. Así que tenemos políticos hablando de estas cosas en las que les resulta difícil comprender realmente el lado algorítmico. Luego tenemos gente de ciencias de la computación que es realmente profunda en los detalles. Así que estoy sentado en el medio, no soy una verdadera persona incondicional de las ciencias de la computación. Así que creo que es un poco más fácil para mí dar un paso atrás y tener una vista de pájaro.

Al final del día, sentí que quería explorar algunas interacciones más con la sociedad donde las cosas se complican, donde las matemáticas no son tan claras.

Crichton: Viniendo de un trasfondo matemático, estás entrando en esta área polémica donde mucha gente ha escrito desde muchos ángulos diferentes. ¿Qué está haciendo bien la gente en esta área y qué es lo que la gente quizás ha pasado por alto algún matiz?

Giansiracusa: Hay mucho periodismo increíble, me sorprendió la forma en que muchos periodistas realmente pudieron lidiar con cosas bastante técnicas. Pero diría una cosa que tal vez no se equivocaron, pero me llamó la atención que hay muchas veces en las que se publica un artículo académico, o incluso un anuncio de Google o Facebook o una de estas empresas de tecnología, y como que mencionan algo, y el periodista tal vez extraiga una cita e intente describirlo, pero parece que tienen un poco de miedo de tratar de verlo y entenderlo. Y no creo que sea que no hayan podido, realmente parece más una intimidación y un miedo.

Una cosa que he experimentado mucho como profesor de matemáticas es que la gente tiene mucho miedo de decir algo mal y cometer un error. Y esto se aplica a los periodistas que tienen que escribir sobre temas técnicos, no quieren decir algo incorrecto. Por lo tanto, es más fácil citar un comunicado de prensa de Facebook o citar a un experto.

Una cosa que es tan divertida y hermosa acerca de las matemáticas puras es que realmente no te preocupas por equivocarte, simplemente intentas ideas y ves a dónde conducen y ves todas estas interacciones. Cuando esté listo para escribir un artículo o dar una charla, verifique los detalles. Pero la mayor parte de las matemáticas son este proceso creativo en el que estás explorando y solo estás viendo cómo interactúan las ideas. Creo que mi formación como matemático me haría sentir aprensivo a cometer errores y, para ser muy preciso, tuvo el efecto contrario.

En segundo lugar, muchas de estas cosas algorítmicas no son tan complicadas como parecen. No estoy sentado ahí implementándolos, estoy seguro de que programarlos es difícil. Pero solo el panorama general, todos estos algoritmos hoy en día, muchas de estas cosas se basan en el aprendizaje profundo. Así que tienes una red neuronal, realmente no me importa como forastero qué arquitectura están usando, todo lo que realmente importa es, ¿cuáles son los predictores? Básicamente, ¿cuáles son las variables que alimenta este algoritmo de aprendizaje automático? ¿Y qué está tratando de producir? Esas son cosas que cualquiera puede entender.

Crichton: Uno de los grandes desafíos que pienso al analizar estos algoritmos es la falta de transparencia. A diferencia de, digamos, el mundo de las matemáticas puras, que es una comunidad de académicos que trabajan para resolver problemas, muchas de estas empresas en realidad pueden ser bastante adversas en el suministro de datos y análisis a la comunidad en general.

Giansiracusa: Parece que hay un límite en lo que cualquiera puede deducir con solo ser una especie de exterior.

Entonces, un buen ejemplo es con YouTube, los equipos de académicos querían explorar si el algoritmo de recomendación de YouTube envía a las personas a estos agujeros de conejo de la teoría de la conspiración del extremismo. El desafío es que debido a que este es el algoritmo de recomendación, utiliza el aprendizaje profundo, se basa en cientos y cientos de predictores basados ​​en su historial de búsqueda, sus datos demográficos, los otros videos que ha visto y por cuánto tiempo, todas estas cosas. Está tan personalizado para ti y tu experiencia, que todos los estudios que pude encontrar usan el modo incógnito.

Entonces, son básicamente un usuario que no tiene historial de búsqueda, ni información, y van a un video y luego hacen clic en el primer video recomendado y luego en el siguiente. Y veamos a dónde lleva el algoritmo a las personas. Esa es una experiencia tan diferente a la de un usuario humano real con un historial. Y esto ha sido realmente difícil. No creo que nadie haya descubierto una buena manera de explorar algorítmicamente el algoritmo de YouTube desde el exterior.

Honestamente, la única forma en que creo que podrías hacerlo es como un estudio de la vieja escuela en el que reclutas a un montón de voluntarios y pones un rastreador en su computadora y dices: “Oye, simplemente vive la vida como lo haces normalmente haz con tus historias y todo y cuéntanos los videos que estás viendo “. Así que ha sido difícil superar este hecho de que muchos de estos algoritmos, casi todos, diría yo, se basan en gran medida en sus datos individuales. No sabemos cómo estudiar eso en conjunto.

Y no es solo que yo o cualquier otra persona externa que tenga problemas porque no tenemos los datos. Incluso las personas dentro de estas empresas son quienes construyeron el algoritmo y saben cómo funciona el algoritmo en papel, pero no saben cómo se comportará realmente. Es como el monstruo de Frankenstein: construyeron esta cosa, pero no saben cómo va a funcionar. Entonces, creo que la única forma en que realmente puedes estudiarlo es si las personas de adentro con esos datos se desviven y dedican tiempo y recursos para estudiarlos.

Crichton: Se utilizan muchas métricas para evaluar la información errónea y determinar el compromiso en una plataforma. A partir de su formación matemática, ¿cree que esas medidas son sólidas?

Giansiracusa: La gente intenta desacreditar la desinformación. Pero en el proceso, pueden comentarlo, pueden retuitearlo o compartirlo, y eso cuenta como compromiso. Entonces, muchas de estas medidas de compromiso, ¿son realmente positivas o solo todas las de compromiso? ¿Sabes, todo se junta?

Esto también sucede en la investigación académica. Las citas son la métrica universal de cuán exitosas son las investigaciones. Bueno, cosas realmente falsas como el documento original de Wakefield sobre el autismo y las vacunas obtuvieron toneladas de citas, muchas de ellas eran personas que lo citaban porque pensaban que era correcto, pero muchos eran científicos quienes lo desacreditaban, lo citan en su artículo para digamos, demostramos que esta teoría es incorrecta. Pero de alguna manera una cita es una cita. Entonces, todo cuenta para la métrica de éxito.

Así que creo que eso es un poco de lo que está sucediendo con el compromiso. Si publico algo en mis comentarios que diga: “Oye, eso es una locura”, ¿cómo sabe el algoritmo si lo estoy apoyando o no? Podrían usar un poco de procesamiento de lenguaje de IA para intentarlo, pero no estoy seguro de si lo están, y es un gran esfuerzo hacerlo.

Crichton: Por último, quiero hablar un poco sobre GPT-3 y la preocupación por los medios sintéticos y las noticias falsas. Existe mucho temor de que los robots de inteligencia artificial abrumen a los medios con desinformación: ¿qué tan asustados o no debemos estar asustados?

Giansiracusa: Debido a que mi libro realmente surgió de una clase por experiencia, quería tratar de ser imparcial y simplemente informar a las personas y dejar que tomen sus propias decisiones. Decidí intentar cortar ese debate y dejar hablar a ambas partes. Creo que los algoritmos de suministro de noticias y los algoritmos de reconocimiento amplifican muchas cosas dañinas, y eso es devastador para la sociedad. Pero también hay un gran progreso en el uso de algoritmos de manera productiva y exitosa para limitar las noticias falsas.

Están estos tecno-utópicos, que dicen que la inteligencia artificial va a arreglar todo, que tendremos algoritmos que digan la verdad, verifiquen los hechos y puedan detectar información errónea y eliminarla. Hay algo de progreso, pero eso no va a suceder y nunca será completamente exitoso. Siempre necesitará depender de los humanos. Pero la otra cosa que tenemos es una especie de miedo irracional. Existe este tipo de distopía de IA hiperbólica en la que los algoritmos son tan poderosos, como cosas del tipo de singularidad que nos van a destruir.

Cuando las falsificaciones profundas aparecieron por primera vez en las noticias en 2018, y GPT-3 se lanzó hace un par de años, había mucho temor de que, “Oh, mierda, esto va a hacer que todos nuestros problemas sean las noticias falsas y la comprensión de lo que es cierto en el mundo mucho, mucho más difícil “. Y creo que ahora que tenemos un par de años de distancia, podemos ver que lo han hecho un poco más difícil, pero no tan significativamente como esperábamos. Y el problema principal es más psicológico y económico que cualquier otra cosa.

Entonces, los autores originales de GPT-3 tienen un trabajo de investigación que presenta el algoritmo, y una de las cosas que hicieron fue una prueba en la que pegaron un texto y lo expandieron a un artículo, y luego hicieron que algunos voluntarios evaluaran y adivinaran cuál es el generado algorítmicamente y qué artículo es el generado por humanos. Informaron que obtuvieron una precisión muy, muy cercana al 50%, lo que significa apenas por encima de las suposiciones aleatorias. Eso suena, ya sabes, a la vez asombroso y aterrador.

Pero si miras los detalles, se extendían como un título de una línea a un párrafo de texto. Si trataste de hacer un artículo completo, The Atlantic o New Yorker, comenzarás a ver las discrepancias, la idea va a divagar. Los autores de este artículo no mencionaron esto, simplemente hicieron su experimento y dijeron: “Oye, mira lo exitoso que es”.

Entonces parece convincente, pueden hacer estos artículos impresionantes. Pero esta es la razón principal, al final del día, por la que GPT-3 no ha sido tan transformador en lo que respecta a las noticias falsas y la desinformación y todo esto. Es porque las noticias falsas son en su mayoría basura. Está mal escrito, es de baja calidad, es tan barato y rápido de producir que podrías pagarle a tu sobrino de 16 años para que publique un montón de artículos de noticias falsos en minutos.

No es tanto que las matemáticas me hayan ayudado a ver esto. Es solo que, de alguna manera, lo principal que estamos tratando de hacer en matemáticas es ser escépticos. Entonces tienes que cuestionar estas cosas y ser un poco escéptico.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.