Los algoritmos no son todos creados iguales



Los algoritmos aprendidos por máquina y creados por humanos no son lo mismo.

Los algoritmos aprendidos por máquina y creados por humanos no son lo mismo. (Shutterstock /)

A nuestro alrededor, los algoritmos están invisiblemente en el trabajo. Están recomendando música y noticias emergentes, encontrar tumores cancerososy Hacer realidad los autos sin conductor. ¿Pero la gente confía en ellos?

En realidad no, según un centro de investigación de Pew encuesta tomado el año pasado. Cuando se les preguntó si los programas de computadora siempre reflejarán los prejuicios de sus diseñadores, el 58 por ciento de los encuestados pensaron que lo harían. Este hallazgo ilustra una seria tensión entre la tecnología informática, cuya influencia en la vida de las personas es solo se espera que crezca, y las personas afectadas por él.

<img alt = '"Once Upon a Algorithm: Cómo explican las historias la informática

"por Martin Erwig". height = "1620" src = "https://www.popsci.com/resizer/zFDNh0XHpav4EP-AXT2cWmHiDzQ=/arc-anglerfish-arc2-prod-bonnier.s3.amazonaws.com/public/2K7S5CN357RXM2PW2WIVG4" ancho = 7 1260 "/>

"Once Upon a Algorithm: Cómo explican las historias la informática"por Martin Erwig. (Amazon /)

La falta de confianza en cualquier tecnología en particular impide su aceptación y uso. Por un lado, la desconfianza justificada de la tecnología peligrosa es algo bueno. Nadie se opone a eliminar el uso de algoritmos malos que tienen consecuencias indeseables, como el Software Therac-25 que entregó sobredosis de radiación a los pacientes o al cálculo de unidad incorrecto eso causó que la NASA perdiera su Mars Climate Orbiter. Por otro lado, el miedo irracional de las personas a la tecnología segura, como la vacunación, puede ser peligroso. No solo los que desconfían de la tecnología perderán personalmente los beneficios, sino que su negativa a participar puede afectar negativamente a otras personas y tener un efecto perjudicial general en la sociedad.

Por lo tanto, es importante distinguir entre miedos racionales e irracionales y no contribuir a esto último, especialmente si está en condiciones de influir en la opinión pública. Desafortunadamente, esta encuesta particular de Pew, o al menos la forma en que se informaron los resultados, ha enturbiado las aguas. La encuesta preguntó a los encuestados acerca de cuatro escenarios diferentes en los que los algoritmos tomaban decisiones: calcular un puntaje de finanzas personales, evaluar el riesgo criminal para tomar decisiones de libertad condicional, evaluar los currículums de los solicitantes de empleo y analizar entrevistas de trabajo. El titular del gráfico principal resume sus hallazgos: “La mayoría de los estadounidenses dice que los programas de computadora siempre reflejarán prejuicios humanos; los adultos jóvenes están más divididos ".

Una encuesta de investigación de Pew de noviembre de 2018 no distinguió entre los algoritmos humanos y los de caja negra.

Una encuesta de investigación de Pew de noviembre de 2018 no distinguió entre los algoritmos humanos y los de caja negra. (Centro de Investigación Pew/)

El problema con esa afirmación es que equipara incorrectamente la noción general de un algoritmo con la de un tipo particular de algoritmo. Los algoritmos que se utilizan en los escenarios presentados son aprendido a máquina, lo que significa que son esencialmente cajas negras que representan su lógica internamente como una colección de números que no tienen un significado aparente. Un problema con estos algoritmos aprendidos por máquina es que son efectivamente ilegibles y no pueden ser entendidos por los humanos.

En contraste, los algoritmos creados por humanos son legible

; se dan en un idioma que otros humanos pueden entender. Esto incluye descripciones dadas en lenguajes naturales (recetas, instrucciones de manejo, reglas para jugar un juego, instrucciones para armar muebles, etc.) así como programas escritos en lenguajes de programación que pueden ser ejecutados por máquinas.

La diferencia en términos de legibilidad y comprensibilidad entre estos dos tipos de algoritmos es crucial para juzgar la confiabilidad de los algoritmos. No es que los algoritmos creados por humanos siempre sean correctos. Todo lo contrario es cierto: dado que los humanos son falibles, también lo son sus productos, y los algoritmos y el software en general son conocido por contener errores. Pero una diferencia crucial entre los algoritmos legibles e ilegibles es que los primeros pueden corregirse efectivamente, mientras que esto no es posible para los últimos.

Si un plato es demasiado salado, puede encontrar el lugar en la receta donde se agrega sal y reducir la cantidad, o cuando las instrucciones de manejo lo llevan al lugar equivocado, es fácil identificar el giro incorrecto y corregir el error. La situación es bastante diferente para los algoritmos ilegibles. Cuando observamos un comportamiento incorrecto, no podemos identificar un lugar específico en la descripción del algoritmo que sea responsable de ello y pueda ser reparado. La naturaleza de recuadro negro de los algoritmos aprendidos por máquina previene efectivamente esto. La única forma de cambiar el comportamiento defectuoso de un algoritmo aprendido por máquina es volver a entrenarlo con nuevos datos, lo que podría introducir otros sesgos.

El sesgo en los datos es una preocupación legítima para los algoritmos, pero solo para los algoritmos cuyas decisiones se basan en datos malos. Al hablar de algoritmos, en particular al asignar culpas y levantar campanas de alarma, debemos tener cuidado de distinguir entre algoritmos legibles e ilegibles (es decir, aprendidos por máquina).

Volviendo a la encuesta de Pew Research, podemos notar que también es, de hecho, un algoritmo, uno que se ejecuta con las respuestas de diferentes personas como entrada. Para ser claros, no hay problema con la metodología empleada, y los escenarios sobre los que se les preguntó a las personas son importantes, pero la forma en que se informaron los resultados es engañosa y posiblemente irresponsable. Irónicamente, está sesgado en su selección de escenarios de ejemplo, y por lo tanto es un ejemplo del mismo fenómeno que denuncia. Afortunadamente, dado que la encuesta Pew fue creada por humanos, podemos identificar los defectos y corregirlos. Una solución fácil es simplemente cambiar el título e informar que la gente no confía algoritmos aprendidos por máquina. Otra posibilidad es presentar una serie de ejemplos de algoritmos no aprendidos por máquina e incorporar también las respuestas de las personas a las de la encuesta.

Para tener una idea más precisa de las actitudes de las personas hacia los algoritmos, y también para evitar crear aversiones innecesarias y pánicos falsos, cualquiera que juzgue los algoritmos debe distinguir entre los creados por humanos y los que son el resultado del aprendizaje automático. Los encuestadores, los periodistas y todos los demás involucrados en la medición e influencia de la opinión pública se beneficiarían de una mejor comprensión de la naturaleza de los algoritmos. Como lo haría la gente encuestada.

Es cierto que los algoritmos pueden tener fallas, pero también las encuestas de opinión. Tratemos de evitar sesgos en ambos.


Martin Erwig es profesor de ciencias informáticas en la Universidad Estatal de Oregón y autor de "Once Upon a Algorithm: Cómo explican las historias la informática. "

Esta historia fue publicada originalmente en El lector.

LO MÁS LEÍDO

Leave a Reply

Your email address will not be published. Required fields are marked *