Los riesgos de amoral A.I. – TechCrunch


La inteligencia artificial es ahora ser utilizado para tomar decisiones sobre vidas, medios de vida e interacciones en el mundo real de manera que presenten riesgos reales para las personas.

Todos fuimos escépticos una vez. No hace mucho tiempo, la sabiduría convencional sostenía que la inteligencia artificial era muy prometedora, pero siempre estaba a unos pocos años de distancia. Hoy existe una fe absoluta en que el futuro ha llegado.

No es tan sorprendente con los autos que (a veces y bajo ciertas condiciones) se manejan solos y el software que supera a los humanos en juegos como el ajedrez y el Go. No puedes culpar a la gente por estar impresionada.

Pero los juegos de mesa, incluso los complicados, están muy lejos del desorden y la incertidumbre de la vida real, y los autos autónomos aún no comparten el camino con nosotros (al menos no sin algunas fallas catastróficas).

AI se está utilizando en una sorprendente cantidad de aplicaciones, haciendo juicios sobre el desempeño laboral, la contratación, los préstamos y Justicia penal Entre muchos otros. La mayoría de las personas no son conscientes de los riesgos potenciales en estos juicios. Ellos deberían ser. Existe la sensación general de que la tecnología es inherentemente neutral, incluso entre muchos de los que desarrollan soluciones de inteligencia artificial. Pero los desarrolladores de IA toman decisiones y eligen las transacciones que afectan los resultados. Los desarrolladores están incorporando opciones éticas dentro de la tecnología pero sin pensar en sus decisiones en esos términos.

Estos intercambios suelen ser técnicos y sutiles, y las implicaciones posteriores no siempre son obvias en el momento en que se toman las decisiones.

los accidente fatal de Uber en Tempe, Arizona, es un ejemplo ilustrativo (no sutil) pero bueno que facilita ver cómo sucede.

El sistema de vehículos autónomos en realidad detectó al peatón a tiempo para detenerse, pero los desarrolladores habían ajustado el sistema de frenado de emergencia a favor de no frenar demasiado, equilibrando un intercambio entre la conducción desigual y la seguridad. los Uber los desarrolladores optaron por la opción más comercialmente viable. Eventualmente, la tecnología de conducción autónoma mejorará hasta un punto que permita tanto la seguridad como la conducción suave, pero ¿pondremos autos autónomos en la carretera antes de que eso suceda? Los intereses lucrativos están presionando mucho para ponerlos en marcha de inmediato.

Los riesgos físicos representan un peligro obvio, pero también ha habido un daño real de los sistemas automatizados de toma de decisiones. La IA, de hecho, tiene el potencial de beneficiar al mundo. Idealmente, atenuamos las desventajas para obtener los beneficios con un daño mínimo.

Un riesgo significativo es que avancemos en el uso de la tecnología de inteligencia artificial a costa de reducir los derechos humanos individuales. Ya estamos viendo que eso suceda. Un ejemplo importante es que el derecho a apelar las decisiones judiciales se debilita cuando se trata de herramientas de inteligencia artificial. En muchos otros casos, las personas ni siquiera saben que la opción de no contratar, promover o otorgarles un préstamo fue informada por un algoritmo estadístico.

El comprador tenga cuidado

Los compradores de la tecnología están en desventaja cuando saben mucho menos que los vendedores. En su mayor parte, los tomadores de decisiones no están equipados para evaluar sistemas inteligentes. En términos económicos, existe una asimetría de información que coloca a los desarrolladores de IA en una posición más poderosa sobre aquellos que podrían usarla. (Nota al margen: los sujetos de las decisiones de IA generalmente no tienen poder en absoluto). La naturaleza de la IA es que simplemente confías (o no) en las decisiones que toma. No puede preguntarle a la tecnología por qué decidió algo o si consideró otras alternativas o sugerir hipótesis para explorar variaciones sobre la pregunta que hizo. Dada la confianza actual en la tecnología, las promesas de los proveedores sobre una forma más barata y rápida de hacer el trabajo pueden ser muy atractivas.

Hasta ahora, nosotros como sociedad no hemos tenido una manera de evaluar el valor de los algoritmos frente a los costos que impon en a la sociedad. Ha habido muy poca discusión pública incluso cuando las entidades gubernamentales deciden adoptar nuevas soluciones de IA. Peor que eso, la información sobre los datos utilizados para capacitar al sistema más sus esquemas de ponderación, la selección de modelos y otras elecciones que hacen los proveedores al desarrollar el software se consideran secretos comerciales y, por lo tanto, no están disponibles para discusión.

Imagen vía Getty Images / sorbetto

los Yale Journal of Law and Technology publicó un artículo de Robert Brauneis y Ellen P. Goodman donde describen sus esfuerzos para probar la transparencia en torno a la adopción por parte del gobierno de herramientas de análisis de datos para algoritmos predictivos. Presentaron cuarenta y dos solicitudes de registros abiertos a varias agencias públicas sobre el uso de herramientas de apoyo para la toma de decisiones.

Su "objetivo específico era evaluar si los procesos de registros abiertos permitirían a los ciudadanos descubrir qué juicios de política encarnan estos algoritmos y evaluar su utilidad y equidad". Casi todas las agencias involucradas no querían o no podían proporcionar información que pudiera conducir a una comprensión de cómo funcionaban los algoritmos para decidir el destino de los ciudadanos. El mantenimiento de registros por parte del gobierno fue uno de los mayores problemas, pero el secreto comercial agresivo y las afirmaciones de confidencialidad de las empresas también fueron un factor significativo.

El uso de herramientas de evaluación de riesgos basadas en datos puede ser útil, especialmente en casos que identifican individuos de bajo riesgo que pueden beneficiarse de la reducción de las penas de prisión. Las oraciones reducidas o renunciadas alivian las tensiones en el sistema penitenciario y también benefician a los individuos, sus familias y comunidades. A pesar de las posibles ventajas, si estas herramientas interfieren con los derechos constitucionales al debido proceso, no valen la pena el riesgo.

Todos tenemos derecho a cuestionar la exactitud y relevancia de la información utilizada en los procedimientos judiciales y también en muchas otras situaciones. Desafortunadamente para los ciudadanos de Wisconsin, el argumento de que el interés de una empresa supera el derecho de un acusado al debido proceso fue confirmado por la corte suprema de ese estado en 2016.

La justicia está en el ojo del espectador

Por supuesto, el juicio humano también es parcial. De hecho, las culturas profesionales han tenido que evolucionar para abordarlo. Los jueces, por ejemplo, se esfuerzan por separar sus prejuicios de sus sentencias, y existen procesos para cuestionar la imparcialidad de las decisiones judiciales.

En los Estados Unidos, se aprobó la Ley de Equidad de Vivienda de 1968 para garantizar que los profesionales de bienes raíces realicen sus negocios sin discriminar a los clientes. Las empresas tecnológicas no tienen esa cultura. Las noticias reci entes han demostrado todo lo contrario. Para los desarrolladores de IA individuales, el objetivo es obtener los algoritmos correctos con alta precisión para cualquier definición de precisión que asuman en su modelado.

Hace poco escuché un podcast en el que la conversación se preguntaba si hablar sobre el sesgo en la IA no mantenía a las máquinas con un estándar diferente al de los humanos, lo que parecía sugerir que las máquinas estaban en desventaja en una competencia imaginada con los humanos.

Como verdaderos creyentes de la tecnología, el anfitrión y el invitado finalmente concluyeron que una vez que los investigadores de IA hayan resuelto el problema del sesgo de la máquina, tendremos un estándar nuevo y aún mejor para que los humanos lo cumplan, y en ese punto las máquinas pueden enseñar a los humanos cómo evitar sesgos La implicación es que existe una respuesta objetiva, y si bien los humanos hemos luchado por encontrarla, las máquinas pueden mostrarnos el camino. La verdad es que en muchos casos hay nociones contradictorias sobre lo que significa ser justo.

Un puñado de trabajos de investigación han salido en los últimos años que abordan la cuestión de la equidad desde un punto de vista estadístico y matemático. Uno de los documentos, por ejemplo, formaliza algunos criterios básicos para determinar si una decisión es justa.

En su formalización, en la mayoría de las situaciones, las diferentes ideas sobre lo que significa ser justo no solo son diferentes sino que también son incompatibles. No existe una solución objetiva única que pueda llamarse justa, lo que hace imposible que las máquinas con formación estadística respondan estas preguntas. Considerado a la luz de esto, una conversación sobre máquinas que dan lecciones de equidad a los seres humanos parece más un teatro de lo absurdo que una supuesta conversación reflexiva sobre los temas involucrados.

Imagen cortesía de TechCrunch / Bryce Durbin

Cuando hay preguntas de parcialidad, es necesaria una discusión. Lo que significa ser justo en contextos como sentencias penales, otorgar préstamos, oportunidades laborales y universitarias, por ejemplo, no se han resuelto y, lamentablemente, contienen elementos políticos. Se nos pide que nos unamos a la ilusión de que la inteligencia artificial puede despolitizar de alguna manera estos problemas. El hecho es que la tecnología representa una postura particular, pero no sabemos de qué se trata.

Los tecnólogos con la cabeza baja centrada en los algoritmos están determinando problemas estructurales importantes y tomando decisiones políticas. Esto elimina la conversación colectiva y corta la entrada de otros puntos de vista. Los sociólogos, historiadores, politólogos y, sobre todo, interesados ​​en la comunidad tendrían mucho que aportar al debate. La aplicación de la inteligencia artificial para estos problemas complicados pinta un barniz de ciencia que intenta distribuir soluciones apolíticas a preguntas difíciles.

¿Quién vigilará a los observadores (AI)?

Uno de los principales impulsores de la tendencia actual de adoptar soluciones de inteligencia artificial es que las externalidades negativas del uso de la inteligencia artificial no son soportadas por las empresas que lo desarrollan. Por lo general, abordamos esta situación con la regulación gubernamental. La contaminación industrial, por ejemplo, está restringida porque crea un costo futuro para la sociedad. También utilizamos la regulación para proteger a las personas en situaciones en las que pueden sufrir daños.

Ambas consecuencias negativas potenciales existen en nuestros usos actuales de la IA. Para los automóviles autónomos, ya existen organismos reguladores involucrados, por lo que podemos esperar un diálogo público sobre cuándo y de qué manera se pueden utilizar los vehículos impulsados ​​por IA. ¿Qué pasa con los otros usos de la IA? Actualmente, excepto por alguna acción de la ciudad de Nueva York, existe una regulación exactamente nula en torno al uso de IA. Las garantías más básicas de responsabilidad algorítmica no están garantizadas ni para los usuarios de tecnología ni para los sujetos de la toma de decisiones automatizada.

GettyImages 823303786

Imagen vía Getty Images / nadia_bormotova

Desafortunadamente, no podemos dejar que las compañías se vigilen a sí mismas. Facebook El eslogan "Muévete rápido y rompe cosas" ha sido retirado, pero la mentalidad y la cultura persisten en todo Silicon Valley. La actitud de hacer lo que crees que es mejor y disculparte más tarde continúa dominando.

Aparentemente, esto ha sido efectivo al construir sistemas para vender a los consumidores o conectar a los pasajeros con los conductores. Se vuelve completamente inaceptable cuando tomas decisiones que afectan la vida de las personas. Incluso si tienen buenas intenciones, los investigadores y desarrolladores que escriben el código no tienen la capacitación o, a riesgo de terminar con algunos colegas maravillosos, la inclinación a pensar en estos temas.

He visto primero y demasiados investigadores que demuestran una sorprendente indiferencia sobre el impacto humano. Hace poco asistí a una conferencia de innovación a las afueras de Silicon Valley. Una de las presentaciones incluyó un video manipulado de una persona muy famosa que pronunció un discurso que nunca tuvo lugar. La manipulación del video fue completamente imperceptible.

Cuando se le preguntó a la investigadora sobre las implicaciones de la tecnología engañosa, rechazó la pregunta. Su respuesta fue esencialmente: "Hago la tecnología y luego dejo esas preguntas a los científicos sociales para que las resuelvan". Este es solo uno de los peores ejemplos que he visto de muchos investigadores que no tienen estos problemas en sus radares. Supongo que exigir a los informáticos que se doblen en filosofía moral no es práctico, pero la falta de preocupación es sorprendente.

Recientemente aprendimos que Amazonas abandonaron una tecnología interna que habían estado probando para seleccionar los mejores currículums entre sus solicitantes. Amazon descubrió que el sistema que crearon desarrolló una preferencia por los candidatos masculinos, en efecto, penalizando a las mujeres que presentaron la solicitud. En este caso, Amazon estaba lo suficientemente motivado para asegurar que su propia tecnología funcionara de la manera más efectiva posible, pero ¿otras compañías estarán tan atentas?

De hecho, Reuters informa que otras compañías están avanzando alegremente con AI para la contratación. Un proveedor externo que venda dicha tecnología en realidad no tiene ningún incentivo para probar que no está sesgada a menos que los clientes la exijan, y como mencioné, los tomadores de decisiones en su mayoría no están en condiciones de mantener esa conversación. Una vez más, el prejuicio humano también juega un papel en la contratación. Pero las empresas pueden y deben lidiar con eso.

Con el aprendizaje automático, no pueden estar seguros de qué características discriminatorias podría aprender el sistema. En ausencia de las fuerzas del mercado, a menos que las empresas se vean obligadas a ser transparentes sobre el desarrollo y el uso de tecnología opaca en dominios donde la justicia es importante, no va a suceder.

La rendición de cuentas y la transparencia son fundamentales para utilizar de forma segura la IA en aplicaciones del mundo real. Las regulaciones podrían requerir acceso a información básica sobre la tecnología. Como ninguna solución es completamente precisa, la regulación debería permitir a los adoptantes comprender los efectos de los errores. ¿Son los errores relativamente menores o mayores? El uso de AI por parte de Uber mató a un peatón. ¿Qué tan malo es el peor de los casos en otras aplicaciones? ¿Cómo se entrenan los algoritmos? ¿Qué datos se usaron para la capacitación y cómo se evaluaron para determinar su idoneidad para el propósito previsto? ¿Representa realmente a las personas bajo consideración? ¿Contiene sesgos? Solo al tener acceso a este tipo de información pueden las partes interesadas tomar decisiones informadas sobre los riesgos y los intercambios apropiados.

En este punto, es posible que tengamos que enfrentar el hecho de que nuestros usos actuales de la IA están adelantando a sus capacidades y que usarla de manera segura requiere mucho más pensamiento del que tiene ahora.

LO MÁS LEÍDO

Leave a Reply

Your email address will not be published. Required fields are marked *