¿Podemos obligar a las IA a ser justas con las personas? Los científicos simplemente inventaron un camino


Parece que la inteligencia artificial puede descubrir cómo hacer casi cualquier cosa. Puede simular el universo, aprende a resolver un cubo de Rubik con solo una manoe incluso encontrar fantasmas escondidos en nuestro pasado.

Todos estos tipos de avances están destinados a nuestro propio bien. ¿Pero qué pasa cuando no lo son? En los últimos tiempos, los sistemas algorítmicos que ya afectan la vida de las personas han demostrado niveles alarmantes de sesgo en su funcionamiento, haciendo cosas como predecir la criminalidad. a lo largo de líneas raciales y determinar los límites de crédito basados ​​en género

.

En este contexto, ¿cómo pueden los científicos garantizar que los sistemas de pensamiento avanzados puedan ser justos o incluso seguros?

Un nuevo estudio dirigido por investigadores de la Universidad de Massachusetts Amherst busca ofrecer una respu esta, describiendo un marco para prevenir lo que el equipo llama "comportamiento indeseable"

en máquinas inteligentes

"Cuando alguien aplica un algoritmo de aprendizaje automático, es difícil controlar su comportamiento". dice el investigador de aprendizaje automático Philip Thomas.

"Hacer que sea más fácil garantizar la equidad y evitar daños es cada vez más importante a medida que los algoritmos de aprendizaje automático impactan nuestras vidas cada vez más".

El marco, que podría ayudar a los investigadores de IA a desarrollar nuevos tipos de algoritmos de aprendizaje automático (ML), no imbuye a las IA con una comprensión inherente de la moralidad o la equidad, sino que facilita a los investigadores de ML especificar y regular el comportamiento no deseado cuando están diseñando sus algoritmos centrales.

En el corazón del nuevo sistema están lo que el equipo llama algoritmos 'Seldonianos', llamados así por el personaje central del famoso personaje de Isaac Asimov. Fundación serie de novelas de ciencia ficción. Estos algoritmos no son solo para asegurar una operación ética; se puede controlar cualquier tipo de comportamiento, como las características de seguridad complejas en los sistemas médicos.

"Si uso un algoritmo seldoniano para diabetes tratamiento, puedo especificar que un comportamiento indeseable significa un nivel de azúcar en sangre peligrosamente bajo o hipoglucemia " Thomas dice.

"Puedo decirle a la máquina: 'Mientras intentas mejorar el controlador de la bomba de insulina, no hagas cambios que aumenten la frecuencia de hipoglucemia'. La mayoría de los algoritmos no le dan una forma de imponer este tipo de restricción al comportamiento; no se incluyó en los primeros diseños ".

Como parte de su investigación, el equipo desarrolló un algoritmo seldoniano para controlar una bomba de insulina automatizada, identificando una forma personalizada de predecir de forma segura las dosis para una persona en función de su lectura de glucosa en sangre.

En otro experimento, desarrollaron un algoritmo para predecir los GPA de los estudiantes, evitando el sesgo de género que se encuentra en los algoritmos de regresión comúnmente utilizados.

Los investigadores enfatizan que estos experimentos solo sirven como prueba de principio de lo que son capaces los algoritmos seldonianos, y que el objetivo principal del trabajo es el marco en sí, que otros científicos pueden usar como guía para construir futuros sistemas de IA.

"Creemos que hay mucho margen de mejora en esta área". Thomas dice.

"Incluso con nuestros algoritmos hechos de componentes simples, obtuvimos resultados impresionantes. Esperamos que los investigadores de aprendizaje automático desarrollen algoritmos nuevos y más sofisticados utilizando nuestro marco, que puede usarse de manera responsable para aplicaciones donde el aprendizaje automático también se consideraba arriesgado."

Los hallazgos se informan en Ciencia.

LO MÁS LEÍDO

Leave a Reply

Your email address will not be published. Required fields are marked *