Es difícil resistirse al atractivo de los compañeros de inteligencia artificial. Aquí se explica cómo la innovación en la regulación puede ayudar a proteger a las personas.

Es difícil resistirse al atractivo de los compañeros de inteligencia artificial. Aquí se explica cómo la innovación en la regulación puede ayudar a proteger a las personas.

Una vez que entendamos las dimensiones psicológicas del acompañamiento de la IA, podremos diseñar intervenciones políticas eficaces. Se ha demostrado que Redirigir la atención de las personas para evaluar la veracidad antes de compartir contenido en línea puede reducir la desinformaciónmientras que las imágenes espantosas en los paquetes de cigarrillos ya se utilizan para disuadir a los posibles fumadores. Enfoques de diseño similares podrían resaltar los peligros de la adicción a la IA y hacer que los sistemas de IA sean menos atractivos como reemplazo de la compañía humana.

Es difícil modificar el deseo humano de ser amado y entretenido, pero es posible que podamos cambiar los incentivos económicos. Un impuesto sobre la interacción con la IA podría impulsar a las personas hacia interacciones de mayor calidad y fomentar una forma más segura de usar las plataformas, de forma regular pero por períodos cortos. Las loterías estatales se han utilizado para financiar la educaciónUn impuesto a la participación podría financiar actividades que fomenten las conexiones humanas, como centros de arte o parques.

Tal vez sea necesario pensar en una nueva regulación

En 1992, Sherry Turkle, una destacada psicóloga que fue pionera en el estudio de la interacción entre los seres humanos y la tecnología, identificó las amenazas que los sistemas técnicos plantean a las relaciones humanas. Uno de los desafíos c lave que surgen del trabajo de Turkle se refiere a una pregunta que está en el centro de esta cuestión: ¿quiénes somos nosotros para decir que lo que te gusta no es lo que te mereces?

Por buenas razones, nuestra sociedad liberal tiene dificultades para regular los tipos de daños que describimos aquí. Por mucho que se haya rechazado con razón la prohibición del adulterio como una intromisión antiliberal en los asuntos personales, no es asunto del gobierno decidir a quién (o qué) queremos amar. Al mismo tiempo, la prohibición universal de material de abuso sexual infantil representa un ejemplo de una línea clara que debe trazarse, incluso en una sociedad que valora la libertad de expresión y la libertad personal. La dificultad de regular la compañía de la IA puede requerir nuevos enfoques regulatorios (basados ​​en una comprensión más profunda de los incentivos que subyacen a estos compañeros) que aprovechen las nuevas tecnologías.

Uno de los enfoques regulatorios más eficaces es incorporar salvaguardas directamente en los diseños técnicos.de manera similar a la forma en que los diseñadores evitan los peligros de asfixia al hacer que los juguetes de los niños sean más grandes que la boca de un bebé. Este enfoque de “regulación por diseño” podría buscar hacer que las interacciones con la IA sean menos dañinas al diseñar la tecnología de manera que sea menos deseable como sustituto de las conexiones humanas, pero que siga siendo útil en otros contextos. Es posible que se necesiten nuevas investigaciones para encontrar mejores Formas de limitar el comportamiento de los grandes modelos de IA con técnicas que alteran los objetivos de la IA a un nivel técnico fundamental. Por ejemplo, el “ajuste de alineación” se refiere a un conjunto de técnicas de entrenamiento destinadas a hacer que los modelos de IA se ajusten a las preferencias humanas; esto podría extenderse para abordar su potencial adictivo. De manera similar, la “interpretabilidad mecanicista” tiene como objetivo realizar ingeniería inversa de la forma en que los modelos de IA toman decisiones. Este enfoque podría usarse para identificar y eliminar partes específicas de un sistema de IA que dan lugar a comportamientos dañinos.

Podemos evaluar el rendimiento de los sistemas de IA utilizando Técnicas interactivas y dirigidas por humanos. que van más allá de la evaluación comparativa estática para destacar las capacidades adictivas. La naturaleza adictiva de la IA es el resultado de interacciones complejas entre la tecnología y sus usuarios. Probar modelos en condiciones del mundo real con la participación de los usuarios puede revelar patrones de comportamiento que de otro modo pasarían desapercibidos. Los investigadores y los responsables de las políticas deberían colaborar para determinar prácticas estándar para probar modelos de IA con grupos diversos, incluidas las poblaciones vulnerables, a fin de garantizar que los modelos no exploten las condiciones psicológicas previas de las personas.

A diferencia de los humanos, los sistemas de IA pueden adaptarse fácilmente a políticas y reglas cambiantes. El principio de “dinamismo jurídico”, En el caso de la IA, los factores cambiantes incluyen aspectos como el estado mental del usuario. Por ejemplo, una política dinámica puede permitir que un compañero de IA se vuelva cada vez más atractivo, encantador o coqueto con el tiempo si eso es lo que desea el usuario, siempre que la persona no muestre signos de aislamiento social o adicción. Este enfoque puede ayudar a maximizar la elección personal y minimizar la adicción, pero depende de la capacidad de comprender con precisión el comportamiento y el estado mental de un usuario y de medir estos atributos sensibles de una manera que preserve la privacidad.

La solución más eficaz a estos problemas probablemente sería atacar lo que lleva a las personas a buscar la compañía de la IA: la soledad y el aburrimiento. Pero las intervenciones regulatorias también pueden castigar inadvertidamente a quienes necesitan compañía, o pueden hacer que los proveedores de IA se trasladen a una jurisdicción más favorable en el mercado internacional descentralizado. Si bien debemos esforzarnos por hacer que la IA sea lo más segura posible, este trabajo no puede reemplazar los esfuerzos por abordar problemas más amplios, como la soledad, que hacen que las personas sean vulnerables a la adicción a la IA en primer lugar.