Las medidas existentes para mitigar los riesgos de la IA no son suficientes para protegernos. También necesitamos una línea directa de seguridad en materia de IA.

Cómo hacer sonar la alarma

En teoría, las protecciones externas para los denunciantes podrían desempeñar un papel valioso en la detección de riesgos de IA. Podrían proteger a los empleados despedidos por revelar acciones corporativas y podrían ayudar a compensar los mecanismos de denuncia internos inadecuados. Cada estado tiene una excepción de política pública a la terminación voluntaria del empleo: en otras palabras, los empleados despedidos pueden recurrir contra sus empleadores si sufrieron represalias por denunciar prácticas corporativas inseguras o ilegales. Sin embargo, en la práctica, esta excepción ofrece pocas garantías a los empleados. Los jueces tienden favorecer a los empleadores en los casos de denuncia de irregularidades. La probabilidad de que los laboratorios de inteligencia artificial sobrevivan a tales demandas parece particularmente alta dado que la sociedad aún no ha llegado a ningún tipo de consenso sobre lo que se considera un desarrollo y una implementación de inteligencia artificial inseguros.

Estas y otras deficiencias explican por qué la Los 13 trabajadores de IA antes mencionadosincluido el ex empleado de OpenAI William Saunders, pidió un novedoso “derecho a advertir”. Las empresas tendrían que ofrecer a los empleados un proceso anónimo para revelar preocupaciones relacionadas con los riesgos a la junta directiva del laboratorio, una autoridad reguladora y un organismo independiente de terceros compuesto por expertos en la materia. Los entresijos de este proceso aún están por determinar, pero presumiblemente sería un mecanismo formal y burocrático. La junta directiva, el regulador y el tercero tendrían que hacer un registro de la divulgación. Es probable que cada organismo inicie luego algún tipo de investigación. Las reuniones y audiencias posteriores también parecen una parte necesaria del proceso. Sin embargo, si se debe tomar la palabra de Saunders al pie de la letra, lo que los trabajadores de IA deberían hacer es crear un registro de la divulgación. en realidad

querer es algo diferente

Cuando Saunders se fue a la Podcast de la gran tecnología a Esboza su proceso ideal En cuanto a las preocupaciones de seguridad, su enfoque no se centró en vías formales para informar sobre los riesgos establecidos. En cambio, indicó su deseo de que se dé algún paso intermedio e informal. Quiere una oportunidad de recibir comentarios neutrales de expertos sobre si una preocupación de seguridad es lo suficientemente importante como para pasar por un proceso de “alto riesgo”, como un sistema de derecho a advertir. Los reguladores gubernamentales actuales, como dice Saunders, no podrían desempeñar esa función.

Por un lado, es probable que carezcan de la experiencia necesaria para ayudar a un trabajador de IA a analizar las cuestiones de seguridad. Además, pocos trabajadores levantarán el teléfono si saben que se trata de un funcionario del gobierno; ese tipo de llamada puede ser “muy intimidante”, como dijo el propio Saunders en el podcast. En cambio, prevé poder llamar a un experto para analizar sus preocupaciones. En un escenario ideal, le dirían que el riesgo en cuestión no parece tan grave ni probable que se materialice, lo que le daría la libertad de volver a lo que estaba haciendo con más tranquilidad.

Bajando las apuestas

En este podcast, Saunders no pide un derecho a advertir, ya que eso sugiere que el empleado ya está convencido de que se está produciendo una actividad insegura o ilegal. Lo que realmente pide es una comprobación de la intuición, una oportunidad para verificar si la sospecha de un comportamiento inseguro o ilegal parece justificada. Lo que está en juego sería mucho menor, por lo que la respuesta regulatoria podría ser más leve. El tercero responsable de sopesar estas comprobaciones de intuición podría ser mucho más informal. Por ejemplo, estudiantes de doctorado en IA, trabajadores jubilados de la industria de la IA y otras personas con experiencia en IA podrían ofrecerse como voluntarios para una línea directa de seguridad de IA. Se les podría encomendar la tarea de discutir de manera rápida y experta cuestiones de seguridad con los empleados a través de una conversación telefónica confidencial y anónima. Los voluntarios de la línea directa estarían familiarizados con las principales prácticas de seguridad, así como con un amplio conocimiento de las opciones, como los mecanismos de derecho a advertir, que pueden estar disponibles para el empleado.

Como indicó Saunders, es probable que pocos empleados quieran pasar de 0 a 100 con sus preocupaciones de seguridad, directamente de sus colegas a la junta directiva o incluso a un organismo gubernamental. Es mucho más probable que planteen sus problemas si existe un paso intermedio e informal.

Estudiando ejemplos en otros lugares

Los detalles de cómo funcionaría exactamente una línea directa de seguridad de la IA merecen un debate más profundo entre los miembros de la comunidad de IA, los reguladores y la sociedad civil. Para que la línea directa alcance su máximo potencial, por ejemplo, puede que necesite alguna forma de elevar los informes más urgentes y verificados a las autoridades correspondientes. Cómo garantizar la confidencialidad de las conversaciones de la línea directa es otro asunto que necesita una investigación exhaustiva. Cómo reclutar y retener voluntarios es otra cuestión clave. Dada la amplia preocupación de los principales expertos sobre el riesgo de la IA, algunos pueden estar dispuestos a participar simplemente por el deseo de echar una mano. Si muy pocas personas se presentan, pueden ser necesarios otros incentivos. Sin embargo, el primer paso esencial es reconocer esta pieza faltante en el rompecabezas de la regulación de la seguridad de la IA. El siguiente paso es buscar modelos que emular en la construcción de la primera línea directa de IA.

Un buen punto de partida son los defensores del pueblo. Otras industrias han reconocido el valor de identificar a estas personas neutrales e independientes como recursos para evaluar la gravedad de las preocupaciones de los empleados. Existen defensores del pueblo en el ámbito académicoorganizaciones sin fines de lucro y el sector privado. El atributo distintivo de estos Los individuos y sus empleados son neutrales.—No tienen incentivos para favorecer a uno u otro bando, y por lo tanto es más probable que todos confíen en ellos. Un vistazo al uso de los defensores del pueblo en el gobierno federal muestra que cuando están disponibles, los problemas pueden plantearse y resolverse antes de lo que se haría de otra manera.