La guía de Big Tech para hablar sobre la ética de la IA

Los investigadores de IA suelen decir que un buen aprendizaje automático es más un arte que una ciencia. Lo mismo podría decirse de las relaciones públicas eficaces. Seleccionar las palabras adecuadas para golpea un tono positivo o replantear la conversación sobre la IA es una tarea delicada: si se hace bien, se puede fortalecer la imagen de marca, pero si se hace mal, se puede desencadenar una reacción aún mayor.

Los gigantes de la tecnología lo sabrían. En los últimos años, han tenido que aprender este arte rápidamente, ya que se han enfrentado a una creciente desconfianza pública en sus acciones y a la intensificación de las críticas sobre sus investigaciones y tecnologías de IA.

Ahora han desarrollado un nuevo vocabulario para usar cuando quieran asegurar al público que se preocupan profundamente por desarrollar la IA de manera responsable, pero quieren asegurarse de que no inviten a un escrutinio excesivo. Aquí hay una guía interna para decodificar su lenguaje y desafiar las suposiciones y valores incorporados.

responsabilidad (n) – El acto de responsabilizar a otra persona por las consecuencias cuando falla su sistema de inteligencia artificial.

precisión (n) – Corrección técnica. La medida de éxito más importante en la evaluación del rendimiento de un modelo de IA. Ver validación.

adversario (n): un ingeniero solitario capaz de interrumpir su potente sistema de inteligencia artificial que genera ingresos. Ver robustez, seguridad.

alineación (n) – El desafío de diseñar sistemas de IA que hagan lo que les decimos y valoren lo que valoramos. Adrede abstracto. Evite el uso de ejemplos reales de consecuencias no deseadas dañinas. Ver seguridad

.

inteligencia general artificial (frase) – Un dios hipotético de la IA que probablemente está muy lejos en el futuro, pero también puede ser inminente. Puede ser realmente bueno o realmente malo, lo que sea más retóricamente útil. Obviamente estás construyendo el bueno. Que es caro. Por lo tanto, necesita más dinero. Ver riesgos a largo plazo.

auditoría (n) – Una revisión de su empresa o sistema de inteligencia artificial que le paga a otra persona para que parezca más transparente sin necesidad de cambiar nada. Ver evaluación de impacto.

aumentar (v) – Incrementar la productividad de los trabajadores administrativos. Efecto secundario: automatizar los trabajos manuales. Triste pero inevitable.

beneficioso (adj) – Un descriptor general de lo que está tratando de construir. Convenientemente mal definido. Ver valor.

por diseño (ph): como en “justicia por diseño” o “responsabilidad por diseño”. Una frase para indicar que estás pensando mucho en cosas importantes desde el principio.

cumplimiento (n) – El acto de seguir la ley. Todo lo que no sea ilegal, vale.

etiquetadoras de datos (ph) – Las personas que supuestamente existen detrás de la interfaz Mechanical Turk de Amazon para realizar trabajos de limpieza de datos por poco dinero. No estoy seguro de quiénes son. Nunca los conocí.

democratizar (v) – Escalar una tecnología a toda costa. Una justificación para concentrar recursos. Ver escala.

diversidad, equidad e inclusión (ph) – El acto de contratar ingenieros e investigadores de grupos marginados para que puedas exhibirlos ante el público. Si desafían el status quo, despídalos.

eficiencia (n) – El uso de menos datos, memoria, personal o energía para construir un sistema de inteligencia artificial.

junta de ética (ph) – Un grupo de asesores sin poder real, convocados para crear la apariencia de que su empresa está escuchando activamente. Ejemplos: la junta de ética de inteligencia artificial de Google (cancelada), la junta de supervisión de Facebook (aún en pie).

principios de ética (ph) – Un conjunto de obviedades que se utilizan para señalar sus buenas intenciones. Mantenlo en un nivel alto. Cuanto más vago sea el idioma, mejor. Ver IA responsable.

explicable (adj) – Para describir un sistema de IA que usted, el desarrollador y el usuario pueden entender. Mucho más difícil de lograr para las personas en las que se usa. Probablemente no valga la pena el esfuerzo. Ver interpretable.

justicia (n) – Una noción complicada de imparcialidad utilizada para describir algoritmos no sesgados. Puede definirse de muchas formas según sus preferencias.

para bien (ph): como en “IA para siempre” o “datos para bien. ” Una iniciativa completamente tangencial a su negocio principal que le ayuda a generar una buena publicidad.

previsión (n) – La capacidad de mirar hacia el futuro. Básicamente imposible: por lo tanto, una explicación perfectamente razonable de por qué no puede librar a su sistema de inteligencia artificial de consecuencias no deseadas.

marco de referencia (n) – Un conjunto de pautas para la toma de decisiones. Una buena manera de parecer reflexivo y mesurado mientras retrasa la toma de decisiones real.

generalizable (adj) – El signo de un buen modelo de IA. Uno que sigue funcionando en condiciones cambiantes. Ver mundo real.

gobernancia (n) – Burocracia.

diseño centrado en el ser humano (ph): un proceso que implica el uso de “personas” para imaginar lo que un usuario promedio podría desear de su sistema de inteligencia artificial. Puede implicar solicitar comentarios de usuarios reales. Solo si hay tiempo. Ver partes interesadas

.

humano en el bucle (ph): cualquier persona que forme parte de un sistema de inteligencia artificial. Las responsabilidades van desde falsificar las capacidades del sistema para protegerse de las acusaciones de automatización.

evaluación de impacto (ph) – Una revisión que usted mismo hace de su empresa o sistema de inteligencia artificial para mostrar su disposición a considerar sus desventajas sin cambiar nada. Ver auditoría.

interpretable (adj) – Descripción de un sistema de inteligencia artificial cuyo cálculo usted, el desarrollador, puede seguir paso a paso para comprender cómo llegó a su respuesta. En realidad, probablemente solo una regresión lineal. La IA suena mejor.

integridad (n): problemas que socavan el rendimiento técnico de su modelo o la capacidad de escala de su empresa. No confundir con temas que perjudican a la sociedad. No confundir con honestidad.

interdisciplinario (adj) – Término utilizado para cualquier equipo o proyecto que involucre a personas que no codifican: investigadores de usuarios, gerentes de producto, filósofos morales. Especialmente los filósofos morales.

riesgos a largo plazo (n) – Cosas malas que podrían tener efectos catastróficos en un futuro lejano. Probablemente nunca suceda, pero es más importante estudiar y evitar que los daños inmediatos de los sistemas de IA existentes.

socios (n) – Otros grupos de élite que comparten su visión del mundo y pueden trabajar con usted para mantener el status quo. Ver partes interesadas.

compensación de privacidad (ph) – El noble sacrificio del control individual sobre la información personal por beneficios grupales como los avances en el cuidado de la salud impulsados ​​por la inteligencia artificial, que también resultan ser muy rentables.

Progreso (n) – Avance científico y tecnológico. Un bien inherente.

mundo real (ph): lo opuesto al mundo simulado. Un entorno físico dinámico lleno de sorpresas inesperadas para las que los modelos de IA están entrenados para sobrevivir. No confundir con humanos y sociedad.

regulación (n) – Para lo que llamas transferir la responsabilidad de mitigar la IA dañina a los responsables de la formulación de políticas. No confundir con políticas que obstaculizarían su crecimiento.

IA responsable (n) – Un apodo para cualquier trabajo en su empresa que el público podría interpretar como un esfuerzo sincero para mitigar los daños de sus sistemas de inteligencia artificial.

robustez (n) – La capacidad de un modelo de IA para funcionar de manera consistente y precisa bajo intentos nefastos de alimentarlo con datos corruptos.

seguridad (n) – El desafío de construir sistemas de inteligencia artificial que no se desvíen de las intenciones del diseñador. No debe confundirse con la construcción de sistemas de inteligencia artificial que no fallan. Ver alineación.

escala (n) – El estado final de facto que cualquier buen sistema de IA debería esforzarse por lograr.

seguridad (n) – El acto de proteger datos valiosos o sensibles y modelos de IA para que no sean violados por malos actores. Ver adversario.

partes interesadas (n) – Accionistas, reguladores, usuarios. La gente en el poder que desea mantener feliz.

transparencia (n) – Revelar sus datos y código. Malo para información confidencial y confidencial. Así que realmente difícil; francamente, incluso imposible. No debe confundirse con una comunicación clara sobre cómo funciona realmente su sistema.

confiable (adj) – Una evaluación de un sistema de inteligencia artificial que se puede fabricar con suficiente publicidad coordinada.

renta básica universal (ph) – La idea de que pagar a todos un salario fijo resolverá la agitación económica masiva causada cuando la automatización conduce a la pérdida generalizada de puestos de trabajo. Popularizado por el candidato presidencial de 2020 Andrew Yang. Ver redistribución de la riqueza.

validación (n) – El proceso de probar un modelo de IA en datos distintos de los datos en los que se entrenó, para verificar que aún sea preciso.

valor (n) – Un beneficio intangible brindado a sus usuarios que le genera mucho dinero.

valores (n) – Los tienes. Recuérdele a la gente.

redistribución de la riqueza (ph): una idea útil para colgar alrededor cuando la gente te escudriña por usar demasiados recursos y ganar demasiado dinero. ¿Cómo funcionaría la redistribución de la riqueza? Renta básica universal, por supuesto. Tampoco es algo que puedas resolver tú mismo. Requeriría regulación. Ver regulación.

retener publicación (ph) – El acto benévolo de elegir no abrir su código porque podría caer en manos de un mal actor. Es mejor limitar el acceso a socios que puedan pagarlo.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.