Es posible que la IA no robe tu trabajo, pero podría cambiarlo

Es posible que la IA no robe tu trabajo, pero podría cambiarlo

(Este artículo es de The Technocrat, el boletín semanal de políticas tecnológicas de . sobre poder, política y Silicon Valley. Para recibirlo en su bandeja de entrada todos los viernes, Registrate aquí.)

Los avances en inteligencia artificial tienden a ser seguidos por ansiedades en torno al trabajo. Esta última ola de modelos de IA, como ChatGPT y el nuevo GPT-4 de OpenAI, no es diferente. Primero tuvimos el lanzamiento de los sistemas. Ahora estamos viendo las predicciones de la automatización.

En un informe publicado esta semana, Goldman Sachs predijo que los avances de la IA podrían crear 300 millones de puestos de trabajo, lo que representa aproximadamente el 18 % de la fuerza laboral mundial. automatizado de alguna manera. OpenAI también lanzó recientemente su propio estudio con la Universidad de Pensilvania, que afirmó que ChatGPT podría afectar a más del 80% de los puestos de trabajo en los EE. UU.

Los números suenan aterradores, pero la redacción de estos informes puede ser frustrantemente vaga. “Afecto” puede significar una amplia gama de cosas, y los detalles son turbios.

Las personas cuyos trabajos tienen que ver con el lenguaje podrían, como era de esperar, verse particularm ente afectadas por grandes modelos de lenguaje como ChatGPT y GPT-4. Tomemos un ejemplo: los abogados. Durante las últimas dos semanas, pasé tiempo analizando la industria legal y cómo es probable que se vea afectada por los nuevos modelos de IA, y lo que encontré es tanto motivo de optimismo como de preocupación.

La industria legal anticuada y lenta ha sido candidata a la disrupción tecnológica durante algún tiempo. en una industria con una escasez de mano de obra y la necesidad de manejar montones de documentos complejos, una tecnología que pueda comprender y resumir textos rápidamente podría ser inmensamente útil. Entonces, ¿cómo deberíamos pensar sobre el impacto que estos modelos de IA podrían tener en la industria legal?

En primer lugar, los avances recientes en IA son particularmente adecuados para el trabajo legal. GPT-4 recientemente pasó el examen de la barra universal, que es la prueba estándar requerida para licenciar abogados. Sin embargo, eso no significa que AI esté lista para ser abogada.

El modelo podría haber sido entrenado en miles de pruebas de práctica, lo que lo convertiría en un examinador impresionante, pero no necesariamente en un gran abogado. (No sabemos mucho sobre los datos de entrenamiento de GPT-4 porque OpenAI no ha publicado esa información.)

Aún así, el sistema es muy bueno para analizar texto, lo cual es de suma importancia para los abogados.

“El idioma es la moneda en el ámbito de la industria legal y en el campo del derecho. Todo camino conduce a un documento. O tienes que leer, consumir o producir un documento… esa es realmente la moneda con la que la gente comercia”, dice Daniel Katz, profesor de derecho en la Facultad de Derecho de Chicago-Kent que realizó el examen GPT-4.

En segundo lugar, el trabajo legal tiene muchas tareas repetitivas que podrían automatizarse, como buscar leyes y casos aplicables y obtener evidencia relevante, según Katz.

Uno de los investigadores en el examen de la barra, Pablo Arredondo, ha estado trabajando en secreto con OpenAI para usar GPT-4 en su producto legal, Casetext, desde este otoño. Casetext utiliza IA para realizar “revisión de documentos, memorandos de investigación legal, preparación de declaraciones y análisis de contratos”, según su sitio web.

Arredondo dice que está cada vez más entusiasmado con el potencial de GPT-4 para ayudar a los abogados a medida que lo usa. Él dice que la tecnología es “increíble” y “matizada”.

Sin embargo, la IA en la ley no es una tendencia nueva. ya ha sido se utiliza para revisar los contratos y predecir resultados legales, y los investigadores recientemente exploró cómo la IA podría ayudar a aprobar leyes. Recientemente, la empresa de derechos del consumidor DoNotPay consideró presentar un caso ante un tribunal utilizando un argumento escrito por AI, conocido como el “abogado robot”, entregado a través de un auricular. (DoNotPay no siguió adelante con el truco y es siendo demandado para ejercer la abogacía sin licencia).

A pesar de estos ejemplos, este tipo de tecnologías aún no han logrado una adopción generalizada en los bufetes de abogados. ¿Podría eso cambiar con estos nuevos modelos de lenguaje grande?

En tercer lugar, los abogados están acostumbrados a revisar y editar trabajos.

Los modelos de lenguaje grande están lejos de ser perfectos, y su salida tendría que ser revisada de cerca, lo cual es una carga. Pero los abogados están muy acostumbrados a revisar documentos producidos por alguien, o algo, más. Muchos están capacitados en la revisión de documentos, lo que significa que el uso de más IA, con un ser humano al tanto, podría ser relativamente fácil y práctico en comparación con la adopción de la tecnología en otras industrias.

La gran pregunta es si se puede convencer a los abogados de que confíen en un sistema en lugar de en un abogado joven que pasó tres años en la facultad de derecho.

Por último, existen limitaciones y riesgos. GPT-4 a veces crea un texto muy convincente pero incorrecto, y hará un mal uso del material de origen. Una vez, dice Arrodondo, GPT-4 lo hizo dudar de los hechos de un caso en el que él mismo había trabajado. “Yo le dije, Te equivocas. Argumenté este caso.

Y la IA dijo: Puedes sentarte ahí y presumir de los casos en los que trabajaste, Pablo, pero tengo razón y aquí tienes la prueba. Y luego le dio una URL a nada”. Arredondo agrega: “Es un pequeño sociópata”.

Katz dice que es esencial que los humanos se mantengan informados cuando usan sistemas de inteligencia artificial y destaca la obligación profesional de los abogados de ser precisos: “No debe simplemente tomar los resultados de estos sistemas, no revisarlos y luego dárselos a la gente”.

Otros son aún más escépticos. “Esta no es una herramienta en la que confiaría para garantizar que el análisis legal importante esté actualizado y sea apropiado”, dice Ben Winters, quien dirige los proyectos del Electronic Privacy Information Center sobre IA y derechos humanos. Winters caracteriza la cultura de la IA generativa en el campo legal como “demasiado confiada e irresponsable”. También está bien documentado que la IA está plagada de prejuicios raciales y de género.

También están las consideraciones a largo plazo y de alto nivel. Si los abogados tienen menos práctica en la investigación legal, ¿qué significa eso para la experiencia y la supervisión en el campo?

Pero estamos un tiempo lejos de eso, por ahora.

Esta semana, mi colega y editor general de Tech Review, David Rotman, escribió una pieza analizar el impacto de la nueva era de la IA en la economía, en particular, en el empleo y la productividad.

“La visión optimista: demostrará ser una herramienta poderosa para muchos trabajadores, mejorando sus capacidades y experiencia, al tiempo que impulsará la economía en general. El pesimista: las empresas simplemente lo usarán para destruir lo que antes parecían trabajos a prueba de automatización, bien pagados que requieren habilidades creativas y razonamiento lógico; algunas empresas de alta tecnología y élites tecnológicas se enriquecerán aún más, pero contribuirán poco al crecimiento económico general”.

Lo que estoy leyendo esta semana.

Algunos peces gordos, incluidos Elon Musk, Gary Marcus, Andrew Yang, Steve Wozniak y más de 1500 personas más, firmaron una carta patrocinada por el Future of Life Institute que pedía una moratoria en los grandes proyectos de IA. Bastantes expertos en IA están de acuerdo con la propuesta, pero el razonamiento (evitar el armagedón de la IA) ha recibido muchas críticas.

El New York Times ha anunció que no pagará por la verificación de Twitter. Es otro golpe al plan de Elon Musk de hacer que Twitter sea rentable cobrando por ticks azules.

El 31 de marzo, los reguladores italianos ChatGPT prohibido temporalmente por preocupaciones de privacidad. Específicamente, los reguladores están investigando si la forma en que OpenAI entrenó el modelo con los datos de los usuarios violó el RGPD.

Últimamente me han atraído algunas historias culturales más largas. Aquí hay una muestra de mis favoritos recientes:

  • Mi colega Tanya Basu escribió una gran historia sobre personas durmiendo juntas, platónicamente, en realidad virtual. Es parte de una nueva era de comportamiento social virtual que ella llama “acogedor pero espeluznante”.
  • En el New York Times, Steven Johnson salió con un perfil encantador, aunque inquietante, de Thomas Midgley Jr.quien creó dos de los inventos más dañinos para el clima en la historia
  • Y Jason Kehe de Wired pasó meses entrevistando al autor de ciencia ficción más popular del que probablemente nunca hayas oído hablar en este agudo y profundo mira dentro de la mente de Brandon Sanderson.

Lo que aprendí esta semana

El “bocadillo de noticias” (revisar titulares o avances en línea) parece ser una forma bastante pobre de aprender sobre eventos actuales y noticias políticas. Un estudio revisado por pares realizado por investigadores de la Universidad de Amsterdam y la Universidad de Ciencias Aplicadas de Macromedia en Alemania encontraron que “los usuarios que ‘pican’ noticias más que otros obtienen poco de sus altos niveles de exposición” y que “comer bocadillos” resulta en “un aprendizaje significativamente menor” que consumo de noticias más dedicado. Eso significa que la forma en que las personas consumen información es más importante que la cantidad de información que ven. El estudio avanza en investigaciones anteriores que muestran que, si bien la cantidad de “encuentros” que las personas tienen con las noticias cada día está aumentando, la cantidad de tiempo que dedican a cada encuentro está disminuyendo. Resulta que… eso no es bueno para un público informado.

Leave a Reply

Your email address will not be published. Required fields are marked *