La IA puede gestionar sus reuniones de trabajo ahora

Headroom es una de las varias aplicaciones que anuncian la IA como la solución para sus complicadas reuniones virtuales o de video.
Agrandar / Headroom es una de las varias aplicaciones que anuncian la IA como la solución para sus complicadas reuniones virtuales o de video.

Julian Green estaba explicando el gran problema con las reuniones cuando nuestra reunión comenzó a fallar. Los píxeles de su rostro se reorganizaron. Una frase salió como hipo. Luego farfulló, se congeló y se apagó.

Green y yo habíamos estado charlando Espacio para la cabeza, un nuevo videoconferencia plataforma que él y el cofundador Andrew Rabinovich lanzaron este otoño. La fal la, me aseguraron, no fue causada por su software, sino por la conexión Wi-Fi de Green. “Creo que el resto de mi calle está en la educación en casa”, dijo, un problema que Headroom no fue construido para resolver. En cambio, se construyó para otros problemas: el tedio de tomar notas, los compañeros de trabajo que hablan sin parar y la dificultad de mantener a todos comprometidos. Mientras hablábamos, el software marcó una transcripción en tiempo real en una ventana junto a nuestras caras. Llevaba un recuento continuo de cuántas palabras había dicho cada persona (dominaba Rabinovich). Una vez terminada nuestra reunión, el software de Headroom sintetizaría los conceptos de la transcripción; identificar temas clave, fechas, ideas y elementos de acción; y, finalmente, escupir un registro que pueda ser buscado en un momento posterior. Incluso trataría de medir la atención de cada participante.

Las reuniones se han convertido en el mal necesario del lugar de trabajo moderno, abarcando una taxonomía elaborada: levantamientos diarios, sentadillas, manos libres, uno a uno, bolsas marrones, verificaciones de estado, tormentas de ideas, informes, revisiones de diseño. Pero a medida que aumenta el tiempo dedicado a estos cónclaves corporativos, el trabajo parece sufrir. Investigadores han descubierto que las reuniones se correlacionan con una disminución de la felicidad en el lugar de trabajo, la productividad e incluso la participación de mercado de la empresa. Y en un año en el que tantas interacciones en la oficina se volvió digital, el tedio habitual de la cultura de las reuniones se ve agravado por los arranques y arranques de las teleconferencias.

Recientemente, ha surgido una nueva ola de startups para optimizar esas reuniones con, qué más, tecnología. Macro (“Dé a sus reuniones superpoderes”) crea una interfaz colaborativa para Zoom. Mmm ofrece fondos interactivos y herramientas para compartir diapositivas para los presentadores. Luciérnagas, una herramienta de transcripción de IA, se integra con plataformas de videoconferencia populares para crear un registro de búsqueda de cada reunión. Y Compañero (“Haz que tu equipo remoto vuelva a sentirse cerca”) vende una tableta dedicada para videollamadas.

La idea detrás de Headroom, que fue concebida antes de la pandemia, es mejorar los problemas tanto presenciales como virtuales con las reuniones, utilizando IA. (Rabinovich solía dirigir AI en Magic Leap.) El uso de videoconferencias ya estaba en aumento antes de 2020; este año explotó, y Green y Rabinovich apuestan a que el formato llegó para quedarse a medida que más empresas acostumbrarse a tener empleados remotos. Sin embargo, durante los últimos nueve meses, muchas personas han aprendido de primera mano que las reuniones virtuales traen nuevos desafíos, como interpretar el lenguaje corporal de otras personas en la pantalla o averiguar si alguien realmente está escuchando.

“Una de las cosas difíciles en una videoconferencia es cuando alguien está hablando y quiero decirle que me gusta”, dice Green. En persona, dice, “puede asentir con la cabeza o hacer una pequeña ajá. ” Pero en un chat de video, es posible que el orador no vea si está presentando diapositivas, o si la reunión está llena de demasiados cuadrados, o si todos los que están dando señales verbales están en silencio. “No se puede saber si son grillos o si a la gente le encanta”.

Headroom tiene como objetivo abordar la distancia social de las reuniones virtuales de varias maneras. Primero, utiliza la visión por computadora para traducir los gestos de aprobación en íconos digitales, amplificando cada pulgar hacia arriba o asentir con la cabeza con pequeños emojis que el hablante puede ver. Esos emojis también se agregan a la transcripción oficial, que es generada automáticamente por software para ahorrarle a alguien la tarea de tomar notas. Green y Rabinovich dicen que este tipo de monitoreo se aclara a todos los participantes al comienzo de cada reunión, y los equipos pueden optar por no participar en las funciones si así lo desean.

De manera más singular, el software de Headroom utiliza el reconocimiento de emociones para tomar la temperatura de la habitación periódicamente y medir cuánta atención prestan los participantes a quienquiera que esté hablando. Esas métricas se muestran en una ventana en pantalla, diseñada principalmente para brindarle al hablante retroalimentación en tiempo real que a veces puede desaparecer en el contexto virtual. “Si hace cinco minutos todo el mundo estaba muy interesado en lo que estoy diciendo y ahora no, tal vez debería pensar en callarme”, dice Green.

El reconocimiento de emociones es todavía un campo incipiente de la IA. “El objetivo es básicamente tratar de mapear las expresiones faciales capturadas por los puntos de referencia faciales: la elevación de la ceja, la forma de la boca, la apertura de las pupilas”, dice Rabinovich. Cada uno de estos movimientos faciales se puede representar como datos, que en teoría luego se pueden traducir en una emoción: feliz, triste, aburrido, confuso. En la práctica, el proceso rara vez es tan sencillo. El software de reconocimiento de emociones tiene un historial de etiquetar incorrectamente a las personas de color; un programa, utilizado por la seguridad del aeropuerto, sobreestimó la frecuencia con la que los hombres negros mostraban emociones negativas, como “ira”. La informática afectiva tampoco toma en cuenta las señales culturales en contexto, como si alguien está desviando la mirada por respeto, vergüenza o timidez.

Para los propósitos de Headroom, Rabinovich sostiene que estas inexactitudes no son tan importantes. “Nos importa menos si estás feliz o súper feliz, siempre que podamos saber si estás involucrado”, dice Rabinovich. Pero Alice Xiang, directora de investigación de equidad, transparencia y responsabilidad de Partnership on AI, dice que incluso el reconocimiento facial básico todavía tiene problemas, como fallando en detectar

cuando las personas asiáticas tienen los ojos abiertos, porque a menudo se les adiestra con rostros blancos. “Si tiene ojos más pequeños o entrecerrados, podría darse el caso de que el reconocimiento facial concluya que está constantemente mirando hacia abajo o cerrando los ojos cuando no lo está”, dice Xiang. Este tipo de disparidades pueden tener consecuencias en el mundo real a medida que el software de reconocimiento facial gana un uso más generalizado en el lugar de trabajo. Headroom no es el primero en llevar este tipo de software a la oficina. HireVue, una empresa de tecnología de contratación, introdujo recientemente un software de reconocimiento de emociones que sugiere el “empleabilidad, “basado en factores como los movimientos faciales y la voz al hablar.

Constance Hadley, investigadora de la Escuela de Negocios Questrom de la Universidad de Boston, dice que la recopilación de datos sobre el comportamiento de las personas durante las reuniones puede revelar qué funciona y qué no funciona dentro de esa configuración, lo que podría ser útil tanto para empleadores como para empleados. Pero cuando las personas saben que su comportamiento está siendo monitoreado, puede cambiar la forma en que actúan de manera no intencional. “Si el monitoreo se usa para comprender los patrones tal como existen, eso es genial”, dice Hadley. “Pero si se usa para incentivar ciertos tipos de comportamiento, puede terminar provocando un comportamiento disfuncional”. En las clases de Hadley, cuando los estudiantes saben que el 25 por ciento de la calificación es participación, los estudiantes levantan la mano con más frecuencia, pero no necesariamente dicen cosas más interesantes. Cuando Green y Rabinovich me mostraron su software, me encontré levantando las cejas, abriendo mucho los ojos y sonriendo como un maníaco para cambiar mis niveles de emoción percibida.

En la estimación de Hadley, cuando se llevan a cabo reuniones es tan importante como cómo. Las reuniones mal programadas pueden privar a los trabajadores del tiempo para hacer sus propias tareas, y una avalancha de reuniones puede hacer que las personas sientan que están perdiendo el tiempo mientras se ahogan en el trabajo. Naturalmente, también existen soluciones de software para esto. Agujas del reloj, una plataforma de gestión del tiempo de IA lanzada en 2019, utiliza un algoritmo para optimizar la sincronización de las reuniones. “El tiempo se ha convertido en un activo compartido dentro de una empresa, no en un activo personal”, dice Matt Martin, fundador de Clockwise. “La gente está equilibrando todos estos diferentes hilos de comunicación, la velocidad ha aumentado, las demandas de colaboración son más intensas. Y, sin embargo, el núcleo de todo eso es que no hay una herramienta para que nadie pueda expresar: ‘Este es el momento que necesito para hacer mi trabajo. ¡No me distraigas! ‘”

En el sentido de las agujas del reloj se sincroniza con el calendario de Google de alguien para analizar cómo gastan su tiempo y cómo podrían hacerlo de manera más óptima. El software agrega bloques de tiempo de protección basados ​​en las preferencias declaradas de un individuo. Puede reservar una parte del tiempo de “no molestar” para hacer el trabajo por las tardes. (También bloquea automáticamente la hora del almuerzo. “Por tonto que parezca, hace una gran diferencia”, dice Martin.) Y al analizar varios calendarios dentro de la misma fuerza laboral o equipo, el software puede mover reuniones automáticamente como un “equipo sincronizar ”o un“ 1×1 semanal ”en intervalos de tiempo que funcionan para todos. El software se optimiza para crear bloques de tiempo más ininterrumpidos, cuando los trabajadores pueden realizar un “trabajo profundo” sin distracciones.

En sentido horario, que se lanzó en 2019, acaba de cerrar una ronda de financiación de 18 millones de dólares y dice que está ganando terreno en Silicon Valley. Hasta ahora, tiene 200.000 usuarios, la mayoría de los cuales trabaja para empresas como Uber, Netflix y Twitter; aproximadamente la mitad de sus usuarios son ingenieros. Headroom también está cortejando clientes en la industria tecnológica, donde Green y Rabinovich sienten que comprenden mejor los problemas de las reuniones. Pero no es difícil imaginar software similar arrastrándose más allá de la burbuja de Silicon Valley. Green, que tiene hijos en edad escolar, se ha exasperado por parte de su experiencia de aprendizaje remoto. Hay dos docenas de estudiantes en sus clases y el maestro no puede verlos a todos a la vez. “Si el profesor presenta diapositivas, puede ver ninguna de ellos ”, dice. “Ni siquiera ven si los niños tienen las manos en alto para hacer una pregunta”.

De hecho, los problemas de las teleconferencias no se limitan a las oficinas. A medida que cada vez hay más interacción mediada por pantallas, más herramientas de software seguramente intentarán optimizar la experiencia. Otros problemas, como Wi-Fi lento, serán de otra persona para resolver.

Esta historia apareció por primera vez en wired.com

Leave a Reply

Your email address will not be published. Required fields are marked *