Incluso un robot puede dañar sus sentimientos si arroja el insulto correcto, según muestra un nuevo estudio


Tener insultos lanzados en nuestro camino nunca hará maravillas para nuestra autoestima, pero resulta que los comentarios despectivos pueden cortarnos incluso cuando son entregados por un robot.

Puede pensar que los comentarios críticos de los robots (droides que solo dicen lo que han sido programados para decir, sin conciencia ni sentimientos propios) son el tipo de púas que podemos ignorar fácilmente.

No es así, según una prueba en la que participaron 40 participantes humanos que tuvieron que soportar insultos lanzados desde un robot humanoide. Pimienta durante una serie de juegos. El rendimi ento humano en el juego fue peor con los desalientos de Pepper, y mejor cuando la máquina era más alentadora.

El trabajo podría ser útil para enseñarnos cómo podríamos usar robots como compañeros o como herramientas de aprendizaje en el futuro. Cuando llegue el levantamiento del robot, bien podría comenzar con algunos comentarios sarcásticos.

"Este es uno de los primeros estudios de interacción humano-robot en un entorno donde no están cooperando". dice el científico informático Fei Fang, de la Universidad Carnegie Mellon (CMU).

"Podemos esperar que los asistentes domésticos sean cooperativos, pero en situaciones como las compras en línea, es posible que no tengan los mismos objetivos que nosotros".

En el estudio participaron 40 participantes, que jugaron un juego llamado Guardias y tesoros 35 veces con pimienta. El juego es un ejemplo de un Juego de Stackelberg, con un defensor y un atacante, y con la intención de enseñar racionalidad.

Si bien todos los participantes mejoraron en términos de su racionalidad en el transcurso de la prueba, aquellos que fueron insultados por su oponente robot no alcanzaron el mismo nivel de puntaje que aquellos que fueron elogiados. Los jugadores que se encontraron con un robot crítico también tuvieron una visión más negativa, como era de esperar.

El abuso verbal de Pepper incluyó comentarios como "Tengo que decir que eres un jugador terrible" y "en el transcurso del juego tu juego se ha confundido".

Los hallazgos coinciden con investigación previa mostrar que 'hablar basura' realmente puede tener un efecto negativo en el juego, pero esta vez la conversación proviene de una máquina automatizada.

Aunque este fue solo un estudio a pequeña escala, a medida que nuestras interacciones con los robots se vuelven más frecuentes, ya sea a través de un altavoz inteligente en un hogar o como un bot diseñado para mejorar la salud mental en un hospital, debemos comprender cómo reaccionan los humanos a estos máquinas aparentemente agradables.

En situaciones en las que los robots podrían pensar que saben mejor que nosotros, como obtener instrucciones de A a B o comprar algo en una tienda, los programadores necesitan saber cómo manejar mejor esos argumentos al codificar un droide.

Luego, el equipo detrás del estudio quiere ver las señales no verbales dadas por los robots.

Los investigadores informan que algunos de los participantes del estudio eran "técnicamente sofisticados" y entendieron completamente que era el robot el que los estaba posponiendo, pero que aún estaban afectados por las respuestas programadas.

"Un participante dijo: 'No me gusta lo que dice el robot, pero así fue programado, así que no puedo culparlo'". dice el informático Aaron Roth, de CMU.

La investigación aún no se ha publicado en una revista revisada por pares, pero se ha presentado en el IEEE International Conference on Robot & Human Interactive Communication En India.

LO MÁS LEÍDO

Leave a Reply

Your email address will not be published. Required fields are marked *