Bert bot parecía triste cuando cometió un error, lo que hizo que la gente perdonara sus sentimientos.
Dar a los robots características realistas, como ojos expresivos y una hermosa sonrisa, nos hará tener más confianza en ellos, pero también puede hacer que les mientamos.
Esto es de acuerdo con un nuevo estudio que encontró que los humanos le mentirán a un robot para evitar «herir sentimientos» y prevenir la aparición de ira.
Los hallazgos también sugieren que la gente preferiría que las enfermeras robóticas del futuro, que pueden actuar como cocineras o enfermeras, por ejemplo, sean comunicativas y expresivas, en lugar de solo eficientes.
Investigadores del University College London y la Universidad de Bristol han creado un humanoide llamado Bert para ayudar a los usuarios a hacer una tortilla. Bert tiene un rostro expresivo, ojos, cejas y una boca en movimiento, lo que le permite lucir feliz y triste.
A la máquina se le encomendó la tarea de ayudar a los participantes humanos dispuestos a cocinar una tortilla, pasando huevos, sal y aceite. En uno de los experimentos, el robot funcionó a la perfección, con una sonrisa permanente en su «rostro», mientras que en otro cometió un error y trató de rectificarlo sin cambiar de expresión ni hablar.
En la tercera versión del experimento, un expresivo Bert dejó caer un huevo, lo que provocó que sus ojos se abrieran en estado de shock y frunciera el ceño. Bert intentó remediar la situación mientras se disculpaba con el «cocinero» humano que tenía que ayudar.
El estudio, cuyo objetivo era investigar cómo un robot puede recuperar la confianza del usuario cuando comete un error, sugiere que los humanos prefieren trabajar con un robot expresivo que es menos eficiente que uno perfectamente no comunicativo. Esto fue cierto incluso cuando los embarazos duraron un 50% más.
Los investigadores también encontraron que los usuarios reaccionaron bien a la disculpa de Bert cuando pudo comunicarse y fueron particularmente receptivos a su expresión facial triste. Creen que esto habría asegurado a los participantes que el androide «sabía» que había cometido un error.
Al final de la sesión de cocina, el robot de comunicación estaba programado para preguntar a los participantes si proporcionarían un asistente de cocina, y los usuarios solo podían responder «sí» o «no». No pudieron calificar sus respuestas.
Algunos se mostraron reacios a responder y la mayoría parecía incómoda, dijeron los investigadores, y una persona sintió que el robot se veía triste cuando decía «no», cuando no estaba programado para verse así. Otro se quejó de un chantaje emocional y un tercero llegó a mentirle al robot, aparentemente para no herir sus sentimientos.
Un asombroso 15 de los 21 participantes en el experimento eligieron al torpe robot apologético como el favorito para el papel de sub-chef robótico.
Adriana Hamacher, quien diseñó el estudio como parte de su maestría en interacción humano-computadora en UCL, dijo: “Sugeriría que al ver una emoción similar a la humana cuando cayó el huevo, muchos participantes ahora estaban precondicionados para esperar una reacción similar y por lo tanto dudó en decir que no; eran conscientes de la posibilidad de una posterior manifestación de sufrimiento humano ”.
Explicó que los atributos similares a los humanos, como el arrepentimiento, pueden ser herramientas poderosas para evitar que las personas se enojen con los robots cuando invariablemente cometen errores. «Pero necesitamos identificar cuidadosamente en qué rasgos específicos queremos enfocarnos y reproducir», dijo. «Si no hay reglas básicas, entonces podemos llegar a robots con personalidades diferentes, al igual que las personas que los diseñan».
Estudios anteriores han demostrado que los humanos pueden reaccionar de manera extraña a los robots, desde experimentar el desagradable efecto de «onda inusual» cuando los androides parecen demasiado humanos, hasta darles características humanas y obtener placer de ellos.
Por ejemplo, en abril, un estudio de la Universidad de Stanford encontró que los humanos a menudo se excitan cuando tocan las «áreas íntimas» de los robots.
Se pidió a los participantes que tocaran trece áreas del cuerpo de un robot llamado Nao, desarrollado por Aldebaran Robotics, mientras estaban equipados con sensores en sus manos no dominantes que medían la conductancia de la piel y el tiempo de reacción.
Cuando se les pidió que tocaran al robot en «áreas íntimas», que incluían las «nalgas» y los «genitales» del robot, estaban «más excitados emocionalmente en comparación con tocar partes como las manos y el cuello». Los participantes también fueron «más reacios» a tocar las áreas íntimas.
Jamy Li, coautor del estudio, dijo: «Las convenciones sociales sobre tocar las partes privadas de otra persona también se aplican a las partes del cuerpo de un robot».
Todas las noticias de la ciencia de el planeta tierra en un sólo sitio. noticias de Ciencia.