Tag

Tecnología

Browsing

Amigos del Club del Lenguaje No Verbal, esta semana presentamos el artículo “Nonverbal Communication in Virtual Reality: Nodding as a social signal in virtual interactions”, de Aburumman, N.; Gillies, M.; Ward, J. A. y Hamilton, A. F. C. (2022), en el que los autores realizan una serie de experimentos para saber cómo influye el hecho de asentir en la percepción que tienen los usuarios de los avatares humanos en contextos de realidad virtual.

La interacción cara a cara es una parte central de la vida humana, se utiliza para transmitir ideas, compartir información, comprender las intenciones de los demás y sus emociones, generar confianza, tomar decisiones… 

Un objetivo importante para los investigadores en ciencias computacionales es el diseño de los entornos virtuales, incluidos los humanos virtuales y los contextos de realidad virtual inmersiva, que pueden simular una conversación real cara a cara. También es un objetivo importante para los investigadores en psicología comprender cómo se comportan los humanos durante las interacciones y probar teorías sobre qué aspectos de estas interacciones son más significativos.

Ya sea en una configuración física o virtual, la comunicación humana implica tanto intercambios verbales como comportamientos no verbales.

La comunicación no verbal es una herramienta eficaz y expresiva que se emplea para enviar y recibir señales sociales que los humanos han estado usando durante miles de años antes de que se desarrollara la capacidad de comunicación con palabras. Por tanto, tanto el análisis como la síntesis de la comunicación no verbal, constituye una parte esencial de la investigación de la interacción humano-ordenador.

Aunque la comunicación física sigue siendo más poderosa, la comunicación moderna está frecuentemente mediada por la tecnología, y se lleva a cabo virtualmente.

La realidad virtual es una forma digital de comunicación que puede facilitar la creación de una interacción inmersiva en tiempo real y mejorar la presencia social en entornos virtuales. 

En el presente estudio se empleó la realidad virtual en los experimentos ya que los autores consideraron que tenía un potencial sinigual para impactar en el futuro de numerosos sectores, como por ejemplo las conferencias virtuales, la educación, la consultoría, la rehabilitación social, la atención médica…

También se incluyó la comunicación no verbal, que incluye aspectos tan dispares como asentir con la cabeza, mantener el contacto visual, inclinarse hacia adelante o atrás, la orientación del cuerpo, entre otros muchos. En particular, asentir con la cabeza juega un papel importante en la regulación de una interacción, señalando quién debe tomar el turno de palabra, por ejemplo, o si alguien está interesado o no en un elemento en particular. 

Este tipo de señalización se denomina comúnmente backchannelling, y a menudo se produce para enviar mensajes sutiles en una interacción cara a cara. Por tanto, incluir este elemento en entornos virtuales, puede ser muy importante para hacer que el interlocutor se sienta cómodo y escuchado.

En este artículo, los autores llevan a cabo varios experimentos que involucran la interacción virtual entre un avatar controlado por humanos y un humano virtual cuyo comportamiento está controlado por un programa de ordenador. En estos experimentos, los autores se enfocan en cuatro tipos diferentes de señales no verbales que son muy importantes en la interacción humana cara cara: el parpadeo, asentir con la cabeza, expresiones faciales y cambio de la mirada. Además, manipularon específicamente el comportamiento de asentir con la cabeza entre dos humanos virtuales diferentes.

Los experimentos se llevaron acabo en el laboratorio de interacción social del University College London. Se pudieron recopilar datos de 21 participantes, de los cuales 15 eran mujeres y 6, hombres, con una edad media de 24 años.

El estilo de los avatares virtuales era poco realista, parecido a los dibujos animados, ya que este tipo de humanos virtuales es preferido antes que aquellos más realistas.

En la primera tarea, se dijo a los participantes que tendrían una conversación con dos humanos virtuales diferentes en realidad virtual, y discutirían una serie de hechos sobre algunos estados de Estados Unidos. El participante conoce a la primera humana virtual (Anna). Ésta se presenta, y le pide al participante que se presente. Después, Anna realiza un monólogo de 45-55 segundos, donde lee datos sobre un estado de EEUU y después, durante 35-45 segundos, Anna y el participante debaten. Después, el proceso se realiza al contrario. En total, el participante debe completar cuatro intentos con Anna y cuatro con la otra humana virtual, Beth. 

Diseñamos estos dos seres humanos virtuales para proporcionar idénticos parpadeos, expresiones faciales y comportamientos cambiantes de la mirada.

La única diferencia entre el comportamiento de las dos humanas virtuales es que una de ellas manifiesta un comportamiento naturalista de asentir que depende de las acciones de su pareja, mientras que la otra solamente muestra un movimiento de cabeza preconfigurado. 

La segunda tarea utilizó un laberinto virtual para medir implícitamente la proximidad, la confianza y la atracción que el participante siente hacia las humanas virtuales. 

Las humanas virtuales Anna y Beth se colocan en ocho puntos de decisión de la laberinto; el participante puede optar por acercarse a una o a otra para obtener consejos sobre cómo completar la actividad. 

Se encontró un impacto positivo del asentimiento naturalista, mostrando que a los participantes les gustaba más, y confiaban más en la humana virtual que asentía de esta manera, ya que fue calificada con una puntuación significativamente más alta que la otra humana virtual. 

Cuando se preguntó a los participantes por qué humana virtual había mostrado más atención a lo que estaba diciendo, las opiniones siguieron en esta línea, y la humana virtual con un asentimiento naturalista fue percibida como más comprometida con la interacción.

Además, en el experimento del laberinto, los participantes se acercaron más a la humana virtual que asentía más. 

Estos resultados apoyan la afirmación de que el mimetismo funciona como una especie de pegamento social, y que al copiar las acciones de otra persona es posible generar confianza y simpatía. 

Los estudios futuros podrían probar cómo esto se extiende a otros tipos de conversación y otros grupos sociales, por ejemplo, introduciendo la variable del género. 

Si quieres saber más sobre el comportamiento no verbal y cómo influye en con las relaciones interpersonales, visita nuestro Master of Science in Nonverbal and Deceptive Behavior, que puedes cursar en inglés o español y que cuenta con becas especiales para los lectores del Club del Lenguaje no Verbal.

Amigos del Club del Lenguaje No Verbal, esta semana presentamos el artículo “Robot lecture for enhancing presentation in lecture” de Ishino, T.; Goto, M. y Kashihara, A. (2022), en el que los autores realizan un experimento para saber si la utilización de robots con habilidades especializadas en comunicación no verbal es algo positivo y beneficioso para el aprendizaje de los alumnos en clase.

Desde hace unos años, se ha ido extendiendo la utilización de robots, sobre todo de pequeño tamaño, en diversos contextos como los cuidados, la enfermería, la educación, la orientación, la hostelería… y además, su interés en algunas de estas áreas crece de forma exponencial, especialmente, en la educación. 

En este artículo, los autores se enfocan en el uso de robots de comunicación para dar conferencias o lecciones cortas en clases pequeñas. 

En una conferencia, generalmente, es muy importante presentar los contenidos con diapositivas de apoyo a la exposición oral, de forma que se pueda promover una mejor y más fácil comprensión por parte de los alumnos. Esto requiere que los profesores controlen la atención de los alumnos, tanto a las diapositivas como a la exposición oral, y esto debe hacerse por medio de muchos elementos no verbales: la mirada, los gestos, el paralenguaje, etcétera. 

Por ejemplo, si los profesores quieren atraer la atención de los alumnos a un punto importante de una diapositiva en concreto, deben dirigir su rostro hacia la presentación y señalar con un gesto directo de forma simultánea. 

Por otro lado, el comportamiento no verbal que sea histriónico, excesivo, innecesario, impediría que los alumnos mantengan su atención en la comprensión de los contenidos. En consecuencia, es indispensable que los profesores o los ponentes de las conferencias tengan una cierta formación en comunicación no verbal. 

Sin embargo, incluso para aquellos comunicadores con experiencia, no es tan fácil hacer un uso adecuado de las herramientas aprendidas de comunicación no verbal y mantenerlo a lo largo de la conferencia. Y si le sumamos que también hay personas inexpertas y no conocen las técnicas efectivas en este tipo de situaciones, el asunto se vuelve más complejo. 

Aquellos que tienen menos experiencia tienden a concentrarse más en la explicación oral y dejar de lado la comunicación no verbal. En consecuencia, el proceso de aprendizaje para los alumnos será más difícil. 

Los autores proponen la utilización de robots para dar conferencias, sustituyendo a los profesores humanos. El objetivo era reproducir un comportamiento no verbal lo más adecuado posible para que los alumnos presten atención a los contenidos más importantes de la lección. 

El robot reproduce la presentación que forma parte del material de apoyo de la ponencia o la clase, y dirige su rostro y sus gestos en función de ésta. 

En el estudio se compara la efectividad de las conferencias realizadas por humanos y realizadas por robots en cuanto al aprendizaje de los alumnos. 

Los participantes fueron 36 estudiantes de universidad. Se prepararon tres videoconferencias distintas que duraban entre 5 y 6 minutos. 

Los resultados obtenidos informaron de que los robots tenían dificultades para llevar a cabo un comportamiento preciso como ponentes, debido a sus limitaciones obvias (no son seres humanos), pero su comportamiento era reconocible. 

En el caso de un gesto de señalar, realizado por profesores humanos, se requiere señalar lugares precisos. Si es impreciso, puede dar lugar a confusión por parte de los alumnos,  y perderán la atención. El gesto de señalar por parte de un robot tiende a ser más firme, en consecuencia, los alumnos prestarían atención inmediata en la dirección señalada. 

De todas formas, para suplir las posibles carencias de los robots en cuanto a los gestos, los autores proponen utilizar punteros láser o efectos visuales en las diapositivas.

Como punto que también se debe mejorar, los autores mencionan que el robot necesita reconocer los estados de aprendizaje y comportamiento en la clase por parte de los alumnos. Por ejemplo, si hay personas que sienten que la conferencia es difícil, el robot tendrá que presentar un comportamiento no verbal distinto que ayude a cambiar esta percepción. 

Los resultados son positivos en cuanto a la atención cuando se trata de conferencias dadas por el robot, posiblemente por el factor novedad, aunque también se menciona que son ponencias breves y esto puede ser un punto a favor. Por ello, los autores proponen apostar por modelos híbridos donde robots hagan las introducciones a ciertos temas y profesores humanos expliquen las partes más complejas o que requieran de un factor menos “tecnológico”. 

En el futuro, los autores tienen la intención de saber más sobre las aplicaciones de los robots en el campo de la educación. Mientras tanto, invitan a otros investigadores a indagar sobre el tema, para incluir cada vez más este tipo de tecnología en nuestras vidas. 

Si quieres saber más sobre el comportamiento no verbal y cómo influye en con las relaciones interpersonales, visita nuestro Máster en Comportamiento No Verbal y Detección de la Mentira o nuestro Experto Universitario en Comunicación No Verbal y Personalidad, con becas especiales para los lectores del Club del Lenguaje no Verbal.

Amigos del Club del Lenguaje No Verbal, esta semana presentamos el artículo “Survey On Emotional Body Gesture Recognition” de Noroozi, F.; Kaminska, D.; Corneanu, C. P.; Sapinski, T.; Escalera, S. y Anbarjafari, G. (2018), en el que los autores hacen una breve revisión sobre algunos de los sistemas utilizados para el reconocimiento de los gestos corporales y su decodificación.

Sabemos que el lenguaje no verbal tiene un papel indispensable en nuestra comunicación diaria. Y además, las personas cambiamos constantemente las pistas no verbales que emitimos a través del movimiento corporal y las expresiones faciales.

Aunque es un aspecto significativo de la psicología social humana, los primeros estudios sobre el lenguaje corporal se hicieron populares en la década de los 60.

Pero el, probablemente considerado, trabajo más importante fue publicado mucho antes del siglo XX: “La expresión de las emociones en el hombre y los animales”, de Darwin. Él observó, por ejemplo, que la gente de todo el mundo utilizaba las expresiones faciales de forma similar.

Esto fue estudiado más adelante por Paul Ekman, que, junto a Friesen, desarrolló el sistema de codificación de acción facial (FACS) para establecer grosso modo una clasificación de las expresiones faciales humanas.

Tal es el papel de la comunicación no verbal, que muchos investigadores coinciden en que son los movimientos corporales los que permiten formar relaciones, no las palabras.

Los gestos serían una de las formas más importantes de comunicación no verbal. Incluyen movimientos de manos, cabeza y otras partes del cuerpo que permiten a las personas comunicar sus sentimientos y emociones.

La mayoría de los gestos básicos son los mismos en todo el mundo: cuando estamos felices, sonreímos; cuando estamos enfadados, fruncimos el ceño.

La posición de la cabeza también revela mucha información sobre el estado emocional. Por ejemplo, las personas tienden a hablar más si el oyente les anima asintiendo con la cabeza. Si se levanta la barbilla, puede significar que la persona está mostrando superioridad o incluso arrogancia, mientras que exponer el cuello puede interpretarse como una señal de sumisión.

Señalamos, como siempre, la necesidad de tener en cuenta el contexto y diferentes partes del cuerpo para interpretar correctamente el estado emocional.

Si bien las emociones se pueden expresar de diferentes formas, el reconocimiento automático de ellas se ha centrado principalmente en las expresiones faciales y el habla, dejando en un segundo plano los trabajos sobre gestos/movimientos corporales y la postura.

En este artículo, los autores intentan ofrecer una visión general de las técnicas más novedosas para el reconocimiento automático de emociones a partir de gestos corporales.

Nos referimos a sistemas digitales y tecnológicos de reconocimiento. Para utilizarlos, primero se debe utilizar una base de datos, bien de acceso público, o bien propia, para buscar imágenes o vídeos.

El primer paso es detectar los cuerpos de las personas como un todo y restar el fondo. Después, se detecta y se sigue la pose para reducir la variación de datos irrelevantes causada por la postura. Por último, se debe hacer una representación adecuada de los datos y aplicar técnicas para mapear ésta.

La mayoría de los datos disponibles en bases de datos públicas contienen expresiones actuadas, pero muestran emociones claras y sin distorsiones. Sin embargo, algunos investigadores refieren que no reflejan las condiciones del mundo real. Por ello, muchos expertos recomiendan utilizar películas, reality shows o programas en directo, donde es posible que la calidad del material no sea óptima, pero sí mucho más real.

Las aplicaciones del reconocimiento de gestos corporales emocionales son principalmente de tres tipos.

En primer lugar, están aquellos sistemas que detectan las emociones de los usuarios.

En segundo lugar, aparecen agentes conversacionales animados, reales o virtuales, como robots o avatares que se espera que actúen de forma similar a los humanos.

Por último, están los sistemas que pueden aplicarse en videotelefonía, videoconferencias, herramientas de monitorización del estrés, detección de violencia o videovigilancia, entre otros ámbitos.

Los sistemas automáticos de reconocimiento pueden utilizar fuentes de información que se basan en el rostro, la voz y los gestos corporales al mismo tiempo. Por lo tanto, si el sistema es capaz de combinar aspectos emocionales y sociales del contexto, y tomar una decisión basada en las señales disponibles, puede ser un asistente útil para los humanos.

Un ejemplo de estimación y seguimiento de posturas, en este caso de varias personas, es “Arttrack”. Con este software se logran resultados a la vanguardia mediante el uso de una tecnología capaz de detectar y asociar las articulaciones corporales de la misma persona incluso en el desorden.

Este modelo es especialmente útil cuando se trata de formular un seguimiento articulado de la postura. Permite, por tanto, resolver el problema de asociación para personas en la misma escena.

Sin embargo, en general, las representaciones actuales siguen siendo superficiales. Aunque recientemente se está aprendiendo a darles profundidad y relevancia para el reconocimiento de afectos, todavía queda un largo camino por delante.

Una limitación es la escasez de gestos corporales y datos afectivos multimedia. Otra sería la falta de consenso en cuanto a la interpretación de los gestos.

En general, para un análisis humano afectivo integral a partir del lenguaje corporal, el reconocimiento de gestos corporales debe aprender del reconocimiento facial emocional.

Si quieres saber más sobre el comportamiento no verbal y cómo influye en con las relaciones interpersonales, visita nuestro Máster en Comportamiento No Verbal y Detección de la Mentira o nuestro Experto Universitario en Comunicación No Verbal y Personalidad, con becas especiales para los lectores del Club del Lenguaje no Verbal.

Amigos del Club de Lenguaje No Verbal, esta semana presentamos el artículo “Nonverbal Behaviors ‘Speak’ Relational Messages of Dominance, Trust, and Composure” de Burgoon, J. K.; Wang, X.; Chen, X.; Pentland, S. J. y Dunbar, N. E. (2021), en el que los autores se preguntan cuáles son las muestras no verbales de dominancia, confianza y compostura y, además, cómo de fácilmente se pueden percibir de forma automatizada, con dispositivos tecnológicos.

Sabemos que gracias a las señales no verbales somos capaces de interpretar con mayor precisión los mensajes que recibimos en las relaciones interpersonales, así como somos capaces de emitirlos con más eficacia.

Debido a su importancia, sin ellos nuestra capacidad de comunicación se vería fuertemente mermada.

Hasta hace unos años contábamos únicamente con la capacidad humana de observación para estudiar el comportamiento no verbal, pero con el desarrollo de las nuevas tecnologías, parece que la precisión con la que se investiga este tipo de conducta podría llegar a ser más objetiva, siendo estudiada de forma más detallada.

Los autores de este artículo eligen tres rasgos de relevancia, que son la dominancia-sumisión, la compostura-nerviosismo y la confianza-desconfianza.

Además, se proponen detectarlos con la ayuda de dispositivos tecnológicos para comprobar hasta qué punto podemos confiar en la tecnología en esta materia.

Hablaremos primero de la dominancia-sumisión. La dominancia es uno de los rasgos de la personalidad y el comportamiento humano más reconocidos en las relaciones personales.

Los autores señalan algunas conductas no verbales que pueden estar relacionadas con la dominancia. Tenemos, por ejemplo, el silencio, un tono de voz bajo, un volumen alto o también velocidad de discurso rápida, en lo relacionado con la prosodia. En cuanto a la expresión facial, se observa bajar las cejas o no sonreír.

En cuanto al movimiento corporal, la contracción del cuerpo y evitar la mirada se asociaría con el extremo contrario de la dominancia, es decir, la sumisión. En las personas dominantes aparecerían posturas corporales más expansivas, con inclinaciones de cabeza hacia arriba.

Por otro lado, tenemos la compostura-nerviosismo. Generalmente, cuando aumentan los niveles de compostura o calma durante las interacciones, se obtienen mayores beneficios. Por ejemplo, en el caso de que los jefes o encargados de negocio la manifiesten, aumentará la satisfacción de los empleados.

Se cree que las personas con este rasgo de personalidad poseen un gesto facial agradable, mostrando con frecuencia emociones en su voz, siendo expresivos, hablando mucho. Tienen una postura relajada en cuerpo y cabeza y tienden a ser relajados en general.

En cuanto a sus voces, suelen tener un tono más grave, una risa contenida y relajada y un volumen de habla moderado.

Por otro lado, se considera que las personas que están nerviosas se encuentran más rígidas, tensas, evitan el contacto visual, tienen un tono de voz más alto y miran menos a los ojos.

Por último, aparece la confianza-desconfianza. Esta se expresa en relaciones interpersonales y suele aparecer en forma de reciprocidad, convergencia y sincronía en momentos en que interactúan dos o más personas. Además, parece que, en primera instancia, es complicado asociarla con comportamientos no verbales de forma objetiva.

Para realizar su estudio y saber si pueden utilizarse dispositivos electrónicos para estudiar estos estados mentales de forma objetiva y precisa, los autores diseñan un experimento.

En él participaron un total de 379 personas. Los autores utilizaron unos juegos de mesa con un cierto componente de rol, en el que los voluntarios participaban en grupos pequeños.

Estos grupos se dividían a su vez en dos, creando una rivalidad entre ellos dentro de la misma partida.

Los rostros, gestos y movimientos corporales de los participantes se medían con cámaras y micrófonos de dispositivos que cada uno de ellos tenía delante.

Posteriormente, tras ver las grabaciones de sus compañeros, se les dijo que debían puntuar a los demás participantes de su partida en las dimensiones de dominancia-sumisión, compostura-nerviosismo y confianza-desconfianza, según una lista de factores de interés.

Los resultados mostraron que la dominancia fue la asociada a más factores (101/150). La percepción de la dominancia, según los resultados, se asociaba a un volumen alto de voz, un comportamiento no verbal facial más expresivo, más movimientos de cabeza y turnos de habla de mayor duración.

Por otro lado, tenemos las señales no verbales de nerviosismo y compostura. Los autores creían en un principio que el nerviosismo sería percibido por un tono de voz aguda, pero no se obtuvieron resultados consistentes con esta idea. Sin embargo, sí confirmaron otras, como que las personas que están nerviosas tienden a tener una postura corporal más rígida.

Por último, tenemos la confianza-desconfianza. Fue la más complicada de detectar. No se encontró que ninguna expresión facial o movimiento corporal invitase a creer que se estaba ante una persona en la que se podía confiar.

Es posible que esto sea porque ninguno de los participantes se conocía y, por tanto, era muy complicado establecer una relación de confianza o desconfianza en tan poco tiempo.

En resumen, los resultados nos dicen que, si bien gracias a los dispositivos tecnológicos podemos registrar de forma objetiva el comportamiento no verbal, sigue siendo necesario contar con la ayuda de personas para ello, de forma que no se pase nada por alto.

Un avance importante de este estudio es que para el reconocimiento de los rasgos de personalidad se utilizó a grupos de personas, en lugar de hacer parejas, que viene siendo lo más común.

Los autores proponen continuar mejorando los recursos tecnológicos para poder mejorar su rendimiento y, en un futuro, utilizarlos como detectores no verbales con mayor confianza.

Si quieres saber más sobre el comportamiento no verbal y cómo influye en con las relaciones interpersonales, visita nuestro Máster en Comportamiento No Verbal y Detección de la Mentira o nuestro Experto Universitario en Comunicación No Verbal y Personalidad, con becas especiales para los lectores del Club del Lenguaje no Verbal.

Amigos del Club del Lenguaje No Verbal, esta semana presentamos el artículo “Expressing robot personality through talking body language”, de Zabala, U.; Rodríguez, I.; Martínez-Otzeta, J. M. y Lazkano, E. (2021), en el que los autores investigan si es posible que los robots sociales expresen emociones de forma correcta a través de su lenguaje corporal.

La robótica ha dejado de ser una invención de las películas de ciencia ficción para convertirse en una realidad que, cada día, se asienta más en nuestras vidas.

Esta semana vamos a hablar de los robots sociales. Este tipo de robots están pensados, por ejemplo, para ayudar a personas dependientes e incluso para acompañar a quienes están en situaciones de aislamiento.

Al ser robots pensados para interactuar con las personas, es muy importante que manejen los matices de la comunicación, y esto incluye tanto aspectos verbales como no verbales.

Además, deben ser capaces de expresar afecto, percibir las emociones humanas e incluso tener una cierta personalidad, de forma que puedan establecer vínculos sociales.

Es por ello por lo que los autores intentan mejorar este aspecto de la comunicación de los robots, realizando una serie de cambios en su programación y su mecánica, para coordinar con sus cuerpos lo que quieren decir o transmitir.

Dentro del lenguaje no verbal, como ya sabemos, se incluyen diferentes áreas. Tenemos gestos, posturas, movimientos del cuerpo y la cara, entre otros. Por lo tanto, vemos que hacer que un robot asemeje su lenguaje corporal al humano no es una tarea sencilla.

Los autores realizan una serie de cambios en el robot escogido para lograr su propósito.

Por un lado, tenemos la importancia de los movimientos corporales. Es necesario que éstos estén coordinados con las palabras de la máquina. Para ello, los autores adaptan la velocidad de los movimientos según la emoción que sería coherente transmitir con el discurso del robot.

Por ejemplo, si la emoción es entendida como positiva, los gestos se realizarán de forma más viva y dinámica que si es entendida como negativa o incluso neutral.

Los autores también modificaron los movimientos de cabeza del robot. Cuando una emoción neutral se muestra, el robot simplemente mira al frente. Si la emoción es positiva, levantará la cabeza; si es negativa, la inclinará hacia abajo.

Lo mismo ocurriría con la parte del torso, que se inclinaría hacia abajo en un contexto negativo, hacia arriba en uno positivo y se mantendría algo más recto en uno neutral.

Sabemos que también es muy importante la expresión facial. En el caso de los robots como el utilizado para el estudio, la expresión facial manipulable por los programadores se reduce a los ojos.

Los autores decidieron instalar unas luces LED en los ojos del robot y programarlas de diferentes maneras. La idea era que la intensidad del color fuese cambiando en función de la intensidad de la emoción que el robot quiere transmitir.

Por tanto, existía un color con dos intensidades diferentes para cada uno de los tres tipos de emociones. Las emociones negativas fueron asociadas al azul; gris para las emociones neutrales y amarillo para las emociones positivas.

La prosodia o paralenguaje también era un área que los autores debían explorar. Las personas modulan la entonación de sus voces según el contexto y también añaden o restan énfasis a sus discursos. Además, la entonación también se relaciona con el estado de ánimo del hablante.

Una limitación del robot, y por tanto también del estudio, es que no se puede variar la entonación de su voz. Sin embargo, sí podían programarse otros aspectos, como el volumen o la velocidad del habla.

Para comprobar si con los cambios realizados en el robot se obtenían los resultados deseados, los autores realizaron dos pruebas.

Primero, hicieron que el robot leyese una definición de Wikipedia, manipulando su funcionamiento para que su lenguaje corporal pasase por los tres tipos de emociones propuestos: negativas, neutrales y positivas.

Después, el robot leyó unos pasajes de un libro y los autores intentaron adecuar su lenguaje corporal a los sucesos de éste. Por ejemplo, si había escenas tristes, el robot mostraría emociones negativas; ocurriría lo mismo con las escenas felices y las emociones positivas.

Los autores consideraron sus experimentos todo un éxito, ya que con los ajustes configurados se entendía que el robot estaba transmitiendo sentir uno u otro tipo de emociones según su lenguaje corporal.

De esta forma, se facilita la creación de una personalidad aproximada para el robot, lo que también hace más sencillo establecer relaciones o vínculos con las personas.

Una limitación de esta investigación es que los autores consiguieron que el robot reaccionase con “emociones” pero únicamente al emitir discursos largos o al escuchar durante unos segundos lo que se le dice. Es decir, no reacciona con tanto éxito ante frases sutiles o cortas.

Los autores señalan que poco a poco irán perfeccionando las limitaciones que se encontraron. Además, comentan que es necesaria una evaluación en público y ante personas que no pertenecen al grupo de autores.

De esta forma, se sabría definitivamente si se ha conseguido que el robot transmita emociones con su comportamiento, tanto verbal como no verbal, de forma que sea más sencillo establecer relaciones sociales.

Además, también se buscaba emular el comportamiento humano, por lo que se puede considerar un objetivo conseguido si los resultados ante el público también son positivos.

Si quieres saber más sobre el comportamiento no verbal y cómo influye en con las relaciones interpersonales, visita nuestro Máster en Comportamiento No Verbal y Detección de la Mentira o nuestro Experto Universitario en Comunicación No Verbal y Personalidad, con becas especiales para los lectores del Club del Lenguaje no Verbal.

Club del Lenguaje No Verbal