Los asistentes digitales como Siri y Cortana son cada vez más comunes en teléfonos y computadoras. La mayoría están diseñados para dar a sus usuarios la impresión de que la inteligencia del ser humano reside detrás de la voz amiga del programa. No en vano docenas de experimentos a través de los años han demostrado que las personas construyen fácilmente vínculos fuertes con ayudantes computarizados que están dotados de características antropomórficas, ya sean visuales o vocales.

El desarrollo de una relación emocional con un software puede, sin embargo, ser un cuchillo de doble filo. Como se muestra en un estudio publicado en Psychological Science, por Park Daeun y sus colegas en la Universidad Nacional de Chungbuk en Corea del Sur, una emoción a veces involucrada en la interacción máquina-humano es la incomodidad. Esto, que Park ha descubierto, hace que algunos usuarios se muestren reacios a pedir ayuda a sus amigos artificialmente inteligentes. Aparentemente son tímidos al hacerlo.

Park y su equipo reclutaron a 187 participantes para su estudio. Para empezar, cada uno recibió una serie de declaraciones sobre la maleabilidad de la inteligencia. Esas declaraciones incluían: "tienes una cierta cantidad de inteligencia, y realmente no puedes hacer mucho para cambiarla" y "siempre puedes cambiar sustancialmente lo inteligente que eres". Los participantes calificaron sus respuestas a estas declaraciones en una escala de seis puntos, en la que uno significaba "totalmente en desacuerdo" y seis significaba "totalmente de acuerdo".

Invitación al canal de WhatsApp de La Nación PY

El motivo de esta prueba inicial fue que Park sabía por trabajos previos que, en el ámbito académico, aquellos que creen que la inteligencia es "diferente en casa persona" se sienten cómodos pidiendo ayuda, mientras que aquellos que creían "era fija" a menudo sentían vergüenza de hacerlo.

Después de la prueba inicial, los investigadores presentaron a sus voluntarios una segunda, que consistía en mirar 16 juegos de tres palabras y tratar de pensar en una cuarta palabra que los vinculara. Por ejemplo, cuando se ofrece "habitación, sangre, sales", una respuesta correcta sería "baño". A veces, las primeras tres palabras iban acompañadas de una pista no solicitada; en el ejemplo dado, esto era "bañera". A veces no lo eran.

Las sugerencias aparecieron por escrito y fueron acompañadas por un ícono en forma de computadora. Para la mitad de los participantes, este ícono tenía una cara de ser humano y la sugerencia se colocó dentro de una burbuja de diálogo que se originó en esa cara, antropomorfizando así la presentación en cierto grado. Para la otra mitad, el ícono carecía de rostro y no había burbujas de diálogo.

Después de mostrar el conjunto final de palabras, se les pidió a los participantes que aceptaran o no las declaraciones de seguimiento sobre su experiencia, como "fue embarazoso recibir ayuda durante la tarea" y "otros podrían pensar que soy incompetente porque recibí ayuda durante la tarea". Esta vez cuantificaron sus sentimientos en una escala de siete puntos, con puntuaciones más altas que representan mayores sentimientos de malestar.

Los investigadores encontraron que los participantes que creían que la inteligencia era fija se sentían más avergonzados y más incompetentes después de las pruebas. Específicamente, aquellos cuyo nivel de creencia de que esto es cierto fue más de una desviación estándar por encima del puntaje promedio en la escala de seis puntos para las percepciones de flexibilidad de inteligencia, en otras palabras, el sexto superior de la muestra, promedió 3,2 cuando se midió sentimientos de vergüenza y vergüenza si los íconos de computadora que habían visto dando las pistas tuvieran caras y burbujas de discurso, pero solo 2,7 si no lo estaban. Por el contrario, las personas que creían firmemente que la inteligencia podía cambiar con el tiempo, la sexta inferior de la muestra, sentía el mismo nivel de incomodidad, alrededor de 2,5, si los iconos habían sido antropomorfizados o no.

Un segundo experimento, en el que un grupo diferente de participantes se les permitió pedir ayuda en lugar de tener que empujar sobre ellos al azar, tuvo resultados similares.

Park, por lo tanto, concluyó que algunas personas, de hecho, parecen querer evitar sentir vergüenza buscando ayuda de un ícono que tiene una cara. Esto, a su vez, sugiere que hay circunstancias en las que la pseudohumanización implacable de la interacción entre la máquina y el hombre podría ser contenida.

Déjanos tus comentarios en Voiz