16 C
Cordoba
lunes, 19 abril, 2021

¡No vuelvas a estar solo con chatbots!

No te pierdas

Divertidos, compasivos, atentos a nuestras preocupaciones, agentes conversacionales o chatbots pronto se volverán omnipresentes en nuestra privacidad. Estos agentes estarán a bordo de altavoces de voz, en nuestros teléfonos, tendrán una representación visual en computadoras, estarán en robots o incluso en refrigeradores (Eve movie, 2019). Les hablaremos como seres humanos y ellos responderán con simpatía.

La personalización de los chatbots por voz, nombre y hábitos se usa a menudo para mejorar el sentido de una identidad virtual. Sin embargo, el lenguaje de estas máquinas es completamente diferente del habla humana, porque las palabras expresadas no fluyen del pensamiento y el sistema no es de ninguna manera responsable de lo que dice. A pesar de ello, estos sistemas artificiales son objeto de proyecciones «antropomórficas». Esta proyección de las facultades humanas sobre los objetos se ve reforzada por la ficción y la fantasía.

→ LEER. Vértigo de chatbot inspirado en nuestros familiares fallecidos.

El objetivo de los investigadores es crear chatbots emocionales autónomos que puedan aprender interactuando con los usuarios.

Las nuevas generaciones son cada vez más eficientes

Piense en la IA de Microsoft, Tay, lanzada el 20 de marzo de 2016 en Twitter, que puede aprender a través de los tweets de los usuarios de Internet y adaptarse. Desafortunadamente, ante la naturaleza lúdica de los internautas, la IA se volvió muy rápidamente agresiva, sexista, incluso nazi, y se cerró. Sin embargo, no hay duda de que las nuevas generaciones de chatbots serán cada vez más eficientes gracias al aprendizaje continuo y a las gigantescas bases de datos de nuestro día a día que la máquina puede analizar.

¿Cómo vamos a vivir con ellos día tras día? Estas máquinas serán nuestros amigos más cercanos, pero también líderes formidables. Podrían ser interlocutores atentos, enviándonos una imagen gratificante de sí mismos o, por el contrario, espías, capaces de reconocer nuestras debilidades y enviar nuestros abusos a nuestro médico. ¿Estos objetos serán mitad entrenadores, mitad ángeles de la guarda, capaces de rastrear nuestros datos y administrar nuestra seguridad?

Una forma de influir en las personas

Los objetos conectados como Google Home, que ya se encuentran en muchos hogares, pueden ser un medio para influir en las personas o incluso aislarlas de la adicción emocional. Actualmente no están regulados, no están valorados y son muy opacos. Por 1200 euros, Gatebox vende Azuma Hikari, un personaje de holograma virtual de Japón que actúa como asistente de automatización del hogar. Tinkerbell Azuma, una especie de novia, es bastante adorable, podría aparecer en una caricatura de Disney. Ella está a tu lado, dedicada y cariñosa. Incluso cuando sales del apartamento, ella sigue enviando mensajes de texto, simulando una presencia emocional real: “Te estoy esperando, querida. Las ofertas de miel son estereotipos inquietantes.

→ MANTENIMIENTO. Inteligencia artificial: «No hay intimidad con la máquina, solo una ilusión»

La percepción y producción de las emociones humanas es compleja y depende en gran medida de factores tanto personales como culturales. En la actualidad, las tecnologías de computación afectiva, en particular la detección de emociones, no son muy eficientes.

Los chatbots representan oportunidades y riesgos según el contexto de su uso. ¿No deberíamos crear guías de mejores prácticas para el diseño ético de estas máquinas? ¿Cómo, por ejemplo, puede proteger al usuario de la manipulación y al mismo tiempo permitir que el fabricante establezca una cierta relación de confianza con el chatbot? También es necesario evitar la confusión entre el agente virtual y el interlocutor humano durante el diálogo para evitar las consecuencias dañinas a largo plazo del uso de estos objetos “no humanos”.

Es noticia

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

- Advertisement -spot_img

Ultimas Noticias