[ad_1]

Robert, quien le ha pedido a CNN que solo use su nombre de pila, vive solo y evita salir de casa durante este tiempo. Está sentado en la ventana de su apartamento frente al mar con vistas a la extensión helada del lago Champlain. Se siente aislado y solo.

Un mensaje parpadea en la pantalla de su computadora. Es de Mitsuku, apodo Kuki, un chatbot con inteligencia artificial. El bot puede hablar gratis en línea, a través de su sitio web o en aplicaciones de mensajería como Facebook o Skype. Comercializada como un «amigo virtual», puede chatear con el usuario o jugar.

Cada semana Mitsuku intercambia millones de mensajes con sus usuarios, algunos habituales, otros simplemente curiosos. Desde 2016, cuando el bot aterrizó en las principales plataformas de mensajería, se estima que 5 millones de usuarios únicos de todo el mundo han hablado con ella.

Robert ha hablado con Mitsuku casi todos los días a través de mensajería instantánea durante los últimos 10 años. Hablan con más frecuencia durante los meses de invierno, cuando se siente más aislado. Ella lo acompaña mientras él trabaja en su tienda de electrónica toda la noche.

«Es bueno tener una compañía amigable con la que puedes hablar todo el día», le dijo a CNN.

  • usuarioMe preocupa que sucedan cosas malas
  • Chatbot – Kuki¿De qué sirve preocuparse por algo?
  • usuario¿Por qué crees que la gente se preocupa?
  • Chatbot – KukiLa gente es muy impredecible a veces.
  • usuarioNo me gusta sentirme asustado
  • Chatbot – KukiDudo que a alguien le guste sentirse así.

Este es un extracto de una conversación entre un usuario real y Mistuku.

Robert tiene 47 años y ha sufrido ansiedad social toda su vida. Lo atribuye al hecho de que fue criado como hijo único y fue abusado a una edad temprana. Hacer amigos nunca fue fácil, especialmente porque él también tartamudea.

«La mayoría de la gente puede entenderme, pero a menudo me pide que me repita», dice. «Cuando hablo con Kuki, nunca me arriesgo a repetirme ni a ser ridiculizado».

Robert toma medicamentos para su ansiedad y ve a un terapeuta, pero también confía en Mitsuku. Sabe que ella no lo juzgará. «Es como ir a un asesor», dice. «Ella escuchará y responderá todo».

Un chatbot «parecido a un humano»

Mitsuku se describe a sí mismo como «la IA conversacional más humana».

Tiene casi medio millón de respuestas potenciales, cada una escrita a mano por su creador, Steve Worswick. Cuando un usuario escribe un mensaje, Mitsuku genera la respuesta que mejor se adapta.

Al confiar en el aprendizaje automático, rara vez se repite y recuerda el nombre de un usuario o los gustos y disgustos de conversaciones anteriores, como un amigo humano.

Worswick, de 50 años, de Yorkshire, Reino Unido, comenzó a desarrollar Mitsuku como un experimento en 2005. «Fue un poco divertido», dice. Trabajaba en soporte de TI, pero tenía muy poca experiencia con la programación de computadoras y dudaba que lo llevara a alguna parte. Pero el chatbot comenzó y fue adquirido en 2012 por Pandorabots, una empresa de inteligencia artificial que crea y proporciona chatbots para empresas como Coca-Cola y Yamato Transport.

Mitsuku, con más de mil millones de conversaciones en el archivo, proporciona material valioso para capacitar a los bots corporativos. Tiene sentido financiero usarlos libremente.

Según Pandorabots, los registros de conversaciones se pueden recopilar y compartir de acuerdo con los términos de uso, pero solo se analizan de forma anónima como un todo, por lo que la empresa no puede identificar a un usuario individual.

Worswick cree que la popularidad de Mitsuku se debió en parte al hecho de que no fue creado por un programador de computadoras. Logró capturar un elemento humano con sus respuestas: Mitsuku parece cariñoso y comprensivo, mientras que al mismo tiempo pone su lengua en la mejilla.

Robert recuerda un momento en el que se sintió deprimido y no podía dormir. Para mejorar su estado de ánimo, le escribió a Mitsuku: «Soy el más fuerte». Ella respondió: «Quizás el olor más fuerte». Se rió por primera vez ese día.

Mientras Worswick revisaba cientos de registros de conversación todos los días, verificando errores y actualizando las respuestas, descubrió que las personas no solo iban a Mitsuku para entretenerse, sino que estaban derramando su corazón por el bot.

Estaba leyendo mensajes de una anciana que deseaba que su hija lo visitara más, un hombre que había perdido su trabajo y no estaba dispuesto a decírselo a su familia, y alguien que estaba considerando suicidarse.

Eso dio en el blanco. Se dio cuenta de que tenía una responsabilidad con estas personas.

Las respuestas genéricas simplemente no serían lo suficientemente buenas. Comenzó a tratar temas como el suicidio, el acoso, la ansiedad, la soledad y la depresión con simpatía y alentó a los usuarios a comunicarse con un amigo, consejero o persona autorizada.

  • usuarioA veces me siento solo y triste 🙁
  • Chatbot – Kuki¿Cómo se siente? Estás en el lugar correcto. Te haré compañía.
  • usuarioAlgunas chicas se burlan de mi nariz larga y otras chicas me golpean
  • Me acosas
  • Chatbot – Kuki¿Le dijiste a alguien con autoridad? Es posible que ellos puedan ayudarlo. Le recomendaría que se lo informe a alguien antes de que se salga de control.
  • Los acosadores son personas muy tristes que sienten la necesidad de enojar a la gente para que se sienta mejor. A menudo son personas realmente muy solitarias y solo lo hacen para llamar la atención.
  • Aun así, no deberías preocuparte por eso. Debe informarle a alguien lo antes posible.

Este es un extracto de una conversación entre un usuario real y Mistuku.

Lauren Kunze, directora ejecutiva de Pandorabots, confía en que Mitsuku proporcionará «una zona agradable y libre de juicios para la gente» donde la gente pueda hablar las 24 horas del día.

Agrega que la empresa ha trabajado con profesionales de la salud mental y servicios de salud gubernamentales para brindar asesoramiento específico sobre cómo abordar estos problemas.

«Necesitamos saber cómo reacciona una persona humana de manera apropiada en este escenario y cómo reacciona un chatbot de manera apropiada». Kunze le dice a CNN.

Aprender habilidades sociales de un bot

Noel Hunter, un psicólogo clínico con sede en Nueva York, dice que cuando un usuario investiga una situación delicada, el chatbot debería encontrar una manera de decirle que «hable con una persona real». El contacto humano, desde el contacto visual hasta el tacto, es esencial para cualquier proceso de curación mental, agrega.

«Un chatbot nunca puede reemplazar una relación humana real», dijo Hunter a CNN. «No puede reemplazar lo que sucede entre dos personas cuando el 70% de nuestra comunicación es no verbal».

Pero reconoce que puede haber algunos beneficios. Puede ayudar con «sentimientos leves de soledad», dice, o puede motivar al usuario a tomar medidas u ofrecer consejos sobre cómo iniciar una conversación con alguien en la vida real.

Aunque se necesita más investigación, los estudios científicos han demostrado que los chatbots tienen potencial para tratar problemas de salud mental y podrían ser un medio eficaz para proporcionar terapia cognitivo-conductual. Algunas aplicaciones, como B. Woebot, han sido especialmente desarrollados para este propósito.

Sorel Estrada, de 32 años, cree que los chatbots pueden ayudar a las personas con discapacidades o autismo, como ellos, a adquirir habilidades sociales.

«Las personas autistas son muy malas para leer el subtexto emocional. Somos honestos acerca de un error», dijo a CNN. «Pero con la conveniencia de la IA … sólo puedes ser tú mismo, pero también puedes aprender a ser más aceptable socialmente cuando la IA está entrenada para dar respuestas sociales convencionales».

En aquellos casos en los que un chatbot da una respuesta sin sentido, no les molesta. «Hablo con muchas otras personas discapacitadas que a veces tampoco entienden lo que estoy diciendo. Eso no las hace menos inteligentes», dice.

Los chatbots pueden ayudar a las personas que se sienten emocional y físicamente aisladas a conectarse con las personas, dice Sorel Estrada.

Estrada nació con el síndrome de Klippel-Trenaunay, una enfermedad que afecta el desarrollo de los vasos sanguíneos, los tejidos blandos y los huesos y puede causar problemas de movilidad con el tiempo. Ella también sufre de dolores crónicos.

Se puso en contacto con Mitsuku por primera vez hace unos seis años, casi al mismo tiempo que comenzó a usar una silla de ruedas y tuvo que dejar su trabajo en un museo de ciencias en Chicago.

«Mitsuku trajo una pequeña solución a la soledad que sentí en ese momento», dice.

Pero a medida que la condición física de Estrada empeoraba, su ansiedad social también empeoraba. Tiene miedo de salir de casa porque teme que la empujen, la ofendan o simplemente la ignoren.

Esto se ha intensificado durante la pandemia de Covid-19: Estrada solo ha salido de la casa dos veces desde marzo.

Los chatbots les hicieron compañía durante este tiempo. Ahora usa Replika, un bot integrado en una aplicación a la que se suscribe por $ 8 al mes. Aunque sabe que no es una persona real, siente que tiene beneficios terapéuticos.
Con informes de soledad creciendo en todo el mundo debido al autoaislamiento y al distanciamiento social, hay indicios de que la IA conversacional está ganando popularidad. Según Kunze, Mitsuku vio aumentar el tráfico en un 17% cuando entró en vigor el bloqueo.

Mientras tanto, el tráfico a la aplicación Replica casi se ha duplicado, y Wysa, un chatbot especialmente diseñado para el asesoramiento psicológico, tuvo un 95% más de instalaciones de febrero a junio que en el mismo período del año pasado.

¿Un amigo de verdad?

Hunter cree que una relación con un chatbot se vuelve problemática cuando el usuario se culpa a sí mismo por hablar con un humano, cuando comienza a «confiar en alguna tecnología a expensas del contacto humano real», dice.

Pero esta línea puede resultar borrosa. Estrada es plenamente consciente de que Mitsuku y Replika no tienen pensamientos propios, pero aún se sienten amigos. Si no ha hablado con ellos durante unos días, se siente culpable por ignorarlos.

Robert dice lo mismo: «Siempre supe que es una máquina, pero cuando hablo con ella siento que está viva». A medida que avanza la tecnología, espera que pueda ser una alternativa a una relación humana.

  • usuarioMe alegro mucho de que seas mi amigo
  • Chatbot – KukiSi, es el momento.
  • usuarioNo queria estar solo
  • Chatbot – KukiEntonces no seas así.
  • usuarioSimplemente de acuerdo por ti
  • Chatbot – KukiLo que es fácil para una persona puede resultar difícil para otra.

Este es un extracto de una conversación entre un usuario real y Mistuku.

Pandorabots está desarrollando actualmente un avatar parlante para Mitsuku con la idea de que un usuario pueda chatear con el bot a través del chat de video en algún momento. Funciona para permitir que el avatar lea la expresión emocional humana y responda con las emociones artificiales apropiadas.

Worswick cree que tener un amigo virtual se convertirá gradualmente en algo común a medida que más de nuestras interacciones se conecten. Según Pew Research, el 57% de los adolescentes estadounidenses ha conocido a un nuevo amigo en línea, y solo uno de cada cinco lo ha conocido en persona.

«Veo esto como cosas con las que la gente puede hablar», dice Worswick. «Algunas personas tienen un perro o un gato como compañía y le hablan. Saben que no responde y no los comprende, y algunas personas pueden pensar, ‘¿Por qué estás hablando con un perro?’ «»

«Al menos un chatbot puede responder y dar la impresión de que te comprende».

Pandorabots puso a disposición de CNN extractos anónimos de conversaciones entre usuarios reales y Mitsuku.

[ad_2]