Saltar al contenido

Los asistentes digitales o bots conversacionales han estado en los últimos años entre las tecnologías más mencionadas desde que los canales de mensajería como Facebook Messenger, WhatsApp, etc. permitieron crear programas que conversaran con usuarios a través de ellos. Después de la primera etapa de grandes expectativas no cumplidas parece que empezamos a analizar con calma el verdadero potencial de estos asistentes.  Puede decirse que en este tiempo hemos aprendido lo siguiente: 

Expectativas del usuario

Las expectativas de los asistentes virtuales son más altas de lo esperado porque el hecho de poder hablar con una máquina a través del lenguaje natural instantáneamente nos lleva a pensar que está dotada de toda la inteligencia propia de un humano.

Aun suponiendo que los chatbots dominaran el lenguaje natural, no implica necesariamente que puedan responder a cualquier cuestión. Por ejemplo, podríamos preguntarle a un niño de cuatro años: ¿Cuántas galletas me quedan en una caja si me como la mitad? Y aunque entiende perfectamente la pregunta no sabría respondernos porque para él conlleva un razonamiento o cálculo para el que todavía no está preparado.

Podríamos decir que detrás de un asistente virtual hay varias inteligencias artificiales, al menos una relacionada con la interpretación del lenguaje y otra con la resolución del problema, y esta última inteligencia si no está resuelta puede invalidar al asistente. Es fundamental prestar atención a este tipo de inteligencias que completan al chatbot y que son necesarias para cumplir las expectativas del usuario, ya que es donde pueden demostrar un valor diferencial con respecto a las opciones actuales (aplicaciones web, app, asistencia telefónica, etc.). Por ejemplo, deberíamos poder dar de alta un parte simplemente diciendo: Alexa, dile a mi aseguradora que he sufrido un robo y que no sé por dónde empezar.

Inteligencia artificial

Otro de los factores que contribuyó al renacimiento de los chatbots fue el despertar de la inteligencia artificial a través de nuevas formas de aprendizaje como las redes neuronales. Estas nuevas técnicas permiten ajustar los millones de neuronas que componen una red para simular un comportamiento complejo.  Una de las áreas que más se ha beneficiado del deep learning es el reconocimiento de imágenes, la cual ya se aplica en muchos usos, como la conducción autónoma, reconocimiento facial o el etiquetado automático de fotos.

Aunque el dominio del lenguaje es todavía un reto no resuelto (problemas como la correferencia son todavía objeto de múltiples investigaciones) todos los avances alcanzados en el ámbito de las imágenes se están empezando a trasladar al NLP lo que está permitiendo conseguir grandes logros, como algoritmos capaces de generar texto semántica y sintácticamente coherente a partir de un texto inicial. Ya lo estamos percibiendo en aplicaciones como los correctores ortográficos, los traductores de idiomas o las respuestas sugeridas en el correo.

La tecnología detrás de los chatbots es todavía básica, aunque suficiente para desarrollar ciertos casos si se gestiona bien su capacidad actual. Precisamente porque se trata de una tecnología emergente es fundamental seleccionar una buena solución que escale de forma empresarial y que garantice la compatibilidad hacia atrás, de lo contrario, estaremos construyendo soluciones condenadas a la obsolescencia. 

Objetivos y orientación

También hemos aprendido sobre la importancia de derivar la conversación al lugar y momento adecuado. No ha sido cierto aquello de que los chatbots sustituirán a las apps, ya que cada aplicación o canal tiene su lugar. Hay actividades más apropiadas dentro del móvil y otras dentro de una conversación, aunque la tendencia es que ambas experiencias se entrelacen. 
 
Cuando se trata de asistentes virtuales que están orientados a la tarea, como por ejemplo, obtener una cotización de un seguro de auto, el chatbot pone toda su inteligencia en extraer la información necesaria del cliente para después integrarse con un sistema de cotización y obtener una oferta. Este tipo de asistentes ya son posibles pero debemos preguntarnos qué aporta con respecto a una web o aplicación móvil.

Esta funcionalidad claramente no tiene sentido en una aplicación móvil tradicional (descargable desde la tienda de aplicaciones) y necesita algo más directo y accesible. ¿Por qué iba un usuario preferir hacerlo mediante una conversación en lugar de una aplicación web? La respuesta está en el dónde (canal) y en el cómo (usabilidad).

Algunos casos de uso

En el escenario anterior, cotización de un seguro, probablemente el usuario haya llegado a nosotros a través de un anuncio, o nos encontrará haciendo búsquedas en su navegador. Este anuncio puede convertirse en conversacional a través de Ad Lingo, nueva plataforma de anuncios conversacionales que aprovecha el impacto para promover la acción del usuario mediante un diálogo que ocurre dentro del anuncio.

También podría darse el caso de que el usuario haya encontrado a la marca buscando en otros lugares, como en un mapa, y  junto a la descripción de cada ubicación, además de su dirección, teléfono o URL, aparecerá la opción de mensajear con el comercio o la marca. Apple Business Chat y Google Chat (RCS) ya permiten mantener conversaciones entre marcas y clientes. Estas conversaciones comienzan a integrarse de forma natural dentro de aplicaciones como mapas, buscadores, aplicaciones de mensajería, etc.

En breve los asistentes domésticos se convertirán en un portal de ventas o recomendación y podremos pedirle directamente que nos busque cotizadores de seguros de coche y a partir de ahí comience la conversación. Por tanto, las marcas tendrán también que aprender a posicionarse en los buscadores de Alexa o Google Home.
 
Pero no es suficiente con estar en el lugar adecuado. La siguiente lección aprendida es caer en el error de tratar de adaptar el caso de uso desde otros canales como el web o la app. Siguiendo con el ejemplo anterior, si quiero conocer el precio de un seguro de coche, debemos hacerlo de forma que el usuario le resulte más cómodo, y aprovechar el canal para ofrecer cosas que otros canales no pueden.

Así, mientras que en una aplicación web le pediríamos datos del tipo fecha del carnet de conducir, matrícula, marca, modelo… es decir, un montón de información, tenemos que encontrar la forma de que el usuario nos diga lo que necesitamos. Por ejemplo, ¿es necesario saber la fecha exacta del carnet de conducir, o basta con saber el año? ¿Puedes describirme el modelo del coche con tus palabras, por ejemplo, un Serie 3 de 210 cv gasolina? Para lograr una experiencia más sencilla es posible que las compañías deban asumir riesgos en pro de la usabilidad, flexibilizando sus algoritmos para que admitan más incertidumbre, relajando la calidad de la información requerida. 
 
Otro de los errores comunes es relacionar chatbots con el aprendizaje automático (machine learning) y asumir que aprenden solos. Los chatbots, al menos en el ámbito empresarial, no son programas capaces de aprender solos simplemente escuchando conversaciones reales o leyendo documentos (procedimientos, manuales de usuario, empleados, etc.). Todavía no estamos en este estadio. Los asistentes virtuales se construyen de forma gradual, trabajando cada caso de uso. Nada es tan automático.

El futuro de las conversaciones

Es irremediable que la interacción con las empresas, las máquinas, etc. la hagamos a través del lenguaje, sin interfaces artificiales como una pantalla, teclado o un ratón. Será una combinación de todas ellas. Existen muchos factores que comienzan a confluir y harán que este momento llegue en un futuro muy cercano.

Los usuarios comienzan a familiarizarse con las interfaces por voz gracias al esfuerzo de las marcas (como Apple, Amazon y Google) por hacerse un lugar en nuestros hogares, coches, etc. El canal conversacional más utilizado, WhatsApp, ya se ha abierto y está disponible para las empresas, y otros como Apple Business Chat lo integran dentro de su ecosistema. La tecnología ya está disponible y sigue mejorando a gran velocidad ya que el NLP es un desafío para muchas organizaciones e instituciones.
 
Por tanto, como conclusión: la llegada definitiva de los chatbots será cuando se haya creado el hábito entre los usuarios y se empiecen a concatenar casos de éxito en chatbots, para lo cual es necesario prestar atención a la idoneidad de la conversación dentro de la relación con el usuario (no forzar), crear una experiencia completamente distinta (sin adaptar procesos similares provenientes de la web o las apps) y seleccionar un caso de uso viable (exprimiendo la tecnología actual). 
 
Leopoldo Colorado
Leopoldo Colorado

Head of Cloud and LowCode Services en Babel.

logo linkedin compartir en Linkedin Contacto

Otros artículos destacados