Cuando la ingeniería no basta: O por qué tu chatbot es idiota aunque le hayas dado de comer mil PDFs

Últimamente nos estamos encontrando con un problema bastante frecuente en sistemas de IA construidos deprisa y corriendo: el síndrome de Diógenes digital.

Normalmente esto pasa porque alguien le ha vendido la moto a la empresa, o porque el propio equipo de desarrollo tiene complejo de coleccionista: «coge todos los correos, manuales, excels infumables y normativas que tengas criando polvo virtual y tíralos dentro de una base de datos vectorial. Dale al botón y la IA hará magia».

Spoiler: No, no hace magia. Hace una chapuza épica

Lo que la mayoría de empresas están montando son auténticos vertederos de documentos con un único chatbot por encima (otro día hablamos de por qué no os va a funcionar un sistema con un agente único y del maravilloso mundo de los AI routers). Y luego llegan los lloros cuando el sistema alucina, o cuando le preguntas por un cliente que está a punto de cancelar el contrato y la máquina te responde citando el párrafo 4 de las condiciones de servicio con la consiguiente cara de póker del usuario.

El problema de base es que un sistemas de inteligencia artificial es muchísimo más complejo de lo que te venden los vídeos de TikTok. Y muchísimo más inestable. Ante la frustración de que el modelo no entienda el negocio, la conclusión rápida a la que se suele llegar para hacerlo más «inteligente» es meterle más y más datos. Engordar a la bestia para que pueda buscar respuestas en un cajón de sastre cada vez más inmenso.

Pero eso no funciona. Un loro con un megáfono más grande sigue siendo un loro. Aunque, eso sí,  tiene muchas más probabilidades de provocarte una jaqueca

El «momento eureka» vino de donde menos lo esperabas

En Nostromia picamos código (mentira, lo pica Códex), pero también leemos. Mucho. Y no me refiero a hilos de X. Me refiero a papers académicos. De los densos. De los que no tienen emojis.

Hace poco cayó en mis manos el capítulo de un libro sobre lingüística escrito por la Dra. Ana Albalat (filóloga, investigadora y una de las cabezas pensantes con las que hemos empezado a colaborar en Nostromia para que nuestros sistemas no sean profundamente estúpidos). Nunca os imaginaríais el tema del paper: desinformación climática en la red social antes conocida como Twitter.

«¿Y qué carajo tiene que ver el cambio climático con mi empresa de logística o de servicios, te estarás preguntando mientras te acabas el café.

(ahora estoy sonriendo y poniendo cara de me alegro de que me hagas esa pregunta).

En ese estudio, la doctora Albalat no analiza si la gente dice «hace calor» o «no hace calor». Analiza cómo lo dicen usando algo llamado la Teoría de la Valoración (Appraisal Theory para los que les gustan los anglicismos). Desmenuza los textos para encontrar tres cosas que un análisis puramente estadístico ignoraría como si estuviese en klingon:

  1. Afecto: ¿El que escribe está triste, cabreado, inseguro o eufórico?
  2. Juicio: ¿Está criticando la moralidad de alguien o alabando su ética?
  3. Apreciación: ¿Le parece que algo es funcionalmente una mierda o una obra de arte?

(Sí, he vuelto a poner ESA cara)

El lenguaje humano no es un Excel. No es plano. Tiene relieve, tiene veneno, tiene urgencia y tiene intención.

Si tu IA no distingue una queja de un insulto, vas a ciegas

¿Por qué esto es útil? Vamos al lío.

Tienes un correo de un cliente en la bandeja de entrada:

  • Opción A: «El pedido ha llegado tarde.»
  • Opción B: «Sois unos incompetentes, vuestra gestión es lamentable y habéis jugado con el dinero de mi empresa.»

Para un sistema RAG (Retrieval-Augmented Generation) estándar —de esos que te está montando el de comenta IA en mi Linkedin y te mando el workflow de n8n–, ambos textos son vectores semánticos que se parecen muchísimo. Los dos hablan de «pedidos», «retrasos» y «empresas».

Pero tú, que eres de carne y hueso, sabes que el primero requiere un protocolo de logística estándar y un par de clics, y el segundo requiere que alguien con mano izquierda llame por teléfono ya mismo para apagar un incendio.

Si tu IA no entiende esa diferencia de Valoración, no tienes inteligencia artificial. Tienes un buscador caro y glorificado que, el día menos pensado, te va a meter en un problema reputacional de los gordos.

Menos Silicon Valley y más Biblioteca

En Nostromia hemos decidido dejar de jugar a ver quién la tiene más grande (la base de datos, se entiende) y empezar a jugar a ver quién la tiene mejor amueblada.

No estamos aquí para enseñarle a la máquina a leer más rápido; eso ya lo hace Google. Estamos aquí para meterle criterio lingüístico, social, semántico y de contexto a la ingeniería pura y dura. Casi nada…

Estamos estructurando nuestros sistemas para que, cuando lean los datos de una empresa, entiendan el contexto emocional y actitudinal. Para que sepan cuándo un empleado está pidiendo auxilio técnico genuino y cuándo está simplemente refunfuñando en Slack. Para que el agente, en definitiva, sepa «leer la sala» antes de abrir la boca.

La cruda realidad

Podéis seguir comprando «hype». Podéis seguir creyendo que por pagar un par de licencias de IA ya sois la vanguardia tecnológica del siglo XXI. Pero creo que este salto de gigante en la tecnología en el que vivimos no va de eso. 

Estoy convencido de que la próxima revolución de la IA no va a estar en un nuevo microchip de NVIDIA que cueste lo que el PIB de un país pequeño. Va a venir de gente que sepa de Filología, de Semántica y de Pragmática, de Estudios culturales y de Análisis del discurso, aportando criterio para que los modelos dejen de dar palos de ciego en un océano de información infinita.

Yo ya he desempolvado mis apuntes de Teoría de la información, he recuperado a Shannon y a Weaver y he sacado los libros de lingüística de Chomsky del trastero. Al final va a resultar que estudiar periodismo iba a servir para algo… XD