Un avance en IA promete acabar con las respuestas incoherentes



Científicos británicos desarrollaron un sistema que elimina el “drift” o deriva de las respuestas de los modelos de IA, abriendo la puerta a una generación más estable y confiable.

La conversación pública sobre inteligencia artificial (IA) ha entrado en una etapa decisiva: ya no se trata solo de lo espectacular que puede sonar una máquina, sino de si es capaz de sostener criterios de consistencia en el tiempo. Durante años, los modelos generativos han mostrado un talón de Aquiles: entregan resultados maravillosos en una consulta y, acto seguido, respuestas dispares o aparentemente caprichosas ante una consulta similar. A ese desvío progresivo lo llamamos “drift”: la tendencia a perder coherencia con el paso de las versiones, los reajustes del entrenamiento o los cambios de contexto.

El anuncio de un equipo británico que afirma haber reducido de manera significativa ese drift no es una promesa más en el escaparate del marketing tecnológico. Supone, ante todo, un cambio metodológico: combinar datos de origen humano cuidadosamente auditados con un esquema de evaluación sistemática que evita reinyectar errores del pasado. La clave no es un truco único, sino varias capas de ingeniería y gobernanza de datos que, juntas, construyen una coraza contra la incoherencia.

La primera capa es la separación estricta de fuentes. Los modelos tienden a degradarse cuando reciclan su propia salida como materia prima de entrenamiento. La nueva propuesta impone una frontera nítida: el conjunto de datos de verificación queda blindado de cualquier contenido generado por la propia IA. De ese modo, el sistema puede detectar desviaciones con sensibilidad milimétrica, porque compara el rendimiento contra un patrón humano que no ha sido contaminado por los mismos sesgos y atajos que el modelo aprendió.

La segunda capa es la evaluación determinística. Quien ha trabajado con grandes modelos sabe que el azar —semillas, temperatura, búsqueda beam— puede enmascarar problemas. Aquí se fijan semillas, se emplean prompts calibrados y se establecen protocolos de reejecución para contrastar estabilidad: si la respuesta cambia sin una razón válida, el sistema eleva alertas. El objetivo no es forzar respuestas idénticas, sino mantener la coherencia lógico‑factual entre ejecuciones equivalentes.

La tercera capa es un entrenamiento con regularización de consistencia. El modelo no solo aprende a predecir la siguiente palabra; también es incentivado a mantener alineadas sus salidas cuando enfrenta formulaciones parafraseadas de una misma consulta. Esto se consigue con pares de preguntas equivalentes, verificación cruzada de fuentes y una penalización explícita cuando se detectan contradicciones. La consecuencia práctica es que baja la probabilidad de que el sistema se contradiga entre hoy y mañana ante la misma evidencia.

La cuarta capa es el uso prudente del “retrieval” con datos de referencia. En lugar de multiplicar parámetros, se ancla el razonamiento a repositorios curados que actúan como memoria externa. No es una verdad revelada: es un mecanismo simple que obliga al modelo a mirar primero una base verificable antes de “imaginar”. La IA responde mejor cuando puede respaldar cada afirmación en algo que no cambia con los vaivenes del entrenamiento.

La quinta capa es la auditoría adversarial. Evaluadores humanos —y otros modelos— elaboran casos límite, preguntas trampa y escenarios ambiguos para estresar el sistema. Este “fuego amigo” no busca exhibir fallas, sino descubrir patrones de error repetibles: dónde se desvía, por qué, con qué señales tempranas. En ese registro viven los indicadores que permiten actuar antes de que un ajuste de modelo, inocente en apariencia, se traduzca en incoherencia a gran escala.

Todo ello se sostiene sobre una pieza a menudo ignorada: la gobernanza del ciclo de vida del dato. Sin un inventario riguroso de fuentes, versiones, derechos y permisos, la IA no solo arriesga incoherencia; también expone a las organizaciones a conflictos legales. El enfoque más prudente —y el más eficiente a medio plazo— pasa por registrar cada transformación: qué se añadió, qué se excluyó, por qué, con qué licencia y con qué impacto medible en la consistencia.

¿Qué cambia para el ciudadano común? Más de lo que parece. Un asistente virtual que deja de contradecirse puede convertirse en una herramienta confiable para trámites, salud digital básica, educación y servicios de atención. En el mundo corporativo, la estabilidad reduce costos: menos revisiones manuales, menos errores repetidos, menos riesgos reputacionales. Y para el sector público, abre una ventana a servicios proactivos que respondan igual hoy y dentro de seis meses ante una misma pregunta.

Este avance también reordena prioridades. Hasta ahora, la carrera por los parámetros y las GPUs dominaba la narrativa. El mensaje británico sugiere otra tabla de clasificación: ¿qué modelo es más estable ante el mismo caso de uso? ¿Quién demuestra menor deriva mes a mes? ¿Cuál documenta mejor sus fuentes y su proceso de actualización? En otras palabras: menos músculo bruto y más disciplina técnica.

Naturalmente, no desaparecen los riesgos. Una IA puede ser consistente y, aun así, equivocarse si su base de conocimiento está desactualizada. También puede ser estable pero sesgada si los datos humanos son estrechos o parciales. Por eso, la consistencia es condición necesaria, no suficiente. Lo saludable es combinarla con mecanismos de corrección: trazabilidad de respuestas, explicaciones legibles, posibilidad de rectificar y devolver mejoras al sistema.

Para América Latina y España, donde la diversidad lingüística y cultural es inmensa, la reducción del drift trae otra oportunidad: modelos que se mantengan fieles a variantes locales del idioma, a marcos regulatorios propios y a realidades económicas dispares. Si la coherencia mejora, el valor de invertir en corpus locales —leyes, trámites, manuales, literatura técnica, datos públicos— se multiplica. Sin esa base, cualquier promesa de estabilidad se vuelve frágil.

La conversación real debe incluir también estándares abiertos de evaluación. No basta con que un laboratorio afirme que “mejoró la consistencia”; hace falta métricas replicables por terceros, bancos de pruebas públicos y protocolos de auditoría con participación académica y social. La estabilidad, para ser creíble, debe poder mostrarse fuera de la sala de máquinas.

Un último punto: la alfabetización digital del usuario. La coherencia técnica del modelo gana poco si la persona del otro lado no sabe formular consultas, verificar resultados o detectar respuestas incompletas. El avance tecnológico y la educación del usuario son vasos comunicantes. La mejor noticia es que un sistema con menos drift también permite enseñar mejor: si el modelo responde con regularidad a las mismas consignas, el aprendizaje sobre cómo interactuar con él se vuelve más transferible.

Este momento es, en definitiva, una invitación a madurar. La IA dejó de ser la promesa ruidosa de una feria tecnológica para aspirar a convertirse en una infraestructura de confianza cotidiana. Reducir el drift no es el fin del camino: es el umbral que separa la novedad llamativa de la herramienta con valor público. La apuesta es clara: modelos menos erráticos, procesos más documentados y una ciudadanía capaz de pedir —y obtener— explicaciones cuando algo no cuadra.

Octavio Chaparro