Durante mucho tiempo, la inteligencia artificial generativa se llevó toda la atención. Era la más visible, la más llamativa, la que parecía capaz de resolverlo todo. Pero en el terreno operativo, la historia ha sido más compleja.
Muchas organizaciones empezaron a implementar soluciones generativas sin tener claro el problema que querían resolver. Y eso generó una especie de ruido estratégico: mucha tecnología, poco impacto real.
Juan Naranjo, gerente de soluciones de Red Hat Colombia, lo resume sin rodeos: “Las empresas quieren resolver todo con AI generativa y no con AI predictiva”.
Ese contraste revela una tensión interesante. Mientras la generativa captura titulares, la predictiva sigue siendo la que realmente mueve la aguja en procesos críticos.
El punto no es elegir una sobre otra, sino entender dónde cada una tiene sentido. Y ese ejercicio, aunque suene básico, es donde muchas iniciativas fallan.
Definir el propósito, medir el impacto y ubicar la tecnología en el momento adecuado del proceso se vuelve más importante que la herramienta en sí. Es diseño estratégico, no solo implementación tecnológica.
En ese contexto, el código abierto aparece como un habilitador silencioso pero poderoso. No hace ruido, pero cambia las reglas del juego al permitir transparencia, colaboración y adaptabilidad.
Además, abre la puerta a modelos más accesibles como los Small Language Models, que pueden ser más eficientes en ciertos escenarios sin sacrificar control ni seguridad.
También pone sobre la mesa la importancia de la explicabilidad. Porque confiar en la inteligencia artificial no es solo usarla, sino entender cómo toma decisiones.
Y ahí, otra vez, la soberanía se vuelve relevante. No como concepto abstracto, sino como condición para construir sistemas confiables y sostenibles en el tiempo.





