Los griegos tenían una palabra que me persigue últimamente: τέχνη, techne. No significaba "técnica" a secas. Significaba el conocimiento profundo del oficio. Saber por qué, no solo cómo. El alfarero que entendía la arcilla, no solo el que hacía jarrones. El carpintero que sabía qué madera aguantaba la humedad, no solo el que cortaba tablas.
Llevo pensando en esto porque me he dado cuenta de algo que debería haber visto antes: la mayoría de la gente que usa IA — yo incluido, al principio — la trata como un buscador con esteroides. Le preguntas algo, te da una respuesta, y ya. Funciona, claro. Pero es como usar un microscopio para clavar un clavo. Técnicamente puedes, pero estás desperdiciando el 90% de lo que esa herramienta puede hacer por ti.
Hace unos meses, me paré a entender cómo funciona realmente un modelo de lenguaje. No el paper entero, no las matemáticas de los transformers — eso se lo dejo a los investigadores. Me refiero a lo básico: qué es un token, por qué el contexto importa tanto, qué es una alucinación y por qué ocurre, cómo se estructura una conversación para que la IA trabaje contigo y no contra ti.
No fue un curso. Fueron un par de tardes leyendo, probando cosas, rompiendo cosas. Y a partir de ahí, todo cambió.
El cirujano y el bisturí
Un cirujano no necesita fabricar el bisturí. Pero más le vale saber anatomía. Si no entiende cómo funciona el cuerpo, da igual lo bueno que sea el instrumento: va a cortar donde no debe. Y nadie quiere que le opere un tipo que sabe apretar botones pero no sabe qué hay debajo de la piel.
Con la IA pasa exactamente lo mismo. No necesitas saber programar. No necesitas entender álgebra lineal ni redes neuronales a nivel de investigador. Pero hay un nivel intermedio de comprensión — una especie de cultura técnica mínima — que cambia radicalmente la forma en que usas estas herramientas. Y la diferencia entre tenerlo y no tenerlo es enorme.
Cuando entiendes que un modelo de lenguaje predice la siguiente palabra más probable en función del contexto que le has dado, dejas de esperar que "piense" por ti y empiezas a construir ese contexto con intención. Dejas de pedirle "hazme un resumen" y empiezas a decirle qué tipo de resumen necesitas, para quién, con qué nivel de detalle y qué quieres que ignore.
Cuando entiendes qué es la ventana de contexto, dejas de quejarte de que "se olvida de lo que le dije hace diez mensajes" y empiezas a estructurar tus conversaciones de otra forma. Recapitulas. Resumes. Le das la información relevante al principio, no al final. Diseñas la conversación en vez de dejarla crecer como una maleza.
Cuando entiendes por qué alucina — porque su trabajo es generar texto coherente, no verificar hechos — dejas de enfadarte cada vez que se inventa una cita o un dato, y empiezas a verificar lo que importa y a usar la IA para lo que de verdad es buena: estructurar, conectar ideas, explorar posibilidades. No como oráculo. Como herramienta de pensamiento.
Parece poco. No lo es. Es la diferencia entre un usuario y un artesano.
Lo que vi cuando dejé de pedir respuestas
Voy a ser concreto porque si no esto se queda en filosofía, y a mí la filosofía sin práctica me aburre.
Antes de entender cómo funcionaba la IA por dentro, mis conversaciones eran así: "Hazme un resumen de esto." "Dame ideas para esto otro." "Escríbeme un email sobre este tema." Funcionaba. Los resultados eran aceptables. Pero era como hablar con un camarero: tú pides, él trae. A veces acertaba con lo que querías. A veces no. Y cuando no acertaba, le pedías otra cosa y a esperar.
Ahora es diferente. Ahora diseño conversaciones. Le doy contexto largo y detallado antes de pedirle nada. Le explico qué rol quiero que asuma, qué tipo de respuesta necesito y — esto es clave — qué no quiero. Le doy ejemplos de lo que considero bueno. Le pido que me haga preguntas antes de responder, para que entienda mejor lo que busco. Le corrijo y le explico por qué lo que me ha dado no es lo que necesito. Y a partir de esa corrección, la conversación mejora.
No es lo mismo pedir un plato que cocinar. Y yo quiero cocinar.
La diferencia en los resultados no es incremental. Es un salto. No porque la IA sea más lista — es la misma IA, el mismo modelo, la misma versión. La diferencia está en lo que yo le doy como punto de partida. Y lo que le doy es mejor porque entiendo, aunque sea por encima, cómo procesa la información.
Un ejemplo concreto. Hace poco necesitaba analizar una serie de datos comerciales para detectar patrones que a simple vista no eran evidentes. Mi primera tentación fue la de siempre: copiar y pegar todo en la IA y decirle "analiza esto". Lo hice. El resultado fue genérico, superficial, lleno de obviedades.
Entonces me paré. Pensé en cómo funciona el modelo. Le di contexto: le expliqué qué eran esos datos, de dónde venían, qué decisiones se iban a tomar con ese análisis. Le dije qué tipo de patrones me interesaban y cuáles no. Le pedí que antes de darme conclusiones me describiera qué estaba viendo en los datos. Y solo después, que sugiriera hipótesis.
El resultado fue otro. No perfecto — la IA no es mágica y hay cosas que solo ve un humano con experiencia en el sector. Pero sí fue útil de verdad. Me señaló dos cosas que yo no había visto y que luego resultaron ser relevantes. No porque la IA supiera más que yo. Porque yo le había dado el contexto que necesitaba para buscar en la dirección correcta.
Eso es techne. Saber qué darle a la herramienta para que haga lo que tú necesitas.
La ventaja que no se vende en un webinar
He tenido la suerte de ver a mucha gente trabajar con IA en los últimos meses. Gente de perfiles muy distintos: técnicos, comerciales, creativos, directivos. Y hay un patrón que se repite siempre.
Los que mejor la usan no son necesariamente los más técnicos. No son ingenieros ni programadores. Pero todos — todos sin excepción — se han parado a entender cómo funciona la herramienta por dentro. Han leído sobre modelos de lenguaje. Han experimentado. Han roto cosas a propósito para ver qué pasaba. Han dedicado tiempo a entender el mecanismo, no solo la interfaz.
Y luego están los que usan la IA como un Google más listo. Le hacen preguntas, reciben respuestas, copian y pegan. Funciona. Pero se quedan en la superficie. Y la superficie es donde está todo el mundo.
La diferencia entre unos y otros no es inteligencia. No es formación. No es presupuesto. Es curiosidad dirigida. Es haberse hecho una pregunta que la mayoría no se hace: "¿qué hay dentro de esta caja?"
Y esa pregunta no se responde con un curso de 47 euros ni con un hilo de Twitter de "los 10 prompts que te van a cambiar la vida". Se responde leyendo, probando, y equivocándote durante un par de tardes. No es un gran esfuerzo. Pero es un esfuerzo que casi nadie hace. Y por eso la ventaja es tan grande para los que sí lo hacen.
No hace falta ser ingeniero (pero sí ser curioso)
Quiero ser claro con esto porque me importa: no estoy diciendo que todo el mundo necesite estudiar machine learning. No necesitas saber qué es un transformer, ni cómo funciona la retropropagación, ni qué son los pesos de una red neuronal. Eso es como pedirle a alguien que entienda la termodinámica para conducir un coche. Innecesario.
Pero sí necesitas saber lo equivalente a qué pasa cuando pisas el embrague. Necesitas ese nivel de comprensión. El nivel que te permite tomar mejores decisiones con la herramienta. El nivel que te permite entender por qué algo no funciona y qué cambiar para que funcione.
Son cosas que se aprenden en tardes, no en meses. Cómo funciona un modelo de lenguaje a nivel conceptual. Qué hace que un prompt funcione y por qué. Qué puede hacer bien la IA y qué no puede hacer, por diseño, no por limitación temporal. Por qué se inventa cosas y cómo detectarlo. Cómo trocear una tarea compleja para que la IA la resuelva paso a paso en vez de intentar resolverla de golpe.
Con eso ya estás por delante del 90% de la gente que usa IA todos los días. No porque seas más listo. Porque te has molestado en mirar dentro de la caja.
Lo que les digo a los que empiezan
Cuando alguien me pregunta por dónde empezar con la IA, no le recomiendo una herramienta. Le digo que elija cualquiera — ChatGPT, Claude, Gemini, la que quiera — y la use todos los días durante un mes. Pero que no se quede en el "hazme esto" y "dame lo otro".
Le digo que se pare a entender por qué una pregunta le da un resultado mejor que otra. Que lea un artículo — uno solo, el más básico que encuentre — sobre cómo funcionan los modelos de lenguaje. Que pruebe a romper cosas a propósito para ver cómo reacciona la IA. Que le dé información contradictoria y vea qué hace. Que le pida que explique su razonamiento. Que la trate como un colaborador al que tiene que formar, no como una máquina expendedora.
Una hora a la semana dedicada a entender la herramienta, no a usarla. Solo a entenderla. En un mes tienes más comprensión de la IA que el 90% de los profesionales de tu sector. No exagero. La barra está tan baja que cualquier esfuerzo real te pone por delante.
Porque el día que entiendes la herramienta, dejas de usarla. Empiezas a pensar con ella. Y eso es otro nivel.
Los griegos lo sabían. Techne no era saber usar el torno. Era entender la madera. Y en 2026, la madera es la IA. La pregunta es si quieres ser el que hace jarrones o el que entiende la arcilla.

Deja un comentario ¡Tu opinión me interesa!