Tokenización — Cómo el modelo "lee" el texto
El modelo no ve letras ni palabras: divide el texto en "tokens" (fragmentos de palabras).
Embeddings — El espacio semántico
Cada palabra se representa como un punto en un espacio de miles de dimensiones. Palabras similares quedan cerca. Haz clic en cualquier palabra.
Mecanismo de atención — Transformers
La atención permite al modelo saber qué palabras son relevantes para entender cada token. Haz clic en un token para ver a qué presta atención.
Atención desde "banco":
Temperatura — Creatividad vs. Coherencia
Dado el prompt "El cielo es...", la temperatura determina cuán predecible es la respuesta.
Distribución de probabilidad para la siguiente palabra tras "El cielo es...":
Texto generado:
El cielo es...
🤖Cómo funcionan los LLMs — Guía completa
Pre-entrenamiento, RLHF, alucinaciones y la diferencia entre modelos