About this lesson
Techniques for LLM Optimization
Video Lesson
Techniques for LLM Optimization
Download the app
Want to actually learn from LLM optimization techniques? Download Domingo to follow this lesson with clickable subtitles, saved words, and a guided learning flow.
Learn Spanish in the Domingo app with subtitles, saved words, and lesson progress.
Spanish subtitles
12:02
pasado
12:02
antes. También existe la jerarquización
12:04
del contexto, que consiste en priorizar
12:07
la información que podría ser más
12:09
importante. Y esto es para que el modelo
12:11
no pierda el foco de qué es lo que tiene
12:14
que hacer cuando los volúmenes de datos
12:16
que nosotros le estamos entregando son
12:18
muy grandes. Todos estos elementos, si
12:20
es que llegasen a ser bien diseñados,
12:22
van a permitir que el LLM se comporte
12:25
como un especialista y va a ofrecer
12:27
respuestas coherentes y alineadas con
12:29
los objetivos. Técnicas comunes.
12:34
Ahora vamos a aprovechar de ver técnicas
12:35
comunes que podemos utilizar cuando
12:37
nosotros estemos entregándole contexto a
12:39
los LLM. Y la técnica número uno,
12:41
instrucciones de sistema y roles. En
12:43
este caso, nosotros definimos desde el
12:45
inicio quién es el modelo y qué es lo
12:47
que este tiene que hacer. Tienes, por
12:49
ejemplo, eres un arquitecto de software
12:50
senior con experiencia en migraciones a
12:52
microservicios. Tu objetivo es asesorar
12:54
a un equipo junior. La segunda técnica
12:56
común, inyección dinámica de datos. En
12:58
este caso, nosotros agregamos datos
13:00
relevantes en tiempo real, según sea el
13:03
estado del sistema o del usuario. Aquí
13:04
es cuando nosotros le empezamos a
13:06
entregar datos al ll para que este
13:08
entienda mejor qué es lo que nosotros
13:10
estamos haciendo. Entonces, por ejemplo,
13:12
si estamos teniendo un error en una
13:13
aplicación que nosotros estamos
13:14
desarrollando, lo que nosotros
13:16
deberíamos hacer ahora es tomar los locs
13:18
de error y entregárselos al ll para que
13:20
este nos ayude a depurar la aplicación.
13:22
o también si nosotros estamos
13:23
realizándole soporte a algún usuario,
13:25
aquí es donde nosotros le tenemos que
13:27
indicar qué es lo que está pasando con
13:29
el usuario para así poder entregarle una
13:31
solución más acorde. Aquí nosotros
13:33
también tenemos en el número tres
13:35
plantillas de contexto. En este caso
13:36
nosotros estamos utilizando estructuras
13:38
predefinidas para que las instrucciones
13:40
sean claras. Y aquí nosotros tendríamos
13:41
como por ejemplo rol y acá nosotros
13:43
colocamos un rol de modelo, objetivo
13:46
objetivo restricciones. Y aquí nosotros
13:48
le entregamos un listado de las
13:49
restricciones que este tiene que tener y
13:51
la salida esperada que en este caso
13:52
podría ser PDF, podría ser un JSON o el
13:55
formato que nosotros necesitemos. Otra
13:56
técnica también bastante común es el
13:58
prompt chaining, que este es cuando
14:00
nosotros dividimos tareas complejas en
14:03
pasos más pequeños y pasando el
14:05
resultado que nosotros obtuvimos del ll,
14:07
se lo entregamos nuevamente como dentro
14:09
del prompt. Este patrón nosotros lo
14:11
vemos en profundidad en el curso de
14:13
prompt engineering, que se encuentra
14:14
gratis en este canal de YouTube. Así que
14:16
si quieres aprender Prompt Engineer, ve
14:17
a verlo. Busca Hola Mundo Prompt
14:19
Engineering. Otra técnica común es la
14:21
jerarquización. Aquí nosotros le tenemos
14:22
que indicar al modelo qué parte del
14:25
prompt que este está recibiendo es lo
14:27
más crítico y que no debería pasar por
14:29
alto. Y finalmente
Techniques for LLM Optimization
Keep exploring
10 lesson pages
11 lesson pages
11 lesson pages
11 lesson pages
Broader discovery
Super beginner
Advanced
Beginner
Upper intermediate