About this lesson
Full Video
Video Lesson
Full Video
Download the app
Want to actually learn from Full video? Download Domingo to follow this lesson with clickable subtitles, saved words, and a guided learning flow.
Learn Spanish in the Domingo app with subtitles, saved words, and lesson progress.
Spanish subtitles
0:00
Hola mundo y bienvenidos a este video.
0:02
Hoy vamos a hablar del context
0:04
engineering, la nueva tecnología de la
0:06
cual todos están hablando. En este video
0:07
vamos a ver de qué trata el context
0:09
engineering. Vamos a ver también si es
0:11
que tú deberías aprenderlo. Y al
0:12
finalizar el video vamos a explicar cómo
0:14
tú podrías diseñar tu propio flujo para
0:16
que este utilice Context Engineering.
0:20
[Música]
0:23
¿Qué es Context Engineering?
0:26
Context Engineering es la práctica de
0:28
diseñar, organizar y proveer toda la
0:31
información relevante para que un
0:34
sistema de inteligencia artificial
0:36
generativa, en este caso un LLM, pueda
0:39
generar respuestas de manera óptima.
0:42
Esto en contraste con el prompt
0:43
engineering no se trata solo de formular
0:46
una buena pregunta, sino que hay que
0:48
construir un entorno, cosa que el modelo
0:51
entienda claramente quién es, el rol que
0:54
debe cumplir, las reglas que tiene que
0:56
seguir y los datos que tiene que
0:58
considerar. Y una vez que él tiene
1:00
absolutamente todo esto, el LLM te va a
1:03
poder generar una respuesta más adecuada
1:06
para tu caso en específico. Esto es como
1:08
preparar el escenario completo antes de
1:11
que el modelo interactúe contigo, donde
1:13
le entregas el guion, los antecedentes y
1:15
también las instrucciones que este tiene
1:17
que realizar. En otras palabras, el
1:19
Context Engineering no solamente le dice
1:21
qué es lo que tiene que hacer al ll,
1:24
sino que también le dice el cómo lo
1:26
tiene que hacer y también por qué tiene
1:28
que hacerlo. De esta manera vamos a ir
1:30
reduciendo las respuestas genéricas que
1:32
te puede entregar un LLM. Y esto, por
1:34
supuesto que empieza a aumentar la
1:36
precisión del modelo y esto puede
1:38
incluir instrucciones fijas, como por
1:40
ejemplo, actúa como un profesor de
1:42
matemáticas, pero también podría incluir
1:45
información dinámica, como por ejemplo
1:47
un historial de conversación. O también
1:49
este podría incluir una base de datos.
1:52
Cuanto mejor sea el contexto, más útiles
1:55
y acertadas van a ser las respuestas que
1:58
te va a entregar a ti el modelo.
2:00
Entonces, por ejemplo, si nosotros no
2:02
aplicáramos context engineering, un
2:04
prompt se vería más o menos así. Hazme
2:06
un itinerario para viajar a Japón. Y
2:09
aquí este nos está entregando un
2:10
itinerario de 15 días para viajar a
2:12
Japón, pero él no sabe cuánto tiempo
2:14
tenemos para poder estar en Japón y
2:16
también cuánto capital nosotros
2:17
disponemos para poder gastar allá.
2:19
Entonces, aplicando un poco más de
2:21
context engineering, nosotros podríamos
2:22
cambiar el prompt a algo más o menos
2:24
así. Eres un asesor de viajes
2:26
especializado en Japón. Tengo 7 días
2:29
disponibles y un presupuesto de $1,500.
2:31
Me interesa la cultura tradicional y
2:33
quiero evitar lugares turísticos muy
2:35
concurridos. Hazme un itinerario
2:36
optimizado con actividades diarias,
2:38
costos aproximados y recomendaciones de
2:41
transporte. Aquí podemos ver cómo nos
2:43
está entregando un itinerario con su
2:44
duración y también el presupuesto
2:46
estimado total. Entonces, como
2:47
resultado, ¿qué es lo que nosotros
2:49
estamos obteniendo? Podemos ver que la
2:51
segunda solicitud se acerca bastante más
2:54
a lo que nosotros podríamos estar
2:55
necesitando. Y esto es porque nosotros
2:57
le estamos entregando un contexto al
2:59
modelo para que entienda de mejor manera
3:01
nuestra solicitud. Este ejemplo que
3:03
nosotros estamos viendo ahora, por
3:04
supuesto que es sumamente básico y al
3:06
finalizar este video vamos a ver un
3:08
ejemplo un poco más elaborado. Pero
3:10
antes de continuar recuerda que tenemos
3:12
promoción en la Academia Hola Mundo.
3:13
Tenemos descuento para el plan mensual y
3:15
también para el plan anual.
3:17
Te dejo los links en la descripción de
3:19
este video. Ahora sí, continuamos. ¿En
3:21
qué se diferencia del prompt
3:22
engineering?
3:24
El prompt engineering se centra
3:26
principalmente en cómo nosotros
3:28
formulamos una pregunta o una
3:30
instrucción para el modelo para que así
3:32
nosotros podamos obtener una buena
3:33
respuesta. Es como entre comillas
3:35
aprender a hablar el idioma de la
3:36
inteligencia artificial, darle
3:37
instrucciones claras y bien
3:39
estructuradas para que este entienda de
3:41
mejor manera que le estamos pidiendo.
3:43
Por ejemplo, nosotros podríamos ajustar
3:45
la redacción, usar pasos numerados o
3:47
también pedir un formato en específico.
3:49
Y este formato podría ser, por ejemplo,
3:51
un PDF, podría ser también un JSON,
3:54
podría ser también un archivo de texto
3:55
plano y finalmente las opciones que
3:57
nosotros tenemos son prácticamente
3:58
ilimitadas. En cambio, el context
4:00
engineering va un paso más allá. No solo
4:03
importa cómo preguntas, sino también qué
4:06
información extra le das al modelo. Esto
4:09
incluye absolutamente todo el entorno
4:12
que nosotros hemos estado utilizando
4:14
para poder comunicarnos con el LLM.
4:16
Entonces, nosotros podríamos utilizar
4:18
datos previos, las reglas del negocio,
4:20
el rol que debe asumir, el historial de
4:22
interacción y cualquier otro elemento
4:24
que le ayude a ponerse en situación,
4:26
entre comillas. Es como si tú, en lugar
4:28
de hacerle una pregunta aislada, lo
4:30
sentaras en la mesa y le pasaras también
4:32
todos los documentos que tú tienes que
4:34
leer para poder entender el problema.
4:35
Entonces, el prompt engineering se trata
4:37
de los patrones que estás utilizando,
4:39
las herramientas que también estás
4:40
utilizando. Por ejemplo, tienes los
4:41
delimitadores Zero, One y Fe Shot, Chain
4:45
of Thoughts, Patrón React, entre otros
4:47
patrones que existen. En cambio, el
4:48
Context Engineering abarca mucho más. De
4:51
hecho, Prompt Engineering es un
4:53
subconjunto de context engineering.
4:56
Dentro de context engineering, además
4:58
del prompt engineering, nosotros también
5:00
tenemos el estado y el historial de la
5:01
aplicación. El estado vendría siendo el
5:03
valor que tienen las variables
5:04
actualmente en tu aplicación y el
5:06
historial, lo que has conversado en el
5:08
pasado. También tenemos que considerar
5:10
dentro de todo esto la memoria que va a
5:13
tener el LLM. Y en específico acá en la
5:16
memoria me estoy refiriendo a la
5:18
limitante de tokens que puede tener el
5:20
LLM. Entonces, si es que un token, como
5:22
por ejemplo el modelo de GPT4 que tiene
5:24
Chat GPT, este aguanta hasta 128000
5:27
tokens al momento de grabar este video.
5:29
Entonces, si nosotros le entregamos un
5:31
contexto que supera esta cantidad de
5:33
tokens, entonces el modelo derechamente
5:36
no nos va a poder generar una respuesta
5:38
satisfactoria, por lo que vamos a tener
5:39
que tener cuidado con los datos que
5:41
nosotros le vamos a entregar. Entonces
5:44
es de suma importancia que nosotros no
5:45
le entreguemos contexto que no sea
5:48
relevante para nuestro caso. Además de
5:50
esto, nosotros también tenemos los
5:52
sistemas RAG, que resumiendo, RA es
5:54
cuando nosotros vamos a buscar la
5:56
información a alguna base de datos o
5:58
algún documento y este también se lo
5:59
proporcionamos al ll. Es un poquito más
6:02
que eso. Pero antes de pasar a
6:03
explicarte el RAC, te voy a aprovechar
6:05
de contar de otra cosa que nosotros
6:07
también tenemos acá dentro del context
6:09
engineering y es la salida estructurada.
6:11
y yo lo voy a colocar acá como output. Y
6:13
en este caso es cuando nos referimos a
6:15
los PDF, a los txt, a un JSON, a un HTML
6:18
y así sucesivamente. Ahora sí podemos
6:21
aprovechar de explicar lo que son los
6:23
RA. Así que vamos a eliminar esto y
6:25
vamos a comenzar con RAG, que rag viene
6:28
de retrieval augmented generation. En
6:30
otras palabras, vamos a buscar la
6:32
información, la aumentamos o la
6:34
resumimos y finalmente generamos algo
6:37
que sea de uso, ya sea para el LLM o
6:39
también para nosotros. Entonces, vamos a
6:41
hacer un ejemplo en el caso de un
6:44
bibliotecario. Supongamos que este eres
6:45
tú, el bibliotecario, y tú lo que
6:47
quieres hacer es ir a la biblioteca para
6:49
poder encontrar un libro. Entonces, lo
6:51
que tienes que hacer es pasar por una
6:52
base de datos o de repente podría ser
6:55
por un directorio que contiene muchos
6:57
archivos PDF y buscas el que a ti te
6:59
interesa. Esto lo que va a hacer es
7:00
devolver los textos para finalmente
7:03
entregárselos a un LLM. Este lo que hará
7:05
será resumirlos para luego finalmente
7:08
generarte una respuesta aumentada que te
7:10
va a servir a ti como usuario. Recuerda
7:12
que esto es RAG y es una estrategia que
7:15
se utiliza dentro del Context
7:16
Engineering para poder entregarle más
7:19
contexto al ll así te pueda generar
7:22
respuestas más acertadas. ¿Quiénes se
7:24
benefician del Context Engineering?
7:28
El Context Engineering beneficia una
7:29
amplia variedad de perfiles. Tenemos,
7:31
por ejemplo, a desarrolladores que crean
7:33
aplicaciones utilizando inteligencia
7:34
artificial generativa. Estos lo utilizan
7:36
para que los modelos puedan generar
7:38
respuestas más coherentes a las
7:40
necesidades del usuario. También equipos
7:42
de producto y de experiencia de usuario
7:44
lo utilizan para poder crear asistentes.
7:46
También lo utilizan para poder crear
7:47
chatbots que entiendan el contexto del
7:49
usuario y de esta manera pueden ofrecer
7:51
experiencias más personalizadas. Las
7:53
empresas también lo utilizan para poder
7:54
automatizar procesos complejos. ¿Cómo
7:56
soporta el cliente? Análisis de datos y
7:58
esto genera respuestas que se adaptan al
8:00
reglamento interno de la empresa. En
8:01
resumen, vendría siendo cualquier
8:03
persona o equipo que necesita que la
8:05
inteligencia artificial entregue
8:07
respuestas más precisas dado un
8:09
determinado contexto. ¿Por qué deberías
8:11
aprenderlo?
8:13
Aprender Context Engineering se está
8:15
convirtiendo en una habilidad clave para
8:17
poder sacar el máximo provecho de las
8:19
inteligencias artificiales generativas,
8:21
logrando así que estas respondan con
8:22
mayor personalización, con mayor
8:24
precisión y también adaptándose a los
8:26
flujos de las empresas. Entonces, si tú
8:28
te encuentras trabajando con productos
8:29
digitales y que estos integren
8:32
inteligencia artificial generativa o
8:33
necesitas que estos modelos resuelvan
8:36
tareas más críticas, como por ejemplo
8:37
podría ser diseñar estrategias de
8:39
negocio, dominar esta técnica en
8:41
específico puede marcar una gran
8:43
diferencia en los resultados obtenidos.
8:44
Pero algo importante, no todos tienen
8:47
que aprender context engineering. Si
8:49
estás utilizando chat GPT o Gemini o
8:51
cualquier inteligencia artificial
8:52
generativa para poder obtener respuestas
8:55
más generales, también para poder
8:56
generar ideas rápidas que luego tú las
8:58
vas a filtrar o tienes que realizar
8:59
tareas también de baja complejidad.
9:01
Profundizar en context engineering puede
9:03
ser o de hecho no puede ser, va a ser un
9:05
esfuerzo completamente innecesario.
9:07
Entonces, en pocas palabras, si tú
9:09
necesitas que la IA trabaje como un
9:11
experto dentro de tu sistema, entonces
9:14
vale la pena aprenderlo, pero si
9:15
solamente lo estás utilizando como un
9:16
buscador inteligente, no lo necesitas.
9:19
Entonces, si nosotros quisiéramos
9:20
contrastar de cuándo sí versus cuándo
9:23
no, podríamos generar la siguiente tabla
9:26
comparativa. Por ejemplo, desarrollas
9:28
apps que integran inteligencia
9:29
artificial. En este caso, necesitas que
9:32
el modelo entienda el rol, las reglas de
9:34
negocio y también el estado del sistema.
9:36
También cuando te encuentras creando
9:37
asistentes o copilotos. Esto para que la
9:40
IA te conteste de manera coherente y
9:42
este pueda recordar el historial y
9:43
también adaptarse al usuario y también
9:45
en entornos profesionales sensibles,
9:47
como por ejemplo podría ser medicina,
9:49
derecho o también finanzas, porque acá
9:52
la precisión y el contexto son críticos
9:56
para poder obtener una respuesta
9:58
coherente. ¿Y cuándo no deberías
9:59
utilizar context engineering? si es que
10:01
tienes un uso ocasional o básico, como
10:03
por ejemplo cuando pides resúmenes,
10:04
también cuando pides que genere ideas
10:06
rápidas o respuestas generales, como por
10:08
ejemplo podría ser solicitar una receta
10:09
de cocina. También lo necesitas para
10:11
consultas aisladas y que no son
10:13
recurrentes y tampoco deberías
10:15
aprenderlo si es que tú estás realizando
10:16
una exploración casual. Para todos estos
10:19
casos donde tú no vas a necesitar
10:20
integrar inteligencia artificial con
10:22
algún sistema o con algún historial
10:24
demasiado grande o con documentos
10:26
externos. En ese caso, la verdad es que
10:28
no necesitas aprender context
10:29
engineering, pero para todos estos
10:31
casos, la verdad es que va a marcar una
10:33
diferencia sustancial en tu valor como
10:35
profesional. Componentes clave del
10:37
context engineering.
10:40
El primer componente fundamental es el
10:41
contexto estático. Esto quiere decir
10:44
información que siempre tiene que
10:45
acompañar al modelo y que esta por lo
10:47
general no cambia. Dentro de esto
10:48
tenemos los roles definidos, como por
10:50
ejemplo, actúa como un asesor
10:52
financiero, actúa como un profesor de
10:53
matemáticas, actúa como el rol que tú le
10:56
quieras dar. También tenemos reglas de
10:57
comportamiento, el tono de la
10:59
comunicación y límites claros, en otras
11:01
palabras, qué es lo que sí puede y qué
11:03
es lo que no puede hacer. Y contrastando
11:04
con el contexto estático, nosotros
11:06
también tenemos el contexto dinámico.
11:08
Este va a variar dependiendo de la
11:10
interacción que nosotros tengamos, como
11:12
por ejemplo podrían ser los datos del
11:13
usuario, el estado actual del sistema,
11:15
historial de conversaciones o
11:17
información tomada desde fuentes
11:19
externas. Ambos contextos tienen que
11:21
trabajar juntos para que el modelo no
11:24
solamente entienda qué es lo que tiene
11:26
que hacer, sino que también entienda
11:28
cuándo tiene que adaptarse según el
11:32
momento dado y la situación por la cual
11:34
se esté pasando. Otro componente también
11:36
sumamente importante que nosotros lo
11:38
alcanzamos a mencionar brevemente es la
11:41
memoria. En este caso, la memoria podría
11:43
ser temporal o también podría ser
11:45
persistente. Una memoria temporal podría
11:47
ser algo que nosotros le indicamos
11:48
dentro de la misma conversación y una
11:50
memoria persistente puede existir entre
11:53
múltiples sesiones con los LLM. De esta
11:56
manera, los modelos pueden, entre
11:58
comillas, recordar lo que ha pasado
12:02
antes. También existe la jerarquización
12:04
del contexto, que consiste en priorizar
12:07
la información que podría ser más
12:09
importante. Y esto es para que el modelo
12:11
no pierda el foco de qué es lo que tiene
12:14
que hacer cuando los volúmenes de datos
12:16
que nosotros le estamos entregando son
12:18
muy grandes. Todos estos elementos, si
12:20
es que llegasen a ser bien diseñados,
12:22
van a permitir que el LLM se comporte
12:25
como un especialista y va a ofrecer
12:27
respuestas coherentes y alineadas con
12:29
los objetivos. Técnicas comunes.
12:34
Ahora vamos a aprovechar de ver técnicas
12:35
comunes que podemos utilizar cuando
12:37
nosotros estemos entregándole contexto a
12:39
los LLM. Y la técnica número uno,
12:41
instrucciones de sistema y roles. En
12:43
este caso, nosotros definimos desde el
12:45
inicio quién es el modelo y qué es lo
12:47
que este tiene que hacer. Tienes, por
12:49
ejemplo, eres un arquitecto de software
12:50
senior con experiencia en migraciones a
12:52
microservicios. Tu objetivo es asesorar
12:54
a un equipo junior. La segunda técnica
12:56
común, inyección dinámica de datos. En
12:58
este caso, nosotros agregamos datos
13:00
relevantes en tiempo real, según sea el
13:03
estado del sistema o del usuario. Aquí
13:04
es cuando nosotros le empezamos a
13:06
entregar datos al ll para que este
13:08
entienda mejor qué es lo que nosotros
13:10
estamos haciendo. Entonces, por ejemplo,
13:12
si estamos teniendo un error en una
13:13
aplicación que nosotros estamos
13:14
desarrollando, lo que nosotros
13:16
deberíamos hacer ahora es tomar los locs
13:18
de error y entregárselos al ll para que
13:20
este nos ayude a depurar la aplicación.
13:22
o también si nosotros estamos
13:23
realizándole soporte a algún usuario,
13:25
aquí es donde nosotros le tenemos que
13:27
indicar qué es lo que está pasando con
13:29
el usuario para así poder entregarle una
13:31
solución más acorde. Aquí nosotros
13:33
también tenemos en el número tres
13:35
plantillas de contexto. En este caso
13:36
nosotros estamos utilizando estructuras
13:38
predefinidas para que las instrucciones
13:40
sean claras. Y aquí nosotros tendríamos
13:41
como por ejemplo rol y acá nosotros
13:43
colocamos un rol de modelo, objetivo
13:46
objetivo restricciones. Y aquí nosotros
13:48
le entregamos un listado de las
13:49
restricciones que este tiene que tener y
13:51
la salida esperada que en este caso
13:52
podría ser PDF, podría ser un JSON o el
13:55
formato que nosotros necesitemos. Otra
13:56
técnica también bastante común es el
13:58
prompt chaining, que este es cuando
14:00
nosotros dividimos tareas complejas en
14:03
pasos más pequeños y pasando el
14:05
resultado que nosotros obtuvimos del ll,
14:07
se lo entregamos nuevamente como dentro
14:09
del prompt. Este patrón nosotros lo
14:11
vemos en profundidad en el curso de
14:13
prompt engineering, que se encuentra
14:14
gratis en este canal de YouTube. Así que
14:16
si quieres aprender Prompt Engineer, ve
14:17
a verlo. Busca Hola Mundo Prompt
14:19
Engineering. Otra técnica común es la
14:21
jerarquización. Aquí nosotros le tenemos
14:22
que indicar al modelo qué parte del
14:25
prompt que este está recibiendo es lo
14:27
más crítico y que no debería pasar por
14:29
alto. Y finalmente tenemos el uso de la
14:31
memoria. Aquí nosotros tenemos que
14:33
mantener registros del historial para
14:35
que el modelo entienda mejor el contexto
14:37
previo y también nosotros tenemos que
14:39
considerar la capacidad máxima de los
14:42
tokens que tiene el LLM que nosotros
14:44
estemos utilizando. Buenas prácticas.
14:49
Una de las principales, si es que no es
14:51
la más importante, buena práctica del
14:53
context engineering, es entregarle datos
14:55
que son relevantes y no entregarle datos
14:58
que estos ya hayan expirado o que ya no
15:00
nos están sirviendo para el contexto. En
15:02
este caso, no se trata de bombardear el
15:04
modelo con información. Recuerda que
15:06
tenemos una capacidad limitada de
15:07
memoria, sino de proporcionarle
15:09
solamente lo estrictamente necesario
15:11
para que este entienda de mejor manera
15:13
el problema que tiene que resolver.
15:15
Entonces, cosas que son clave, la
15:17
jerarquización de los datos. Tienes que
15:19
entregarle siempre los roles, objetivos
15:21
y también las restricciones que este
15:22
tiene y dejar los detalles que son menos
15:24
críticos para después o incluso
15:26
eliminarlos si no te aportan. Además de
15:28
que también es buena práctica
15:29
estructurar el contexto de manera clara
15:32
y ordenada. Puedes utilizar bloques como
15:34
por ejemplo el de roll, objetivo, datos
15:36
disponibles y todo esto va a facilitar
15:37
que el modelo entienda mejor el
15:39
contexto. Para estos bloques tú
15:41
perfectamente podrías utilizar los
15:42
delimitadores. Si no sabes lo que son
15:44
los delimitadores, ve a ver el curso de
15:45
prompt engineering. Otra práctica
15:47
fundamental es estar constantemente
15:49
probando, revisando y ajustando el
15:52
contexto que nosotros le estamos
15:53
entregando de manera regular. El context
15:56
engineering no es algo que se hace
15:57
solamente una vez, tienes que estarlo
16:00
iterando constantemente. Vas a tener que
16:02
estar constantemente evaluando los
16:03
resultados que este te devuelve. Y en
16:05
base a esos resultados, vas a tener que
16:07
ir modificando también el contexto que
16:09
el LLM recibe. Y algo sumamente
16:11
importante, hay que mantener el contexto
16:14
actualizado. Si los datos que tú estás
16:16
utilizando para entregarle contexto
16:18
evolucionan, vas a tener que ir
16:20
actualizando también ese contexto y
16:22
todos los cambios que tú vas a estar
16:23
realizando, vas a tener que
16:25
documentarlos para que así también otras
16:27
personas de tu equipo puedan ver qué es
16:29
lo que ha estado pasando con el
16:30
contexto. De esta manera el proceso se
16:32
vuelve escalable y sobre todo
16:34
consistente. Algo sumamente importante
16:36
si es que estás trabajando con equipos.
16:39
Errores comunes.
16:42
Vamos a pasar a ver ahora los errores
16:44
más comunes que se encuentran cuando
16:45
estamos diseñando context engineering.
16:47
Confundir que más texto es mejor. Esto
16:50
definitivamente es algo que tú no
16:52
deberías hacer, ya que vas a estar
16:53
sobrecargando el modelo con información
16:56
irrelevante o redundante y este va a ser
16:58
que pierda el foco o además podrías
17:00
llegar al límite de los tokens. No
17:02
priorizar la información. Esto lo que va
17:05
a hacer es que el modelo va a priorizar
17:07
mal las respuestas que este te tiene que
17:09
dar. Otro error es no actualizar el
17:12
contexto. Este es sumamente
17:13
autoexplicativo, pero vamos a aprovechar
17:14
de decirlo. Las reglas pueden cambiar,
17:17
el código puede cambiar, los documentos
17:18
pueden cambiar, el usuario puede cambiar
17:20
y esto lo único que va a hacer es
17:22
entregarte respuestas que no son
17:24
correctas, no definir roles. Esto va a
17:26
hacer que el modelo improvise y por lo
17:28
general te va a entregar respuestas más
17:30
genéricas. no estructurar el contenido.
17:32
Si tú le entregas toda la información al
17:34
modelo como un bloque completamente
17:36
desordenado y no utilizas las prácticas
17:39
que nosotros vimos en nuestro curso de
17:41
prompt engineering, va a ser que el
17:42
modelo no logre entender bien las
17:45
prioridades y tampoco va a entender muy
17:47
bien qué es cada cosa. Otro error,
17:49
depender solamente del contexto
17:51
estático. Esto lo que hace es que limita
17:53
mucho la adaptabilidad de los modelos.
17:55
Otro error bastante común que está
17:57
vinculado con el primero, ignorar la
17:59
ventana de contexto. Si ignoras la
18:01
ventana de contexto, puede ser que
18:03
llegues al límite y si llegas al límite,
18:05
vas a dejar de obtener respuestas. Y el
18:07
último error sumamente común es no
18:09
iterar. Context engineering es un
18:11
proceso que se tiene que realizar de
18:13
prueba y error. No vas a obtener los
18:15
mejores resultados a la primera y al no
18:16
iterar estás limitando la capacidad que
18:19
va a tener el modelo de entregarte
18:21
respuestas correctas. Entonces, como
18:23
puedes ver, ahora resumiendo, el context
18:25
engineering requiere trabajo, requiere
18:27
afinamiento, requiere también revisar la
18:30
calidad del contexto, por lo que
18:31
lanzarse de cabeza a empezar a hacer
18:34
context engineering puede ser sumamente
18:36
contraproducente si no lo necesitas, ya
18:38
que este se va a convertir en un gasto
18:40
de recursos y de tiempo completamente
18:42
innecesario. ¿Cómo podemos hacer context
18:44
engineering?
18:46
Si llegaste hasta acá y has utilizado
18:48
inteligencias artificiales generativas o
18:50
viste mi curso de prompt engineering, tú
18:52
sabrás que las inteligencias
18:53
artificiales no pueden acceder
18:55
directamente a tus documentos o a una
18:57
base de datos. Tú vas a tener que
18:59
entregarle esos datos o al menos por
19:01
ahora. Entonces, si nosotros queremos
19:03
entregarles un mejor contexto a las
19:05
inteligencias artificiales generativas,
19:06
vamos a tener que desarrollar nuestros
19:08
propios agentes. Para esto podemos
19:10
utilizar herramientas como N8N, que si
19:12
te interesa aprender sobre N8N,
19:14
suscríbete a este canal. Pero
19:16
resumiendo, todo esto se puede gatillar
19:18
desde un formulario que envía un usuario
19:21
y este formulario perfectamente podría
19:23
ser una ventana de chat. Este, por
19:25
supuesto que es solamente uno de los
19:26
tantos ejemplos o cosas que se pueden
19:29
implementar con N8N. Y vamos a suponer
19:31
que este formulario después llega a un
19:34
proceso que nosotros diseñamos, el cual
19:36
utiliza el modelo GPT4. Yo digo GPT4,
19:39
pero podría ser perfectamente cualquier
19:41
modelo. Y acá nosotros lo que hacemos es
19:43
pedirle al modelo que identifique este
19:46
formulario que nosotros estamos
19:47
recibiendo como una tarea de soporte, si
19:49
es una duda comercial o de algún otro
19:51
tipo. Vamos a dejarlo aquí como etc
19:53
indicando que pueden haber muchas más
19:55
clasificaciones. Y en el caso de que sea
19:56
una duda de soporte, lo que nosotros
19:58
podemos hacer es ir a una base de datos,
20:01
realizar la consulta, por ejemplo, de
20:03
este usuario en particular para ver sus
20:05
datos y también para poder obtener
20:07
documentos de cómo este debería
20:09
comportarse. Y después tomamos el prompt
20:11
del usuario en conjunto con lo que nos
20:13
devuelve la base de datos y se lo
20:14
entregamos nuevamente a nuestro ll. Este
20:18
nos va a entregar una respuesta. Esa
20:20
respuesta después nosotros la podemos
20:21
tomar y se la podemos reenviar como
20:23
correo electrónico al usuario que
20:25
rellenó este formulario. O si queremos
20:27
hacer algo más interesante, lo que
20:29
podemos hacer es entregarle esta
20:31
respuesta a un servidor que utiliza
20:33
Websockets y después este servidor se
20:36
encarga de actualizar una ventana de
20:39
chat donde se encuentra también
20:41
chateando el usuario. Y ahora, en el
20:43
caso que este sea una duda comercial,
20:45
podemos indicar que los documentos en
20:47
lugar de ir a buscarlos a una base de
20:49
datos, los debería ir a buscar a un
20:51
directorio y luego ese directorio con
20:53
los documentos que te devuelve. Y además
20:55
si adjuntamos el prompt del usuario, se
20:58
lo podemos entregar también a nuestro
21:00
modelo de inteligencia artificial
21:02
generativa, en este caso GPT4.
21:05
nuevamente, este, finalmente se lo
21:07
devolvemos al usuario como alguna de las
21:09
formas que te había mencionado antes,
21:10
que podría ser a través de un chat,
21:11
podría ser a través de un correo
21:12
electrónico o de algún otro sistema que
21:14
a ti también se te ocurra. Futuro del
21:16
context engineering.
21:19
El futuro del context engineering apunta
21:21
a cada vez una automatización mayor de
21:23
los procesos. Eventualmente, en un
21:25
futuro, nosotros podríamos ver modelos
21:27
que son capaces de gestionar y
21:29
actualizar su propio contexto. Esto
21:30
priorizando información relevante sin
21:32
necesidad de interacción humana. Esto va
21:34
a incluir, por ejemplo, memorias
21:36
persistentes que recuerden absolutamente
21:37
todo el contexto del usuario, como si
21:39
también las preferencias y el historial.
21:41
Y esto va a hacer que las interacciones
21:42
sean cada vez más personalizadas y
21:44
fluidas. Además, por supuesto que van a
21:46
seguir surgiendo herramientas
21:47
específicas para personas que apliquen
21:50
context engineering. Estas van a
21:51
facilitar diseñar, construir, probar y
21:53
optimizar contextos de manera más rápida
21:55
y eficiente, muy similar a los ID de
21:57
programación que existen actualmente,
21:59
pero para personas que apliquen context
22:01
engineering, también el rol de context
22:02
engineering no los profesionales, no van
22:05
a existir personas dedicadas al context
22:07
engineer, pero sí van a existir
22:08
profesionales de ciertas áreas que van a
22:10
tener que realizar su trabajo y además
22:12
van a tener que estar actualizando estos
22:14
contextos con información relevante para
22:16
que así el modelo los pueda ayudar de
22:18
mejor manera. En resumen, el context
22:20
engineering va a dejar de transformarse
22:22
solamente en una técnica y se va a
22:24
convertir en una disciplina central
22:26
donde van a existir varios profesionales
22:28
dedicados a actualizar el contexto. En
22:31
resumen, el context engineering no es
22:32
solamente una técnica, sino que es una
22:34
forma de cómo pensamos para poder
22:36
interactuar con las inteligencias
22:38
artificiales generativas. Aprender a
22:40
diseñar el contexto correcto te va a
22:42
ayudar a ti a poder transformar modelos
22:45
que te entregan respuestas genéricas en
22:47
modelos que entregan respuestas
22:48
personalizadas a los usuarios. Pero ojo,
22:50
esto es muy importante, no siempre vale
22:54
la pena. En algunos casos, el esfuerzo
22:56
que tú tienes que destinar para poder
22:57
crear esto, mantener el contexto
22:59
actualizado e ir iterando esto, puede
23:02
ser que el esfuerzo sea demasiado grande
23:05
para un retorno que la verdad no va a
23:07
ser tan relevante. La clave está en
23:09
saber cuándo aplicarlo de manera
23:11
estratégica y cuando basta con una
23:13
interacción simple. Pero ahora viene lo
23:14
importante. Si tú trabajas con
23:16
inteligencia artificial, dominar esta
23:18
técnica es sumamente importante para ti.
23:20
No es opcional. Esto es lo que te va a
23:22
dejar a ti un paso más adelante de los
23:24
otros profesionales, donde no gana el
23:27
quien más pregunta, sino el que mejor
23:29
hace la pregunta y sobre todo saber
23:32
cuándo vale la pena hacerlo. Y este fue
23:33
el video de hoy. Si te gustó, recuerda
23:35
golpear mucho al maldito del botón de me
23:37
gusta. Si te encantó, considera
23:38
suscribirte a este canal. Si no te
23:39
quieres quedar atrás en tecnología,
23:41
puedes aprovechar de inscribirte en la
23:42
academia Hola Mundo. Tenemos un
23:43
descuento especial para ti que se
23:45
encuentra en la descripción de este
23:46
video. Hasta la próxima y
Full Video
Keep exploring
10 lesson pages
11 lesson pages
11 lesson pages
11 lesson pages
Broader discovery
Super beginner
Advanced
Beginner
Upper intermediate