Video Lesson

Full video

Full Video

Course: Programming and AI insightsSection: Learn context engineering for better AI answersSubtitles: es

Download the app

This lesson is meant to be studied in the app

Want to actually learn from Full video? Download Domingo to follow this lesson with clickable subtitles, saved words, and a guided learning flow.

Download on the App StoreGet it on Google Play

Learn Spanish in the Domingo app with subtitles, saved words, and lesson progress.

Spanish subtitles

Read the lesson transcript

710 subtitle cues

0:00

Hola mundo y bienvenidos a este video.

0:02

Hoy vamos a hablar del context

0:04

engineering, la nueva tecnología de la

0:06

cual todos están hablando. En este video

0:07

vamos a ver de qué trata el context

0:09

engineering. Vamos a ver también si es

0:11

que tú deberías aprenderlo. Y al

0:12

finalizar el video vamos a explicar cómo

0:14

tú podrías diseñar tu propio flujo para

0:16

que este utilice Context Engineering.

0:20

[Música]

0:23

¿Qué es Context Engineering?

0:26

Context Engineering es la práctica de

0:28

diseñar, organizar y proveer toda la

0:31

información relevante para que un

0:34

sistema de inteligencia artificial

0:36

generativa, en este caso un LLM, pueda

0:39

generar respuestas de manera óptima.

0:42

Esto en contraste con el prompt

0:43

engineering no se trata solo de formular

0:46

una buena pregunta, sino que hay que

0:48

construir un entorno, cosa que el modelo

0:51

entienda claramente quién es, el rol que

0:54

debe cumplir, las reglas que tiene que

0:56

seguir y los datos que tiene que

0:58

considerar. Y una vez que él tiene

1:00

absolutamente todo esto, el LLM te va a

1:03

poder generar una respuesta más adecuada

1:06

para tu caso en específico. Esto es como

1:08

preparar el escenario completo antes de

1:11

que el modelo interactúe contigo, donde

1:13

le entregas el guion, los antecedentes y

1:15

también las instrucciones que este tiene

1:17

que realizar. En otras palabras, el

1:19

Context Engineering no solamente le dice

1:21

qué es lo que tiene que hacer al ll,

1:24

sino que también le dice el cómo lo

1:26

tiene que hacer y también por qué tiene

1:28

que hacerlo. De esta manera vamos a ir

1:30

reduciendo las respuestas genéricas que

1:32

te puede entregar un LLM. Y esto, por

1:34

supuesto que empieza a aumentar la

1:36

precisión del modelo y esto puede

1:38

incluir instrucciones fijas, como por

1:40

ejemplo, actúa como un profesor de

1:42

matemáticas, pero también podría incluir

1:45

información dinámica, como por ejemplo

1:47

un historial de conversación. O también

1:49

este podría incluir una base de datos.

1:52

Cuanto mejor sea el contexto, más útiles

1:55

y acertadas van a ser las respuestas que

1:58

te va a entregar a ti el modelo.

2:00

Entonces, por ejemplo, si nosotros no

2:02

aplicáramos context engineering, un

2:04

prompt se vería más o menos así. Hazme

2:06

un itinerario para viajar a Japón. Y

2:09

aquí este nos está entregando un

2:10

itinerario de 15 días para viajar a

2:12

Japón, pero él no sabe cuánto tiempo

2:14

tenemos para poder estar en Japón y

2:16

también cuánto capital nosotros

2:17

disponemos para poder gastar allá.

2:19

Entonces, aplicando un poco más de

2:21

context engineering, nosotros podríamos

2:22

cambiar el prompt a algo más o menos

2:24

así. Eres un asesor de viajes

2:26

especializado en Japón. Tengo 7 días

2:29

disponibles y un presupuesto de $1,500.

2:31

Me interesa la cultura tradicional y

2:33

quiero evitar lugares turísticos muy

2:35

concurridos. Hazme un itinerario

2:36

optimizado con actividades diarias,

2:38

costos aproximados y recomendaciones de

2:41

transporte. Aquí podemos ver cómo nos

2:43

está entregando un itinerario con su

2:44

duración y también el presupuesto

2:46

estimado total. Entonces, como

2:47

resultado, ¿qué es lo que nosotros

2:49

estamos obteniendo? Podemos ver que la

2:51

segunda solicitud se acerca bastante más

2:54

a lo que nosotros podríamos estar

2:55

necesitando. Y esto es porque nosotros

2:57

le estamos entregando un contexto al

2:59

modelo para que entienda de mejor manera

3:01

nuestra solicitud. Este ejemplo que

3:03

nosotros estamos viendo ahora, por

3:04

supuesto que es sumamente básico y al

3:06

finalizar este video vamos a ver un

3:08

ejemplo un poco más elaborado. Pero

3:10

antes de continuar recuerda que tenemos

3:12

promoción en la Academia Hola Mundo.

3:13

Tenemos descuento para el plan mensual y

3:15

también para el plan anual.

3:17

Te dejo los links en la descripción de

3:19

este video. Ahora sí, continuamos. ¿En

3:21

qué se diferencia del prompt

3:22

engineering?

3:24

El prompt engineering se centra

3:26

principalmente en cómo nosotros

3:28

formulamos una pregunta o una

3:30

instrucción para el modelo para que así

3:32

nosotros podamos obtener una buena

3:33

respuesta. Es como entre comillas

3:35

aprender a hablar el idioma de la

3:36

inteligencia artificial, darle

3:37

instrucciones claras y bien

3:39

estructuradas para que este entienda de

3:41

mejor manera que le estamos pidiendo.

3:43

Por ejemplo, nosotros podríamos ajustar

3:45

la redacción, usar pasos numerados o

3:47

también pedir un formato en específico.

3:49

Y este formato podría ser, por ejemplo,

3:51

un PDF, podría ser también un JSON,

3:54

podría ser también un archivo de texto

3:55

plano y finalmente las opciones que

3:57

nosotros tenemos son prácticamente

3:58

ilimitadas. En cambio, el context

4:00

engineering va un paso más allá. No solo

4:03

importa cómo preguntas, sino también qué

4:06

información extra le das al modelo. Esto

4:09

incluye absolutamente todo el entorno

4:12

que nosotros hemos estado utilizando

4:14

para poder comunicarnos con el LLM.

4:16

Entonces, nosotros podríamos utilizar

4:18

datos previos, las reglas del negocio,

4:20

el rol que debe asumir, el historial de

4:22

interacción y cualquier otro elemento

4:24

que le ayude a ponerse en situación,

4:26

entre comillas. Es como si tú, en lugar

4:28

de hacerle una pregunta aislada, lo

4:30

sentaras en la mesa y le pasaras también

4:32

todos los documentos que tú tienes que

4:34

leer para poder entender el problema.

4:35

Entonces, el prompt engineering se trata

4:37

de los patrones que estás utilizando,

4:39

las herramientas que también estás

4:40

utilizando. Por ejemplo, tienes los

4:41

delimitadores Zero, One y Fe Shot, Chain

4:45

of Thoughts, Patrón React, entre otros

4:47

patrones que existen. En cambio, el

4:48

Context Engineering abarca mucho más. De

4:51

hecho, Prompt Engineering es un

4:53

subconjunto de context engineering.

4:56

Dentro de context engineering, además

4:58

del prompt engineering, nosotros también

5:00

tenemos el estado y el historial de la

5:01

aplicación. El estado vendría siendo el

5:03

valor que tienen las variables

5:04

actualmente en tu aplicación y el

5:06

historial, lo que has conversado en el

5:08

pasado. También tenemos que considerar

5:10

dentro de todo esto la memoria que va a

5:13

tener el LLM. Y en específico acá en la

5:16

memoria me estoy refiriendo a la

5:18

limitante de tokens que puede tener el

5:20

LLM. Entonces, si es que un token, como

5:22

por ejemplo el modelo de GPT4 que tiene

5:24

Chat GPT, este aguanta hasta 128000

5:27

tokens al momento de grabar este video.

5:29

Entonces, si nosotros le entregamos un

5:31

contexto que supera esta cantidad de

5:33

tokens, entonces el modelo derechamente

5:36

no nos va a poder generar una respuesta

5:38

satisfactoria, por lo que vamos a tener

5:39

que tener cuidado con los datos que

5:41

nosotros le vamos a entregar. Entonces

5:44

es de suma importancia que nosotros no

5:45

le entreguemos contexto que no sea

5:48

relevante para nuestro caso. Además de

5:50

esto, nosotros también tenemos los

5:52

sistemas RAG, que resumiendo, RA es

5:54

cuando nosotros vamos a buscar la

5:56

información a alguna base de datos o

5:58

algún documento y este también se lo

5:59

proporcionamos al ll. Es un poquito más

6:02

que eso. Pero antes de pasar a

6:03

explicarte el RAC, te voy a aprovechar

6:05

de contar de otra cosa que nosotros

6:07

también tenemos acá dentro del context

6:09

engineering y es la salida estructurada.

6:11

y yo lo voy a colocar acá como output. Y

6:13

en este caso es cuando nos referimos a

6:15

los PDF, a los txt, a un JSON, a un HTML

6:18

y así sucesivamente. Ahora sí podemos

6:21

aprovechar de explicar lo que son los

6:23

RA. Así que vamos a eliminar esto y

6:25

vamos a comenzar con RAG, que rag viene

6:28

de retrieval augmented generation. En

6:30

otras palabras, vamos a buscar la

6:32

información, la aumentamos o la

6:34

resumimos y finalmente generamos algo

6:37

que sea de uso, ya sea para el LLM o

6:39

también para nosotros. Entonces, vamos a

6:41

hacer un ejemplo en el caso de un

6:44

bibliotecario. Supongamos que este eres

6:45

tú, el bibliotecario, y tú lo que

6:47

quieres hacer es ir a la biblioteca para

6:49

poder encontrar un libro. Entonces, lo

6:51

que tienes que hacer es pasar por una

6:52

base de datos o de repente podría ser

6:55

por un directorio que contiene muchos

6:57

archivos PDF y buscas el que a ti te

6:59

interesa. Esto lo que va a hacer es

7:00

devolver los textos para finalmente

7:03

entregárselos a un LLM. Este lo que hará

7:05

será resumirlos para luego finalmente

7:08

generarte una respuesta aumentada que te

7:10

va a servir a ti como usuario. Recuerda

7:12

que esto es RAG y es una estrategia que

7:15

se utiliza dentro del Context

7:16

Engineering para poder entregarle más

7:19

contexto al ll así te pueda generar

7:22

respuestas más acertadas. ¿Quiénes se

7:24

benefician del Context Engineering?

7:28

El Context Engineering beneficia una

7:29

amplia variedad de perfiles. Tenemos,

7:31

por ejemplo, a desarrolladores que crean

7:33

aplicaciones utilizando inteligencia

7:34

artificial generativa. Estos lo utilizan

7:36

para que los modelos puedan generar

7:38

respuestas más coherentes a las

7:40

necesidades del usuario. También equipos

7:42

de producto y de experiencia de usuario

7:44

lo utilizan para poder crear asistentes.

7:46

También lo utilizan para poder crear

7:47

chatbots que entiendan el contexto del

7:49

usuario y de esta manera pueden ofrecer

7:51

experiencias más personalizadas. Las

7:53

empresas también lo utilizan para poder

7:54

automatizar procesos complejos. ¿Cómo

7:56

soporta el cliente? Análisis de datos y

7:58

esto genera respuestas que se adaptan al

8:00

reglamento interno de la empresa. En

8:01

resumen, vendría siendo cualquier

8:03

persona o equipo que necesita que la

8:05

inteligencia artificial entregue

8:07

respuestas más precisas dado un

8:09

determinado contexto. ¿Por qué deberías

8:11

aprenderlo?

8:13

Aprender Context Engineering se está

8:15

convirtiendo en una habilidad clave para

8:17

poder sacar el máximo provecho de las

8:19

inteligencias artificiales generativas,

8:21

logrando así que estas respondan con

8:22

mayor personalización, con mayor

8:24

precisión y también adaptándose a los

8:26

flujos de las empresas. Entonces, si tú

8:28

te encuentras trabajando con productos

8:29

digitales y que estos integren

8:32

inteligencia artificial generativa o

8:33

necesitas que estos modelos resuelvan

8:36

tareas más críticas, como por ejemplo

8:37

podría ser diseñar estrategias de

8:39

negocio, dominar esta técnica en

8:41

específico puede marcar una gran

8:43

diferencia en los resultados obtenidos.

8:44

Pero algo importante, no todos tienen

8:47

que aprender context engineering. Si

8:49

estás utilizando chat GPT o Gemini o

8:51

cualquier inteligencia artificial

8:52

generativa para poder obtener respuestas

8:55

más generales, también para poder

8:56

generar ideas rápidas que luego tú las

8:58

vas a filtrar o tienes que realizar

8:59

tareas también de baja complejidad.

9:01

Profundizar en context engineering puede

9:03

ser o de hecho no puede ser, va a ser un

9:05

esfuerzo completamente innecesario.

9:07

Entonces, en pocas palabras, si tú

9:09

necesitas que la IA trabaje como un

9:11

experto dentro de tu sistema, entonces

9:14

vale la pena aprenderlo, pero si

9:15

solamente lo estás utilizando como un

9:16

buscador inteligente, no lo necesitas.

9:19

Entonces, si nosotros quisiéramos

9:20

contrastar de cuándo sí versus cuándo

9:23

no, podríamos generar la siguiente tabla

9:26

comparativa. Por ejemplo, desarrollas

9:28

apps que integran inteligencia

9:29

artificial. En este caso, necesitas que

9:32

el modelo entienda el rol, las reglas de

9:34

negocio y también el estado del sistema.

9:36

También cuando te encuentras creando

9:37

asistentes o copilotos. Esto para que la

9:40

IA te conteste de manera coherente y

9:42

este pueda recordar el historial y

9:43

también adaptarse al usuario y también

9:45

en entornos profesionales sensibles,

9:47

como por ejemplo podría ser medicina,

9:49

derecho o también finanzas, porque acá

9:52

la precisión y el contexto son críticos

9:56

para poder obtener una respuesta

9:58

coherente. ¿Y cuándo no deberías

9:59

utilizar context engineering? si es que

10:01

tienes un uso ocasional o básico, como

10:03

por ejemplo cuando pides resúmenes,

10:04

también cuando pides que genere ideas

10:06

rápidas o respuestas generales, como por

10:08

ejemplo podría ser solicitar una receta

10:09

de cocina. También lo necesitas para

10:11

consultas aisladas y que no son

10:13

recurrentes y tampoco deberías

10:15

aprenderlo si es que tú estás realizando

10:16

una exploración casual. Para todos estos

10:19

casos donde tú no vas a necesitar

10:20

integrar inteligencia artificial con

10:22

algún sistema o con algún historial

10:24

demasiado grande o con documentos

10:26

externos. En ese caso, la verdad es que

10:28

no necesitas aprender context

10:29

engineering, pero para todos estos

10:31

casos, la verdad es que va a marcar una

10:33

diferencia sustancial en tu valor como

10:35

profesional. Componentes clave del

10:37

context engineering.

10:40

El primer componente fundamental es el

10:41

contexto estático. Esto quiere decir

10:44

información que siempre tiene que

10:45

acompañar al modelo y que esta por lo

10:47

general no cambia. Dentro de esto

10:48

tenemos los roles definidos, como por

10:50

ejemplo, actúa como un asesor

10:52

financiero, actúa como un profesor de

10:53

matemáticas, actúa como el rol que tú le

10:56

quieras dar. También tenemos reglas de

10:57

comportamiento, el tono de la

10:59

comunicación y límites claros, en otras

11:01

palabras, qué es lo que sí puede y qué

11:03

es lo que no puede hacer. Y contrastando

11:04

con el contexto estático, nosotros

11:06

también tenemos el contexto dinámico.

11:08

Este va a variar dependiendo de la

11:10

interacción que nosotros tengamos, como

11:12

por ejemplo podrían ser los datos del

11:13

usuario, el estado actual del sistema,

11:15

historial de conversaciones o

11:17

información tomada desde fuentes

11:19

externas. Ambos contextos tienen que

11:21

trabajar juntos para que el modelo no

11:24

solamente entienda qué es lo que tiene

11:26

que hacer, sino que también entienda

11:28

cuándo tiene que adaptarse según el

11:32

momento dado y la situación por la cual

11:34

se esté pasando. Otro componente también

11:36

sumamente importante que nosotros lo

11:38

alcanzamos a mencionar brevemente es la

11:41

memoria. En este caso, la memoria podría

11:43

ser temporal o también podría ser

11:45

persistente. Una memoria temporal podría

11:47

ser algo que nosotros le indicamos

11:48

dentro de la misma conversación y una

11:50

memoria persistente puede existir entre

11:53

múltiples sesiones con los LLM. De esta

11:56

manera, los modelos pueden, entre

11:58

comillas, recordar lo que ha pasado

12:02

antes. También existe la jerarquización

12:04

del contexto, que consiste en priorizar

12:07

la información que podría ser más

12:09

importante. Y esto es para que el modelo

12:11

no pierda el foco de qué es lo que tiene

12:14

que hacer cuando los volúmenes de datos

12:16

que nosotros le estamos entregando son

12:18

muy grandes. Todos estos elementos, si

12:20

es que llegasen a ser bien diseñados,

12:22

van a permitir que el LLM se comporte

12:25

como un especialista y va a ofrecer

12:27

respuestas coherentes y alineadas con

12:29

los objetivos. Técnicas comunes.

12:34

Ahora vamos a aprovechar de ver técnicas

12:35

comunes que podemos utilizar cuando

12:37

nosotros estemos entregándole contexto a

12:39

los LLM. Y la técnica número uno,

12:41

instrucciones de sistema y roles. En

12:43

este caso, nosotros definimos desde el

12:45

inicio quién es el modelo y qué es lo

12:47

que este tiene que hacer. Tienes, por

12:49

ejemplo, eres un arquitecto de software

12:50

senior con experiencia en migraciones a

12:52

microservicios. Tu objetivo es asesorar

12:54

a un equipo junior. La segunda técnica

12:56

común, inyección dinámica de datos. En

12:58

este caso, nosotros agregamos datos

13:00

relevantes en tiempo real, según sea el

13:03

estado del sistema o del usuario. Aquí

13:04

es cuando nosotros le empezamos a

13:06

entregar datos al ll para que este

13:08

entienda mejor qué es lo que nosotros

13:10

estamos haciendo. Entonces, por ejemplo,

13:12

si estamos teniendo un error en una

13:13

aplicación que nosotros estamos

13:14

desarrollando, lo que nosotros

13:16

deberíamos hacer ahora es tomar los locs

13:18

de error y entregárselos al ll para que

13:20

este nos ayude a depurar la aplicación.

13:22

o también si nosotros estamos

13:23

realizándole soporte a algún usuario,

13:25

aquí es donde nosotros le tenemos que

13:27

indicar qué es lo que está pasando con

13:29

el usuario para así poder entregarle una

13:31

solución más acorde. Aquí nosotros

13:33

también tenemos en el número tres

13:35

plantillas de contexto. En este caso

13:36

nosotros estamos utilizando estructuras

13:38

predefinidas para que las instrucciones

13:40

sean claras. Y aquí nosotros tendríamos

13:41

como por ejemplo rol y acá nosotros

13:43

colocamos un rol de modelo, objetivo

13:46

objetivo restricciones. Y aquí nosotros

13:48

le entregamos un listado de las

13:49

restricciones que este tiene que tener y

13:51

la salida esperada que en este caso

13:52

podría ser PDF, podría ser un JSON o el

13:55

formato que nosotros necesitemos. Otra

13:56

técnica también bastante común es el

13:58

prompt chaining, que este es cuando

14:00

nosotros dividimos tareas complejas en

14:03

pasos más pequeños y pasando el

14:05

resultado que nosotros obtuvimos del ll,

14:07

se lo entregamos nuevamente como dentro

14:09

del prompt. Este patrón nosotros lo

14:11

vemos en profundidad en el curso de

14:13

prompt engineering, que se encuentra

14:14

gratis en este canal de YouTube. Así que

14:16

si quieres aprender Prompt Engineer, ve

14:17

a verlo. Busca Hola Mundo Prompt

14:19

Engineering. Otra técnica común es la

14:21

jerarquización. Aquí nosotros le tenemos

14:22

que indicar al modelo qué parte del

14:25

prompt que este está recibiendo es lo

14:27

más crítico y que no debería pasar por

14:29

alto. Y finalmente tenemos el uso de la

14:31

memoria. Aquí nosotros tenemos que

14:33

mantener registros del historial para

14:35

que el modelo entienda mejor el contexto

14:37

previo y también nosotros tenemos que

14:39

considerar la capacidad máxima de los

14:42

tokens que tiene el LLM que nosotros

14:44

estemos utilizando. Buenas prácticas.

14:49

Una de las principales, si es que no es

14:51

la más importante, buena práctica del

14:53

context engineering, es entregarle datos

14:55

que son relevantes y no entregarle datos

14:58

que estos ya hayan expirado o que ya no

15:00

nos están sirviendo para el contexto. En

15:02

este caso, no se trata de bombardear el

15:04

modelo con información. Recuerda que

15:06

tenemos una capacidad limitada de

15:07

memoria, sino de proporcionarle

15:09

solamente lo estrictamente necesario

15:11

para que este entienda de mejor manera

15:13

el problema que tiene que resolver.

15:15

Entonces, cosas que son clave, la

15:17

jerarquización de los datos. Tienes que

15:19

entregarle siempre los roles, objetivos

15:21

y también las restricciones que este

15:22

tiene y dejar los detalles que son menos

15:24

críticos para después o incluso

15:26

eliminarlos si no te aportan. Además de

15:28

que también es buena práctica

15:29

estructurar el contexto de manera clara

15:32

y ordenada. Puedes utilizar bloques como

15:34

por ejemplo el de roll, objetivo, datos

15:36

disponibles y todo esto va a facilitar

15:37

que el modelo entienda mejor el

15:39

contexto. Para estos bloques tú

15:41

perfectamente podrías utilizar los

15:42

delimitadores. Si no sabes lo que son

15:44

los delimitadores, ve a ver el curso de

15:45

prompt engineering. Otra práctica

15:47

fundamental es estar constantemente

15:49

probando, revisando y ajustando el

15:52

contexto que nosotros le estamos

15:53

entregando de manera regular. El context

15:56

engineering no es algo que se hace

15:57

solamente una vez, tienes que estarlo

16:00

iterando constantemente. Vas a tener que

16:02

estar constantemente evaluando los

16:03

resultados que este te devuelve. Y en

16:05

base a esos resultados, vas a tener que

16:07

ir modificando también el contexto que

16:09

el LLM recibe. Y algo sumamente

16:11

importante, hay que mantener el contexto

16:14

actualizado. Si los datos que tú estás

16:16

utilizando para entregarle contexto

16:18

evolucionan, vas a tener que ir

16:20

actualizando también ese contexto y

16:22

todos los cambios que tú vas a estar

16:23

realizando, vas a tener que

16:25

documentarlos para que así también otras

16:27

personas de tu equipo puedan ver qué es

16:29

lo que ha estado pasando con el

16:30

contexto. De esta manera el proceso se

16:32

vuelve escalable y sobre todo

16:34

consistente. Algo sumamente importante

16:36

si es que estás trabajando con equipos.

16:39

Errores comunes.

16:42

Vamos a pasar a ver ahora los errores

16:44

más comunes que se encuentran cuando

16:45

estamos diseñando context engineering.

16:47

Confundir que más texto es mejor. Esto

16:50

definitivamente es algo que tú no

16:52

deberías hacer, ya que vas a estar

16:53

sobrecargando el modelo con información

16:56

irrelevante o redundante y este va a ser

16:58

que pierda el foco o además podrías

17:00

llegar al límite de los tokens. No

17:02

priorizar la información. Esto lo que va

17:05

a hacer es que el modelo va a priorizar

17:07

mal las respuestas que este te tiene que

17:09

dar. Otro error es no actualizar el

17:12

contexto. Este es sumamente

17:13

autoexplicativo, pero vamos a aprovechar

17:14

de decirlo. Las reglas pueden cambiar,

17:17

el código puede cambiar, los documentos

17:18

pueden cambiar, el usuario puede cambiar

17:20

y esto lo único que va a hacer es

17:22

entregarte respuestas que no son

17:24

correctas, no definir roles. Esto va a

17:26

hacer que el modelo improvise y por lo

17:28

general te va a entregar respuestas más

17:30

genéricas. no estructurar el contenido.

17:32

Si tú le entregas toda la información al

17:34

modelo como un bloque completamente

17:36

desordenado y no utilizas las prácticas

17:39

que nosotros vimos en nuestro curso de

17:41

prompt engineering, va a ser que el

17:42

modelo no logre entender bien las

17:45

prioridades y tampoco va a entender muy

17:47

bien qué es cada cosa. Otro error,

17:49

depender solamente del contexto

17:51

estático. Esto lo que hace es que limita

17:53

mucho la adaptabilidad de los modelos.

17:55

Otro error bastante común que está

17:57

vinculado con el primero, ignorar la

17:59

ventana de contexto. Si ignoras la

18:01

ventana de contexto, puede ser que

18:03

llegues al límite y si llegas al límite,

18:05

vas a dejar de obtener respuestas. Y el

18:07

último error sumamente común es no

18:09

iterar. Context engineering es un

18:11

proceso que se tiene que realizar de

18:13

prueba y error. No vas a obtener los

18:15

mejores resultados a la primera y al no

18:16

iterar estás limitando la capacidad que

18:19

va a tener el modelo de entregarte

18:21

respuestas correctas. Entonces, como

18:23

puedes ver, ahora resumiendo, el context

18:25

engineering requiere trabajo, requiere

18:27

afinamiento, requiere también revisar la

18:30

calidad del contexto, por lo que

18:31

lanzarse de cabeza a empezar a hacer

18:34

context engineering puede ser sumamente

18:36

contraproducente si no lo necesitas, ya

18:38

que este se va a convertir en un gasto

18:40

de recursos y de tiempo completamente

18:42

innecesario. ¿Cómo podemos hacer context

18:44

engineering?

18:46

Si llegaste hasta acá y has utilizado

18:48

inteligencias artificiales generativas o

18:50

viste mi curso de prompt engineering, tú

18:52

sabrás que las inteligencias

18:53

artificiales no pueden acceder

18:55

directamente a tus documentos o a una

18:57

base de datos. Tú vas a tener que

18:59

entregarle esos datos o al menos por

19:01

ahora. Entonces, si nosotros queremos

19:03

entregarles un mejor contexto a las

19:05

inteligencias artificiales generativas,

19:06

vamos a tener que desarrollar nuestros

19:08

propios agentes. Para esto podemos

19:10

utilizar herramientas como N8N, que si

19:12

te interesa aprender sobre N8N,

19:14

suscríbete a este canal. Pero

19:16

resumiendo, todo esto se puede gatillar

19:18

desde un formulario que envía un usuario

19:21

y este formulario perfectamente podría

19:23

ser una ventana de chat. Este, por

19:25

supuesto que es solamente uno de los

19:26

tantos ejemplos o cosas que se pueden

19:29

implementar con N8N. Y vamos a suponer

19:31

que este formulario después llega a un

19:34

proceso que nosotros diseñamos, el cual

19:36

utiliza el modelo GPT4. Yo digo GPT4,

19:39

pero podría ser perfectamente cualquier

19:41

modelo. Y acá nosotros lo que hacemos es

19:43

pedirle al modelo que identifique este

19:46

formulario que nosotros estamos

19:47

recibiendo como una tarea de soporte, si

19:49

es una duda comercial o de algún otro

19:51

tipo. Vamos a dejarlo aquí como etc

19:53

indicando que pueden haber muchas más

19:55

clasificaciones. Y en el caso de que sea

19:56

una duda de soporte, lo que nosotros

19:58

podemos hacer es ir a una base de datos,

20:01

realizar la consulta, por ejemplo, de

20:03

este usuario en particular para ver sus

20:05

datos y también para poder obtener

20:07

documentos de cómo este debería

20:09

comportarse. Y después tomamos el prompt

20:11

del usuario en conjunto con lo que nos

20:13

devuelve la base de datos y se lo

20:14

entregamos nuevamente a nuestro ll. Este

20:18

nos va a entregar una respuesta. Esa

20:20

respuesta después nosotros la podemos

20:21

tomar y se la podemos reenviar como

20:23

correo electrónico al usuario que

20:25

rellenó este formulario. O si queremos

20:27

hacer algo más interesante, lo que

20:29

podemos hacer es entregarle esta

20:31

respuesta a un servidor que utiliza

20:33

Websockets y después este servidor se

20:36

encarga de actualizar una ventana de

20:39

chat donde se encuentra también

20:41

chateando el usuario. Y ahora, en el

20:43

caso que este sea una duda comercial,

20:45

podemos indicar que los documentos en

20:47

lugar de ir a buscarlos a una base de

20:49

datos, los debería ir a buscar a un

20:51

directorio y luego ese directorio con

20:53

los documentos que te devuelve. Y además

20:55

si adjuntamos el prompt del usuario, se

20:58

lo podemos entregar también a nuestro

21:00

modelo de inteligencia artificial

21:02

generativa, en este caso GPT4.

21:05

nuevamente, este, finalmente se lo

21:07

devolvemos al usuario como alguna de las

21:09

formas que te había mencionado antes,

21:10

que podría ser a través de un chat,

21:11

podría ser a través de un correo

21:12

electrónico o de algún otro sistema que

21:14

a ti también se te ocurra. Futuro del

21:16

context engineering.

21:19

El futuro del context engineering apunta

21:21

a cada vez una automatización mayor de

21:23

los procesos. Eventualmente, en un

21:25

futuro, nosotros podríamos ver modelos

21:27

que son capaces de gestionar y

21:29

actualizar su propio contexto. Esto

21:30

priorizando información relevante sin

21:32

necesidad de interacción humana. Esto va

21:34

a incluir, por ejemplo, memorias

21:36

persistentes que recuerden absolutamente

21:37

todo el contexto del usuario, como si

21:39

también las preferencias y el historial.

21:41

Y esto va a hacer que las interacciones

21:42

sean cada vez más personalizadas y

21:44

fluidas. Además, por supuesto que van a

21:46

seguir surgiendo herramientas

21:47

específicas para personas que apliquen

21:50

context engineering. Estas van a

21:51

facilitar diseñar, construir, probar y

21:53

optimizar contextos de manera más rápida

21:55

y eficiente, muy similar a los ID de

21:57

programación que existen actualmente,

21:59

pero para personas que apliquen context

22:01

engineering, también el rol de context

22:02

engineering no los profesionales, no van

22:05

a existir personas dedicadas al context

22:07

engineer, pero sí van a existir

22:08

profesionales de ciertas áreas que van a

22:10

tener que realizar su trabajo y además

22:12

van a tener que estar actualizando estos

22:14

contextos con información relevante para

22:16

que así el modelo los pueda ayudar de

22:18

mejor manera. En resumen, el context

22:20

engineering va a dejar de transformarse

22:22

solamente en una técnica y se va a

22:24

convertir en una disciplina central

22:26

donde van a existir varios profesionales

22:28

dedicados a actualizar el contexto. En

22:31

resumen, el context engineering no es

22:32

solamente una técnica, sino que es una

22:34

forma de cómo pensamos para poder

22:36

interactuar con las inteligencias

22:38

artificiales generativas. Aprender a

22:40

diseñar el contexto correcto te va a

22:42

ayudar a ti a poder transformar modelos

22:45

que te entregan respuestas genéricas en

22:47

modelos que entregan respuestas

22:48

personalizadas a los usuarios. Pero ojo,

22:50

esto es muy importante, no siempre vale

22:54

la pena. En algunos casos, el esfuerzo

22:56

que tú tienes que destinar para poder

22:57

crear esto, mantener el contexto

22:59

actualizado e ir iterando esto, puede

23:02

ser que el esfuerzo sea demasiado grande

23:05

para un retorno que la verdad no va a

23:07

ser tan relevante. La clave está en

23:09

saber cuándo aplicarlo de manera

23:11

estratégica y cuando basta con una

23:13

interacción simple. Pero ahora viene lo

23:14

importante. Si tú trabajas con

23:16

inteligencia artificial, dominar esta

23:18

técnica es sumamente importante para ti.

23:20

No es opcional. Esto es lo que te va a

23:22

dejar a ti un paso más adelante de los

23:24

otros profesionales, donde no gana el

23:27

quien más pregunta, sino el que mejor

23:29

hace la pregunta y sobre todo saber

23:32

cuándo vale la pena hacerlo. Y este fue

23:33

el video de hoy. Si te gustó, recuerda

23:35

golpear mucho al maldito del botón de me

23:37

gusta. Si te encantó, considera

23:38

suscribirte a este canal. Si no te

23:39

quieres quedar atrás en tecnología,

23:41

puedes aprovechar de inscribirte en la

23:42

academia Hola Mundo. Tenemos un

23:43

descuento especial para ti que se

23:45

encuentra en la descripción de este

23:46

video. Hasta la próxima y

Keep exploring

Other sections in Programming and AI insights

Broader discovery

More course entry points

Download the app

Download Domingo and continue this lesson properly

People can discover this lesson on the web, but the conversion goal is to move them into Domingo where the full study experience lives.

Download on the App StoreGet it on Google Play

Learn Spanish in the Domingo app with subtitles, saved words, and lesson progress.