Inicio / LLMOps / LLMOps: De Prototipo a Producción / Evaluación
🧠

Evaluación: LLMOps Ingeniero

20 preguntas · Opción múltiple

Pon a prueba tus conocimientos sobre operacionalización de LLMs: prompt engineering, RAG, fine-tuning, evaluación, agentes, seguridad, costos y deploy.

Pregunta 0 de 20 0%
1

¿Cuál es la diferencia principal entre MLOps y LLMOps?

2

¿Qué controla el parámetro temperature en un LLM?

3

¿Cuál es la estrategia correcta para manejar un error 429 (rate limit) de una API de LLM?

4

¿Qué técnica de prompt engineering pide al modelo "pensar paso a paso" antes de dar la respuesta?

5

¿Cuál es la mejor práctica para gestionar prompts en producción?

6

¿Cuál es el orden correcto del pipeline RAG?

7

¿Qué tipo de índice usan las vector databases para búsqueda eficiente de vecinos más cercanos?

8

¿Qué es LoRA y por qué es popular para fine-tuning de LLMs?

9

¿Qué es "LLM-as-Judge" y cuándo es útil?

10

¿Cuál es la diferencia principal entre LangChain y LlamaIndex?

11

¿Cómo funciona el patrón ReAct en agentes LLM?

12

¿Cuál es la defensa más efectiva contra prompt injection?

13

¿Cuáles son los tres pilares de observabilidad adaptados para LLMs?

14

¿Cuál es la estrategia de mayor impacto para reducir costos de LLM en producción?

15

¿Qué es vLLM y cuándo lo usarías en lugar de APIs externas?

16

¿Por qué es importante implementar streaming en aplicaciones LLM?

17

¿Qué debe incluir un pipeline CI para una aplicación LLM que no incluye un CI tradicional?

18

¿Qué patrón arquitectónico es más apropiado para un sistema que recibe diferentes tipos de consultas (soporte, ventas, facturación)?

19

¿Cómo diseñarías un sistema RAG que escale a millones de documentos?

20

¿Cuál es el orden correcto de prioridades al llevar una aplicación LLM de prototipo a producción?

← Volver al curso