Přeskočit na obsah

Video: Jak LLM generuje odpověď

⏱ Odhadovaný čas 30 min
📍 Pozice Den 1, blok 3 / 7
🎯 Po tomto bloku budeš umět
  • Viděl(a) jsi animovaně, jak LLM generuje text
  • Umíš pojmenovat: token, kontextové okno, predikce pravděpodobnosti
  • Víš, že trénování = pattern matching, ne „porozumění"

Jak na titulky v angličtině (30 s)

Sekce “Jak na titulky v angličtině (30 s)”

🎬 Hlavní video (8 min) — pusť si, dělej si poznámky

Sekce “🎬 Hlavní video (8 min) — pusť si, dělej si poznámky”

🥇 3Blue1Brown — „Large Language Models explained briefly”

Sekce “🥇 3Blue1Brown — „Large Language Models explained briefly””
  • 🔗 Nejde přehrát tady? Otevři přímo: youtube.com/watch?v=LPZh9BOjkQs
  • 7 min 58 s
  • 👀 5,9 milionu zhlédnutí
  • 🎨 Autor: Grant Sanderson (3Blue1Brown) — jeden z nejuznávanějších matematických edukátorů na internetu (12M+ subscribers). Video vytvořil ve spolupráci s Computer History Museum jako oficiální výstavní materiál.

Proč je to nejlepší dostupný úvod:

  • Animace, ne „mluvící hlava”
  • Žádný žargon bez vysvětlení
  • 8 minut = žádná únava
  • Pokrývá přesně to, co potřebuješ: co je LLM, jak predikuje token, proč halucinuje, co je trénink

Na co se ve videu soustředit

Sekce “Na co se ve videu soustředit”

Napiš si na papír odpovědi na tyto 3 otázky během videa (můžeš pauznout):

  1. Co je „token”? Hint: není to přesně slovo. Může být i kus slova nebo interpunkce.

  2. Co znamená „parameters” / „weights” v modelu? Hint: čísla, která model má „naučená” a používá při predikci.

  3. Proč model někdy „ví” věci, které přesně nezná? Hint: vzor vs. pravda.


🔄 Alternativy (vyber, pokud ti 3Blue1Brown nesedne)

Sekce “🔄 Alternativy (vyber, pokud ti 3Blue1Brown nesedne)”

🥈 IBM Technology — „How Large Language Models Work”

Sekce “🥈 IBM Technology — „How Large Language Models Work””
  • 🔗 https://www.youtube.com/watch?v=5sLYAQS9sWQ
  • 5 min 34 s
  • 👀 1,4 milionu zhlédnutí
  • Kanál: IBM Technology — enterprise edukativní, méně animací, víc textu a schémat. Kratší a věcnější než 3Blue1Brown.

Hodí se, když 3Blue1Brownův styl ti moc „plyne” a chceš strukturu slide-by-slide.

🥉 Karpathy — „[1hr Talk] Intro to Large Language Models” (pro motivované)

Sekce “🥉 Karpathy — „[1hr Talk] Intro to Large Language Models” (pro motivované)”
  • 🔗 https://www.youtube.com/watch?v=zjkBMFhNj_g
  • 1 hodina (nemusíš celou — prvních 20 min na dnes stačí)
  • 👀 Referováno všude (Hacker News, podcasty, blogy — „best explanation out there”)
  • Autor: Andrej Karpathy — exředitel AI v Tesle, jeden ze spoluzakladatelů OpenAI, napsal některé klíčové papery kolem GPT. Nejvyšší autorita, která je ochotná učit laiky.

Hodí se, když chceš to fakt pochopit do hloubky a máš hodinu navíc. Ideální jako bonus na odpoledne nebo večer — ne do bloku 02 (příliš dlouhé).


✍️ Po videu: mini-reflexe (5 min)

Sekce “✍️ Po videu: mini-reflexe (5 min)”

Na papír, vlastními slovy:

  1. Token je: _______________________________________
  2. Kontextové okno znamená: _________________________
  3. Halucinace vzniká, protože: _______________________
  4. Jedna věta, která mě ve videu překvapila: ___________

Nemusíš to nikam posílat. Je to pro tebe. Na polední check-in s Miroslavem se ti tyhle poznámky budou hodit.


💡 Bonus (nepovinné, dalších 10 min)

Sekce “💡 Bonus (nepovinné, dalších 10 min)”

Pokud chceš jít hlouběji k neuronovým sítím za LLM:

  • 3Blue1Brown — „But what is a neural network?” (youtube.com/watch?v=aircAruvnKk) — 19 min, 18M views. Vizuálně fenomenální animace, ale nepotřebuješ to k dnešnímu výkonu. Klidně až za týden.
  • 3Blue1Brown — „Transformers, the tech behind LLMs” (27 min, 9,9M views) — už vyžaduje matematiku na SŠ úrovni, ale je to gold standard.

Pokračovat na blok 03: Proč LLM halucinuje →