Stora sprÄkmodeller (LLM)
Tekniken bakom ChatGPT och Claude - hur de förstÄr och genererar text.
Vad Àr en LLM?
Large Language Models (LLM) Àr neurala nÀtverk trÀnade pÄ enorma mÀngder text för att förstÄ och generera sprÄk.
KĂ€rnuppgift: FörutsĂ€ga nĂ€sta ord. "Himlen Ă€r _____" â "blĂ„". FrĂ„n denna enkla uppgift uppstĂ„r förmĂ„liga svar.
Transformer-arkitekturen
Alla moderna LLM:er bygger pÄ Transformer-arkitekturen frÄn 2017. Nyckelkomponenter:
- Self-Attention: Modellen kan fokusera pÄ relevanta delar av texten, oavsett avstÄnd
- Parallell bearbetning: Hela texten bearbetas samtidigt, inte ord för ord
- Skalbarhet: Prestanda ökar med mer data och större modeller
Viktig terminologi
đ§© Tokens
Text delas upp i "tokens" - bitar av ord. "Fantastiskt" kan bli ["Fan", "tast", "iskt"]. GPT-4 hanterar ~128K tokens.
đ Parametrar
Vikterna i modellen. GPT-4 har uppskattningsvis 1.8 biljoner parametrar. Fler = mer kapacitet.
đĄïž Temperatur
Styr kreativitet. LÄg (0) = deterministiskt. Hög (1+) = mer slumpmÀssigt och kreativt.
đ Kontextfönster
Hur mycket text modellen "minns" i en konversation. Claude: 200K tokens, GPT-4: 128K tokens.
âïž Prompting
Konsten att formulera instruktioner för att fÄ bÀsta resultat. "Prompt engineering" Àr en egen disciplin.
đ Fine-tuning
VidartrÀna en modell pÄ specifik data för att specialisera den för en uppgift.
TrÀningsprocessen för LLM:er
| Fas | Beskrivning |
|---|---|
| 1. Pre-training | TrÀnas pÄ internet-skala text (böcker, webb, kod). LÀr sig sprÄk och kunskap. |
| 2. Fine-tuning | TrÀnas pÄ specifika instruktioner och svar för att bli hjÀlpsam. |
| 3. RLHF | Reinforcement Learning from Human Feedback - mÀnniskor betygsÀtter svar. |
| 4. Safety training | TrÀning för att undvika skadligt innehÄll och följa riktlinjer. |
Styrkor och svagheter
â Styrkor
- Extremt god pÄ sprÄk
- Bred kunskap
- Anpassningsbar
- Kreativ
â ïž Svagheter
- Hallucinationer (hittar pÄ)
- Inget minne mellan sessioner
- Kunskap har cutoff-datum
- Kan vara översÀkert felaktig
đ§Ș Testa dig sjĂ€lv
Vad Àr en LLM:s grundlÀggande uppgift under trÀning?