API (Application Programming Interface) – Ett gränssnitt som låter utvecklare integrera AI-modeller i sina applikationer och tjänster.
Attention Mechanism – En nyckelkomponent i transformer-arkitekturen som hjälper modellen fokusera på relevanta delar av inputen.
Batch Processing – När AI-modellen behandlar flera prompter samtidigt för ökad effektivitet.
Base Model – Den grundläggande AI-modellen innan någon specialisering eller fine-tuning.
Beam Search – En sökmetod för att hitta den mest sannolika textsekvensen.
Bias – Systematiska fel eller fördomar i AI-modellens svar som kan komma från träningsdata eller modelldesign.
Chain of Thought – När AI:n visar sitt resonemang steg för steg, vilket ofta leder till bättre resultat.
Completion – Det genererade svaret från en AI-modell.
Content Drift – När AI:ns svar gradvis avviker från det ursprungliga ämnet eller syftet.
Context Window – Mängden text som AI-modellen kan hantera och ”komma ihåg” i en konversation.
Cost Function/Loss Function – Funktionen som mäter hur fel modellen har och som används för att optimera träningen.
Decoder/Encoder – Viktiga komponenter i transformer-arkitekturen där encodern bearbetar input och decodern genererar output.
Domain Adaptation – Att anpassa en modell för användning inom ett specifikt område eller bransch.
Embedding – En numerisk representation av text som AI:n kan förstå och processa.
Epochs – Antal gånger en AI-modell går igenom hela träningsdatauppsättningen under träning.
Few-shot Learning – När AI:n lär sig en ny uppgift genom att få se några få exempel.
Fine-tuning – Processen att vidareutbilda en AI-modell på specifik data för att förbättra dess prestanda inom ett visst område.
Gradient Descent – En optimeringsalgoritm som används för att träna neurala nätverk.
Ground Truth – Den korrekta eller önskade outputen som används för att utvärdera AI:ns prestanda.
Hallucination – När en AI-modell genererar information som är felaktig eller påhittad, trots att den verkar trovärdig.
Inferens – Processen när AI-modellen genererar svar baserat på en prompt.
Latency – Tiden det tar för AI-modellen att generera ett svar.
Logits – De råa, obearbetade värdena som modellen producerar innan de omvandlas till sannolikheter.
Model Distillation – Processen att skapa en mindre, snabbare version av en större modell.
Multimodal AI – AI-system som kan hantera flera typer av input (text, bild, ljud etc).
Parameters – Antalet träningsbara variabler i en AI-modell, ofta mätt i miljarder.
Pre-training – Den initiala träningsfasen där modellen lär sig grundläggande språkförståelse.
Prompt – En textinstruktion eller fråga som ges till en AI-modell för att generera ett specifikt svar eller resultat.
Prompt Chaining – En teknik där man använder resultatet från en prompt som input till nästa prompt, vilket skapar en kedja av sammankopplade instruktioner.
Prompt Engineering – Konsten att formulera effektiva instruktioner till AI-modeller för att få önskade resultat.
Prompt Injection – När någon försöker manipulera AI:n genom att inkludera dolda instruktioner i prompten.
Prompt Templates – Fördefinierade promptstrukturer som har visat sig fungera bra för specifika uppgifter.
RAG (Retrieval-Augmented Generation) – En teknik där AI-modellen kombinerar sin tränade kunskap med extern information för att ge mer precisa svar.
RLHF (Reinforcement Learning from Human Feedback) – En träningsmetod där modellen förbättras genom mänsklig feedback.
Semantic Search – Sökning baserad på betydelse snarare än exakta ordmatchningar.
Stochastic Sampling – Slumpmässigt urval av ord baserat på sannolikhetsfördelningar.
Stop Sequence – En instruktion som talar om för AI:n när den ska sluta generera text.
Supervised Learning – Träning där modellen lär sig från märkt data med kända korrekta svar.
System Prompt – Den grundläggande instruktionen som definierar AI:ns roll och beteende.
Temperature – En inställning som kontrollerar hur kreativ eller fokuserad AI:n ska vara i sina svar. Högre temperatur ger mer variation och kreativitet, lägre ger mer konsekventa och förutsägbara svar.
Token Limit – Maximal längd på text som modellen kan processa i en session.
Tokenizer – Verktyget som delar upp text i tokens som modellen kan processa.
Tokens – De minsta textenheterna som AI-modellen processar. Kan vara delar av ord, hela ord eller skiljetecken.
Top-k Sampling – En metod som begränsar AI:ns val till de k mest sannolika nästa orden.
Top-p (Nucleus) Sampling – En alternativ urvalsmetod som väljer från de mest sannolika orden tills en viss sannolikhetströskel uppnås.
Training Data – Den data som används för att träna AI-modellen från början.
Transfer Learning – När kunskap från en tränad modell överförs för att lösa nya, relaterade uppgifter.
Transformers – Den grundläggande arkitekturen som används i moderna språkmodeller som GPT och BERT.
Unsupervised Learning – Träning där modellen lär sig mönster från omärkt data utan explicita korrekta svar.
Vector Database – En databas optimerad för att lagra och söka i embeddings, ofta använd i RAG-system.
Weights – De numeriska värden i neural-nätverket som bestämmer hur modellen processar information.
Zero-shot Learning – När AI:n kan utföra en uppgift utan att ha tränats specifikt på den typen av uppgift.