Ai-Ordbok

API (Application Programming Interface) – Ett gränssnitt som låter utvecklare integrera AI-modeller i sina applikationer och tjänster.
Attention Mechanism – En nyckelkomponent i transformer-arkitekturen som hjälper modellen fokusera på relevanta delar av inputen.
Batch Processing – När AI-modellen behandlar flera prompter samtidigt för ökad effektivitet.
Base Model – Den grundläggande AI-modellen innan någon specialisering eller fine-tuning.
Beam Search – En sökmetod för att hitta den mest sannolika textsekvensen.
Bias – Systematiska fel eller fördomar i AI-modellens svar som kan komma från träningsdata eller modelldesign.
Chain of Thought – När AI:n visar sitt resonemang steg för steg, vilket ofta leder till bättre resultat.
Completion – Det genererade svaret från en AI-modell.
Content Drift – När AI:ns svar gradvis avviker från det ursprungliga ämnet eller syftet.
Context Window – Mängden text som AI-modellen kan hantera och ”komma ihåg” i en konversation.
Cost Function/Loss Function – Funktionen som mäter hur fel modellen har och som används för att optimera träningen.
Decoder/Encoder – Viktiga komponenter i transformer-arkitekturen där encodern bearbetar input och decodern genererar output.
Domain Adaptation – Att anpassa en modell för användning inom ett specifikt område eller bransch.
Embedding – En numerisk representation av text som AI:n kan förstå och processa.
Epochs – Antal gånger en AI-modell går igenom hela träningsdatauppsättningen under träning.
Few-shot Learning – När AI:n lär sig en ny uppgift genom att få se några få exempel.
Fine-tuning – Processen att vidareutbilda en AI-modell på specifik data för att förbättra dess prestanda inom ett visst område.
Gradient Descent – En optimeringsalgoritm som används för att träna neurala nätverk.
Ground Truth – Den korrekta eller önskade outputen som används för att utvärdera AI:ns prestanda.
Hallucination – När en AI-modell genererar information som är felaktig eller påhittad, trots att den verkar trovärdig.
Inferens – Processen när AI-modellen genererar svar baserat på en prompt.
Latency – Tiden det tar för AI-modellen att generera ett svar.
Logits – De råa, obearbetade värdena som modellen producerar innan de omvandlas till sannolikheter.
Model Distillation – Processen att skapa en mindre, snabbare version av en större modell.
Multimodal AI – AI-system som kan hantera flera typer av input (text, bild, ljud etc).
Parameters – Antalet träningsbara variabler i en AI-modell, ofta mätt i miljarder.
Pre-training – Den initiala träningsfasen där modellen lär sig grundläggande språkförståelse.
Prompt – En textinstruktion eller fråga som ges till en AI-modell för att generera ett specifikt svar eller resultat.
Prompt Chaining – En teknik där man använder resultatet från en prompt som input till nästa prompt, vilket skapar en kedja av sammankopplade instruktioner.
Prompt Engineering – Konsten att formulera effektiva instruktioner till AI-modeller för att få önskade resultat.
Prompt Injection – När någon försöker manipulera AI:n genom att inkludera dolda instruktioner i prompten.
Prompt Templates – Fördefinierade promptstrukturer som har visat sig fungera bra för specifika uppgifter.
RAG (Retrieval-Augmented Generation) – En teknik där AI-modellen kombinerar sin tränade kunskap med extern information för att ge mer precisa svar.
RLHF (Reinforcement Learning from Human Feedback) – En träningsmetod där modellen förbättras genom mänsklig feedback.
Semantic Search – Sökning baserad på betydelse snarare än exakta ordmatchningar.
Stochastic Sampling – Slumpmässigt urval av ord baserat på sannolikhetsfördelningar.
Stop Sequence – En instruktion som talar om för AI:n när den ska sluta generera text.
Supervised Learning – Träning där modellen lär sig från märkt data med kända korrekta svar.
System Prompt – Den grundläggande instruktionen som definierar AI:ns roll och beteende.
Temperature – En inställning som kontrollerar hur kreativ eller fokuserad AI:n ska vara i sina svar. Högre temperatur ger mer variation och kreativitet, lägre ger mer konsekventa och förutsägbara svar.
Token Limit – Maximal längd på text som modellen kan processa i en session.
Tokenizer – Verktyget som delar upp text i tokens som modellen kan processa.
Tokens – De minsta textenheterna som AI-modellen processar. Kan vara delar av ord, hela ord eller skiljetecken.
Top-k Sampling – En metod som begränsar AI:ns val till de k mest sannolika nästa orden.
Top-p (Nucleus) Sampling – En alternativ urvalsmetod som väljer från de mest sannolika orden tills en viss sannolikhetströskel uppnås.
Training Data – Den data som används för att träna AI-modellen från början.
Transfer Learning – När kunskap från en tränad modell överförs för att lösa nya, relaterade uppgifter.
Transformers – Den grundläggande arkitekturen som används i moderna språkmodeller som GPT och BERT.
Unsupervised Learning – Träning där modellen lär sig mönster från omärkt data utan explicita korrekta svar.
Vector Database – En databas optimerad för att lagra och söka i embeddings, ofta använd i RAG-system.
Weights – De numeriska värden i neural-nätverket som bestämmer hur modellen processar information.
Zero-shot Learning – När AI:n kan utföra en uppgift utan att ha tränats specifikt på den typen av uppgift.

Nya verktyg
Praesent magna lacus
Faucibus ac sapien vel, efficitur ullamcorper ipsum. Maecenas varius risus at ipsum hendrerit.
6 months free Bundled with an antivirus, spam call blocker, and password manager

6 months free
Bundled with an antivirus, spam call blocker, and password manager

Unmetered disk space and bandwidth
Unmetered disk space and bandwidth

Unmetered disk space and bandwidth
Support is available 24/7/365 via phone and chat

Unmetered disk space and bandwidth
Support is available 24/7/365 via phone and chat

50 GB of storage
Free domain, free SSL certificate, and one business email account

2000+ VPN Servers
Switch between servers from 55 countries, and password manager

DDoS protection, 24/7 customer service, and User-friendly interface

Secure, high-speed VPN
Cross-platform password manager