Low‑Rank Adaptation (LoRA) gjør finjustering langt billigere og raskere ved å legge til små matriser som trenes, mens resten av modellen holdes frosset. Metoden egner seg for å lære tone‑of‑voice, terminologi eller domene uten å måtte trene hele modellen på nytt. LoRA kombineres ofte med RAG for å få presise og oppdaterte svar.
LoRA
Lite leksikon om AI
Lettvekts finjustering der kun få ekstra parametere trenes i hver lagdel.