LoRA

Lite leksikon om AI

Lettvekts finjustering der kun få ekstra parametere trenes i hver lagdel.

Low‑Rank Adaptation (LoRA) gjør finjustering langt billigere og raskere ved å legge til små matriser som trenes, mens resten av modellen holdes frosset. Metoden egner seg for å lære tone‑of‑voice, terminologi eller domene uten å måtte trene hele modellen på nytt. LoRA kombineres ofte med RAG for å få presise og oppdaterte svar.