LoRA Betanítási Útmutató
A LoRA Betanítási Útmutató bemutatja az Alacsony Rangú Adaptációt (LoRA), egy technikát a nagy nyelvi és diffúziós modellek hatékony finomhangolására kis, betanítható alacsony rangú mátrixok bevezetésével az összes modellparaméter módosítása helyett. Ez a megközelítés az eredeti modell súlyait változatlanul hagyja, és két további mátrixot illeszt be minden rétegbe a szükséges módosítások megtanulásához. A LoRA könnyűsúlyú, így több adaptáció betanítása is megvalósítható nagy tárolási követelmények nélkül. Az útmutató összehasonlítja a LoRA-t a LyCORIS-szal, egy fejlett kiterjesztéssel, amely több irányítást és rugalmasságot kínál, és bemutatja a LoKr-t, amely Kronecker-szorzatokat használ a mátrix felbontásához, javítva a memóriahatékonyságot és az adaptációs folyamat irányítását.