La seguente tabella riassume i nostri consigli per l'ottimizzazione degli LLM utilizzando LoRA o QLoRA:
Specifica
Consigliato
Dettagli
Efficienza della memoria GPU
QLoRA
QLoRA ha un utilizzo massimo della memoria GPU inferiore di circa il 75% rispetto a LoRA.
Velocità
LoRA
LoRA è circa il 66% più veloce di QLoRA in termini di velocità di sintonizzazione.
Efficienza in termini di costi
LoRA
Sebbene entrambi i metodi siano relativamente economici, LoRA è fino al 40% meno costoso di QLoRA.
Lunghezza massima della sequenza più elevata
QLoRA
Una lunghezza massima della sequenza più elevata aumenta il consumo di memoria GPU. QLoRA utilizza meno memoria GPU, quindi può supportare lunghezze di sequenza massime più elevate.
Miglioramento dell'accuratezza
Uguale
Entrambi i metodi offrono miglioramenti dell'accuratezza simili.
Dimensione batch più grande
QLoRA
QLoRA supporta batch di dimensioni molto maggiori. Ad esempio, di seguito sono riportati i consigli per le dimensioni dei batch per l'ottimizzazione di openLLaMA-7B sulle seguenti GPU:
1 x A100 40G:
LoRA: è consigliata una dimensione del batch pari a 2.
QLoRA: è consigliata una dimensione del batch di 24.
1 x L4:
LoRA: la dimensione del batch pari a 1 non riesce a causa di un errore di esaurimento della memoria (OOM).
QLoRA: è consigliata una dimensione del batch di 12.
1 x V100:
LoRA: la dimensione del batch pari a 1 non riesce a causa di un errore di esaurimento della memoria (OOM).
QLoRA: è consigliata una dimensione del batch di 8.
[[["Facile da capire","easyToUnderstand","thumb-up"],["Il problema è stato risolto","solvedMyProblem","thumb-up"],["Altra","otherUp","thumb-up"]],[["Difficile da capire","hardToUnderstand","thumb-down"],["Informazioni o codice di esempio errati","incorrectInformationOrSampleCode","thumb-down"],["Mancano le informazioni o gli esempi di cui ho bisogno","missingTheInformationSamplesINeed","thumb-down"],["Problema di traduzione","translationIssue","thumb-down"],["Altra","otherDown","thumb-down"]],["Ultimo aggiornamento 2025-02-14 UTC."],[],[]]