U vraagt, wij geven antwoord!

Llama 3 met behulp van Hugging Face

Llama3 hoofdillustratie

Op 18 april 2024 werd het nieuwste grote taalmodel van MetaAI, Llama 3, uitgebracht. Er werden twee versies aan gebruikers gepresenteerd: 8B en 70B. De eerste versie bevat meer dan 15K tokens en werd getraind op gegevens geldig tot maart 2023. De tweede, grotere versie werd getraind op gegevens geldig tot december 2023.

Stap 1. Bereid besturingssysteem voor

Update cache en pakketten

Laten we de pakketcache updaten en je besturingssysteem upgraden voordat je begint met het instellen van LLaMa 3. Let op dat we voor deze handleiding Ubuntu 22.04 LTS als besturingssysteem gebruiken:

sudo apt update && sudo apt -y upgrade

We moeten ook Python Installer Packages (PIP) toevoegen, als het nog niet aanwezig is in het systeem:

sudo apt install python3-pip

Installeer Nvidia-stuurprogramma's

Je kunt de geautomatiseerde hulpprogramma die standaard bij Ubuntu-distributies is inbegrepen, gebruiken:

sudo ubuntu-drivers autoinstall

Als alternatief kun je Nvidia-stuurprogramma's handmatig installeren. Vergeet niet de server opnieuw op te starten:

sudo shutdown -r now

Stap 2. Haal het model op

Log in op Hugging Face met je gebruikersnaam en wachtwoord. Ga naar de pagina die overeenkomt met de gewenste LLM-versie: Meta-Llama-3-8B of Meta-Llama-3-70B. Op het moment van publicatie van dit artikel, wordt de toegang tot het model verstrekt op individuele basis. Vul een kort formulier in en klik op de Verzenden knop:

Vraag toegang aan bij HF

Vul het formulier in

Daarna ontvang je een bericht dat je aanvraag is ingediend:

Formulier ingediend

Je krijgt toegang na 30-40 minuten en wordt hierover per e-mail op de hoogte gesteld.

Voeg SSH-sleutel toe aan HF

Genereer en voeg een SSH-sleutel toe die u kunt gebruiken in Hugging Face:

cd ~/.ssh && ssh-keygen

Als het sleutelpaar is gegenereerd, kun je de openbare sleutel weergeven in de terminal emulator:

cat id_rsa.pub

Kopieer alle informatie vanaf ssh-rsa tot en met usergpu@gpuserver zoals weergegeven op de volgende screenshot:

Kopieer RSA-sleutel

Open Hugging Face Profielinstellingen. Kies vervolgens SSH en GPG-sleutels en klik op de knop SSH-sleutel toevoegen:

Voeg SSH-sleutel toe

Vul in het Sleutelnaam en plak de gekopieerde SSH-openbare sleutel uit de terminal. Sla de sleutel op door op Sleutel toevoegen te klikken:

Plak de sleutel

Nu is je HF-account gekoppeld met de openbare SSH-sleutel. Het tweede deel (privésleutel) is opgeslagen op de server. De volgende stap is om een specifieke Git LFS (Large File Storage) extensie te installeren, die wordt gebruikt voor het downloaden van grote bestanden zoals neurale netwerkmodellen. Open je home-directory:

cd ~/

Download en voer het shell-script uit. Dit script installeert een nieuwe externe repository met git-lfs:

curl -s https://packagecloud.io/install/repositories/github/git-lfs/script.deb.sh | sudo bash

Nu kun je het installeren met behulp van de standaard pakketbeheerder:

sudo apt-get install git-lfs

Laten we git configureren voor gebruik met onze HF-bijnaam:

git config --global user.name "John"

En gekoppeld aan het HF e-mail account:

git config --global user.email "john.doe@example.com"

Download het model

Open de doelmap:

cd /mnt/fastdisk

En begin met het downloaden van de repository. Voor dit voorbeeld hebben we voor de 8B-versie gekozen:

git clone git@hf.co:meta-llama/Meta-Llama-3-8B

Dit proces duurt ongeveer 5 minuten. Je kunt dit monitoren door het volgende commando uit te voeren in een andere SSH-console:

watch -n 0.5 df -h

Hier zie je hoe de vrije schijfruimte op de gemonteerde schijf afneemt, wat bevestigt dat de download vordert en de gegevens worden opgeslagen. De status wordt elke halve seconde vernieuwd. Om het handmatig stoppen met kijken, druk je op de sneltoets Ctrl + C.

Als alternatief kunt je btop installeren en het proces met deze tool monitoren:

sudo apt -y install btop && btop
Btop-weergave

Om de btop-tool af te sluiten, druk je op de Esc-toets en selecteer je Afsluiten.

Stap 3. Voer het model uit

Open de map:

cd /mnt/fastdisk

Download de Llama 3 repository:

git clone https://github.com/meta-llama/llama3

Verander de map:

cd llama3

Voer het voorbeeld uit:

torchrun --nproc_per_node 1 example_text_completion.py \
--ckpt_dir /mnt/fastdisk/Meta-Llama-3-8B/original \
--tokenizer_path /mnt/fastdisk/Meta-Llama-3-8B/original/tokenizer.model \
--max_seq_len 128 \
--max_batch_size 4
Llama3-voorbeeldresultaat

Nu kunt u Llama 3 gebruiken in uw applicaties.

Zie ook:



Bijgewerkt: 21.06.2024

Gepubliceerd: 19.04.2024


Hebt u nog vragen? Schrijf ons!

By clicking «I Accept» you confirm that you have read and accepted the website Terms and Conditions, Privacy Policy, and Moneyback Policy.