Llama 3 is Meta's nieuwste grote taalmodel. U kunt het voor verschillende doeleinden gebruiken, zoals het oplossen van uw vragen, hulp krijgen bij uw huiswerk en projecten op school, enz. Door Llama 3 lokaal op uw Windows 11-machine te implementeren, kunt u het op elk gewenst moment gebruiken, zelfs zonder toegang tot internet. Dit artikel laat het je zien hoe Llama 3 op een Windows 11-pc te installeren .
Hoe Llama 3 op een Windows 11-pc te installeren
Het installeren van Llama 3 op een Windows 11-pc via Python vereist technische vaardigheden en kennis. Met sommige alternatieve methoden kunt u Llama 3 echter lokaal op uw Windows 11-computer implementeren. Ik zal je deze methoden laten zien.
Om Llama 3 op uw Windows 11-pc te installeren, moet u enkele opdrachten uitvoeren via de opdrachtprompt. Hierdoor kunt u echter alleen de opdrachtregelversie gebruiken. Als u de webinterface wilt gebruiken, moet u verdere stappen ondernemen. Ik zal je beide methoden laten zien.
xp-modus winnen 7
Implementeer Llama 3 op een Windows 11-pc via CMD
Om Llama 3 op uw Windows 11-pc te implementeren, moet u Ollama op uw Windows-computer installeren. De stappen hiervoor zijn als volgt:
- Bezoek officiële website van Ollama .
- Klik op de Downloaden en selecteer vervolgens Ramen .
- Klik nu op de Downloaden voor Windows knop om het exe-bestand op uw pc op te slaan.
- Voer het exe-bestand uit om Ollama op uw computer te installeren.
Zodra de Ollama op uw apparaat is geïnstalleerd, start u uw computer opnieuw op. Het zou op de achtergrond moeten draaien. U kunt het zien in uw systeemvak. Klik nu op de optie Modellen op de Ollama-website. Je zult de verschillende modellen zien.
De Llama 3.1 is verkrijgbaar in de volgende drie parameters:
- 8B
- 70B
- 405B
De laatste is de grootste parameter en kan uiteraard niet op een low-end pc worden uitgevoerd. De Llama 3.2 heeft de volgende twee parameters:
- 1B
- 3B
Klik op de Llama-versie die u op uw pc wilt installeren. Als u bijvoorbeeld Llama 3.2 wilt installeren, klikt u op Llama 3.2. In de vervolgkeuzelijst kunt u de parameter selecteren die u wilt installeren. Kopieer daarna de opdracht ernaast en plak deze in de opdrachtprompt.
Voor uw gemak heb ik beide opdrachten voor het Llama 3.2-model geschreven. Om het Llama 3.2 3B-model te installeren, voert u de volgende opdracht uit:
ollama run llama3.2:3b
Gebruik de volgende opdracht om het Llama 3.2 1B-model te installeren:
ollama run llama3.2:1b
waarom windows beter is dan linux
Open de opdrachtprompt, typ een van de bovengenoemde opdrachten (op basis van uw vereisten) en druk op Binnenkomen . Het downloaden van de vereiste bestanden zal enige tijd duren. De downloadtijd is ook afhankelijk van de snelheid van uw internetverbinding. Na voltooiing ziet u de succes bericht in de opdrachtprompt.
Typ nu uw bericht om het Llama 3.2-model te gebruiken. Als u het Llama 3.1-model wilt installeren, gebruikt u de opdrachten die beschikbaar zijn op de Ollama-website.
De volgende keer dat u de opdrachtprompt start, gebruikt u dezelfde opdracht om Llama 3.1 of 3.2 op uw pc uit te voeren.
Het installeren van Llama 3 via CMD heeft één nadeel. Het slaat uw chatgeschiedenis niet op. Als u het echter op de lokale host implementeert, wordt uw chatgeschiedenis opgeslagen en krijgt u een betere gebruikersinterface. De volgende methode laat zien hoe u dat moet doen.
firefox rent
Implementeer Llama 3 Web UI op Windows 11
Het gebruik van Llama 3 in een webbrowser biedt een betere gebruikersinterface en slaat ook de chatgeschiedenis op in vergelijking met het gebruik ervan in het CMD-venster. Ik zal je laten zien hoe je Llama 3 in je webbrowser kunt implementeren.
Om Llama 3 in uw webbrowser te gebruiken, moet Llama 3 via Ollama en Docker op uw systeem zijn geïnstalleerd. Als je Llama 3 nog niet hebt geïnstalleerd, installeer het dan met Ollama (zoals hierboven uitgelegd). Download en installeer Docker nu vanaf zijn officiële website .
Nadat u Docker hebt geïnstalleerd, start u het en meldt u zich aan om een account aan te maken. Docker werkt pas als u zich aanmeldt. Nadat u zich heeft aangemeld, logt u in op uw account in de Docker-app. Minimaliseer Docker naar het systeemvak. Docker- en Ollama-apps zouden op de achtergrond moeten draaien. Anders kunt u Llama 3 niet in uw webbrowser gebruiken.
Open nu de opdrachtprompt, kopieer de volgende opdracht en plak deze in de opdrachtprompt:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
Het downloaden van de vereiste bronnen zal met de bovenstaande opdracht enige tijd duren. Heb daarom wat geduld. Nadat de opdracht is voltooid, opent u Docker en selecteert u het Containers gedeelte vanaf de linkerkant. U zult zien dat er automatisch een container wordt aangemaakt met poort 3000:8080.
Klik op poort 3000:8080. Hierdoor wordt een nieuw tabblad geopend in uw standaardwebbrowser. Meld u nu aan en meld u aan om Llama 3 in uw webbrowser te gebruiken. Als u de adresbalk ziet, ziet u het lokalehost:3000 daar, wat betekent dat Llama 3 lokaal op uw computer wordt gehost. Je kunt het gebruiken zonder internetverbinding.
hoe u opgeslagen wachtwoorden kunt vinden in internet explorer
Selecteer uw Llama-chatmodel in de vervolgkeuzelijst. Als je meer chatmodellen van Llama 3 wilt toevoegen, moet je deze via Ollama installeren met behulp van de benodigde commando's. Daarna is het model automatisch beschikbaar in uw webbrowser.
Al uw chatgeschiedenis wordt opgeslagen en is toegankelijk aan de linkerkant. Wanneer u wilt afsluiten, meldt u zich af bij uw sessie in uw webbrowser. Open daarna de Docker-app en klik op de Stop knop om Docker te stoppen. Nu kunt u Docker sluiten.
Wanneer u Llama 3 de volgende keer in uw webbrowser wilt gebruiken, start u Ollama en Docker, wacht u een paar minuten en klikt u vervolgens op de poort in de Docker-container om de localhost-server in uw webbrowser te openen. Meld u nu aan bij uw account en begin Llama 3 te gebruiken.
Ik hoop dat dit helpt.
Kan Llama 3 op Windows draaien?
Afhankelijk van de hardwareconfiguratie van uw computer kunt u Llama 3 op uw systeem gebruiken. Het 1B-model is het lichtste. U kunt het via de opdrachtprompt op uw systeem installeren en uitvoeren.
Hoeveel RAM heb ik nodig voor Llama 3?
Het lichtste model van Llama 3 is Llama 3.2 1B. Uw systeem moet over 16 GB RAM beschikken om het Llama 3.2 1B-model te kunnen gebruiken. Daarnaast moet uw systeem ook een krachtige GPU hebben. De hogere modellen van Llama 3 vereisen meer systeembronnen.
Lees het volgende : Hoe Leonardo Phoenix AI te gebruiken .