W tym samouczku dowiesz si臋, jak uruchomi膰 modele j臋zykowe (LLM) lokalnie na swoim komputerze za darmo, unikaj膮c us艂ug chmurowych i dbaj膮c o prywatno艣膰 swoich danych. U偶ywaj膮c narz臋dzi takich jak Ollama, mo偶esz 艂atwo wchodzi膰 w interakcje z tymi modelami, tak jak w przypadku ChatGPT. Post臋puj zgodnie z tymi krokami, aby wszystko skonfigurowa膰 na swoim komputerze.
Krok 1: Zainstaluj Ollama
- Przejd藕 na stron臋 internetow膮 Ollama.
- Pobierz instalator Ollama dla swojego systemu operacyjnego.
- Uruchom instalator i post臋puj zgodnie z instrukcjami wy艣wietlanymi na ekranie, aby zako艅czy膰 instalacj臋.
Krok 2: Uruchom Ollama
- Wyszukaj "cmd" w menu Start.
- Wpisz ollama i naci艣nij Enter, aby uruchomi膰 aplikacj臋.
- Powiniene艣 zobaczy膰 komunikat powitalny, kt贸ry potwierdza, 偶e Ollama jest zainstalowana i dzia艂a poprawnie.
Mo偶esz r贸wnie偶 w przegl膮darce wklei膰 adres:
http://127.0.0.1:11434
Krok 3: Pobierz model do Ollama
W konsoli cmd u偶yj nast臋puj膮cego polecenia, aby pobra膰 model dla przyk艂adowego modelu, kt贸ry testuj臋:
ollama run llama2-uncensored
Tutaj znajdziesz list臋 dost臋pnych modeli do pobrania: modele.
Mo偶esz u偶y膰 polecenia „ollama list”, aby uzyska膰 list臋 wszystkich zainstalowanych modeli LLM na swoim systemie.
Uwaga: Aby uruchomi膰 modele 7B, powiniene艣 mie膰 co najmniej 8 GB dost臋pnej pami臋ci RAM; dla modeli 13B - 16 GB; a dla modeli 33B - 32 GB.
Kiedy sko艅czysz interakcj臋, mo偶esz zako艅czy膰 dzia艂anie polecenia, u偶ywaj膮c „Ctrl+D”, wpisuj膮c „/bye” lub u偶ywaj膮c „/?”, aby uzyska膰 dodatkowe informacje.
Brak komentarzy:
Prze艣lij komentarz