■ huggingface-cli 명령에서 download 인자를 사용해 Llama 3.1 모델을 다운로드하는 방법을 보여준다. ▶ 실행 명령
|
huggingface-cli download meta-llama/Meta-Llama-3.1-8B-Instruct --include "original/*" --local-dir Meta-Llama-3.1-8B-Instruct |
■ huggingface-cli 명령에서 login 인자를 사용해 로그인하는 방법을 보여준다. ▶ 실행 명령
|
huggingface-cli login huggingface-cli login --token hf_xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx |
※ hf_xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx : 인증 토큰
■ huggingface_hub 패키지를 설치하는 방법을 보여준다. 1. 명령 프롬프트를 실행한다. 2. 명령 프롬프트에서 아래 명령을 실행한다. ▶ 실행 명령
|
pip install huggingface_hub pip install "huggingface_hub[cli]" pip install "huggingface_hub[tensorflow]" pip install "huggingface_hub[cli,torch]" |