[PYTHON/STREAMLIT] LLAMA 3.2 11B VISION 모델을 사용해 채팅하기


■ LLAMA 3.2 11B VISION 모델을 사용해 채팅하는 방법을 보여준다.

※ meta-llama/Llama-3.2-11B-Vision-Instruct 모델을 사용하려면 허깅페이스에서 해당 모델의 사용 승인을 받아야 한다.
1. 허깅페이스 사이트에서 회원 가입을 한다.
2. 허깅페이스 사이트의 상기 모델의 페이지(https://huggingface.co/meta-llama/Llama-3.2-11B-Vision-Instruct)에서 신상 정보를 입력하고 제출해야 한다.
3. 상기 모델에 대한 사용 승인 메일이 발송된다.

※ 프로그램을 실행하려면 아래와 같이 실행한다.
1. huggingface_hub 패키지가 설치되어 있지 않다면 pip install huggingface_hub 명령을 실행한다.
2. huggingface-cli login 명령을 실행해 로그인을 한다. (한번만)
3. 아래 프로그램을 위한 패키지를 설치한다.
4. streamlit run main.py 명령을 실행한다.


※ 이미지는 저작권 문제가 있을 수 있어 필터링 처리를 했다.

main.py

requirements.txt

※ 패키지 설치 순서
1. pip install torch torchvision torchaudio –index-url https://download.pytorch.org/whl/cu121 명령을 실행한다.
2. pip install streamlit transformers accelerate 명령을 실행한다.

분류

보관함