[PYTHON/LANGCHAIN] LlamaCpp 클래스 : LLaMA2 모델을 사용해 로컬 RAG 애플리케이션 만들기


■ LlamaCpp 클래스에서 LLaMA2 모델을 사용해 로컬 RAG 애플리케이션을 만드는 방법을 보여준다.

main.py

※ llama-2-13b-chat.Q4_0.gguf 모델 파일은 https://gpt4all.io 웹 사이트에서 다운로드 받은 [Desktop Chat Client] 프로그램에서 다운로드 받을 수 있다.

requirements.txt

※ pip install langchain-community llama-cpp-python 명령을 실행했다.

분류

보관함