[PYTHON/LANGCHAIN] GPT4All 클래스 : 로컬 LLM 모델 사용하기


■ GPT4All 클래스를 사용해 로컬 LLM 모델을 사용하는 방법을 보여준다.

main.py

※ llama-2-13b-chat.Q4_0.gguf 모델 파일은 https://gpt4all.io 웹 사이트에서 다운로드 받은 [Desktop Chat Client] 프로그램에서 다운로드 받을 수 있다.

requirements.txt

※ pip install langchain langchain-community gpt4all 명령을 실행했다.

분류

보관함