[PYTHON/LANGCHAIN] 라마 3.1 한국어 모델 채팅 서버/클라이언트 프로그램 만들기 2

■ 라마 3.1 한국어 모델과 채팅하는 서버/클라이언트 프로그램을 만드는 방법을 보여준다.

※ Ollama 설치/실행과 llama3.1:8b-instruct-q2_K 모델이 다운로드 되어 있어야 한다.

server.py

client.py

requirements.txt

※ pip install langchain-community fastapi uvicorn sseclient-py 명령을 실행했다.

Advertisements