[PYTHON/LANGCHAIN] InMemoryCache 클래스 : LLM 입출력 텍스트 캐싱해서 동일 입력 텍스트 LLM 호출시 캐시 활용하기


■ InMemoryCache 클래스를 사용해 LLM 입출력 텍스트를 캐싱해서 동일한 입력 텍스트를 LLM 호출시 캐시를 활용하는 방법을 보여준다.

※ OPENAI_API_KEY 환경 변수 값은 .env 파일에 정의한다.

main.py

requirements.txt

※ pip install python-dotenv langchain-community langchain-openai 명령을 실행했다.