[PYTHON/LANGCHAIN] llm_cache 변수 : 전역 캐시 비활성화하기


■ llm_cache 변수를 사용해 전역 캐시를 비활성화하는 방법을 보여준다.

※ OPENAI_API_KEY 환경 변수 값은 .env 파일에 정의한다.

main.py

requirements.txt

※ pip install python-dotenv langchain-community langchain-openai 명령을 실행했다.