■ ChatOpenAI 클래스의 with_fallbacks 메소드를 사용해 컨텍스트 길이가 더 긴 모델을 설정한 ChatOpenAI 객체로 대체하는 RunnableWithFallbacks 객체를 만드는 방법을 보여준다.
※ OPENAI_API_KEY 환경 변수 값은 .env 파일에 정의한다.
▶ main.py
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 |
from dotenv import load_dotenv from langchain_openai import ChatOpenAI load_dotenv() shortTokenChatOpenAI = ChatOpenAI() longTokenChatOpenAI = ChatOpenAI(model="gpt-3.5-turbo-16k") runnableWithFallbacks = shortTokenChatOpenAI.with_fallbacks([longTokenChatOpenAI]) inputMessage = "What is the next number : " + ", ".join(["one", "two"] * 3000) try: print(runnableWithFallbacks.invoke(inputMessage)) except Exception as exception: print(exception) """ # 가이드에서는 아래와 같이 나온다고 했으나 content='The next number in the sequence is two.' additional_kwargs={} example=False # 실제는 아래와 같은 에러 메시지가 출력되었다. Error code: 400 - {'error': {'message': "Sorry! We've encountered an issue with repetitive patterns in your prompt. Please try again with a different prompt.", 'type': 'invalid_request_error', 'param': 'prompt', 'code': 'invalid_prompt'}} """ |
▶ requirements.txt
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 |
annotated-types==0.7.0 anyio==4.4.0 certifi==2024.6.2 charset-normalizer==3.3.2 distro==1.9.0 exceptiongroup==1.2.1 h11==0.14.0 httpcore==1.0.5 httpx==0.27.0 idna==3.7 jsonpatch==1.33 jsonpointer==3.0.0 langchain-core==0.2.9 langchain-openai==0.1.9 langsmith==0.1.81 openai==1.35.3 orjson==3.10.5 packaging==24.1 pydantic==2.7.4 pydantic_core==2.18.4 python-dotenv==1.0.1 PyYAML==6.0.1 regex==2024.5.15 requests==2.32.3 sniffio==1.3.1 tenacity==8.4.1 tiktoken==0.7.0 tqdm==4.66.4 typing_extensions==4.12.2 urllib3==2.2.2 |
※ psp install python-dotenv langchain-openai 명령을 실행했다.