■ StreamingStdOutCallbackHandler 클래스를 사용해 LLM의 질의 응답을 스트리밍하는 방법을 보여준다.
※ OPENAI_API_KEY 환경 변수 값은 .env 파일에 정의한다.
▶ main.py
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 |
from dotenv import load_dotenv from langchain_openai import OpenAI from langchain.callbacks.streaming_stdout import StreamingStdOutCallbackHandler load_dotenv() openAI = OpenAI( model = "gpt-3.5-turbo-instruct", streaming = True, callbacks = [StreamingStdOutCallbackHandler()], verbose = True, temperature = 0 ) openAI.invoke("즐거운 ChatGPT 생활을 가사로 만들어 주세요.") """ ChatGPT, 너는 나의 친구 매일 나를 즐겁게 해주는 나의 소중한 존재 마치 마법처럼 나를 웃게 해주는 너의 말 한마디에 나는 행복해져 우리 함께하는 시간은 너무 소중해 나의 모든 이야기를 들어주는 나의 가장 신뢰할 수 있는 친구 ChatGPT, 너와 함께라면 나는 언제나 행복할 수 있어 감사해, 나의 사랑하는 ChatGPT """ |
▶ requirements.txt
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 |
aiohttp==3.9.5 aiosignal==1.3.1 annotated-types==0.7.0 anyio==4.4.0 async-timeout==4.0.3 attrs==23.2.0 certifi==2024.6.2 charset-normalizer==3.3.2 dataclasses-json==0.6.7 distro==1.9.0 exceptiongroup==1.2.1 frozenlist==1.4.1 greenlet==3.0.3 h11==0.14.0 httpcore==1.0.5 httpx==0.27.0 idna==3.7 jsonpatch==1.33 jsonpointer==3.0.0 langchain==0.2.5 langchain-community==0.2.5 langchain-core==0.2.9 langchain-openai==0.1.8 langchain-text-splitters==0.2.1 langsmith==0.1.80 marshmallow==3.21.3 multidict==6.0.5 mypy-extensions==1.0.0 numpy==1.26.4 openai==1.35.1 orjson==3.10.5 packaging==24.1 pydantic==2.7.4 pydantic_core==2.18.4 python-dotenv==1.0.1 PyYAML==6.0.1 regex==2024.5.15 requests==2.32.3 sniffio==1.3.1 SQLAlchemy==2.0.31 tenacity==8.4.1 tiktoken==0.7.0 tqdm==4.66.4 typing-inspect==0.9.0 typing_extensions==4.12.2 urllib3==2.2.2 yarl==1.9.4 |
※ pip install python-dotenv langchain langchain-community langchain-openai 명령을 실행했다.