■ _GeneratorContextManager 클래스의 total_tokens 속성을 사용해 단일 채팅 모델의 스트리밍 모드에서 전체 토큰 사용량을 구하는 방법을 보여준다.
※ 현재 스트리밍 모드에서는 비용 정보를 사용할 수 없으나 토큰 수는 사용할 수 있다.
※ 이는 현재 스트리밍 모드에서 모델명이 청크를 통해 전파되지 않고, 모델명이 올바른 가격을 조회하는 데 사용되기 때문이다.
※ OPENAI_API_KEY 환경 변수 값은 .env 파일에 정의한다.
▶ main.py
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 |
from dotenv import load_dotenv from langchain_openai import ChatOpenAI from langchain_community.callbacks.manager import get_openai_callback load_dotenv() chatOpenAI = ChatOpenAI(model = "gpt-3.5-turbo-0125", temperature = 0) with get_openai_callback() as generatorContextManager: for aiMessageChunk in chatOpenAI.stream("Tell me a joke", stream_options = {"include_usage" : True}): pass print(generatorContextManager.total_tokens) """ 27 """ |
▶ requirements.txt
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 |
aiohttp==3.9.5 aiosignal==1.3.1 annotated-types==0.7.0 anyio==4.4.0 async-timeout==4.0.3 attrs==23.2.0 certifi==2024.6.2 charset-normalizer==3.3.2 dataclasses-json==0.6.7 distro==1.9.0 exceptiongroup==1.2.1 frozenlist==1.4.1 greenlet==3.0.3 h11==0.14.0 httpcore==1.0.5 httpx==0.27.0 idna==3.7 jsonpatch==1.33 jsonpointer==3.0.0 langchain==0.2.5 langchain-community==0.2.5 langchain-core==0.2.9 langchain-openai==0.1.9 langchain-text-splitters==0.2.1 langsmith==0.1.82 marshmallow==3.21.3 multidict==6.0.5 mypy-extensions==1.0.0 numpy==1.26.4 openai==1.35.3 orjson==3.10.5 packaging==24.1 pydantic==2.7.4 pydantic_core==2.18.4 python-dotenv==1.0.1 PyYAML==6.0.1 regex==2024.5.15 requests==2.32.3 sniffio==1.3.1 SQLAlchemy==2.0.31 tenacity==8.4.2 tiktoken==0.7.0 tqdm==4.66.4 typing-inspect==0.9.0 typing_extensions==4.12.2 urllib3==2.2.2 yarl==1.9.4 |
※ pip install python-dotenv langchain-community langchain-openai 명령을 실행했다.