■ Settings 클래스의 embed_model 정적 변수를 사용해 OPENAI 임베딩(OpenAIEmbedding)을 커스텀 설정하는 방법을 보여준다.
▶ main.py
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 |
import os from llama_index.core import Settings, SimpleDirectoryReader, GPTVectorStoreIndex from llama_index.llms.openai import OpenAI from llama_index.embeddings.openai import OpenAIEmbedding os.environ["OPENAI_API_KEY"] = "<OPENAI_API_KEY>" simpleDirectoryReader = SimpleDirectoryReader(input_dir = "/home/king/data") documentList = simpleDirectoryReader.load_data() Settings.llm = OpenAI( model = "gpt-3.5-turbo", # 모델명 temperature = 0.1 # 온도 ) Settings.max_input_size = 4096 # LLM 입력의 최대 토큰 수 Settings.num_output = 256 # LLM 출력의 토큰 수 Settings.max_chunk_overlap = 20 # 청크 오버랩의 최대 토큰 수 Settings.embed_model = OpenAIEmbedding( model = "text-embedding-3-small", # 임베드 모델명 embed_batch_size = 100 # 임베드 배치 크기 ) vectorStoreIndex = GPTVectorStoreIndex.from_documents(documentList) retrieverQueryEngine = vectorStoreIndex.as_query_engine() answer1 = retrieverQueryEngine.query("미코의 소꿉친구 이름은?" ) answer2 = retrieverQueryEngine.query("울프 코퍼레이션의 CEO 이름은?") answer3 = retrieverQueryEngine.query("미코의 성격은?" ) print(f"미코의 소꿉친구 이름 : {answer1}") print(f"울프 코퍼레이션 CEO 이름 : {answer2}") print(f"미코의 성격은 : {answer3}") |
▶ 실행 결과
1 2 3 4 5 |
미코의 소꿉친구 이름 : 료 울프 코퍼레이션 CEO 이름 : 울프 코퍼레이션의 CEO 이름은 교활한 울프 박사입니다. 미코의 성격은 : Determined and resourceful. |
▶ requirements.txt
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 |
aiohttp==3.9.5 aiosignal==1.3.1 annotated-types==0.7.0 anyio==4.4.0 async-timeout==4.0.3 attrs==23.2.0 beautifulsoup4==4.12.3 certifi==2024.6.2 charset-normalizer==3.3.2 click==8.1.7 dataclasses-json==0.6.6 Deprecated==1.2.14 dirtyjson==1.0.8 distro==1.9.0 exceptiongroup==1.2.1 frozenlist==1.4.1 fsspec==2024.6.0 greenlet==3.0.3 h11==0.14.0 httpcore==1.0.5 httpx==0.27.0 idna==3.7 joblib==1.4.2 jsonpatch==1.33 jsonpointer==2.4 langchain==0.2.3 langchain-core==0.2.5 langchain-text-splitters==0.2.1 langsmith==0.1.75 llama-index==0.10.43 llama-index-agent-openai==0.2.7 llama-index-cli==0.1.12 llama-index-core==0.10.43 llama-index-embeddings-openai==0.1.10 llama-index-indices-managed-llama-cloud==0.1.6 llama-index-legacy==0.9.48 llama-index-llms-openai==0.1.22 llama-index-multi-modal-llms-openai==0.1.6 llama-index-program-openai==0.1.6 llama-index-question-gen-openai==0.1.3 llama-index-readers-file==0.1.23 llama-index-readers-llama-parse==0.1.4 llama-parse==0.4.4 llamaindex-py-client==0.1.19 marshmallow==3.21.3 multidict==6.0.5 mypy-extensions==1.0.0 nest-asyncio==1.6.0 networkx==3.3 nltk==3.8.1 numpy==1.26.4 openai==1.32.0 orjson==3.10.3 packaging==23.2 pandas==2.2.2 pillow==10.3.0 pydantic==2.7.3 pydantic_core==2.18.4 pypdf==4.2.0 python-dateutil==2.9.0.post0 pytz==2024.1 PyYAML==6.0.1 regex==2024.5.15 requests==2.32.3 six==1.16.0 sniffio==1.3.1 soupsieve==2.5 SQLAlchemy==2.0.30 striprtf==0.0.26 tenacity==8.3.0 tiktoken==0.7.0 tqdm==4.66.4 typing-inspect==0.9.0 typing_extensions==4.12.1 tzdata==2024.1 urllib3==2.2.1 wrapt==1.16.0 yarl==1.9.4 |
※ pip install openai langchain langchain-community llama-index 명령을 실행했다.