■ init_chat_model 함수에서 추론 기능을 사용해 모델을 만드는 방법을 보여준다. ※ API KEY 환경 변수 값은 .env 파일에 정의한다. ▶ main.py
|
from dotenv import load_dotenv from langchain.chat_models import init_chat_model load_dotenv() chatOpenAI = init_chat_model("gpt-4o" , temperature = 0) chatAnthropic = init_chat_model("claude-3-opus-20240229", temperature = 0) chatVertexAI = init_chat_model("gemini-1.5-pro" , temperature = 0) |
더 읽기
■ init_chat_model 함수의 생성자를 사용해 모델을 만드는 방법을 보여준다. ※ API KEY 환경 변수 값은 .env 파일에 정의한다. ▶ main.py
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
|
from dotenv import load_dotenv from langchain.chat_models import init_chat_model load_dotenv() chatOpenAI = init_chat_model("gpt-4o" , model_provider = "openai" , temperature = 0) chatAnthropic = init_chat_model("claude-3-opus-20240229", model_provider = "anthropic" , temperature = 0) chatVertexAI = init_chat_model("gemini-1.5-pro" , model_provider = "google_vertexai", temperature = 0) print("GPT-4o : " + chatOpenAI.invoke("what's your name").content ) print("Claude Opus : " + chatAnthropic.invoke("what's your name").content) print("Gemini 1.5 : " + chatVertexAI .invoke("what's your name").content) """ GPT-4o : I'm an AI created by OpenAI, and I don't have a personal name. You can call me Assistant! How can I help you today? Claude Opus : My name is Claude. It's nice to meet you! Gemini 1.5 : I am a large language model, trained by Google. I do not have a name. """ |
▶
더 읽기
■ AIMessage 클래스의 response_metadata 속성을 사용하는 방법을 보여준다. (ChatVertexAI 객체 사용시) ▶ 예제 코드 (PY)
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39
|
from langchain_google_vertexai import ChatVertexAI chatVertexAI = ChatVertexAI(model = "gemini-pro") aiMessage = chatVertexAI.invoke([("human", "What's the oldest known example of cuneiform")]) print(aiMessage.response_metadata) """ { 'is_blocked' : False, 'safety_ratings' : [ { 'category' : 'HARM_CATEGORY_HATE_SPEECH', 'probability_label' : 'NEGLIGIBLE', 'blocked' : False }, { 'category' : 'HARM_CATEGORY_DANGEROUS_CONTENT', 'probability_label' : 'NEGLIGIBLE', 'blocked' : False }, { 'category' : 'HARM_CATEGORY_HARASSMENT', 'probability_label' : 'NEGLIGIBLE', 'blocked' : False }, { 'category' : 'HARM_CATEGORY_SEXUALLY_EXPLICIT', 'probability_label' : 'NEGLIGIBLE', 'blocked' : False } ], 'citation_metadata' : None, 'usage_metadata' : {'prompt_token_count' : 10, 'candidates_token_count' : 30, 'total_token_count' : 40} } """ |
■ unassign 함수를 사용해 구글 코랩에서 런타임 연결을 끊는 방법을 보여준다. ▶ 예제 코드 (PY)
|
from google.colab import runtime runtime.unassign() |
■ nvidia-smi 명령을 사용해 구글 코랩에서 할당된 GPU를 조회하는 방법을 보여준다. ▶ 실행 명령
▶ 실행 결과
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22
|
Mon Jun 3 11:57:34 2024 +---------------------------------------------------------------------------------------+ | NVIDIA-SMI 535.104.05 Driver Version: 535.104.05 CUDA Version: 12.2 | |-----------------------------------------+----------------------+----------------------+ | GPU Name Persistence-M | Bus-Id Disp.A | Volatile Uncorr. ECC | | Fan Temp Perf Pwr:Usage/Cap | Memory-Usage | GPU-Util Compute M. | | | | MIG M. | |=========================================+======================+======================| | 0 Tesla T4 Off | 00000000:00:04.0 Off | 0 | | N/A 57C P8 11W / 70W | 0MiB / 15360MiB | 0% Default | | | | N/A | +-----------------------------------------+----------------------+----------------------+ +---------------------------------------------------------------------------------------+ | Processes: | | GPU GI CI PID Type Process name GPU Memory | | ID ID Usage | |=======================================================================================| | No running processes found | +---------------------------------------------------------------------------------------+ |
■ cat 명령을 사용해 구글 코랩에서 12시간 후 초기화 관련 남은 시간을 조회하는 방법을 보여준다. ▶ 실행 명령
|
!cat /proc/uptime | awk '{printf("남은 시간 : %.2f", 12-$1/60/60)}' |
■ ls 명령을 사용해 구글 코랩에서 마운트한 구글 드라이브를 조회하는 방법을 보여준다. ▶ 실행 명령
|
!ls "/content/drive/My Drive/" |
※ 우분투 터미널이 아닌 구글 코랩에서
더 읽기
■ drive 변수의 mount 메소드를 사용해 구글 코랩에서 구글 드라이브를 마운트하는 방법을 보여준다. ▶ 예제 코드 (PY)
|
from google.colab import drive drive.mount("/content/drive") |