[C#/COMMON/.NET6] 엑셀에서 OLLAMA 질문 사용자 함수 추가하기

■ 엑셀에서 OLLAMA에게 질문을 하는 사용자 함수를 추가하는 방법을 보여준다. ▶ TestLibrary.csproj

▶ launchSettings.json

▶ OllamaClient.cs

▶ CustomFunction.cs

[PYTHON/REQUESTS] Session 클래스 : OLLAMA 서버 통신하기

■ Session 클래스를 사용해 OLLAMA 서버와 통신하는 방법을 보여준다. ▶ main.py

※ pip install requests 명령을 실행했다.

[C#/COMMON] HttpClient 클래스 : OLLAMA 서버 통신하기

■ HttpClient 클래스를 사용해 OLLAMA 서버와 통신하는 방법을 보여준다. ▶ OllamaRequest.cs

▶ OllamaResponse.cs

▶ Program.cs

TestProject.zip

[PYTHON/LANGCHAIN] 모델에서 임시 도구 호출 기능 추가하기 3

■ 모델에서 임시 도구 호출 기능을 추가하는 방법을 보여준다. ▶ main.py

▶ requirements.txt

※ pip install langchain langchain-community 명령을 실행했다.

[PYTHON/LANGCHAIN] 모델에서 임시 도구 호출 기능 추가하기 2

■ 모델에서 임시 도구 호출 기능을 추가하는 방법을 보여준다. ▶ main.py

▶ requirements.txt

※ pip install langchain langchain-community 명령을 실행했다.

[PYTHON/LANGCHAIN] 모델에서 임시 도구 호출 기능 추가하기 1

■ 모델에서 임시 도구 호출 기능을 추가하는 방법을 보여준다. ▶ main.py

▶ requirements.txt

※ pip install langchain langchain-community 명령을 실행했다.

[PYTHON/LANGCHAIN] Ollama 클래스 : 텍스트 생성하기

■ Ollama 클래스를 사용해 텍스트를 생성하는 방법을 보여준다. ▶ main.py

▶ requirements.txt

※ pip install langchain-community 명령을 실행했다.

[PYTHON/LANGCHAIN] ChatOllama 클래스 : 사용자 질문 분류하기

■ ChatOllama 클래스를 사용해 사용자 질문을 분류하는 방법을 보여준다. ▶ main.py

▶ chat_classifier.py

▶ requirements.txt

※ pip install langchain-community

[C#/COMMON/.NET8] HttpClient 클래스 : Ollama 연동 파이썬 LLM 서버 통신하기

■ HttpClient 클래스를 사용해 Ollama 연동 파이썬 LLM 서버와 통신하는 방법을 보여준다. ▶ AdditionalKeywordArgument.cs

▶ AIMessageChunk.cs

▶ InvalidToolCallList.cs

[PYTHON/LANGCHAIN] ConversationBufferMemory 클래스 : 생성자를 사용해 객체 만들기

■ ConversationBufferMemory 클래스의 생성자를 사용해 객체를 만드는 방법을 보여준다. ▶ 예제 코드 (PY)

[PYTHON/LANGCHAIN] ChatOllama 클래스 : 생성자를 사용해 객체 만들기

■ ChatOllama 클래스의 생성자를 사용해 객체를 만드는 방법을 보여준다. ▶ 예제 코드 (PY)

[TOOL/OLLAMA] ollama 명령 : serve 옵션을 사용해 서버 실행하기

■ ollama 명령의 serve 옵션을 사용해 서버를 실행하는 방법을 보여준다. 1. 명령 프롬프트를 실행한다. 2. 아래 스크립트를 실행한다. ▶ 실행 명령