Agent

LLM Agent

OpenAI-compatible streaming endpoint

Agent

대화의 두뇌

스트리밍 토큰을 받아 자연스러운 한국어 대화로 이어줍니다. MCP 도구와 로컬 메모리를 함께 사용할 수 있습니다.

Backend
-
Provider
-
Model
-
Temp
-

Agent runtime

백엔드, 모델, MCP 도구 호출 방식을 한 곳에서 설정합니다.
모델 목록을 아직 불러오지 않았습니다.

응답 스타일

MCP 도구 연결

외부 도구를 Agent가 필요할 때 호출합니다.
서버를 폼으로 편집하면 아래 JSON에 자동 반영됩니다. transport: streamable-http(권장) 또는 stdio.
MCP 도구를 아직 확인하지 않았습니다.

로컬 메모리

SQLite DB에 대화 내용을 저장하고 다음 답변에 참고합니다.
메모리 상태를 아직 확인하지 않았습니다.
Input

음성을 글로

Whisper 또는 Qwen3-ASR vLLM 서버를 통해 한국어/영어 발화를 텍스트로 옮기고, 응답 언어를 자동으로 라우팅합니다.

Provider
-
ASR language
-
Response language
-

Provider

ASR 민감도

무음/잡음 오인식과 너무 짧은 발화 판정을 조절합니다.

Whisper

provider=whisper / faster-whisper

Qwen3-ASR vLLM

provider=qwen3-vllm
Turn taking

말 시작과 끊김 감지

RMS 에너지 기반 검출과 다단계 barge-in 게이트로 잡음에 의한 오탐을 줄입니다.

Provider
-
Threshold
-
Min speech
-

Detector

Barge-in

사용자가 끼어들 때 응답을 끊는 조건

Speaker Gate

등록된 목소리만 ASR과 barge-in 통과
Output

음성으로 답하기

기본값은 별도 vLLM-Omni 서버의 Qwen3-TTS WebSocket 스트리밍입니다. 브라우저에는 raw PCM을 그대로 중계합니다.

Provider
-
Voice
-
Sample rate
-

Provider

vLLM-Omni Qwen3-TTS Streaming

provider=vllm-omni

Qwen3 Direct Fallback

provider=qwen3 · FastAPI 내부 모델 로딩

Kokoro 82M

provider=kokoro

Kokoro-82M 공식 voice 목록에는 한국어 voice가 없습니다. 한국어 자연스러움은 Qwen3 TTS가 더 적합하고, Kokoro는 영어/일본어/중국어 등 경량 빠른 TTS가 필요할 때 쓰는 옵션입니다.

HTTP TTS

provider=http / cosyvoice-http
Agents

외부 에이전트 서버 등록

Hermes 같은 외부 에이전트 서버의 IP를 등록하면, 설정 화면 옆 Agents 라이브 페이지에서 작업을 지시하고 응답을 실시간으로 볼 수 있습니다.

Enabled
-
Timeout
-
Servers
0

매니저 설정

비활성화하면 /agents 페이지와 dispatch API가 비활성화됩니다.
라이브 페이지 열기 Agents 페이지에서 dispatch와 health 체크가 가능합니다.

등록된 에이전트

이름, base_url, capabilities, dispatch endpoint를 폼으로 편집합니다.
기본 dispatch_path는 /v1/tasks, health_path는 /health. 인증이 필요한 서버는 auth_header(예: Authorization)와 auth_value를 채우세요.
Runtime

웜업 & 오디오 I/O

모델 프리로드와 워밍업 메시지, 오디오 샘플 레이트를 제어합니다.

Preload
-
Warmup
-

Warmup

변경 사항 없음