금융·공공·제조 분야를 위한 On-Premise AI

최적의 AI 생태계를 완성하는
AI 오케스트레이션 플렛폼

하나의 거대 AI에 의존하지 마세요. 대화(ChatGPT), 코딩(Claude), 영상분석(Gemini) 등 업무별 최고 수준의 AI와 오픈소스 모델을 조합하여, 폐쇄망 내부에서도 강력하고 안전한 맞춤형 AI 생태계를 구축합니다.

조직 구성원 모두를 만족시키는 최적의 선택

관리의 투명성부터 실무의 편의성까지, Aizentia는 각자의 위치에서 최고의 성과를 내도록 지원합니다.

완벽한 통제와 거버넌스 확립

  • 데이터 유출 원천 차단 및 문서 권한 통제

    폐쇄망 내 로컬 LLM 구동으로 중요 데이터의 외부 전송을 물리적으로 차단하며, 직원별 AD/LDAP 권한(Security Trimming)에 따라 RAG 검색 결과를 동적으로 필터링하여 접근 불가한 기밀 문서는 AI 참조에서 배제합니다.

  • Ai 보고서를 통한 빠르고 정확한 현황 파악

    복잡한 데이터 분석과 지표들을 AI가 즉시 요약하고 시각화하여, 관리자의 빠른 의사결정을 돕는 맞춤형 현황 보고서를 제공합니다.

  • 대응 메뉴얼(Ai-SOP) 기반의 업무지시

    문제 상황 발생 시 AI가 사내 표준 운영 절차(SOP)를 기반으로 최적의 대응 방안을 도출하고 유관 부서에 즉각적인 조치 지시를 내립니다.

Centralized Security Governance

Audit logs, Role-based Access Control (RBAC)

Technical Architecture

모듈형으로 설계된 안전한 데이터 파이프라인

사용자의 요청부터 인프라 실행까지, 모든 계층이 보안과 유연성을 최우선으로 유기적으로 연결되어 있습니다.

Layer 1: User & Clients
Web Portal
OpenWebUI
멀티모달 대화 인터페이스
Omni-channel
Slack / Teams / Mail
사내 메신저 연동
Dev Tools
VS Code / Continue
오프라인 코딩 보조
Edge Devices
IoT / Mobile / Robots
MQTT & WebRTC 통신
Layer 2: Gateway & Security Governance
Central Control Plane
Aizentia AI Gateway
🔒 인증/인가 (Auth) 🔀 트래픽 라우팅 🛡️ 보안 가드레일
Layer 3 & 4: Orchestration & Knowledge Foundation
Cognitive Agents & Automation
Main Brain
LangChain & CrewAI
추론 및 멀티 에이전트 협업
Workflow
n8n Automation
노코드 비즈니스 로직 실행
Data & Legacy Connectivity
Secure RAG
Vector DB & Embeddings
권한 기반 사내 지식 검색
Standard Connector
MCP Servers
레거시 DB/ERP 연동 표준
Layer 5: Execution Infrastructure (On-Premise / Hybrid)
Compute Cluster
Ray Cluster & K8s
분산 GPU 자원 관리 & 오토스케일링
Swappable AI Engines
Best-in-Class Models
💬 대화/오픈소스 ChatGPT, Llama
💻 코딩/문장 Claude
👁️ 영상분석 Gemini
Visual & Media Engine
ComfyUI Backend
🎨 이미지 생성 NananoBanana
🎬 동영상 생성 Sora 2
✨ 자체(On-Prem) SDXL, Flux
좌우로 스와이프하여 아키텍처 보기

Air-Gapped Architecture

폐쇄망 AI 코딩 어시스턴트 아키텍처

외부 인터넷 연결이 차단된 폐쇄망 환경에서도 개발자가 AI의 지원(코드 생성, 리뷰, 리팩토링, 사내 문서 기반 Q&A 등)을 원활하게 받을 수 있는 독립적이고 안전한 로컬 AI 생태계를 구성합니다.

Core Engine

코어 AI 모델 & 서빙

  • Ollama 기반 로컬 서빙: Docker 위에서 경량 동작하는 Ollama를 표준 LLM 엔진으로 채택
  • 모델 반입 프로세스: 외부망에서 코딩 특화 모델(qwen3-coder, deepseek-coder)을 Pull 후 물리적 매체를 통해 안전하게 이관
  • 양자화 최적화: GGUF 포맷 기반 Q4_K_M ~ Q8_0 양자화로 GPU VRAM 효율 극대화
Agents & Knowledge

멀티 에이전트 & RAG

  • 다중 AI 협업: LangGraph(엄격한 코드 리뷰 루프) & CrewAI(신속한 역할 위임 파이프라인)로 기획자·아키텍트·테스터 페르소나 분리
  • RAG 기반 사내 지식: 로컬 임베딩 모델(nomic-embed-text)로 환각(Hallucination) 최소화
  • 벡터 DB 통합: ChromaDB(경량) 또는 Milvus(대규모)를 Docker 환경에 원활하게 통합
UI & IDE

사용자 인터페이스 & 개발 환경

  • VS Code + Continue: Chat 모델(14B~32B)로 아키텍처 논의, Autocomplete 모델(1.5B~3B)로 실시간 코드 자동완성 분리 운영
  • Open WebUI: 비개발 직군(기획자, QA)도 쉽게 접근 가능한 챗봇 프론트엔드, 문서 업로드 및 대화 관리
  • OpenCode (CLI): 터미널 선호 개발자를 위한 CLI 환경, 파일 시스템 제어 및 Git 커밋 자동화
Deploy & Security

인프라 배포 & 보안 아키텍처

  • Docker 기반 패키징: docker save로 .tar 패키징 → 폐쇄망에서 docker load로 단일 명령 배포
  • RBAC 접근 통제: Open WebUI의 역할 기반 권한 관리 및 프로젝트별 기밀 소스코드 열람 분리
  • 네트워크 격리: 컨테이너 간 통신을 Docker 내부 브릿지 네트워크로 격리, 호스트 OS 포트 노출 원천 차단

Air-Gapped Delivery Pipeline

외부망에서 export_aizentia.sh로 Docker Image + GGUF 모델을 패키징하고, 물리적 매체(USB/HDD)를 통해 폐쇄망으로 이관한 뒤 import_aizentia.shdocker-compose up -d 한 줄로 전체 아키텍처를 일관되게 배포합니다.

스크립트 요청하기

가장 안전한 엔터프라이즈 AI,
Aizentia로 시작하세요.

폐쇄망 환경에서의 PoC(개념 검증)부터 하이브리드 아키텍처 설계까지,
귀사의 요구사항에 맞춘 전문 컨설팅을 제공합니다.

🔒 제출하신 정보는 상담 목적으로만 안전하게 사용됩니다.