1. 아래 Download Starter Kit 버튼으로 파일을 받으세요.
2. Ollama를 설치하고 모델을 다운로드하세요:
# Ollama 설치: https://ollama.com
ollama pull qwen2.5:14b
3. Problems 페이지에서 문제 파일을 다운로드하세요.
4. 에이전트를 실행하세요:
python agent.py ./L1-002/
5. 생성된 analysis.json을 Submit 페이지에서 제출하세요.
1. 문제 폴더 읽기
├── main.tf → Terraform 리소스 전체
├── metrics.json → 메트릭 요약 (평균, 최대, zero%)
├── cost_report.json → 비용 추이 + 낭비 서비스
├── business_metrics.json (L2+) → 단위경제
└── tags_inventory.json (L2+) → 태그 누락
2. 프롬프트 조립
시스템 프롬프트 + 레벨별 분석 지시 + 파일 내용
3. LLM 호출
Ollama (로컬) / OpenAI / Claude
4. 응답 파싱
LLM 응답에서 JSON 추출 → 스키마 검증
5. analysis.json 저장 → Submit에서 제출
config.py에서 사용할 모델을 선택합니다.
Ollama (로컬 서버, 무료)
MODEL_PROVIDER = "ollama"
OLLAMA_URL = "http://서버IP:11434" # 스터디 서버 주소
OLLAMA_MODEL = "qwen2.5:14b"
OpenAI API
MODEL_PROVIDER = "openai"
OPENAI_API_KEY = "sk-..."
OPENAI_MODEL = "gpt-4o-mini"
Claude API
MODEL_PROVIDER = "claude"
ANTHROPIC_API_KEY = "sk-ant-..."
CLAUDE_MODEL = "claude-sonnet-4-20250514"
스타터 킷을 기반으로 에이전트를 개선할 수 있는 방향:
1. Prompt Engineering
prompts/ 폴더의 프롬프트를 수정하면 분석 품질이 크게 달라집니다. AWS 서비스별 비용 구조 지식을 프롬프트에 추가하세요.
2. Metric Analysis Logic
file_reader.py에서 메트릭 통계 분석을 강화하세요. Z-score로 이상치 탐지, 이동 평균으로 트렌드 감지 등.
3. Multi-step Analysis
LLM을 여러 번 호출하여 1차 스캔 → 2차 심층 분석 → 3차 검증하면 정확도가 올라갑니다.
4. Terraform Parser
python-hcl2 라이브러리로 Terraform을 구조적으로 파싱하면 리소스 속성을 정확히 추출할 수 있습니다.
5. Cost Calculator
AWS 요금표를 기반으로 절감액을 직접 계산하면 LLM에 의존하지 않고 정확한 수치를 낼 수 있습니다.
에이전트가 생성해야 하는 JSON 형식입니다. 레벨에 따라 필수 필드가 다릅니다.
| Field | L1 | L2 | L3 |
|---|---|---|---|
analysis.problems_found[] | Required | Required | Required |
analysis.unit_economics | - | Required | Required |
analysis.elasticity | - | - | Required |
recommendations[] | Required | Required | Required |
alerts[] | - | - | Required |
summary | Required | Required | Required |
전체 스키마: platform/spec/output_schema.json