Gemma 4를 로컬에서 돌려봤다 — 8B 모델이 함수 호출까지 해내는 시대
Google이 Apache 2.0으로 공개한 Gemma 4를 Ollama로 직접 설치해 한국어, 구조화 출력, 함수 호출까지 테스트했다. 9.6GB짜리 로컬 모델이 에이전트 파이프라인의 빌딩 블록이 될 수 있을까?
A comprehensive technical blog dedicated to artificial intelligence, automation, and developer productivity. We explore cutting-edge AI technologies like Claude Code, MCP, and workflow optimization.
Explore our latest insights on AI, automation, and development efficiency