윤영헌 profile image

윤영헌

🖥️ developer

Dongguk Univ · scsc & biz

Open Labs · 2025 ~

안녕하세요! 개발자 윤영헌입니다. 융합소프트웨어와 경영학을 전공했습니다. 비즈니스, 기술적 관점에서 변화에 유연한 소프트웨어 설계를 고민합니다. e-mail: iddyoon@gmail.com

Agntic AI 솔루션 검증 POC 프로젝트 - 독서커뮤니티 "독파민"

🪄 프로젝트 소개

해당 프로젝트는 자사 Agentic AI 솔루션의 성능과 완성도를 검증하기 위해 진행한 백엔드 애플리케이션 POC예요.
자사 솔루션은 사용자가 유즈케이스 단위로 요구사항 리스트를 입력해서 백엔드 애플리케이션을 생성하는 Agentic AI 기반 솔루션이에요.

자사 솔루션을 활용해 독서 커뮤니티 백엔드 애플리케이션을 생성하고, 실제로 어느 수준까지 구현되는지 PRD와 유즈케이스 기준으로 점검하는 것이 목표였어요.

구현한 애플리케이션은 "독서 커뮤니티 플랫폼"이에요. 해당 서비스의 요구사항은 다음과 같아요.

  1. 국립 중앙 도서관에서 공개되어있는 390만건의 도서 데이터 기반 "도서 검색 기능"
  2. 독서 리뷰 커뮤니티 기능
  3. 자신이 읽은 책을 관리하는 "내 서재" 기능
    • 연/월간 독서 통계
    • 자신의 독서 취향 분석 기능 제공
  4. 관리자의 "게시글" 관리

진행은 4주 동안 이어졌어요.

  • 1주차에는 개발 관점에서 사용자 유즈케이스와 PRD를 다시 정의했고,
  • 2주차에는 솔루션으로 생성된 백엔드 애플리케이션을 분석하며 PRD 대비 구현 수준과 최적화 포인트를 측정했어요.
  • 3~4주차에는 유즈케이스 단위 검수와 추가 개발을 진행하면서, 테스트 운영 환경과 배포 파이프라인까지 구현했어요.
  • 추가 개발 과정에서는 AI를 통해 개발 프로세스를 시스템으로 만들어 생산성을 높였어요.

🛠️ 기술 스택

구분기술
BackendSpring Boot, Spring Batch, OpenSearch
Frontend-
InfraNginx, Docker, Docker-compose, Jenkins, PostgreSQL

✨ 주요 기능

  • 390만 건의 공공 도서 데이터를 기반으로 한 도서 검색 기능
  • 독서 감상 게시판 생성, 조회, 수정, 삭제 기능
  • 관리자의 게시글 관리 기능
  • 대용량 도서 데이터 적재를 위한 배치 처리 및 검색 인프라 구성
  • 운영 환경에서 실행 가능한 백엔드 빌드·배포 파이프라인 구축

💼 담당한 일

저는 해당 프로젝트에서 백엔드 애플리케이션 생성 결과를 검증하고, 운영 가능한 환경으로 다듬는 역할을 맡았어요.

  • 개발 관점에서 사용자 유즈케이스와 PRD를 재정의했어요.
  • 자사 솔루션으로 생성된 백엔드 애플리케이션을 분석하며, PRD 대비 구현 수준과 최적화 포인트를 측정했어요.
  • AI를 활용해 유즈케이스 단위 코드 리뷰, 데이터 시딩, curl 기반 런타임 테스트를 자동화했어요.
  • 검수 과정에서의 의사결정을 PRD.md, TODO.md, 주제별 문서(Opensearch.md, Batch.md 등)로 정리했어요.
    • 고객사가 해당 서비스를 운영할 때 참조해야 할 내용을 전부 문서화했어요.
    • AI가 해당 문서를 통해 유지보수할 수 있도록, 해당 문서를 활용한 개발 가이드를 에이전트 설정 및 가이드 문서에 명시했어요.
  • 생성된 백엔드 애플리케이션의 아키텍처 구조와 PRD 기준 기능 측정 결과를 문서로 정리해, 산출물 자체를 검토 가능한 형태로 만들었어요.
  • Nginx 정적 파일 서버, Spring Batch 배치, OpenSearch 검색 엔진, Jenkins 배포 파이프라인까지 포함한 테스트 운영 환경을 구축했어요.

🧩 해결했던 과제

해당 프로젝트에서 가장 중요했던 과제는 생성된 애플리케이션이 실제로 유즈케이스를 얼마나 충족하는지 객관적으로 검증하는 것이었어요.

이 문제를 해결하기 위해 AI를 단순 보조 도구가 아니라, 검수와 추가 개발을 위한 업무 시스템처럼 활용했어요.

  1. 먼저 유즈케이스 단위로 검수 기준을 나눠, AI가 어떤 조건을 만족해야 하는지 판단할 수 있는 기준 입력값을 만들었어요.
  2. 그다음 AI가 해당 기준을 바탕으로 코드 리뷰를 수행하면서, 누락된 구현과 보완 포인트를 먼저 점검하도록 했어요.
  3. 이후 각 유즈케이스를 충족하는 데이터 시딩과 curl 기반 런타임 테스트를 AI와 함께 반복하면서, 코드 수준이 아니라 실제 동작 기준으로 검증했어요.
  4. 검토와 테스트 과정에서 필요한 인증/인가, 검색엔진, 배치, 외부 인프라 같은 영역은 문서로 관리하고, AI가 사전에 정의한 프로그래밍 정책과 이 문서를 함께 참고하며 다음 작업을 판단하고 보완하도록 설계했어요. 개발자는 방향과 기준을 관리하고 AI는 그 안에서 AGILE하게 개발을 이어가도록 만들었어요.
  5. 마지막으로 검수 과정에서 나온 의사결정과 트레이드오프는 TODO.md 문서에 계속 누적해, 유지 보수 및 운영 환경에서 문제가 발생했을 때 추적 가능한 기록으로 남겼어요.

즉 해당 프로젝트에서는 AI를 통해 검수, 테스트, 문서화, 추가 개발 흐름을 하나의 프로세스로 연결했고, 그 결과 생성 결과를 단순 데모가 아니라 평가 가능한 산출물로 다듬을 수 있었어요.


📝 회고

해당 프로젝트에서는 자사 솔루션 검증과는 별개로, 물론 큰 규모의 SI는 아니지만 시니어 개발자의 가이드를 받아 사실상 혼자 SI 프로젝트를 수행하는 경험을 했어요. 짧은 기간 안에 빠른 생산성을 내야 했기 때문에, AI 도구를 단순 보조 수단이 아니라 실제 업무 프로세스를 자동화하는 도구로 활용했어요.

특히 AI가 임의로 작업하지 않도록 사전에 정의한 프로그래밍 정책을 따르게 제한했고, 인증/인가, 검색엔진, 배치 같은 도메인별·기능별 작업 내용을 모두 문서화해 관리했어요. 또한 AI가 그 문서를 참고해 유지보수와 추가 개발을 이어갈 수 있도록, 문서 자체를 작업 환경의 일부로 설계했어요.

이 경험을 통해 개발자의 역할은 단순히 직접 구현하는 것에만 있지 않고, Agent가 안정적으로 작업할 수 있는 환경과 기준을 어떻게 구성할 것인가까지 포함된다는 점을 많이 고민하게 되었어요. 결국 AI의 생산성을 높이는 핵심은 모델 성능 자체보다도, 정책, 문서, 검수 기준, 작업 흐름을 얼마나 구조적으로 설계하느냐에 있다는 점을 배웠어요.