최근 AI 에이전트(Agent)·대형 언어 모델(LLM)의 도입이 개발 생산성과 효율성을 획기적으로 높이면서, 채용 시장에서도 ‘AI를 어떻게 활용할 것인가’ 가 중요한 평가 항목으로 자리 잡았다. 신입·경력 개발자 모두 AI 도구를 단순히 사용해본 경험을 넘어, 어떤 개념을 이해하고, 어떤 프로젝트에 적용했으며, 실제 업무에서 어떻게 활용할 것인지를 명확히 어필해야 한다.
이 글에서는 다음 네 가지 관점에서 면접 준비용 자기 PR 포인트를 정리했다.
- AI 용어·개념 이해도
- AI 서비스 종류 및 개념 이해
- AI 서비스 활용 경험
- AI Agent를 활용한 개발 실무 능력
각 섹션마다 핵심 개념 보강, 세부 내용 추가, 예상 질문 및 샘플 답변을 제시했다.
1. AI 용어·개념 이해도 평가
면접관은 AI의 근간이 되는 핵심 원리를 이해하고 있는지 확인한다.
1.1 LLM과 파생 개념
- LLM(대형 언어 모델)
- 수십억~수천억 개 파라미터, 대규모 텍스트 코퍼스를 사전 학습
- 토큰 기반 확률 분포 추정 방식
- SLLM(소형 언어 모델)/DistilGPT/TinyLM
- 파라미터 수 축소, 증류(knowledge distillation) 기법으로 경량화
- 온디바이스·엣지 추론에 적합
- Instruction-tuned LLM
- 사람-피드백(RLHF)을 통한 지시문 최적화 버전(GPT-3.5-turbo 등)
예상 질문
1.2 트랜스포머(Transformer)
- Self-Attention
- 입력 토큰 간 유사도(어텐션 가중치)를 계산해 문맥 반영
- 인코더-디코더 구조
- BERT(인코더만), GPT(디코더만) 아키텍처 차이
- 위치 인코딩(Positional Encoding)
- 순서 정보 부여 방법(사인·코사인 함수 등)
예상 질문
1.3 RAG vs AGI
- RAG(Retrieval-Augmented Generation)
- Vector DB(Pinecone·Weaviate)에 인덱스된 문서 검색 후 LLM에 컨텍스트로 제공
- 최신·도메인 지식 보강
- AGI(Artificial General Intelligence)
- 인간 수준의 범용 지능을 목표로 하나, 현시점은 Narrow AI 수준
예상 질문
1.4 추론(Inference)
- 서버 사이드 vs 온디바이스
- 서버: GPU 활용, 대규모 모델 추론 가능
- 온디바이스: 저지연, 자율성 보장
- 배치 추론(Batch) vs 실시간 추론(Streaming)
- 배치: 처리량(throughput) 최적화
- 실시간: 응답 지연(latency) 최소화
- 모델 경량화 기법
- 양자화(Quantization), 지식 증류, LoRA(저랭크 어댑테이션)
2. AI 서비스 종류 및 개념 이해
시장에서 사용되는 다양한 AI 도구·서비스를 파악하고 있다는 점을 어필한다.
2.1 대화형 AI 서비스
- ChatGPT(OpenAI)
- Gemini(Google)
- Claude(Anthropic)
- Perplexity(Research AI)
- Copilot(GitHub)
- Grok(X)
각 서비스의 사용 사례, 토큰 요금, 제약사항 등을 간단히 비교해두면 좋다.
2.2 생성형 AI 모델·서비스
- 이미지 생성
- DALL·E 2, Stable Diffusion, Midjourney
- 비디오 생성
- RunwayML, Pika Labs, Sora
- 음성 생성·변환
- AWS Polly, Google Wavenet, ElevenLabs, VITS 계열
2.3 기타 AI 서비스
- 코드 자동 완성·리팩토링
- Tabnine, Codeium
- 문서 요약·분석
- SummarizeBot, Notion AI
- 데이터 라벨링
- Labelbox, Supervisely
예상 질문
3. AI 서비스 활용 경험
구조화된 프로젝트 경험을 보여주는 것이 핵심이다.
3.1 LLM 로컬 구축 경험
- 모델 선택 및 배포
- llama.cpp, GPT4All, Hugging Face Transformers
- 인프라
- Docker Compose, Kubernetes(GPU 클러스터), NVIDIA Docker, ONNX Runtime
3.2 RAG 파이프라인 구성
- 벡터 DB: Pinecone, Weaviate, Qdrant
- 임베딩 생성: OpenAI Embeddings API, SentenceTransformers
- 검색·생성 연동: FastAPI + LangChain
3.3 API 연동 경험
- OpenAI GPT, Claude, Gemini
- 토큰 관리 및 비용 최적화(토큰 길이 제한, temperature 조정)
- 재시도 로직, 로깅, 예외 처리 구조 설계
3.4 MCP 서버 연동 및 커스텀 Agent
- LangChain, LlamaIndex 기반 챗봇 개발
- 서버리스: AWS Lambda, Google Cloud Functions
- 웹훅·EventBridge 연동 예제
예상 질문
4. AI Agent를 활용한 개발 실무 능력
단순 호출을 넘어 워크플로우 자동화·다중 단계 작업 처리 역량 강조.
4.1 AI Ask vs Edit vs Agent
- Ask: 단건 질문·응답
- Edit: 주어진 텍스트·코드 수정
- Agent: 여러 툴(API, 데이터베이스 등) 연동한 복합 작업 자동화
4.2 프롬프트 엔지니어링 흐름
- 문제 정의
- 컨텍스트 설계 (예시·제약조건 포함)
- 반복 튜닝 (Chain-of-Thought, 함수 호출 활용)
- 유효성 검증 (Unit Test, 샘플 케이스)
4.3 실무 적용 사례
- CI/CD 파이프라인 내 AI 검사
- 코드 스타일·보안 취약점 자동 검출
- 테스트 케이스 자동 생성
- GPT 기반 Unit Test 스크립트 생성 후 GitHub Actions에서 실행
예상 질문
결론
AI 활용 역량은 단순한 도구 사용 경험을 넘어 핵심 개념 이해, 다양한 서비스 비교, 프로덕션 수준의 파이프라인 구축 경험, 에이전트 설계 능력을 종합적으로 어필할 때 차별화된다. 이 글의 각 항목별 예상 질문과 샘플 답변을 바탕으로, 자신의 경험과 프로젝트 사례를 구체적으로 채워 넣으면, 면접관에게 탄탄한 AI 역량을 효과적으로 전달할 수 있을 것이다.
성공적인 채용 준비를 기원한다.