강연은 대규모 언어 모델(LLM)의 응답 특성을 제어하는 프롬프트 엔지니어링의 핵심 파라미터인 ‘Temperature’, ‘Top K’, ‘Top P’를 설명하며 시작합니다. 이 파라미터들은 LLM의 단어 선택 방식과 창의성에 영향을 미칩니다. 이어서 LLM이 외부 데이터를 활용하여 답변의 정확성과 맥락을 강화하는 ‘검색 증강 생성(RAG)’ 개념을 소개합니다. RAG는 벡터화된 외부 데이터베이스를 LLM에 연결하여 특정 사용 사례에 맞는 정보를 제공하는 방식입니다.
강연의 주요 내용인 ‘모델 컨텍스트 프로토콜(MCP)’은 LLM과 외부 애플리케이션 간의 상호작용을 위한 통합 표준 프로토콜로 제시됩니다. 이는 LLM이 외부 서비스의 기능을 호출하거나 데이터를 조회할 수 있도록 ‘도구’, ‘리소스’, ‘프롬프트’와 같은 ‘역량’을 노출하는 API 표준과 유사하며, ‘LLM의 USB-C’로 비유됩니다. 통신은 표준 I/O 또는 HTTP를 통해 JSON/RPC 형식으로 이루어집니다.
라이브 코딩 시연에서는 Ruby 언어와 fast_mcp
라이브러리를 사용하여 간단한 쇼핑 앱을 MCP 서버로 구축하고, 이를 Claude AI 데스크톱 클라이언트와 연동하는 과정을 보여줍니다. AI는 자연어 명령을 받아 Ruby 앱의 상품 목록 조회, 장바구니 추가, 가격 계산 등의 기능을 실행하며, 다른 MCP 서버의 프로모션 정보까지 연동하여 최종 할인 가격을 계산합니다. 이는 MCP가 기존 애플리케이션을 AI와 쉽게 통합할 수 있는 강력한 방법임을 실증하며, LLM 생태계의 새로운 표준으로서의 잠재력을 시사합니다.