Full Context Magic - AI가 마침내 당신의 프로젝트 전체를 이해할 때

이 글은 cyberchitta 블로그중 일부를 번역했습니다.

소개

프로젝트 구조를 설명하거나, 아키텍처를 명확히 하거나, 끝없이 코드 조각을 붙여넣을 필요가 없는 코딩 세션을 상상해보세요. AI 어시스턴트가 코드베이스의 뉘앙스를 즉시 이해하고 실제 문제를 해결하는 데 전적으로 집중할 수 있는 곳입니다. 이것은 개발자의 꿈이 아니라 현실이 llm-context만들어내는 것입니다.

이 문서에서는 기존 프로젝트에 실제로 적용하는 방법을 보여주며 llm-context, Project UI와 MCP 서버 둘 다에서 Claude Desktop을 사용하는 @restlessronin의 선호하는 워크플로에 초점을 맞춥니다. 이 접근 방식이 구체적이고 실제적인 예를 통해 디버깅 세션, 기능 개발 및 API 통합 과제를 어떻게 변환하는지 살펴보겠습니다.

llm-context 시작하기 이 가이드에서는 프로젝트에 llm-context를 이미 설치하고 초기화했다고 가정합니다. 그렇지 않은 경우 설치 지침은 프로젝트 README를 참조하세요.

협력적 개발을 다시 구상하다 전체 맥락 접근 방식은 개발자와 AI 간의 상호작용을 전통적인 보조자 상호작용에서 지식이 풍부한 동료와 함께 프로그래밍하는 것에 더 가깝게 전환합니다.

포괄적인 코드베이스 이해를 바탕으로 양측은 각자의 강점을 제공합니다. 즉, 귀하는 창의적인 방향과 도메인 전문 지식을 제공하고, 저는 구현 세부 사항과 패턴 인식을 처리합니다. 이 모든 것이 지속적인 컨텍스트 설정의 마찰 없이 이루어집니다.

좌절에서 흐름으로: 실제 세계의 예 AI 지원 개발을 전체 컨텍스트가 어떻게 변환하는지 보여주는 일반적인 시나리오를 고려해 보겠습니다. 이 예는 이 기사의 후반부에서 강조하는 실제 개발 대화 중 하나에서 발췌한 것입니다.

당신: [URL 매개변수 인코딩에 대한 오류 메시지 붙여넣기]

저: 문제가 보입니다. 문제는 쿼리 매개변수에 목록 값이 있는 URL을 빌드하려고 할 때 발생합니다. 현재 구현은 매개변수 OpenaiEx.Http.build_url/2에 대한 목록을 제대로 처리하지 못합니다 include.

[코드 구현을 통한 자세한 솔루션 제공으로 직접 진행]

전체 맥락이 없다면 같은 상호 작용에는 다음이 필요했을 것입니다.

OpenAI API 클라이언트의 전체 구조 설명 매개변수가 처리되는 방식을 보여주기 위해 여러 파일을 공유합니다. 애플리케이션에서 HTTP 요청/응답 흐름 명확히 하기 특정 데이터 유형을 처리하기 위한 여러 교환 내 솔루션이 귀하의 코딩 스타일과 패턴과 일치하는지 확인하기 위해 여러 번 반복했습니다. 대신, 저는 즉시 이해한 대로 문제 해결에 바로 들어갔습니다.

HTTP 클라이언트의 아키텍처 매개변수 인코딩이 처리되는 방식 목록 매개변수의 특정 문제 함수형 프로그래밍 접근 방식에 대한 선호도 이것이 바로 완전한 맥락의 마법입니다. 일반적으로 AI 지원 시간의 상당 부분을 차지하는 지루한 기초 작업을 없애고, 당면한 실제 문제를 해결하는 데만 집중할 수 있게 해줍니다.

이 글의 뒷부분에서 이 대화와 다른 실제 대화를 더 자세히 살펴보고, 이 접근 방식이 AI 지원 개발을 어떻게 변화시키는지 알아보겠습니다.

Claude의 프로젝트 UI에 콘텐츠 추가 Claude Desktop을 열고 Project Knowledge 패널을 찾습니다. 생성된 콘텐츠를 두 섹션에 붙여넣어야 합니다.

출력을 lc-prompt위쪽 프롬프트 섹션에 붙여넣습니다. lc-context아래 컨텍스트 섹션에 출력을 붙여넣으세요. llm-context를 사용한 Claude 프로젝트 UI

이러한 설정을 통해 대화를 시작하기 전에 귀하의 코드베이스에 대한 포괄적인 지식을 얻을 수 있습니다.

동적 코드 액세스를 위한 MCP 서버로 강화 프로젝트 UI가 초기 컨텍스트를 제공하는 반면, 선호하는 워크플로는 대화 중에 동적 코드 액세스를 위해 이를 모델 컨텍스트 프로토콜(MCP)과 결합합니다.

이 하이브리드 접근 방식은 두 가지의 장점을 모두 제공합니다.

포괄적인 프로젝트 개요 : 프로젝트 UI는 내 메모리(지속형 KV 캐시)에 코드베이스 구조를 저장하여 프로젝트의 아키텍처 및 구현 세부 정보에 효율적으로 액세스할 수 있도록 합니다. 개발 중의 적응형 컨텍스트 : MCP 통합을 통해 수동 파일 공유 없이도 대화가 진행됨에 따라 특정 파일을 동적으로 요청하고 최신 변경 사항을 확인할 수 있습니다. 이 워크플로는 논의 내용과 어떤 파일이 관련이 있는지 미리 알 수 없는 복잡한 프로젝트에 특히 유용합니다.

MCP 통합은 Claude Desktop에서 작동하며, 서버 연결을 자동으로 처리하고 웹 인터페이스를 통해 Claude를 사용할 때는 사용할 수 없다는 점에 유의하는 것이 중요합니다. MCP 설정 및 사용에 대한 자세한 내용은 프로젝트 README를 참조하세요 .

전체 맥락의 마법 이제 설정을 이해했으니 실제로 어떻게 작동하는지 살펴보겠습니다. 다음의 실제 사례는 이러한 상황 인식이 어떻게 우리의 상호작용을 단편적인 설명에서 유동적인 협업으로 바꾸는지 보여줍니다.

실제 세계의 예 이러한 예는 최근 개발 작업에서 발췌한 것입니다. 특별히 선택된 쇼케이스가 아니라, 문맥 인식 지원의 자연스러운 효율성을 보여주는 일상적인 문제 해결 대화입니다.

버그 수정 예 : 규칙 파일 덮어쓰기 문제

문제 : 새 프로필을 생성할 때 규칙 파일이 덮어쓰여져 예상치 못한 구성 손실이 발생했습니다. 해결책copy_rule : 기존 파일의 불필요한 덮어쓰기를 방지하기 위한 검사를 추가하여 함수 의 논리적 오류를 수정했습니다. 영향 : 기본 프로필에서 상속하는 기능을 유지하면서 사용자 정의를 보존합니다. 결과 커밋 보기 기능 개발 : 정규식 검색 기능 추가

문제 : 단순한 텍스트 일치를 넘어 웹 콘텐츠 전반에서 패턴을 찾는 유연한 방법이 필요했습니다. 솔루션 : 컨텍스트 캡처를 통한 정규식 패턴 추출에 ​​대한 함수형 프로그래밍 접근 방식 구현 영향 : 복잡한 웹 페이지에서 정확한 정보 검색이 가능해지고 동시에 깔끔한 코드 아키텍처를 유지할 수 있음 결과 커밋 보기 API 통합 : HTTP 매개변수 처리

문제 : OpenAI API 클라이언트가 쿼리 문자열에서 목록 매개변수를 보내는 중 실패하여 요청이 실패했습니다. 솔루션 : Elixir의 기능적 접근 방식을 사용하여 목록 매개변수를 적절하게 인코딩하도록 URL 빌더를 향상시켰습니다. 영향 : 목록 매개변수가 필요한 OpenAI의 최신 API 엔드포인트와의 원활한 통합이 가능해졌습니다. 결과 커밋 보기 이러한 대화에서 우리가 문제 식별에서 솔루션으로 얼마나 빨리 이동하는지 볼 수 있습니다. 예를 들어, 첫 번째 예에서 코드베이스가 작동하는 방식에 대한 설명이 필요 없이 특정 함수에서 문제를 즉시 찾습니다. 기능 개발 예에서 우리의 논의는 기본 구현에서 세련된 함수형 프로그래밍 접근 방식으로 빠르게 진화합니다. API 통합 예는 클라이언트 아키텍처에 대한 긴 설명 없이 OpenAI의 API 매개변수 인코딩으로 복잡한 문제를 해결하는 방법을 보여줍니다.

새로운 대화가 시작될 때마다 컨텍스트를 재생성하여 내가 최신 버전의 코드를 가지고 있는지 확인하는 것을 잊지 마세요. 프롬프트는 일반적으로 대화 간에 크게 바뀌지 않습니다.

llm-context는 컨텍스트 공유 프로세스를 간소화하여 AI 지원 개발의 주요 마찰 요소를 제거하여 문제를 설명하는 것보다 문제 해결에 집중할 수 있도록 해줍니다.

참고자료

← Previous
LLM 컨텍스트 - 개발을 위한 Vanilla AI 채팅 활용
Next →
Carla 0.10.0 Windows build