VS Code에서 Codex 로딩 속도를 획기적으로 줄이는 5가지 방법
페이지 정보
본문

(*경험상 인터넷 속도가 가장 큰 원인인 것 같습니다.
두번째는 아래 글에서도 나오지만 로컬 소스를 가지고 하면 빠른데 유독 ssh 리모트 서버 연결을 하고 작업을 하면 로딩이 길어집니다.
혹은 ssh remote 연결이 끊기지는 않았는지 확인해보세요.
또는 노트북 대기모드로 했을 때 디스플레이만 끄는게 아니라 절전모드로 들어가면 원격 연결이 끊겨서 codex가 원격에 있는 소스를 읽지 못해서 계속 로딩중인 경우가 있습니다.)
VS Code에서 AI를 활용해 코딩할 때 Codex 로딩이 유독 길어지는 현상은 개발 흐름을 끊는 큰 방해 요소입니다. 왜 이런 지연이 발생하는지 이해하고, 환경을 최적화하여 생산성을 높이는 핵심 로드맵을 제안해 드립니다.
AI 요약
VS Code의 Codex 로딩 지연은 주로 과도한 파일 컨텍스트 분석, Windows 파일 시스템의 한계, 혹은 무거운 AI 모델 선택 때문에 발생합니다. 이를 해결하려면 node_modules 와 같은 대용량 폴더를 감시 대상에서 제외하고, Windows 환경이라면 WSL2를 사용하는 것이 효과적입니다. 또한, 가벼운 모델로 교체하거나 로컬 캐시를 초기화하면 응답 속도를 크게 개선할 수 있습니다.
왜 VS Code에서 Codex 로딩이 느려질까?
Codex는 정확한 제안을 위해 현재 작성 중인 코드를 분석합니다. 하지만 몇 가지 기술적 요인이 이 과정을 느리게 만듭니다.
과도한 워크스페이스 컨텍스트
Codex는 프로젝트 전체의 맥락을 읽으려 합니다. 만약 워크스페이스에 수만 개의 파일이 포함되어 있다면, 확장 프로그램이 이를 인덱싱하는 데 엄청난 CPU와 메모리 자원을 소모하게 되며, 이것이 Codex 로딩의 병목 현상으로 이어집니다.
운영체제 호환성 이슈
대부분의 AI 에이전트와 도구들은 유닉스(Unix) 기반 환경에 최적화되어 있습니다. Windows 사용자의 경우 파일 경로 처리 방식이나 쉘 실행 속도 차이로 인해 상대적으로 더 큰 지연을 경험할 수 있습니다.
Codex 로딩 시간을 줄이는 방법
AI 비서가 즉각적으로 응답하게 하려면 다음 전략들을 적용해 보세요.
1. 워크스페이스 인덱싱 최적화
가장 확실한 방법은 AI가 읽어야 할 데이터 양을 줄이는 것입니다.
-
설정( Ctrl + , )을 엽니다.
-
Files: Watcher Exclude 를 검색합니다.
-
/node_modules/ , /dist/ , /build/ 패턴을 추가하여 불필요한 분석을 차단하세요.
2. WSL2 환경 활용 (Windows 사용자 필수)
실제 테스트 결과, WSL2(Linux용 Windows 하위 시스템) 환경에서 VS Code를 실행하면 AI 응답 속도가 약 40~50% 향상됩니다. 파일 시스템 접근 속도가 리눅스 네이티브 수준으로 빨라지기 때문입니다. 자세한 설정법은 마이크로소프트 공식 WSL 문서에서 확인할 수 있습니다.
3. 모델 및 추론 설정 조정
모든 작업에 가장 무거운 모델을 쓸 필요는 없습니다.
-
가벼운 모델 선택: 간단한 코드 수정은 gpt-4o-mini 를 사용하고, 복잡한 설계 작업에만 상위 모델을 할당하세요.
-
추론 강도 낮추기: 설정에서 Reasoning Effort를 'Low'로 맞추면 깊은 분석보다는 빠른 응답에 우선순위를 둡니다.
4. 로컬 캐시 및 인증 초기화
설정 파일이 꼬여서 무한 로딩이 발생할 때는 초기화가 답입니다.
-
사용자 폴더 내의 .codex 폴더로 이동합니다.
-
config.toml 이나 auth.json 파일을 삭제합니다.
-
VS Code를 재시작하고 다시 로그인합니다.
최적화 방법별 비교
| 방법 | 속도 향상 효과 | 난이도 | 추천 대상 |
| 폴더 제외 설정 | 높음 | 낮음 | 모든 프로젝트 |
| WSL2 환경 구축 | 매우 높음 | 보통 | Windows 사용자 |
| 모델 교체 | 보통 | 낮음 | 일상적인 코딩 |
| 캐시 초기화 | 보통 | 보통 | 오류 발생 시 |
주의사항 및 한계
이러한 최적화에도 불구하고 Codex 로딩 속도는 인터넷 연결 상태와 OpenAI 서버의 부하에 영향을 받습니다. 서버 자체에 트래픽이 몰리는 시간대에는 로컬 최적화의 효과가 제한적일 수 있습니다. 또한, 너무 많은 파일을 인덱싱에서 제외하면 AI가 프로젝트의 전체 구조를 파악하지 못해 답변의 정확도가 약간 떨어질 수 있다는 점을 유의해야 합니다.
결론
느린 AI 비서는 도움보다 방해가 될 때가 많습니다. 워크스페이스 컨텍스트를 관리하고, Windows 환경이라면 WSL2를 도입하며, 상황에 맞는 모델을 선택하는 것만으로도 대부분의 로딩 문제를 해결할 수 있습니다. 지금 바로 node_modules 폴더 제외 설정부터 시작해 보세요!
Q&A (자주 묻는 질문)
왜 Codex 로딩이 무한 반복되나요?
보통 인증 토큰 오류나 용량이 너무 큰 심볼릭 링크 폴더를 읽으려 할 때 발생합니다. .codex 폴더 삭제 후 재로그인을 시도해 보세요.
WSL2를 쓰면 정말 빨라지나요?
네, Codex가 수많은 작은 파일을 읽어 들이는 속도가 Windows 기본 파일 시스템(NTFS)보다 WSL2의 리눅스 파일 시스템에서 훨씬 빠르기 때문입니다.
로딩을 없애기 위해 오프라인으로 쓸 수 있나요?
대부분의 기능은 OpenAI 서버와 통신해야 하므로 인터넷 연결이 필수입니다. 다만 'Local Agent' 모드를 활성화하면 통신 오버헤드를 일부 줄일 수 있습니다.