목차
컨테스트 크기, 컨텍스트 길이란?
Chat Gpt, Gemini와 같은 대화형 AI 성능을 소개할 때 빠지지 않는 스펙 중 하나로
컨테스트 크기/창(Context Size, Context window), 컨텍스트 길이(context length)가 있습니다.

컨테스트 크기/창과 컨텍스트 길이 모두 동일한 개념으로
AI 모델이 한 번에 기억하고 처리할 수 있는 정보의 총량, 쉽게 말하면
작업대, 책상의 크기라 볼 수 있습니다.
AI는 이 작업대에서 사용자가 입력하는 질문(프롬프트), 채팅창에서 했던 이전 대화 내용, 업로드한 파일(첨부한 이미지, PDF 문서 등)
등을 펼쳐 놓고 생각해 답을 만들 수 있는지를 결정하는 핵심적인 스펙입니다.
토큰(Token)이란?
길이를 센티미터(Cm), 무게를 킬로그램(Kg)으로 재는 것처럼, AI가 한 번에 처리할 수 있는 정보의 양, 즉 컨텍스트 용량(Context Size)은 토큰(Token)으로 측정됩니다.
구글(Google)의 AI 제미나이(Gemini)의 컨테스트 용량, 토큰은 다음과 같습니다.
Gemini 무료 사용자 컨텍스트 용량 | 32,000 토큰(Token) |
Gemini AI Pro, 유료 사용자 컨테스트 용량 | 1백만 토큰(Token) |
1백만 토큰은 1,500 페이지 분량의 문서를 이해할 수 있는 방대한 정보를 한 번에 처리 할 수 있게 설계되어 있습니다.
컨테스트 크기, 용량이 크면 장점은?
컨테스트 크기, 길이의 용량이 크면 클 수록 다음과 같은 장점이 있습니다.
긴 대화 기억
여러 번에 걸쳐 길게 이어진 대화의 맥락을 놓치지 않고 이해할 수 있습니다.
대용량 문서 처리
긴 보고서, 논문, 책 한 권에 가까운 분량의 텍스트를 한 번에 분석하고 요약하거나 질문에 답할 수 있습니다.
복잡한 코드 이해
수만 라인에 달하는 코드 전체를 이해하고 분석하거나 디버깅하는 데 도움을 줄 수 있습니다.
컨텍스트, 토큰 용량을 한계까지 사용하면 어떻게 되나요?

앞서 컨테스트 용량을 AI의 작업대로 비유했는데 많은 대화로 채팅과 자료가 누적돼, 컨텍스트 용량이 한계에 달하게 되면 가장 오래된 대화 내용부터 순차적으로 삭제하거나 무시합니다.
이러한 특성 때문에 긴 대화를 나누다 보면 AI가 대화 초반에 했던 이야기나 중요한 정보를 잊어버리고 엉뚱한 답변을 하는 경우가 생길 수 있습니다.
AI의 컨텍스트 용량을 늘리는 방법은?

Open AI의 GPT5, Googledml Gemini 2.5와 같이 인터넷 연결이 필수적인 클라우드 AI는 매월 청구되는 유료 결제 서비스에 가입하여 용량을 늘릴 수 있습니다.
개인용 컴퓨터에 라마(LLaMA), 딥시크(DeepSeek)와 같은 AI를 직접 설치해 구동하는 ‘로컬 AI’는
사용자가 AI프로그램을 직접 개조하고 그래픽카드 VRAM 용량을 증설, 업그레이드 하는 것으로 가능하지만
로컬 AI의 입문 난이도가 높고 이를 구동하기 위한 컴퓨터의 기본 스펙도 최신 고사양을 요구해
클라우드 AI의 월 이용료보다 훨씬 많은 비용을 필요로 합니다.