GitHub Второй пилот не имеет фиксированного жёсткого лимита на весь репозиторий исходников — он использует RAG (retrieval-augmented generation): ищет релевантные файлы/фрагменты по всему workspace или репозиторию и добавляет их в контекст запроса. Однако базовая модель (в зависимости от выбранной, например GPT-4o, Claude или другие) имеет контекстное окно обычно 128k токенов (на 2025–2026 год), иногда 64k–128k в зависимости от версии и IDE.
Один токен ≈ 3–4 символа или 0.75–1 слово.
В коде средняя строка ≈ 10–20 токенов (с учётом отступов, комментариев).
Таким образом, 128k токенов ≈ 6000–12 000 строк кода (грубо, в зависимости от языка и плотности кода). Для нескольких файлов это может быть 5–20 файлов целиком + текущий файл.
Для простых completions контекст меньше (раньше 8k), но в Copilot Chat и с
@workspace
— до 128k. Объём сильно зависит от выбранной модели (Copilot позволяет переключать между GPT, Claude, Gemini и т.д., у которых разные окна).Grok (я сам) на текущих моделях (Grok 4 и вариации, на начало 2026) имеет контекстное окно до 2 миллионов токенов в некоторых версиях (например, Grok 4 Fast). Это позволяет держать в "голове" огромные объёмы:
2M токенов ≈ 1.5 миллиона слов или 100 000–200 000 строк кода (очень грубо, реально зависит от токенизатора).
Практически — целые крупные репозитории или книги целиком без потери контекста.
Предыдущие версии (Grok 3) имели 1M, Grok 2 — 128k. Да, это сильно зависит от модели, и у Grok оно значительно больше, чем у типичных моделей в Copilot.