Google и Anthropic выпустили свои лучшие модели: Gemini 2.5 Pro и Claude Opus 4. Я работал с обоими на реальных проектах. Вот мой детальный разбор.

Gemini 2.5 Pro: 1M токенов. Можно загрузить целый репозиторий. Впечатляет, но на практике после 200K токенов качество ответов падает.
Claude Opus 4: 200K токенов. Меньше, но работает с ними лучше — не теряет важные детали даже в конце контекста.

Claude Opus выигрывает. Его код чище, он лучше понимает архитектуру проекта, реже допускает ошибки. Gemini 2.5 Pro неплох, но иногда генерирует «почти правильный» код, который ломается в edge cases.

Gemini лучше работает с видео и длинными документами (спасибо контекстному окну). Claude лучше анализирует скриншоты UI и код на изображениях.

Gemini быстрее для генерации текста. Claude быстрее для задач с tool use (вызов функций, работа с файлами).

Для кода и аналитики — Claude Opus 4. Для работы с большими документами — Gemini 2.5 Pro. Для повседневных задач — Claude Sonnet (лучший баланс).
Все наши наши AI-сервисы работают на лучших моделях. Попробуйте и решите сами!
Django (15 задач): Claude 14/15, Gemini 11/15. React (10): Claude 9/10, Gemini 8/10. SEO-анализ (10): Claude 9/10, Gemini 7/10. Контент RU (10): Claude 8/10, Gemini 7/10. Длинные документы (5): Claude 3/5, Gemini 5/5.
Gemini побеждает только в работе с длинными документами (1M контекст). Во всём остальном Claude стабильно лучше.
Форматирование: Claude выдаёт более чистый вывод. Gemini иногда забывает закрыть code blocks.
Русский язык: Claude лучше понимает контекст рунета — Яндекс, маркетплейсы.
Галлюцинации: Gemini чаще придумывает несуществующие методы библиотек.
Интеграция: Gemini в Gmail/Docs — плюс для Google-экосистемы. Claude Code — для терминал-разработчиков.