APIRouter
API

GPT-4

Claude

Gemini

Llama

Получите доступ к более чем 200 AI моделям

Управления API ключами для работы с нейросетями. GPT-4, Claude, Gemini, Llama и другие ИИ модели в одном месте. Контролируйте расходы, мониторьте использование

Управление API ключами

Генерация и управление ключами для OpenAI GPT, Anthropic Claude, Google Gemini и других нейросетей

Аналитика использования ИИ

Детальная статистика запросов к нейросетям, подсчет токенов и анализ стоимости каждой модели

Контроль расходов на ИИ

Мониторинг затрат на различные нейросети в реальном времени с уведомлениями о превышении лимитов

Быстрый доступ к ИИ

Единый API endpoint для подключения к любой нейросети без необходимости интеграции с каждым провайдером

Безопасность данных

Защищенное хранение API ключей с шифрованием для безопасной работы с нейросетями

Телеграм бот @apirouter_bot

Быстрый доступ к нейросетям, проверка лимитов и баланса в удобном интерфейсе бота

Работа в привычном приложении

Мгновенное тестирование

Отправляйте запросы к GPT-4, Claude, Gemini прямо в чате

Быстрая аналитика

Получайте отчеты по расходам и использованию в реальном времени

Умные уведомления

Будьте в курсе превышения лимитов и важных событий

Управляйте нейросетями прямо из Telegram!

Телеграм бот @apirouter_bot

Гибкая ценовая политика

Идеален для сложных задач, аналитики и работы с большими объёмами текста.
Базовая цена: ~1 180 ₽ за 1 млн входящих токенов, ~5 900 ₽ за 1 млн выходящих токенов.

Подходит для ассистентов, общения, текстов и обработки документов.
Базовая цена: ~235 ₽ за 1 млн входящих токенов, ~1 180 ₽ за 1 млн выходящих токенов.

Идеален для простых задач, чатов и автоматизации поддержки.
Базовая цена: ~20 ₽ за 1 млн входящих токенов, ~98 ₽ за 1 млн выходящих токенов.

Отлично справляется с программированием и логическими задачами.
Базовая цена: ~0.63 ₽ за 1 млн входящих токенов, ~1.89 ₽ за 1 млн выходящих токенов.

Примеры запросов

Работа с чатом - Python/curl

Endpoint: POST /api/chat/completions

				
					import requests

def chat_with_model(token):
    url = 'https://app.apirouter.ru/api/chat/completions'
    headers = {
        'Authorization': f'Bearer {token}',
        'Content-Type': 'application/json'
    }
    data = {
      "model": "aion-labs/aion-rp-llama-3.1-8b",
      "messages": [
        {
          "role": "user",
          "content": "Как образуется снег?"
        }
      ]
    }
    response = requests.post(url, headers=headers, json=data)
    return response.json()
				
			
				
					curl -X POST https://app.apirouter.ru/api/chat/completions \
-H "Authorization: Bearer YOUR_API_KEY" \
-H "Content-Type: application/json" \
-d '{
      "model": "llama3.1",
      "messages": [
        {
          "role": "user",
          "content": "Как скачать whatsApp"
        }
      ]
    }'
				
			

Endpoint: POST /api/v1/files/

Чтобы использовать внешние данные в ответах RAG, вам сначала необходимо загрузить файлы. Содержимое загруженного файла автоматически извлекается и сохраняется в векторной базе данных.

				
					import requests

def upload_file(token, file_path):
    url = 'https://app.apirouter.ru/api/v1/files/'
    headers = {
        'Authorization': f'Bearer {token}',
        'Accept': 'application/json'
    }
    files = {'file': open(file_path, 'rb')}
    response = requests.post(url, headers=headers, files=files)
    return response.json()
				
			
				
					curl -X POST -H "Authorization: Bearer YOUR_API_KEY" -H "Accept: application/json" \
-F "file=@/path/to/your/file" https://app.apirouter.ru/api/v1/files/
				
			

Endpoint: POST /api/v1/knowledge/{id}/file/add

После загрузки вы можете сгруппировать файлы в коллекцию знаний или ссылаться на них по отдельности в чатах.

				
					import requests

def add_file_to_knowledge(token, knowledge_id, file_id):
    url = f'https://app.apirouter.ru/api/v1/knowledge/{knowledge_id}/file/add'
    headers = {
        'Authorization': f'Bearer {token}',
        'Content-Type': 'application/json'
    }
    data = {'file_id': file_id}
    response = requests.post(url, headers=headers, json=data)
    return response.json()
				
			
				
					curl -X POST https://app.apirouter.ru/api/v1/knowledge/{knowledge_id}/file/add \
-H "Authorization: Bearer YOUR_API_KEY" \
-H "Content-Type: application/json" \
-d '{"file_id": "your-file-id-here"}'
				
			

Endpoint: POST /api/chat/completions

Вы можете ссылаться как на отдельные файлы, так и на целые коллекции в своих запросах RAG для получения расширенных ответов.

Этот метод полезен, когда вы хотите сфокусировать внимание модели чата на содержимом определенного файла.

				
					import requests

def chat_with_file(token, model, query, file_id):
    url = 'https://app.apirouter.ru/api/chat/completions'
    headers = {
        'Authorization': f'Bearer {token}',
        'Content-Type': 'application/json'
    }
    payload = {
        'model': model,
        'messages': [{'role': 'user', 'content': query}],
        'files': [{'type': 'file', 'id': file_id}]
    }
    response = requests.post(url, headers=headers, json=payload)
    return response.json()
				
			
				
					curl -X POST https://app.apirouter.ru/api/chat/completions \
-H "Authorization: Bearer YOUR_API_KEY" \
-H "Content-Type: application/json" \
-d '{
      "model": "gpt-4-turbo",
      "messages": [
        {"role": "user", "content": "Объясни основную идею данного документа"}
      ],
      "files": [
        {"type": "file", "id": "your-file-id-here"}
      ]
    }'
				
			

Начните работу с нейросетями через APIRouter

Получите доступ к GPT-4, Claude, Gemini и другим ИИ моделям с единой системой управления

Вопрос - ответ

AI журнал

Generative reward models

Можно ли доверять LLM-моделям вознаграждения? Master-RM выявляет и устраняет их слабые места

Генеративные модели вознаграждений, в которых большие языковые модели (LLM) выступают в роли оценщиков, становятся все популярнее в обучении с подкреплением с верифицируемыми вознаграждениями (RLVR). Эти модели предпочтительнее правил для задач…

Читать полностью
MIRIX: A Modular Multi-Agent Memory

MIRIX: Модульная система памяти для мультиагентных систем с улучшенным долгосрочным анализом

Современные разработки в области LLM-агентов в основном сосредоточены на улучшении выполнения сложных задач. Однако один критически важный аспект остаётся недооценённым: память — способность агентов сохранять, извлекать и анализировать пользовательскую информацию…

Читать полностью
ai2-autods-blog-graphic-development

Allen Institute for AI-Ai2 представляет AutoDS: движок для открытых научных открытий

Allen Institute for Artificial Intelligence (AI2) представил AutoDS (Autonomous Discovery via Surprisal) — революционный прототип системы для автономных научных открытий без заранее заданных целей. В отличие от традиционных ИИ-ассистентов, которые…

Читать полностью
OpenReasoning-Nemotron

NVIDIA AI представляет OpenReasoning-Nemotron: набор языковых моделей с улучшенными способностями к логическому мышлению, основанный на DeepSeek R1 0528

Команда NVIDIA AI анонсировала OpenReasoning-Nemotron — семейство больших языковых моделей (LLM), оптимизированных для решения сложных задач в области математики, науки и программирования. Эта линейка включает версии с 1.5B, 7B, 14B…

Читать полностью
chatgpt

Как использовать ChatGPT: 12 реальных сценариев, которые экономят время и деньги

Если вы думаете, что используете ChatGPT на максимум — скорее всего, это не так. Умение грамотно работать с языковыми моделями уже стало отдельным навыком. В этой статье — реальные сценарии,…

Читать полностью
API сервисы

Что такое API? Простое объяснение, виды и примеры

Зачем нужен API Интеграция сервисов Автоматизация процессов Расширение функционала Снижение затрат Примеры использования API Приложения такси используют API карт и платежей Интернет-магазины — API логистики и оплаты Авторизация через соцсети…

Читать полностью