Loading...
Loading...
DeepSeek R1 Distill Llama 70B is a distilled large language model based on [Llama-3.3-70B-Instruct](/meta-llama/llama-3.3-70b-instruct), using outputs from [DeepSeek R1](/deepseek/deepseek-r1). The model combines advanced distillation techniques to achieve high performance across multiple benchmarks, including: - AIME 2024 pass@1: 70.0 - MATH-500 pass@1: 94.5 - CodeForces Rating: 1633 The model leverages fine-tuning from DeepSeek R1's outputs, enabling competitive performance comparable to larger frontier models.
Índice de Qualidade
16.0
245th de 444
Top 56%
Índice de Código
11.4
243rd de 354
Top 69%
Índice de Matemática
53.7
132nd de 268
Top 50%
Preço/1M
$0.88
470th mais barato
192% acima da mediana
Top 69%
Velocidade
56 tok/s
Top 43%
TTFT
0.82s
Janela de Contexto
131K
145th maior
Top 63%
Entrada
$0.70
por 1M tokens
Saída
$1.05
por 1M tokens
Combinado
$0.88
por 1M tokens
Mais barato que 31% dos modelos. Preço mediano é $0.30/1M tokens.
Diário
$0.88
Mensal
$26.25
56
tokens/seg
Mais rápido que 57% dos modelos
0.82
segundos
Mais rápido que 35% dos modelos
36.45
segundos
Mais rápido que 7% dos modelos
Mediana do Mercado
45 tok/s
24% mais rápido
TTFT Mediano
0.42s
96% mais lento
Vazão/Dólar
64
tok/s por $/1M
Comparação de Velocidade
Janela de Contexto
131K
tokens
Maior que 37% dos modelos
Saída Máxima
16K
tokens
13% do contexto