Loading...
Loading...
Ajuda e Suporte
Como comparamos modelos de IA, de onde vêm os dados, e o que significam scores de qualidade, benchmarks e métricas de preço.
FindLLM é um agregador gratuito e independente para comparar Grandes Modelos de Linguagem (LLMs) por qualidade, velocidade e preço. Cobre todas as famílias principais além de rankings open-source, analytics de agentes de IA, leaderboards por tarefa e uma calculadora de custo.
Os dados vêm de fontes públicas terceiras e são apresentados em um só lugar. Veja a página Sobre para a lista completa de fontes.
O Índice de Qualidade é um score composto (0–100) criado pelo Artificial Analysis que reflete o desempenho de um modelo em múltiplos benchmarks incluindo MMLU, HumanEval, MATH, GPQA e outros. Quanto maior, melhor. É a medida única mais holística da capacidade de um modelo.
O preço combinado é o custo médio por milhão de tokens, ponderando os preços de tokens de entrada e saída. A ponderação típica que usamos é 3:1 entrada-para-saída, o que reflete padrões comuns de uso no mundo real. Isso fornece um ponto de preço único e comparável entre modelos.
O Hub de Agentes IA rastreia dados de uso em tempo real de agentes de IA populares como Claude Code, Cline, Kilo Code e OpenClaw. Você pode ver quais modelos LLM cada agente usa, consumo mensal de tokens, crescimento de tendência e comparar agentes em categorias como código, produtividade e ferramentas criativas.
Nosso hub Open Source classifica LLMs open-weight por eficiência (qualidade por parâmetro), rastreia downloads e scores de tendência do HuggingFace, e fornece recomendações por tipo de hardware para que você encontre o melhor modelo para sua GPU. Cobrimos tiers consumer (0–14B), prosumer (14–72B) e datacenter (72B+).
O ranking Agentic classifica modelos pela média de seus scores de qualidade em código e geral — as duas capacidades mais críticas para casos de uso de agentes de IA. Isso ajuda você a escolher o melhor modelo base para construir agentes autônomos, assistentes de código e sistemas de IA que usam ferramentas.
Comece com a ferramenta Seletor de LLM — responda algumas perguntas sobre seu caso de uso (programação, chat, análise) e orçamento, e ranquearemos os modelos para você. Ou use a página Explorar para comparar modelos em um gráfico de dispersão de qualidade vs. preço. Para tarefas específicas, confira o Ranking relevante.
Sim, completamente gratuito. Sem necessidade de conta, sem paywalls. Nosso objetivo é tornar a comparação de LLMs acessível a todos.
Os dados no FindLLM acompanham as fontes de origem. Preços e metadados de modelos mudam com mais frequência; scores de benchmark atualizam conforme novas avaliações são publicadas.
Rastreamos os principais benchmarks reportados pelo Artificial Analysis, incluindo MMLU, HumanEval, MATH, GPQA, MT-Bench e outros. O detalhamento de benchmarks de cada modelo é visível em sua página de detalhes. Também rastreamos velocidade de saída (tokens por segundo) e latência do primeiro token.
Confira a página de Metodologia para um mergulho profundo em como benchmarks e métricas são calculados, ou visite a página Sobre para saber mais sobre o FindLLM.
O FindLLM fornece informações apenas para fins educacionais e de comparação. Scores de benchmark, preços e métricas de desempenho são obtidos de provedores terceiros e podem mudar sem aviso prévio. Nos esforçamos pela precisão, mas não podemos garantir que todos os dados estejam atualizados ou livres de erros. O desempenho do modelo em produção pode diferir dos resultados de benchmark. O FindLLM não é afiliado a nenhum provedor de modelos de IA. Sempre verifique informações críticas diretamente com os provedores antes de tomar decisões de compra.