Aprendizagem pessoal com IA
e orientação prática
Espelho de desenho CyberKnife

As 5 principais plataformas de inferência de IA que usam uma versão completa do DeepSeek-R1 gratuitamente

Devido ao tráfego excessivo e a um ataque cibernético, o site e o aplicativo do DeepSeek ficaram fora do ar por alguns dias e a API não está funcionando.

blank


Anteriormente, compartilhamos o método para implantar o DeepSeek-R1 localmente (consulteImplantação local do DeepSeek-R1), mas o usuário comum está limitado a uma configuração de hardware que dificulta a execução até mesmo de um modelo de 70b, quanto mais de um modelo completo de 671b.

Felizmente, todas as principais plataformas têm acesso ao DeepSeek-R1, portanto, você pode experimentá-lo como um substituto simples.

 

I. Microsserviços NVIDIA NIM

NVIDIA Build: integre vários modelos de IA e experimente-os gratuitamente
Site: https://build.nvidia.com/deepseek-ai/deepseek-r1

A NVIDIA implementou o parâmetro de volume total 671B do DeepSeek-R1 Modelos, a versão da Web é simples de usar e você pode ver a janela de bate-papo ao clicar nela:

blank

A página de código também está listada à direita:

blank

Basta testá-lo:

blank

Abaixo da caixa de bate-papo, você também pode ativar alguns itens de parâmetro (que podem ser padronizados na maioria dos casos):

blank

Os significados aproximados e as funções dessas opções estão listados abaixo:

Temperatura:
Quanto maior o valor, mais aleatória será a saída e mais respostas criativas poderão ser geradas

P superior (amostragem nuclear):
Valores mais altos retêm mais tokens de qualidade probabilística e geram mais diversidade

Penalidade de frequência:
Valores mais altos penalizam mais as palavras de alta frequência e reduzem a verbosidade ou a repetição

Penalidade de presença:
Quanto maior o valor, mais inclinado o modelo estará a experimentar novas palavras

Máximo de fichas:
Quanto maior o valor, maior o comprimento potencial da resposta

Pare:
Interromper a saída ao gerar determinados caracteres ou sequências, para evitar a geração de tópicos muito longos ou esgotados.

Atualmente, devido ao número cada vez maior de brancos (observe o número de pessoas na fila no gráfico abaixo), o NIM está atrasado em parte do tempo:

blank

A NVIDIA também está com falta de placas de vídeo?

Os microsserviços NIM também oferecem suporte a chamadas de API para o DeepSeek-R1, mas você precisa se inscrever em uma conta com um endereço de e-mail:

blank

O processo de registro é relativamente simples, usando apenas a verificação de e-mail:

blank

Depois de se registrar, você pode clicar em "Build with this NIM" (Criar com este NIM) no canto superior direito da interface de bate-papo para gerar uma API KEY e, no momento, você receberá 1.000 pontos (1.000 interações) por se registrar, portanto, você pode usar tudo isso e depois se registrar novamente com um novo endereço de e-mail.

blank

A plataforma de microsserviços NIM também oferece acesso a muitos outros modelos:

blank

 

II. Microsoft Azure

Site da Web:
https://ai.azure.com

O Microsoft Azure permite que você crie um chatbot e interaja com o modelo por meio de um playground de bate-papo.

blank

O Azure é muito trabalhoso para se inscrever, primeiro você precisa criar uma conta da Microsoft (basta fazer login se já tiver uma):

blank

A criação de uma conta também requer verificação de e-mail:

blank

Para terminar, prove que você é humano respondendo a 10 perguntas consecutivas do mundo inferior:

blank

blank

Chegar aqui não é suficiente para criar uma assinatura:

blank

Verifique o número do telefone celular, bem como o número da conta bancária e outras informações:

blank

Em seguida, selecione "No technical support" (Sem suporte técnico):

blank

Aqui você pode iniciar a implementação na nuvem. No "Catálogo de modelos", você pode ver o modelo DeepSeek-R1 em destaque:

blank

Uma vez clicado, clique em "Deploy" (Implantar) na próxima página:

blank

Em seguida, você precisa selecionar "Create new project" (Criar novo projeto):

blank

Em seguida, defina todos eles como padrão e clique em "Next" (Avançar):

blank

Em seguida, clique em "Create" (Criar):

blank

A criação nessa página é iniciada e demora um pouco para esperar:

blank

Quando terminar, você chegará a esta página, onde poderá clicar em "Deploy" para ir para a próxima etapa:

blank

Você também pode verificar a seção "Preços e termos" acima para ver que o uso é gratuito:

blank

Continue nesta página clicando em "Deployment" (Implantação) e clique em "Open in Playground" (Abrir no Playground):

blank

Então, o diálogo pode começar:

blank

O Azure também tem disponível o ajuste de parâmetros semelhante ao NIM:

blank

Como uma plataforma, há muitos modelos que podem ser implementados:

blank

Os modelos já implantados podem ser acessados rapidamente no futuro por meio de "Playground" ou "Model + Endpoint" no menu à esquerda:

blank

III. Amazon AWS

Site da Web:
https://aws.amazon.com/cn/blogs/aws/deepseek-r1-models-now-available-on-aws

O DeepSeek-R1 também está em destaque e alinhado.

blank

O processo de registro do Amazon AWS e do Microsoft Azure é quase tão problemático quanto, ambos têm que preencher o método de pagamento, mas também a verificação do telefone + verificação de voz, que não será descrita em detalhes aqui:

blank

blank

O processo exato de implantação é praticamente o mesmo do Microsoft Azure:

blank

IV. Cerebras

Cerebras: a plataforma de computação de alto desempenho e inferência de IA mais rápida do mundo disponível atualmente
Site: https://cerebras.ai

Ao contrário de várias plataformas grandes, a Cerebras usa um modelo de 70b, alegando ser "57 vezes mais rápida do que as soluções de GPU":

blank

Depois que o registro de e-mail for inserido, o menu suspenso na parte superior permitirá que você selecione DeepSeek-R1:

blank

As velocidades no mundo real são, de fato, mais rápidas, embora não tão exageradas quanto se afirma:

blank

V. Groq

Groq: provedor de soluções de aceleração de inferência de modelo grande de IA, interface de modelo grande gratuita e de alta velocidade
Site: https://groq.com/groqcloud-makes-deepseek-r1-distill-llama-70b-available

blank

Os modelos também estão disponíveis para seleção assim que o e-mail for registrado e inserido:

blank

Também é rápido, mas, novamente, o 70b parece um pouco mais retardado do que o Cerebras?

blank

Observe que a interface de bate-papo pode ser acessada diretamente enquanto estiver conectado:
https://console.groq.com/playground?model=deepseek-r1-distill-llama-70b

 

Lista completa do DeepSeek V3 e R1:

AMD

GPUs AMD Instinct™ potencializam o DeepSeek-V3: revolucionando o desenvolvimento de IA com SGLang (GPUs AMD Instinct™ potencializam o DeepSeek-V3: revolucionando o desenvolvimento de IA com SGLang)

NVIDIA

Placa modelo NVIDIA DeepSeek-R1 (Placa modelo NVIDIA DeepSeek-R1)

Microsoft Azure

Executando o DeepSeek-R1 em uma única VM NDv5 MI300X (executando o DeepSeek-R1 em uma única VM NDv5 MI300X)

Baseten

https://www.baseten.co/library/deepseek-v3/

Novita AI

Novita AI usa SGLang executando DeepSeek-V3 para OpenRouter (Novita AI usando SGLang para executar o DeepSeek-V3 para OpenRouter)

ByteDance Volcengine

O modelo em tamanho real do DeepSeek aterrissa no Volcano Engine!

DataCrunch

Implantar o DeepSeek-R1 671B em 8x NVIDIA H200 com SGLang (Implementação do DeepSeek-R1 671B em 8x NVIDIA H200 usando SGLang)

Hiperbólico

https://x.com/zjasper666/status/1872657228676895185

Vultr

Como implantar o modelo de linguagem grande (LLM) do Deepseek V3 usando SGLang (Como implementar com SGLang) Deepseek V3 Modelagem de linguagem grande (LLM))

RunPod

O que há de novo para o uso do LLM sem servidor no RunPod em 2025? (Quais são os novos recursos usados pelo Serverless LLM no RunPod em 2025?)

CDN1
Não pode ser reproduzido sem permissão:Chefe do Círculo de Compartilhamento de IA " As 5 principais plataformas de inferência de IA que usam uma versão completa do DeepSeek-R1 gratuitamente

Chefe do Círculo de Compartilhamento de IA

O Chief AI Sharing Circle se concentra no aprendizado de IA, fornecendo conteúdo abrangente de aprendizado de IA, ferramentas de IA e orientação prática. Nosso objetivo é ajudar os usuários a dominar a tecnologia de IA e explorar juntos o potencial ilimitado da IA por meio de conteúdo de alta qualidade e compartilhamento de experiências práticas. Seja você um iniciante em IA ou um especialista sênior, este é o lugar ideal para adquirir conhecimento, aprimorar suas habilidades e realizar inovações.

Entre em contato conosco
pt_BRPortuguês do Brasil