Devido ao tráfego excessivo e a um ataque cibernético, o site e o aplicativo do DeepSeek ficaram fora do ar por alguns dias e a API não está funcionando.
Anteriormente, compartilhamos o método para implantar o DeepSeek-R1 localmente (consulteImplantação local do DeepSeek-R1), mas o usuário comum está limitado a uma configuração de hardware que dificulta a execução até mesmo de um modelo de 70b, quanto mais de um modelo completo de 671b.
Felizmente, todas as principais plataformas têm acesso ao DeepSeek-R1, portanto, você pode experimentá-lo como um substituto simples.
I. Microsserviços NVIDIA NIM
NVIDIA Build: integre vários modelos de IA e experimente-os gratuitamente
Site: https://build.nvidia.com/deepseek-ai/deepseek-r1
A NVIDIA implementou o parâmetro de volume total 671B do DeepSeek-R1 Modelos, a versão da Web é simples de usar e você pode ver a janela de bate-papo ao clicar nela:
A página de código também está listada à direita:
Basta testá-lo:
Abaixo da caixa de bate-papo, você também pode ativar alguns itens de parâmetro (que podem ser padronizados na maioria dos casos):
Os significados aproximados e as funções dessas opções estão listados abaixo:
Temperatura:
Quanto maior o valor, mais aleatória será a saída e mais respostas criativas poderão ser geradas
P superior (amostragem nuclear):
Valores mais altos retêm mais tokens de qualidade probabilística e geram mais diversidade
Penalidade de frequência:
Valores mais altos penalizam mais as palavras de alta frequência e reduzem a verbosidade ou a repetição
Penalidade de presença:
Quanto maior o valor, mais inclinado o modelo estará a experimentar novas palavras
Máximo de fichas:
Quanto maior o valor, maior o comprimento potencial da resposta
Pare:
Interromper a saída ao gerar determinados caracteres ou sequências, para evitar a geração de tópicos muito longos ou esgotados.
Atualmente, devido ao número cada vez maior de brancos (observe o número de pessoas na fila no gráfico abaixo), o NIM está atrasado em parte do tempo:
A NVIDIA também está com falta de placas de vídeo?
Os microsserviços NIM também oferecem suporte a chamadas de API para o DeepSeek-R1, mas você precisa se inscrever em uma conta com um endereço de e-mail:
O processo de registro é relativamente simples, usando apenas a verificação de e-mail:
Depois de se registrar, você pode clicar em "Build with this NIM" (Criar com este NIM) no canto superior direito da interface de bate-papo para gerar uma API KEY e, no momento, você receberá 1.000 pontos (1.000 interações) por se registrar, portanto, você pode usar tudo isso e depois se registrar novamente com um novo endereço de e-mail.
A plataforma de microsserviços NIM também oferece acesso a muitos outros modelos:
II. Microsoft Azure
Site da Web:
https://ai.azure.com
O Microsoft Azure permite que você crie um chatbot e interaja com o modelo por meio de um playground de bate-papo.
O Azure é muito trabalhoso para se inscrever, primeiro você precisa criar uma conta da Microsoft (basta fazer login se já tiver uma):
A criação de uma conta também requer verificação de e-mail:
Para terminar, prove que você é humano respondendo a 10 perguntas consecutivas do mundo inferior:
Chegar aqui não é suficiente para criar uma assinatura:
Verifique o número do telefone celular, bem como o número da conta bancária e outras informações:
Em seguida, selecione "No technical support" (Sem suporte técnico):
Aqui você pode iniciar a implementação na nuvem. No "Catálogo de modelos", você pode ver o modelo DeepSeek-R1 em destaque:
Uma vez clicado, clique em "Deploy" (Implantar) na próxima página:
Em seguida, você precisa selecionar "Create new project" (Criar novo projeto):
Em seguida, defina todos eles como padrão e clique em "Next" (Avançar):
Em seguida, clique em "Create" (Criar):
A criação nessa página é iniciada e demora um pouco para esperar:
Quando terminar, você chegará a esta página, onde poderá clicar em "Deploy" para ir para a próxima etapa:
Você também pode verificar a seção "Preços e termos" acima para ver que o uso é gratuito:
Continue nesta página clicando em "Deployment" (Implantação) e clique em "Open in Playground" (Abrir no Playground):
Então, o diálogo pode começar:
O Azure também tem disponível o ajuste de parâmetros semelhante ao NIM:
Como uma plataforma, há muitos modelos que podem ser implementados:
Os modelos já implantados podem ser acessados rapidamente no futuro por meio de "Playground" ou "Model + Endpoint" no menu à esquerda:
III. Amazon AWS
Site da Web:
https://aws.amazon.com/cn/blogs/aws/deepseek-r1-models-now-available-on-aws
O DeepSeek-R1 também está em destaque e alinhado.
O processo de registro do Amazon AWS e do Microsoft Azure é quase tão problemático quanto, ambos têm que preencher o método de pagamento, mas também a verificação do telefone + verificação de voz, que não será descrita em detalhes aqui:
O processo exato de implantação é praticamente o mesmo do Microsoft Azure:
IV. Cerebras
Cerebras: a plataforma de computação de alto desempenho e inferência de IA mais rápida do mundo disponível atualmente
Site: https://cerebras.ai
Ao contrário de várias plataformas grandes, a Cerebras usa um modelo de 70b, alegando ser "57 vezes mais rápida do que as soluções de GPU":
Depois que o registro de e-mail for inserido, o menu suspenso na parte superior permitirá que você selecione DeepSeek-R1:
As velocidades no mundo real são, de fato, mais rápidas, embora não tão exageradas quanto se afirma:
V. Groq
Groq: provedor de soluções de aceleração de inferência de modelo grande de IA, interface de modelo grande gratuita e de alta velocidade
Site: https://groq.com/groqcloud-makes-deepseek-r1-distill-llama-70b-available
Os modelos também estão disponíveis para seleção assim que o e-mail for registrado e inserido:
Também é rápido, mas, novamente, o 70b parece um pouco mais retardado do que o Cerebras?
Observe que a interface de bate-papo pode ser acessada diretamente enquanto estiver conectado:
https://console.groq.com/playground?model=deepseek-r1-distill-llama-70b
Espero que todos vocês se divirtam e que o DeepSeek volte ao normal em breve!