Las 5 mejores plataformas de inferencia de IA que utilizan una versión completa y gratuita de DeepSeek-R1

Debido al exceso de tráfico y a un ciberataque, el sitio web y la aplicación de DeepSeek llevan unos días sin funcionar y la API no funciona.

5大免费使用满血版 DeepSeek-R1 的AI推理平台

Anteriormente hemos compartido el método para desplegar DeepSeek-R1 localmente (verDespliegue local de DeepSeek-R1), pero el usuario medio está limitado a una configuración de hardware que hace difícil ejecutar incluso un modelo 70b, por no hablar de un modelo 671b completo.

Por suerte, las principales plataformas tienen acceso a DeepSeek-R1, así que puedes probarlo como sustituto plano.

 

I. Microservicios NVIDIA NIM

NVIDIA Build: integra varios modelos de IA y experiméntalos gratis
Página web: https://build.nvidia.com/deepseek-ai/deepseek-r1

NVIDIA desplegó el parámetro de volumen completo 671B del DeepSeek-R1 Modelos, la versión web es fácil de usar, y puedes ver la ventana de chat cuando haces clic en ella:

5大免费使用满血版 DeepSeek-R1 的AI推理平台

A la derecha aparece también la página de códigos:

5大免费使用满血版 DeepSeek-R1 的AI推理平台

Simplemente pruébalo:

5大免费使用满血版 DeepSeek-R1 的AI推理平台

Debajo del cuadro de chat, también puede activar algunos elementos de los parámetros (que pueden ser predeterminados en la mayoría de los casos):

5大免费使用满血版 DeepSeek-R1 的AI推理平台

A continuación se indican los significados y funciones aproximados de estas opciones:

Temperatura:
Cuanto mayor sea el valor, más aleatoria será la salida y más respuestas creativas se podrán generar

Top P (muestreo nuclear):
Los valores más altos retienen más fichas de calidad probabilística y generan más diversidad

Penalización por frecuencia:
Los valores más altos penalizan más las palabras de alta frecuencia y reducen la verbosidad o la repetición

Sanción de presencia:
Cuanto mayor sea el valor, más inclinado estará el modelo a probar palabras nuevas

Máximo de fichas:
Cuanto mayor sea el valor, mayor será la duración potencial de la respuesta

Para:
Detener la salida al generar determinados caracteres o secuencias, para evitar que se genere demasiado tiempo o se agoten los temas.

En la actualidad, debido al creciente número de blancos (fíjese en el número de personas en la cola del gráfico inferior), el NIM se está quedando atrás en algunos momentos:

5大免费使用满血版 DeepSeek-R1 的AI推理平台

¿A NVIDIA también le faltan tarjetas gráficas?

Los microservicios NIM también admiten llamadas API a DeepSeek-R1, pero es necesario registrarse para obtener una cuenta con una dirección de correo electrónico:

5大免费使用满血版 DeepSeek-R1 的AI推理平台

El proceso de registro es relativamente sencillo, ya que sólo se utiliza la verificación por correo electrónico:

5大免费使用满血版 DeepSeek-R1 的AI推理平台

Después de registrarte, puedes hacer clic en "Construir con este NIM" en la parte superior derecha de la interfaz de chat para generar una CLAVE API, y en la actualidad, obtendrás 1.000 puntos (1.000 interacciones) por registrarte, así que puedes utilizarlo todo y luego registrarte de nuevo con una nueva dirección de correo electrónico.

5大免费使用满血版 DeepSeek-R1 的AI推理平台

La plataforma de microservicios NIM también proporciona acceso a muchos otros modelos:

5大免费使用满血版 DeepSeek-R1 的AI推理平台

 

II. Microsoft Azure

Página web:
https://ai.azure.com

Microsoft Azure permite crear un chatbot e interactuar con el modelo a través de una zona de juego de chat.

5大免费使用满血版 DeepSeek-R1 的AI推理平台

Azure es muy complicado de contratar, primero tienes que crear una cuenta Microsoft (sólo tienes que iniciar sesión si ya tienes una):

5大免费使用满血版 DeepSeek-R1 的AI推理平台

Para crear una cuenta también es necesario verificar el correo electrónico:

5大免费使用满血版 DeepSeek-R1 的AI推理平台

Acaba demostrando que eres humano respondiendo a 10 preguntas consecutivas del inframundo:

5大免费使用满血版 DeepSeek-R1 的AI推理平台5大免费使用满血版 DeepSeek-R1 的AI推理平台

Llegar aquí no basta para crear una suscripción:

5大免费使用满血版 DeepSeek-R1 的AI推理平台

Verifique el número de teléfono móvil, así como el número de cuenta bancaria y otros datos:

5大免费使用满血版 DeepSeek-R1 的AI推理平台

A continuación, seleccione "Sin asistencia técnica":

5大免费使用满血版 DeepSeek-R1 的AI推理平台

Aquí puede iniciar el despliegue en la nube, en el "Catálogo de modelos" puede ver el modelo DeepSeek-R1 de forma destacada:

5大免费使用满血版 DeepSeek-R1 的AI推理平台

Una vez hecho clic, pulse "Desplegar" en la página siguiente:

5大免费使用满血版 DeepSeek-R1 的AI推理平台

A continuación, seleccione "Crear nuevo proyecto":

5大免费使用满血版 DeepSeek-R1 的AI推理平台

A continuación, defínalos todos y haga clic en "Siguiente":

5大免费使用满血版 DeepSeek-R1 的AI推理平台

A continuación, haga clic en "Crear":

5大免费使用满血版 DeepSeek-R1 的AI推理平台

Se inicia la creación en esta página, y se tarda un poco en esperar:

5大免费使用满血版 DeepSeek-R1 的AI推理平台

Cuando hayas terminado, llegarás a esta página, donde puedes hacer clic en "Desplegar" para pasar al siguiente paso:

5大免费使用满血版 DeepSeek-R1 的AI推理平台

También puedes consultar la sección "Precios y condiciones" para comprobar que su uso es gratuito:

5大免费使用满血版 DeepSeek-R1 的AI推理平台

Continúe en esta página haciendo clic en "Despliegue" y podrá hacer clic en "Abrir en Playground":

5大免费使用满血版 DeepSeek-R1 的AI推理平台

Entonces podrá comenzar el diálogo:

5大免费使用满血版 DeepSeek-R1 的AI推理平台

Azure también dispone de un ajuste de parámetros similar al de NIM:

5大免费使用满血版 DeepSeek-R1 的AI推理平台

Como plataforma, hay muchos modelos que pueden desplegarse:

5大免费使用满血版 DeepSeek-R1 的AI推理平台

Se puede acceder rápidamente a los modelos ya desplegados en el futuro a través de "Playground" o "Modelo + Endpoint" en el menú de la izquierda:

5大免费使用满血版 DeepSeek-R1 的AI推理平台

III. Amazon AWS

Página web:
https://aws.amazon.com/cn/blogs/aws/deepseek-r1-models-now-available-on-aws

DeepSeek-R1 también ocupa un lugar destacado.

5大免费使用满血版 DeepSeek-R1 的AI推理平台

Amazon AWS proceso de registro y Microsoft Azure es casi tan problemático, ambos tienen que rellenar el método de pago, sino también la verificación telefónica + verificación de voz, aquí no se describirá en detalle:

5大免费使用满血版 DeepSeek-R1 的AI推理平台5大免费使用满血版 DeepSeek-R1 的AI推理平台

El proceso exacto de despliegue es muy parecido al de Microsoft Azure:

5大免费使用满血版 DeepSeek-R1 的AI推理平台

IV. Cerebras

Cerebras: la plataforma de cálculo de alto rendimiento e inferencia de IA más rápida del mundo disponible en la actualidad
Página web: https://cerebras.ai

A diferencia de otras grandes plataformas, Cerebras utiliza un modelo de 70b y afirma ser "57 veces más rápido que las soluciones de GPU":

5大免费使用满血版 DeepSeek-R1 的AI推理平台

Una vez introducido el correo electrónico de registro, el menú desplegable de la parte superior permite seleccionar DeepSeek-R1:

5大免费使用满血版 DeepSeek-R1 的AI推理平台

Las velocidades en el mundo real son efectivamente más rápidas, aunque no tan exageradas como se afirma:

5大免费使用满血版 DeepSeek-R1 的AI推理平台

V. Groq

Groq: proveedor de soluciones de aceleración de inferencia de grandes modelos de IA, interfaz de grandes modelos gratuita y de alta velocidad
Página web: https://groq.com/groqcloud-makes-deepseek-r1-distill-llama-70b-available

5大免费使用满血版 DeepSeek-R1 的AI推理平台

Los modelos también están disponibles para su selección una vez registrado e introducido el correo electrónico:

5大免费使用满血版 DeepSeek-R1 的AI推理平台

También es rápido, pero de nuevo, 70b parece un poco más retrasado que el Cerebras?

5大免费使用满血版 DeepSeek-R1 的AI推理平台

Tenga en cuenta que puede acceder directamente a la interfaz de chat mientras está conectado:
https://console.groq.com/playground?model=deepseek-r1-distill-llama-70b

 

Lista completa de DeepSeek V3 y R1:

AMD

Las GPU AMD Instinct™ impulsan DeepSeek-V3: revolucionando el desarrollo de la IA con SGLang (Las GPU AMD Instinct™ impulsan DeepSeek-V3: revolucionando el desarrollo de inteligencia artificial con SGLang)

NVIDIA

Tarjeta modelo NVIDIA DeepSeek-R1 (Tarjeta modelo DeepSeek-R1 NVIDIA)

Microsoft Azure

Ejecución de DeepSeek-R1 en una única máquina virtual NDv5 MI300X (ejecutando DeepSeek-R1 en una única máquina virtual NDv5 MI300X)

Baseten

https://www.baseten.co/library/deepseek-v3/

Novita AI

Novita AI utiliza SGLang con DeepSeek-V3 para OpenRouter (Novita AI utiliza SGLang para ejecutar DeepSeek-V3 para OpenRouter)

ByteDance Volcengine

Un modelo completo de DeepSeek aterriza en Volcano Engine.

DataCrunch

Implantación de DeepSeek-R1 671B en 8x NVIDIA H200 con SGLang (Implementación de DeepSeek-R1 671B en 8x NVIDIA H200 utilizando SGLang)

Hiperbólica

https://x.com/zjasper666/status/1872657228676895185

Vultr

Cómo desplegar Deepseek V3 Large Language Model (LLM) mediante SGLang (Cómo desplegar con SGLang) Búsqueda profunda V3 Large Language Modelling (LLM))

RunPod

¿Qué hay de nuevo en el uso de LLM sin servidor en RunPod en 2025? (¿Cuáles son las nuevas características utilizadas por Serverless LLM en RunPod en 2025?)

© declaración de copyright

Artículos relacionados

Sin comentarios

Debe iniciar sesión para participar en los comentarios.
Acceder ahora
ninguno
Sin comentarios...