¿Cómo utilizar DeepSeek V3 Coder en Windows 11?

Si quieres aprender cómo usar DeepSeek V3 Coder en Windows 11esta publicación te guiará. DeepSeek-V3 Coder es una versión especializada del modelo DeepSeek-V3. Aprovecha el procesamiento del lenguaje natural y las técnicas avanzadas de aprendizaje automático para comprender y generar código, brindar asistencia de programación y ayudar a los usuarios con las tareas de desarrollo de software.

¿Cómo utilizar DeepSeek V3 Coder en Windows 11?

DeepSeek V3 Coder es para quienes buscan mejorar sus habilidades de codificación o optimizar su proceso de desarrollo de software. Si quieres use DeepSeek V3 Coder en Windows 11puedes acceder a él a través del plataforma de demostración en línea, API servicio, o descargue los pesos modelo para implementación local. Veamos cómo.

1]Acceda al codificador DeepSeek-V3 a través del navegador web

Inicie su navegador favorito, escriba www.deepseekv3.com en la barra de URL y presione Entrar. Serás redirigido al sitio web oficial de DeepSeek. Haga clic en ‘Pruebe DeepSeek V3‘ botón en la esquina superior derecha.

Pruebe el enlace DeepSeek

Verás la interfaz de chat de DeepSeek. Escriba su consulta en el cuadro de entrada del chat y presione Ingresar. DeepSeek V3 generará rápidamente una respuesta para usted.

Chat de búsqueda profunda

Regístrese en DeepSeek para obtener acceso a funciones premium u opciones avanzadas, como guardar el historial de chat o personalizar preferencias.

Tipo chat.deepseek.com en la barra de URL de su navegador y presione Ingresar. A continuación, regístrese para obtener una cuenta de DeepSeek. Al iniciar sesión, verá una interfaz de chat basada en el último modelo DeepSeek-V3. Puede utilizar la interfaz para ingresar sus consultas de codificación, generar código o depurar programas.

2]Acceda al codificador DeepSeek-V3 a través de API

API de chat DeepSeek

Para acceder al modelo DeepSeek-V3 a través de API en Windows 11, siga estos pasos:

Regístrese para obtener una cuenta en la plataforma DeepSeek para recibir su clave API.

Descargue e instale Python desde python.org, si aún no está instalado. Durante la instalación, asegúrese de marcar la casilla para Agregue python.exe a la RUTA (si se agrega Python a la RUTA, simplemente puede escribir python o pip en cualquier ventana de terminal, y el sistema sabrá dónde encontrar el intérprete de Python o el administrador de paquetes. Sin agregar Python a la RUTA, deberá navegar hasta el directorio específico donde está instalado Python, cada vez que desee ejecutar un comando de Python).

A continuación, instale el SDK apropiado.

La API de DeepSeek utiliza un formato de API compatible con OpenAI, por lo que puede acceder a la API de DeepSeek mediante el SDK de OpenAI o cualquier software compatible con la API de OpenAI. Para instalar el SDK de OpenAI, abra el símbolo del sistema y ejecute el siguiente comando:

pip install openai

Una vez que su entorno de desarrollo esté configurado, configure el acceso a la API mientras establece la URL base en:

'https://api.deepseek.com'

Luego acceda al modelo DeepSeek V3 realizando llamadas API. A continuación se muestra un ejemplo de Python para interactuar con el modelo DeepSeek V3:

from openai import OpenAI

client = OpenAI(api_key="<DeepSeek API Key>", base_url="https://api.deepseek.com")

response = client.chat.completions.create(
model="deepseek-chat",
messages=[
{"role": "system", "content": "You are a helpful assistant"},
{"role": "user", "content": "Hello"},
],
stream=False
)

print(response.choices[0].message.content)

Nota:

  1. El nombre del modelo deepseek-chat invocará DeepSeek V3.
  2. Habilite la transmisión configurando 'stream=true'. La transmisión es ideal para escenarios de respuesta en tiempo real.

3]Acceda al codificador DeepSeek-V3 mediante implementación local

Descargas de modelos DeepSeek

La implementación de DeepSeek V3 localmente implica descargar los pesos del modelo y configurar el entorno necesario. Sin embargo, no existe un documento oficial de DeepSeek V3 diseñado específicamente para implementar el modelo localmente en Windows 11. guías de implementación disponibles centrarse principalmente en linux entornos, particularmente Ubuntu 20.04 o superior.

Para la implementación local de DeepSeek-V3 Coder en Windows 11, puede crear un entorno similar a Linux dentro de su sistema Windows.

Antes de continuar, asegúrese de que su sistema cumpla con estos requisitos mínimos de hardware y software:

  • GPU: GPU NVIDIA con soporte CUDA (p. ej., serie RTX 30xx o superior).
  • Pitón: Versión 3.8 o superior.
  • Memoria: Al menos 16 GB de RAM (se recomiendan 32 GB).
  • CUDA y cuDNN: Instale las versiones compatibles con las dependencias de DeepSeek V3.

Ahora sigue estos pasos:

Instale el Subsistema de Windows para Linux 2 en su PC con Windows 11.

Clonar el repositorio de DeepSeek V3:

git clone https://github.com/deepseek-ai/DeepSeek-V3.git

Navegue hasta el directorio de inferencia e instale las dependencias enumeradas en requirements.txt:

cd DeepSeek-V3/inference
pip install -r requirements.txt

Próximo, descargar los pesos del modelo de AbrazosCara y ponerlos en /path/to/DeepSeek-V3 carpeta.

A continuación, convierta los pesos del modelo a un formato específico:

python convert.py --hf-ckpt-path /path/to/DeepSeek-V3 --save-path /path/to/DeepSeek-V3-Demo --n-experts 256 --model-parallel 16

Ahora puede chatear con DeepSeek-V3 o realizar inferencia por lotes en un archivo determinado.

¡Eso es todo! Espero que encuentres esto útil.

¿DeepSeek es gratuito?

DeepSeek brinda acceso gratuito a ciertos modelos, lo que permite a los usuarios experimentar sus capacidades sin costo inmediato. Otros modelos funcionan de forma paga, con costos determinados por el uso. El último modelo, DeepSeek-V3, tiene una estructura de precios de $0,14 por millón de tokens de entrada y $0,28 por millón de tokens de salida (hay un descuento continuo en el precio de DeepSeek-V3 hasta el 8 de febrero de 2025).

¿Qué GPU necesitas para DeepSeek Coder V2?

La implementación de DeepSeek-Coder-V2 requiere importantes recursos de GPU debido al gran tamaño y complejidad del modelo. Para realizar inferencias en formato BF16 (bfloat16), el modelo necesita 8 GPU, cada una equipada con 80 GB de memoria.

Leer siguiente: Las mejores herramientas de IA de captura de pantalla a código.

Valora este artculo post

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *