Nvidia L20 GPU de Núcleo Tensor 48GB Gddr6 para entrenamiento de IA, inferencia y cargas de trabajo en centros de datos

Miembro de Oro Desde 2025

Proveedores con licencias comerciales verificadas

Proveedor Auditado Proveedor Auditado

Auditado por una agencia de inspección externa independiente

Elección de compradores con alta repetición
Más del 50% de los compradores eligen repetidamente al proveedor
Equipo experimentado
El proveedor cuenta con 7 personal(es) de comercio exterior y 2 personal(es) con más de 6 años de experiencia en comercio exterior.
Capacidad en stock
El proveedor tiene capacidad en stock.
Seguro de calidad
El proveedor proporciona garantía de calidad.
para ver todas las etiquetas de fortaleza verificadas (9)
  • Nvidia L20 GPU de Núcleo Tensor 48GB Gddr6 para entrenamiento de IA, inferencia y cargas de trabajo en centros de datos
  • Nvidia L20 GPU de Núcleo Tensor 48GB Gddr6 para entrenamiento de IA, inferencia y cargas de trabajo en centros de datos
  • Nvidia L20 GPU de Núcleo Tensor 48GB Gddr6 para entrenamiento de IA, inferencia y cargas de trabajo en centros de datos
  • Nvidia L20 GPU de Núcleo Tensor 48GB Gddr6 para entrenamiento de IA, inferencia y cargas de trabajo en centros de datos
  • Nvidia L20 GPU de Núcleo Tensor 48GB Gddr6 para entrenamiento de IA, inferencia y cargas de trabajo en centros de datos
  • Nvidia L20 GPU de Núcleo Tensor 48GB Gddr6 para entrenamiento de IA, inferencia y cargas de trabajo en centros de datos
Buscar Productos Similares

Descripción de Producto

1. Descripción del producto

El núcleo del tensor de L20 de NVIDIA GPU, basada en la Ada Lovelace la arquitectura, es un potente GPU del centro de datos diseñado para la formación de AI, inferencia, y grandes cargas de trabajo de los datos. Equipado con 48 GB de alta velocidad de memoria GDDR6, advanced 4ª generación de núcleos de tensor, y de 3ª generación de núcleos de RT, el L20 ofrece un excelente rendimiento a través de AI, HPC y profesionales de visualización.

Con el apoyo de la interfaz PCIe Gen4 y el diseño energéticamente eficiente, el L20 de NVIDIA proporciona una extraordinaria aceleración para el aprendizaje generativo profunda marcos, AI, el procesamiento de vídeo y las cargas de trabajo a escala empresarial. Es una opción ideal para organizaciones que requieren un saldo de alto rendimiento y eficiencia energética en su centro de datos de la infraestructura.

 

2. Especificaciones principales

El tema La especificación
La arquitectura GPU NVIDIA Ada Lovelace
La memoria 48GB GDDR6
La interfaz de memoria 256-bit
El ancho de banda de memoria ~864 GB/seg.
Los núcleos CUDA 10,752
Los núcleos de tensor 4ª generación
Los núcleos de RT. 3ª generación
Interface PCI Express Gen4 x16
TDP ~300W
La refrigeración La refrigeración pasiva
Factor de Forma De altura completa de doble ranura,
Salidas de pantalla Ninguno (GPU) del centro de datos

Nvidia L20 Tensor Core GPU 48GB Gddr6 for Ai Training, Inference, and Data Center Workloads

3. El embalaje y entrega

  • Standard antiestático embalaje con espuma protectora

  • Enviado en todo el mundo a través de DHL y FedEx / UPS / EMS / Aire

  • Plazo de entrega: 3-7 días de stock
     

4. Aplicaciones

  • Modelo de AI la formación y la inferencia de gran escala

  • Aprendizaje en profundidad marcos (TensorFlow MXNet PyTorch,,, etc.).

  • Alto rendimiento (HPC)

  • AI generativo del lenguaje y los grandes modelos (LLM)

  • El procesamiento de vídeo y streaming de las cargas de trabajo

  • Cloud computing y virtual desktop infrastructure (VDI)

 

5. Información adicional

  • Condición: 100% Original / Nuevo

  • Garantía: 1 año de garantía extendida (opcional).

  • MOQ: 1 pieza

  • El número de modelo: NVIDIA L20 48GB PCIe

 

Enviar directamente tu consulta a este proveedor

*De:
*A:
*Mensaje:

Escriba entre 20 y 4000 caracteres.

Esto no es lo que buscas? Publique Solicitud de Compra Ahora
Enviar Consulta

Buscar Productos Similares Por Categoría

Página Web del Proveedor Productos GPU Servidor GPU Nvidia L20 GPU de Núcleo Tensor 48GB Gddr6 para entrenamiento de IA, inferencia y cargas de trabajo en centros de datos