AMD acaba de presentar oficialmente la Instinct MI350P PCIe, una tarjeta aceleradora de IA diseñada para empresas que quieren implementar inteligencia artificial sin tener que rediseñar sus centros de datos desde cero. Y la propuesta tiene mucho sentido en el contexto actual.
El problema que resuelve es concreto: ejecutar IA en la nube puede introducir preocupaciones de privacidad y costos impredecibles, pero actualizar la infraestructura local para soportar grandes plataformas de aceleración GPU puede requerir costosos rediseños en la potencia y la refrigeración del centro de datos. La MI350P apunta directamente a ese punto de dolor.
¿Qué hace diferente a esta GPU de AMD?
La Instinct MI350P es el primer diseño de aceleradoras PCIe de AMD en años. Eso ya es noticia por sí solo. Pero lo más relevante para empresas es su factor de forma: se trata de una tarjeta de expansión de doble ranura (dual-slot) que mantiene total compatibilidad con los servidores estándar refrigerados por aire, lo que significa que las empresas pueden implementar flujos de inferencia en sus propias instalaciones sin alterar los métodos de refrigeración, la entrega de energía o la distribución de sus racks actuales.
Traducido a lenguaje directo: la instalas en un servidor que ya tienes y listo. Sin obras en el datacenter.
Especificaciones técnicas de la AMD Instinct MI350P
Arquitectura y procesamiento
La ficha técnica parte de la arquitectura CDNA 4 y del proceso de 3 nm de TSMC, con 4 XCD, 128 compute units, 8.192 stream processors, 512 Matrix cores y un reloj máximo de 2.200 MHz.
Memoria y ancho de banda
AMD monta 128 MB de Infinity Cache y 144 GB de HBM3E sobre un bus de 4.096 bits, con un ancho de banda de 4 TB/s.
Rendimiento de cómputo
Su capacidad de cálculo alcanza hasta 4.600 TFLOPS en precisión MXFP4 y 2.299 TFLOPS en MXFP6, cifras que marcan un nuevo referente en tarjetas PCIe para entornos empresariales, según AMD.
Consumo energético
AMD calificó la tarjeta con un TBP de 600W, aunque puede configurarse hasta 450W si se necesita. Recibe energía a través de un conector de 16 pines y usa la interfaz PCIe Gen 5.
AMD Instinct MI350P vs NVIDIA H200 NVL: ¿cuál gana?
Este es el punto que más le interesa al mercado empresarial. La introducción del MI350P finalmente le brinda a AMD un competidor digno para el acelerador de IA PCIe más rápido de NVIDIA, actualmente el H200 NVL. El MI350P se basa en una arquitectura más reciente y supera al H200 NVL en velocidad, con un rendimiento de cómputo teórico un 20% superior en FP64, un 43% superior en FP16 y un 39% superior en FP8.
NVIDIA no ha anunciado una versión PCIe de sus últimas GPU Blackwell B200 con memoria HBM, por lo que, por ahora, AMD contendría con el acelerador de IA más avanzado compatible con PCIe.
Software abierto: la ventaja que nadie está contando
Uno de los argumentos más fuertes de AMD con esta GPU no es el hardware, sino el ecosistema. La plataforma incluye soporte para el operador de GPU de Kubernetes, facilita la gestión integral del ciclo de vida de los contenedores y ofrece microservicios de inferencia nativos de la nube. Gracias a su compatibilidad directa con frameworks líderes como PyTorch, los desarrolladores pueden migrar sus cargas de trabajo de inferencia existentes con modificaciones mínimas en el código fuente.
Lo más llamativo: la plataforma de referencia de la compañía se ofrece a los socios sin costos de licenciamiento, lo que no solo reduce el gasto operativo, sino que permite a las organizaciones desplegar sus sistemas en las instalaciones de manera rápida, sin preocuparse por cobros adicionales por consumo de tokens.
¿Para qué cargas de trabajo está diseñada la MI350P?
La MI350P está diseñada para cargas de trabajo de IA pequeñas, medianas y grandes relacionadas con la inferencia y las canalizaciones RAG. También es posible combinar hasta ocho tarjetas Instinct MI350P en un solo sistema, lo que permite a los centros de datos escalar el rendimiento según la cantidad de tarjetas utilizadas.
¿Ya está disponible la AMD Instinct MI350P?
Sí. La AMD Instinct MI350P ya está disponible a través de distintos socios y llega con soporte para ROCm y un stack de software descrito como abierto para empresa. Entre los fabricantes que ya confirmaron soporte están Dell (con servidores PowerEdge), HPE (con HPE ProLiant) y Gigabyte.
Vale la pena aclarar que AMD advierte que los datos de rendimiento corresponden a proyecciones de ingeniería o mediciones tempranas de abril de 2026, dejando la validación final en manos de disponibilidad comercial, integración con socios y desempeño real en cargas empresariales.
¿Vale la pena para empresas en Colombia y LATAM?
La pregunta directa es válida. Si tu empresa ya tiene servidores rack estándar con refrigeración por aire y está evaluando mover cargas de IA a infraestructura propia —por privacidad de datos, costos de nube o regulaciones internas— la MI350P es técnicamente la opción PCIe más potente del mercado hoy. El desafío sigue siendo el ecosistema de software: ROCm aún no tiene el mismo nivel de madurez que CUDA de NVIDIA en la práctica, aunque AMD está cerrando esa brecha activamente.
Para equipos de TI empresarial, data centers corporativos y universidades con proyectos de IA en la región, esta GPU merece estar en el radar de evaluación de 2026.



