Estamos acostumbrados a hablar de procesadores con varios núcleos tanto en la informática de escritorio como en el segmento de la movilidad, pero este tipo de filosofía no se seguía hasta ahora en los procesadores de las tarjetas gráficas para usuarios finales, que seguían integrando procesadores con un único núcleo.
La evolución de esas GPUs llevaba a NVIDIA y a AMD a fabricar micros de cada vez mayor tamaño, pero ahora NVIDIA ha anunciado su interés por desarrollar un paquete MCM (Multi-Chip-Module), y AMD ya lleva tiempo desarrollando soluciones de este tipo que se aplicarán a sus gráficas "de consumo" en 2018.
Más paralelismo en gráficas
La idea de NVIDIA pasa por combinar diversos chips (GPU, CPU, memoria y controladores) en esos nuevos diseños que utilizarán versiones mucho más pequeñas de sus GPUs actuales, pero integrando un gran número de ellas y también un gran número de módulos DRAM, que estarían interconectados a través de un chipset específico.

En NVIDIA ya han realizado una simulación con 256 SM (Streaming Multiprocessor) que integraría 16.384 núcleos en lugar de los 5.376 que integra ahora mismo su GPU Volta con 84 SM. En esa simulación NVIDIA descubrió que la GPU MCM era un 45,5% más rápida que la GPU monolítica.
En realidad muchos podrían considerar que las GPUs ya hacen uso de esa filosofía si tenemos en cuenta los Shader Units o los Stream Processors que trabajan en paralelo en estos procesadores gráficos, pero este nuevo concepto va más allá todavía y plantea un cambio importante en el desarrollo de las GPUs de futuro.
Estamos por tanto ante un interesante cambio de tendencia en el segmento de las tarjetas gráficas, que podrían dar el salto a una filosfía multi-core como ya hicieron los procesadores de propósito general hace años. El impacto en la potencia de cálculo de estos procesadores podría ser notable, y ahora solo queda por ver lo que nos preparan tanto AMD como NVIDIA en este campo en los próximos meses.
Vía | TweakTown
Más información | NVIDIA
En Xataka | Nvidia GTX 1080 Ti: más potencia que la Titan X por menos de 700 dólares
Ver 47 comentarios
47 comentarios
odelrio
Mmm... No. Las GPU tienen muchos cores desde hace años. De lo que habla la fuente es de hacer módulos compuestos de varias GPUs (wikipedia.org/wiki/Multi-chip_module).
velocidad
"que seguían integrando procesadores con un único núcleo. "
"En NVIDIA ya han realizado una simulación con 256 SM (Streaming Multiprocessor) que integraría 16.384 núcleos en lugar de los 5.376 que integra ahora mismo"
Perdón?
Ya no es que no sepáis que las GPU desde hace mucho tiene aún más núcleos que las CPU, sino que es además lo escribís contradiciéndoos a vosotros mismos y os quedáis igual.
leonardovalentin
Hace varios años que las GPU son multicore (stream processors) o (Cuda Cores) este articulo se refiere a juntar varias GPU que ya son multicore en una t. grafica....
Letxau
En primer lugar gracias por poner el link al paper de Nvidia, es de agradecer por que facilita en gran medida profundizar en la noticia.
Tras leer el paper, el problema para este tipo de arquitecturas esta en el BUS que interconecta los distintos módulos de procesamiento. Ya dicen en el paper que la simulación se realiza suponiendo un capacidad de transferencia de datos que a día de hoy no esta disponible en ninguna gráfica del mercado. Por lo tanto les queda bastante trabajo por delante.
Y luego están los fabricantes de tarjetas gráficas, a los que creo que no les hará mucha gracia. Al fin y al cabo van a tener que empaquetar varios procesadores y modulos de RAM en prácticamente el mismo espacio. Va a ser un desafío de integración.
Si bien la idea me gusta por que podría simplificar la elección de los consumidores, ¿cuantos módulos de proceso quieres? 2, 4, 6, 8. A saber hasta donde podrían llevarlo.
unopai
El que ha escrito el artículo no sabe ni de lo que está hablando, así de claro.
danielmendez1
Error en el titulo de esta noticia, no es multi-core, es multi-chip. Y el multi-chip ya se habia intentado antes, estan por ejemplo las GTX 590 y GTX 690, pero como siempre los resultados del multi-chip, o bien multi-gpu, siguen siendo cuestionables ya que requieren optimizaciones de software especificas.
satelitepro
En todos éstos años ha quedado claro que los procesadores multi-core, al menos para uso doméstico, no eran necesarios, pero no por el Hardware, que puede ser una maravilla de la tecnología "enfrascar" varios núcleos en algo tan pequeño, sino por el Software, que no termina de aprovecharse de ella...si la idea es replicarlo con las gráficas y el resultado es el mismo, cómo marketing, estupendo, cómo algo necesario...
¿Cuando se van a molestar en OPTIMIZAR LOS JUEGOS, evitar que salgan con una buena colección de bugs y venderlos cómo "terminados"? Pienso que es mucho más prioritario que crear gráficas "multi-un montón de cosas".
fanios
Anda que no es difícil entender el artículo. Me tendré que ir a la fuente.
usergeek
El chip volta de la imagen es enorme no porque tenga más nucleos cuda, sino tambien lleva la memoria hbm2. El futuro en las gráficas gaming esta claro, memoria hbm2 (pasando por gddr5x) y más cores. ¿lo que se refiere el autor es un sli / crossfire?
ivanmcfly
Los que no parais de criticar cuando vais a hacer vosotros un articulo? es más.. que coño hacéis leyendo si no os gustan? madre mía.. lo quereis todo mascao, gratis y encima exigiendo.
miguel.camba.9
Hasta donde yo se, AMD ya tiene varias tarjetas con dos chips en uno. Las llamabas X2, y era básicamente un SLI de dos tarjetas en la misma placa.