Apple acaba de estrenar un nuevo microprocesador de la familia M1. Y, según los de Cupertino, es el más potente de todos. Sus cifras prometen. Mucho. Y es que incorpora 20 núcleos de CPU, 64 núcleos para los gráficos, y tiene una potencia de 21 TFLOPS. No obstante, estas cifras solo nos cuentan una parte de la historia.
Durante la presentación de este chip los portavoces de esta compañía han asegurado que el incremento de la potencia de este microprocesador no condiciona lo más mínimo su eficiencia. Tiene sentido si tenemos presente que su microarquitectura es la misma utilizada por los demás procesadores de esta familia.
Además, los otros chips M1 nos han demostrado en nuestras pruebas que su eficiencia es muy competitiva, por lo que es razonable que esta nueva versión hipervitaminada de esta CPU mantenga intacta esta característica (algo que comprobaremos tan pronto como el primer ordenador equipado con este chip caiga en nuestras manos).
Más potencia que nunca, pero la misma eficiencia de siempre (según Apple)
Una de las primeras diapositivas utilizadas por los portavoces de esta marca para dar a conocer el nuevo chip M1 Ultra reflejaba con claridad que este procesador multiplica por dos la superficie del M1 Max. Lejos de ser anecdótico, este dato nos invita a intuir que la cantidad de transistores integrada por Apple en el procesador M1 Ultra es sensiblemente superior (lo están fabricando utilizando fotolitografía de 5 nm e incorpora 114 000 millones de transistores).
16 de los 20 núcleos de propósito general integrados en la CPU son de alto rendimiento, mientras que los 4 núcleos restantes priorizan la eficiencia, por lo que serán los responsables de procesar aquellos hilos de ejecución (threads) que no son críticos desde el punto de vista del rendimiento.
Los núcleos de alto rendimiento se apoyan en una caché de instrucciones de 192 KB, una caché de datos de 128 KB, y comparten una caché de nivel 2 de 48 MB. Por otro lado, los núcleos de alta eficiencia tienen a su disposición una caché de instrucciones de 128 KB, una caché de datos de 64 KB, y, por último, comparten una caché de nivel 2 de 8 MB.
Estas cifras sobre el papel pintan realmente bien, aunque hasta que no probemos un equipo con el chip M1 Ultra no sabremos con certeza en qué medida aventaja al procesador M1 Max.

Vamos ahora con la lógica gráfica. En la siguiente diapositiva podemos ver que el chip M1 Ultra incorpora 64 núcleos dedicados al procesamiento de los gráficos. Ahí van algunas cifras que pretenden ilustrar el rendimiento que nos promete esta lógica: incorpora 8192 unidades de ejecución, puede procesar de forma concurrente nada menos que 196 608 hilos de ejecución, tiene una potencia de cálculo de 21 TFLOPS, una tasa de relleno de texturas de 660 Gtexeles/s, y, para concluir, una tasa de píxeles de 330 Gpíxeles/s.
Estas cifras son absolutamente espectaculares. De hecho, rivalizan sin el más mínimo complejo con las que nos proponen los procesadores gráficos para equipos de sobremesa más potentes disponibles actualmente. Será muy interesante comprobar cómo rinde esta lógica gráfica en un escenario de uso real, pero no cabe duda de que promete. Mucho.

Una de las cualidades que los usuarios más apreciamos de los procesadores de la familia M1 es su estupenda relación rendimiento/vatio. Y, según Apple, el nuevo chip M1 Ultra mantiene intacto el pedigrí de las otras CPU de esta familia. La siguiente diapositiva persigue poner en contexto el rendimiento y el consumo del procesador M1 Ultra comparando sus cifras con las que arroja un PC equipado con un procesador Intel Core i9-12900K y memoria DDR5.
Es evidente que Apple es parte interesada, y no conocemos con detalle en qué condiciones y con qué software ha elaborado esta gráfica, pero no cabe duda de que estas cifras contribuyen a generar unas expectativas muy altas alrededor del chip M1 Ultra. Posiblemente no tardaremos mucho en poder confirmar si estos números reflejan fielmente la realidad, pero, de nuevo, son muy prometedores.

Apple ha disparado las expectativas alrededor del procesador M1 Ultra
Las características en las que acabamos de indagar no son las únicas que esta marca ha dado a conocer para describir el potencial del chip M1 Ultra. Apple también ha desvelado que el bus que actúa como interfaz de comunicación entre las distintas unidades funcionales de este microprocesador es capaz de alcanzar una velocidad de transferencia de 2,5 TB/s, una cifra extraordinariamente competitiva si la comparamos con las que nos proponen otras CPU actuales.
Más datos interesantes. El ancho de banda máximo del bus de memoria asciende a 800 GB/s, y la lógica que se responsabiliza de ejecutar los algoritmos de inteligencia artificial (que tiene 32 núcleos) es capaz de llevar a cabo 22 billones de operaciones por segundo (son billones de los nuestros, no de los anglosajones). Por último, el procesador M1 Ultra puede direccionar un máximo de 128 GB de memoria principal.
Las cifras que ha dado a conocer Apple hoy para 'vendernos' su microprocesador más potente impresionan. Lo más prudente es que no nos dejemos llevar por el entusiasmo hasta que tengamos la oportunidad de probar el primer equipo con este chip, pero tanto el rendimiento global como la relación rendimiento/vatio de los otros procesadores de la familia M1 nos invitan a prever que, efectivamente, el chip M1 Ultra debería ser una CPU muy competitiva. Crucemos los dedos y confiemos en poder averiguarlo muy pronto.

Ver 102 comentarios
102 comentarios
togepix
Sin tregua, sin competencia.
Mientras en INTEL están con su hoja de ruta filtrada planeando alcanzar a Apple con el M1 basico de 2020.... en 2023.
lobob
Sinceramente... espectacular. La supuesta "competencia" no les llega ni a los talones.
pedrosalguera
¿Dónde está Miguel?
Usuario desactivado
una bestia parda y aun queda el SoC mas potente de la gama que montarán en los MacPro que supuestamente serán 2 M2 Ultra unidos.
En cuanto al equipo me parece un producto mas que necesario dentro de su gama de escritorio, el salto de un Mini a un MacPro era tan abismal que dejaba fuera de mercado a muchisimos profesionales, parece que ha vuelto la coherencia a Apple.
nessness
Puede correr Crisys?
isolatedoctopi
Son arquitecturas diferentes ya esta
Es como si me quisieras comparar un procesador octacore de movil ARM (la misma arquitectura que utiliza apple para sus M1),
con un Intel i5-11600 de 6 cores y quisieras creerte que el octacore que lleva el movil es mas potente, porque claro como lleva 8 cores frente a los 6.... pues no señor,
las cosas no funcionan así
Que esta muy bien que apple le de caña a los procesadores ARM (que son de los que han vivido estos últimos años iPad, iPhone)
Si te crees que los M1 son más pontentes que un procesador de escritorio de los de hoy en día y/o que ofrecen las mismas caracterñisticas, pues... vas bastante equivocado
Los fans de apple siempre se creen tienen lo mejor en cuanto a hardware, y eso esta bastante lejos de la realidad
El moviento de pasarse a ARM fue porque es de donde esta la mayor parte de su producción, y les salia más a cuenta unificar las lineas de producción
Después.. como los ARM de hoy en dia empiezan a ser bastante cañeros pues les ha venido bien porque los han podido enchufar en portatil y hasta en sus desktop
pero bueno... un ARM nunca ha sido pensado para desktop, y tienen carencias, los M1 tienen grandes carencias en cuanto a montar una estación de trabajo con eso
para moviles, tablets, portatiles ligeros :: allí si que tienen un buen rendimiento, ás que nada debido a su bajo consumo (que por eso se han puesto en movil los ARM)
pero que pasa... si hubieran liquidado su linea de desktop hubieran dejado claro que sus chipsets no son tan potentes como eran antes y/o que carecen de características a tuti plen y eso no va bien para el marketing
De otro lado, ahora mismo la Gen 12 de Intel (la más nueva que ha salido ahora en 2022) ha empezado a incluir micro nucleos en el procesador, para solucionar el problema que tienen ellos en cuanto a consumo. Tiene una nueva arquitectura
Entonces en los portatiles pueden activar los nucleos de bajo consumo y solo enchufar los de alto si el equipo realmente lo necesita
pedroteapple70
Recordad que es un equipo para profesionales, que para una empresa este precio es un chollo porque lo amortizan en un par de años o menos. La rapidez con que realizan los cálculos estos equipos suponen un ahorro impresionante de dinero en tiempo. Claro está que para la mayoría de nosotros es un precio carísimo, pero también es cierto que no íbamos a aprovechar ni la cuarta parte del potencial que tiene.
Usuario desactivado
Pregunta para manzaneros con poder adquisitivo y razones para comprar un equipo con este tipo de chips y equivalentes de Intel y AMD, ¿que clase de procesos de trabajo requieren tener un equipo de 4000 dólares con 100 nucleos a cuatro gorilones de teraflops corriendo a 2tbps en una pantalla 5k? ¿Exactamente de que manera llegan a aprovechar tanta potencia bruta y justificar el desembolso de tanto dinero?
Atte: pobre diablo que tiene una laptop de hace 8 años que corre todo a no más de 720p.
TOVI
Buenisima tecnología de cara al futuro.
Limitaciones de software actuales, se solventarán en el futuro.
Precio elevadisimo y para público reducido.
darkyevon
Es sorprendente pero la única marca del mundo que puede permitirse sacar procesadores a esos precios para consumidores normales es Apple. Por lo que valdrá este te podrías comprar un ordenador que llevara x6 procesadores de 16 núcleos de la competencia. Al final alguien que requiere esos niveles de potencia lo que le interesa es la máxima potencia al menor precio, y mas en el lado de servidor que en el de un ordenador que hace de cliente. De que sirve que sea tan eficiente energéticamente si con la diferencia de precio te pagas la factura eléctrica de 3 años? Eso no lo dicen, a ver cuanto sale la potencia / euro. Aún así bravo porque están demostrando que la arquitectura ARM es el futuro y puede competir de tú a tú sobradamente en PC. Y mas conseguir esas potencias con esa eficiencia y casi sin ventiladores ni ruido. No me parece mala idea el juntar memoria con el procesador para conseguir esas velocidades y eficiencias. Al final cuando te renuevas el pc lo tienes que hacer casi todo a la vez ya que salen nuevas tecnologias que lo hacen no compatible al procesador con la ram.
RamonYo 😬
Me gustaría ver la comparación con un Threadripper...
royendershade
Pues muy buenas noticias para todos.
En principio jamás compraria productos Apple (mucho tendria que cambiar todo el mercado y la versatilidad de sus sistemas), pero esto solo va a obligar mas aun a ponerse las pilas a otras compañias. Y a los que aprovechen esta tecnologia, pues mejor que mejor.
twikzer
por que la gente se empeña en comparar 2 arquitecturas distintas? que coincide que algunas cosas las pueden ahcer las 2? si, pero estan pensadas de forma distinta, cuantas vm aguanta un M1 e apple? le puedes meter citrix, esxi, hyperv? que tal aguanta los juegos? puedes actualizar solo las partes que quieras? como la ram, la gafica, etc?
juanlopera1
¿Alguien más piensa que esto parece ideal para una granja de servidores?
oracon
Otra noticia importante es que Apple ficha a Olivier Giroux de Nvidia como nuevo director de Arquitectura de GPU.
El es prácticamente la visión de Nvidia en el tema de las GPU.
Su trabajo en la zona del hardware, mas crear un puente para el Software mediante usar el estándar C++ ISO, tiene múltiples presentaciones sobre su visión y trabajo.
En general las GPUs son las CPUs del futuro, el problema con aumentar el rendimiento mononucleo de las CPU se ve desde hace décadas, al final la latencia de comunicación entre la memoria RAM y el CPU genera un limite para el rendimiento de programas secuenciales, las CPU para esta diferencia de cientos de ciclos de procesaron para acceder a memoria tienen desde jerarquías de memoria cache, sistemas de ejecución fuera de orden y sistema tras sistema que se pelea para mejor el rendimiento de esto, lo que se traduce en usar mas y mas transistores para ganancias cada vez menores, una carrera que deja el aumento del rendimiento en monohilo bastante lento en la ultima década.
Las GPU nacieron para carga grafica, tomar y hacer transformaciones sobre todos los pixeles de la pantalla para arrogar la cantidad de frames por segundo, el sistema desde siempre esta sobre el paralelismo, en este sentido Nvidia fueron quienes se lanzaron con todo para usar este desarrollo para tareas fuera de los videojuegos, con CUDA y sus generaciones de chips gráficos, con lo que cosecharon el éxito en el Deep Learning y otras áreas.
En este sentido las GPUs han evolucionado para obtener el máximo rendimiento paralelo, mientras las CPU para obtener mayor rendimiento mononucleo y luego pegar CPUs para mayor rendimiento.
La programación de meter muchos núcleos complejos CPU para acelerar tareas vs en una GPU, en ciertas tareas las GPU ganan por mucho, la programación multinucleo es muy compleja y al final cada nucleo complejo como los de CPU tienen que repetir todo el sistema de rendimiento que hablamos mas todo tipo de sistemas de sincronización y todos esos núcleos pegados, en las GPU es un diseño de núcleos simples que estan integrados en un sistema comunicación por lo que se puede meter mas computo por silicio, con lo que parte del existo de las GPU en computo es que terminaron siendo mas sencillas de programar y mucho mas potentes, y con las generaciones son cada vez mas capaces de hacer tareas.
En este caso la vision de Olivier Giroux, es poder meter en una GPU un lenguaje como C++, los sistemas de sincronización de memoria, concurrencia y demas como simple código C++ transparente, con esto es bajo un lenguaje que se enmascara toda la complejidad de la CPU, solo se definen los procesos de computo y memoria, con esto se puede generar todo un ecosistema de software acelerado por GPU, en este caso la CPU es relegada a los procesos que son extremadamente secuenciales, parte del trabajo futuro de Nvidia es tener una integración absoluta en temas CPU/GPU, aunque se habla de la memoria unificada de los Apple silicon eso solo es el primer paso, donde las direcciones de memoria para los datos en CPU y GPU se compartan sin necesidad de un proceso de traducción las direcciones de memoria, el trabajo futuro de Nvidia es con NVlink donde la CPU y GPU estan comunicados con un bus de altísima trasferencia mas ultrabaja latencia, al tener también un lenguaje unificado y transparente, se tiene poder escribir codigo ultra optimo que diferencia las partes de GPU y CPU, con lo que cada cual pueden ser usados de forma optima, con esto se abre de forma monstruosa la capacidad de acelerar procesos de computo, mas ser mucho mas facil de programar, el ejemplo que da Nvidia es el aprendizaje reforzado(es usar la idea de emular un sistema y que mediante experimento el sistema aprende de cada situación), donde se necesita una simulación en CPU secuencia de un sistema y el sistema de Deep learning para el aprendizaje este siendo altamente paralelizable en GPU, aqui el cuello de botella es la comunicación entre GPU y CPU.
Con esto la GPU se convierte la CPU del futuro al ser mas facil paralizar tareas, esto puede usarse para AR/VR y todo tipo de sistemas, mas cosas futuras como apilar GPU en configuraciones 3D siendo el modelo de GPU mas paralelo se vuelve mas facil de programar.
En este sentido la vision que tiene Apple sobre las GPU cambiara bastante mas a la misma que los lideres del mercado actual.
ambigus9
¿Se sabe si este M1 Ultra lo agregaran en una MacbookPro?
avfenix55
Comprar Apple va de la mano en meterte en un ecosistema cerrado, y en ese sentido no hace competencia al PC de forma directa. Pero en este caso hablamos de un producto enfocado al sector profesional, y si ofrece una serie de características que no puedes encontrar en un PC profesional con una potencia equivalente, el PC puede perder gran parte de ese mercado profesional.
Otro tema que hay que tener en cuenta, es que sí, el rendimiento / watio es mucho mejor que el de los x86 de AMD e Intel, pero esto está fabricado a los 5 nm avanzados de TSMC, versus los 7 nm de TSMC de las CPUs AMD y el Intel 7 de las CPUs Intel. Habría que ver las CPUs x86 diseñadas y fabricadas con ese proceso más avanzado de TSMC, y seguramente ya no habría tanta diferencia de eficiencia. En este sentido Apple está jugando con la ventaja de haber conseguido un proceso de fabricación que está 2 años más avanzado tecnológicamente que el que usan Intel y AMD. Y en este campo, 2 años son como 10 años en otros sectores. Apple está fabricando sus Apple M1 con la mejor tecnología disponible, y AMD e Intel, no. Y ya no solo se trata del proceso de 5 nm, sino que si tienes un proceso más avanzado tienes más posibilidades de implementar un diseño más avanzado. Y aquí se está viendo que Apple con esto está un par de años más avanzado que Intel y AMD. Pero no porque sean más listos e innovadores, sino porque han logrado un trato de preferencia con TSMC.
Huchz
4629€ sin palabras
justizziero
Pues el articulo se me queda corto, viendo vídeos en youtube de los datos de este "socket" que realmente es un CHIPLET y no veo esa palabra en todo el artículo....
EL M1 Ultra son 2 M1 Max unidos por un conector, se ve hasta en el dibujo, de nada por resumir el artículo correctamente.
Gonzalo
A mi las cifras en bruto me dan más o menos lo mismo, sirven para crear hype y eso las marcas lo saben. Cuando esté disponible para los tests independientes hablamos de cargas de trabajo reales y ahí es donde tiene que destacar. Recordaros que el M1 iba a ser lo mejor de lo mejor y a la hora de la verdad le pasaban la mano por la cara hablando de rendimiento cualquiera de las gamas altas de AMD e Intel.