Anmäl dig till Roborock Challenge!

Intel rullar ut Xe-grafik för datacenter

Permalänk
Melding Plague

Intel rullar ut Xe-grafik för datacenter

Intel tar upp kampen med AMD och Nvidia på datacenterfronten och presenterar både beräkningskort och processorer med HBM-minne i stora lass.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk

Rekordlång tid utan någon kommentar?

On topic: Gött. Gillar Intels grafiksatsning.

Visa signatur

1

Permalänk
Medlem

Verkar surra mycket om Epyc idag

Visa signatur

9950X3D ROG CROSSHAIR X870E HERO 96-6000c30 RTX5090 Gaming OC || 7950X B650 Gaming Plus WIFI 32-6000c30 RTX5080 TUF OC(450w) || 12900KF Z690 Tomahawk WIFI 64-3600c16 Gear1 RTX4080 Ventus 3X OC(400W) || 5900X(B2) B550-F 32-3800c18 RTX3080 TUF OC V2 || 5800X3D CH VIII EXT. 32-3600c18 RTX3080 Gaming OC || 3900X CH VIII Hero 32-3000c16 RTX2070 Super || Thinkpad P16s G2 PRO7840U 32-6400 780M 1TB 980Pro

Permalänk

Inte för att vara den. Skall de också införa samma skitkontakt som är ett skämt på hög nivå.

Jaha HBM var inte bra när AMD körde det och nu påstår Intel att de är bäst med samma minne standard.

Permalänk
Medlem
Skrivet av Buddaz112:

Inte för att vara den. Skall de också införa samma skitkontakt som är ett skämt på hög nivå.

Jaha HBM var inte bra när AMD körde det och nu påstår Intel att de är bäst med samma minne standard.

HBM var det väl aldrig något fel på? Det var bara inte så kostnadseffektivt i konsumentprodukter..

Permalänk
Medlem

Kul för Intel antar jag, jag äger dock inget datacenter, vad betyder denna nyhet för mig, någon som kan förklara?
Någon här som äger ett?

Permalänk
Medlem

Ska bli intresant att se tester. är nog viktigt att de presterar bra så de fortsätter satsa på grafikkort & inte lägger ner. tror detta är viktigare än konsumentkort för intel & om det floppar så är väl risken att vi får en kort tid med en 3dje part på graikkortsidan.

Visa signatur

Arne Berg

Permalänk
Medlem

Dags att investera i halonsläckar tillverkare om de kör på 12VHPWR!

Visa signatur

Main: 5800X3D | Arctic Freezer III 360 | ROG STRIX B550-I | 32 GB DDR4@3600 MHz | Asus RTX 4080 Super TUF | Corsair RM850e | Fractal Design Define S

Permalänk
Medlem
Skrivet av Spretcher:

Dags att investera i halonsläckar tillverkare om de kör på 12VHPWR!

Sådana kontaktdon testas ordentligt innan det blir standard. Både för strömspikar och kontinuerlig last. Sen kan du få vilken kontakt som helst att brinna om det blir ett glapp så att en liten ljusbåge bildas. Den skär igenom plasten som en plasmaskärare.

I kontakter som har en spärr så ska man alltid trycka in så långt det går och sen försöker man dra ut den för att se om kontakten är låst. En adapter som
Är undermålig designad kan man inte lasta 12VHPWR för.

Permalänk
Datavetare
Skrivet av Buddaz112:

Inte för att vara den. Skall de också införa samma skitkontakt som är ett skämt på hög nivå.

Jaha HBM var inte bra när AMD körde det och nu påstår Intel att de är bäst med samma minne standard.

Det finns fördelar och nackdelar med olika teknikval, i fallet HBM är det ändå bra att AMD testade tekniken i konsumentprodukter. Slutsatsen blev att för konsumentprodukter väger nackdelarna (högt pris) tyngre än fördelarna (väldigt bra perf/W och exceptionellt hög bandbredd).

Intel, Nvidia och AMD använder alla HBM för datacenter GPUer. För dessa överväger fördelarna med HBM. Dessa GPUer är så stora och krävande att andra minnestekniker inte kan leverera tillräckligt med prestanda och/eller effektbudgeten skulle sprängas för att nå motsvarande bandbredd med GDDR.

Skrivet av Dem8n:

Kul för Intel antar jag, jag äger dock inget datacenter, vad betyder denna nyhet för mig, någon som kan förklara?
Någon här som äger ett?

Indirekt betydelse av detta är att likt Nvidia och AMD används samma grundläggande programvara för GPGPU både i datacenter som för konsumentprodukter.

Intels "svar" på Nvidias CUDA (som i nuläget totalt dominerar GPGPU) heter OneAPI, ett väldigt omfattande ramverk som Intel redan jobbat på under flertalet år och som de lägger väldigt stora resurser på. Kikar man på tester av Intel Arc ser vi att det finns mer jobb att göra på programvara för 3D-grafik.

Enda gången Nvidias VD gjort någon kommentar kring Intels GPU-satsning är när han kommenterade OneAPI. De kommentarer som kom från Jensen var naturligtvis nedlåtande, det är hans jobb att spela ned konkurrenter. Att han överhuvudtaget kände sig tvingad att kommentera OneAPI indikerar nog ändå att Nvidia inser att Intel har något som kan utmana CUDA!

Till skillnad från vad vi ser för speltitlar så uppvisar Intels GPGPU-stöd redan nu direkt lysande prestanda och man har redan en väldigt brett stöd i olika programvaror. Arc presterar redan på förväntad nivå mot CUDA. Mot OptiX som används i 3D-rendering ligger man efter Nvidia, men Intel har motsvarande HW-stöd som Nvidia och man jobbar på ramverk som kommer motsvara OptiX (kommer nog först till Blender, det under 2023).

Klicka för mer information
Visa mer

Enda som sticker ut åt det negativa håller är Blender Eevee, men då detta i praktiken är traditionell 3D grafik indikerar det bara att Intel har hemläxa att göra på 3D-grafiksidan (fokus har uppenbarligen legat på GPGPU då det är vad man måste ha i datacenter).

Vill man se detta med "glaset halvfullt" ögonen så betydligt detta rimligen att det finns en hel del prestanda att hämta vad det gäller spelprestanda om/när man får ordning på 3D-grafik delen i drivarna.

Klicka för mer information
Visa mer
Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Dem8n:

Kul för Intel antar jag, jag äger dock inget datacenter, vad betyder denna nyhet för mig, någon som kan förklara?
Någon här som äger ett?

GPUs är framtiden i datacentret (och HPC generellt), alltfler uppgifter görs av GPUer och den här trenden kommer fortsätta. Om de inte är med där så är det game over för Intel. Konsumentmarknaden är kul men inte lika avgörande för deras framtid. När de ändå bygger ut GPU arlitekturer kan de likaväl försöka ta en bit av den kakan med.