Intels grafikkort Arc försenas till årets andra kvartal

Permalänk
Medlem

Det jag tyckte var intressant var "Falcon Shores" 2024 med x86 CPU + Xe GPU (XPU) tillsammans i samma sockel med 5x prestanda per watt, 5x beräkningstäthet, 5x minneskapacitet och bandbreddsförbättringar, baserat mot prestanda februari 2022.
Även om det är för superdatorer så är det kanske en fingervisning om vad man kan förvänta sig i framtiden.
https://www.intel.com/content/www/us/en/newsroom/news/intel-t...

Permalänk
Hjälpsam

Raja verkar i alla fall vara väldigt glad, trots förseningen.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av Sveklockarn:

Att Nvidia kapar samarbetet med Samsung efter bara en generation känns dock som att Samsung måste misslyckats med att leverera en tillfredsställande produkt. Tittar man på historiska Nvidia-produkter så är det dubbel-GPUer från 500/600/700-serien som varit uppe på de effekter vi ser i toppen nu, det normala har annars varit <250W för ett kort med 80-suffix.
Intel Alder Lake är dock första generationen av en ny teknologi från Intel, och med de rykten om utökade kärnantal (dubbla antalet P-kärnor) vi kommer få med Raptor Lake så måste de ha optimerat strömförbrukningen rejält. Toppmodeller kan säkert bli törstiga i framtiden också, men det är inte rimligt att övre mainstream-segmentet (i7/i9) drar uppåt 250W utan överklockning -- inte minst eftersom det inte kommer gå att kyla med några normala CPU-kylare.

Saken är att vi lever i en annan tid nu gällande hur mycket prestanda företagen vill leverera ur sina produkter från fabrik.
Historiskt som du nämner så fanns det ofta väldigt stora spelrum för överklockning just pg.a tidigare filosofi.
Inte sällan gick det att överklocka sin processor över 1GHz på en enkel luftkylare som tex EVO212.

Denna tid kommer vi aldrig att komma tillbaka till eftersom företagen nu ser mer vinning i att kräma ur arkitekturen än mer från fabrik. Det kan man även se på tex sweclockers tester senaste åren. Väldigt små marginaler som finns kvar för överklockning.

Resultatet av detta är högre strömförbrukning till följd av att trycka ur än mer från arkitekturen. Skulle företagen gå tillbaka från det koncept de startat kommer någon av dem gå förlorande ur den striden rent prestandamässigt. Som vi vet så säljer högre siffror och prestanda mer än vad högre strömförbrukning tappar köpare.
Därför kommer detta högst troligt aldrig ske.

Permalänk
Medlem
Skrivet av wibbe44:

Saken är att vi lever i en annan tid nu gällande hur mycket prestanda företagen vill leverera ur sina produkter från fabrik.

Det är dock en annan femma. Poängen är att det inte finns någon självändamål i hög strömförbrukning, sen är det antagligen så med t.ex. GeForce 30-serien att Nvidia blev tvungna att pressa upp TDPn när Samsungs process underpresterade, för att Nvidia skulle nå prestandamålen de satt upp för kretsen.

Skrivet av wibbe44:

Resultatet av detta är högre strömförbrukning till följd av att trycka ur än mer från arkitekturen.

Jag håller med till viss del. Vi såg ett rejält hopp upp vid GeForce 200-serien, där det blev "normalt" att ett grafikkort började dra runt 200W, men jag tror inte det är en slump att så många efterföljande kort hållit sig inom intervallet 200-250W, utan att det är där man har en effekt som går att kyla bort utan risk för att kortet låter som en jetmotor.

Skrivet av wibbe44:

Skulle företagen gå tillbaka från det koncept de startat kommer någon av dem gå förlorande ur den striden rent prestandamässigt. Som vi vet så säljer högre siffror och prestanda mer än vad högre strömförbrukning tappar köpare.
Därför kommer detta högst troligt aldrig ske.

Jag tror ändå inte på någon generell och långsiktig ökning för att vi haft en dålig generation.

De gränser som existerat under en lång tid (<500W för hela systemet) är antagligen där av praktiska termiska/akustiska skäl, inte för att det inte skulle gått att pressa ut mer prestanda ur föregående generationer om man låtit strömförbrukningen skena.

En annan aspekt är att datorkomponenter i stort hittills helt sluppit regleringar för hur mycket energi de får förbruka, men att de inte kommer kunna flyga under radarn hur länge som helst om inte tillverkarna själva börjar prioritera energiaspekterna och ser till att vi får effektivare system. Det skulle suga mycket mer om några boomerkrater i Bryssel plötsligt bestämde att en PC inte får dra mer än 300W, än att tillverkarna frivilligt ser till att deras produkter är energieffektiva och energisnåla.

Permalänk
Medlem
Skrivet av Sveklockarn:

Du kommer inte se en x80 kort för stationära datorer med 250 W förbrukning. Det är historia. 300 minimum, skulle snarare säga närmare 350+ är vad vi bör räkna med framöver.

Permalänk
Medlem
Skrivet av Sveklockarn:

Det är dock en annan femma. Poängen är att det inte finns någon självändamål i hög strömförbrukning, sen är det antagligen så med t.ex. GeForce 30-serien att Nvidia blev tvungna att pressa upp TDPn när Samsungs process underpresterade, för att Nvidia skulle nå prestandamålen de satt upp för kretsen.

Det finns dock inget belägg på att Samsungs process skulle ha underpresterat. Det är endast rykten.
Tittar vi på AMD som kör med TSMC så ligger tex RX 6800XT och RTX 3080 inom en differensmarginal om 25W under belastning.
Detta enl. Sweclockers test.
I och med det skulle inte jag kalla Samsungs tillverkningsprocess som ineffektiv. TSMC och Samsung känns jämbördiga.
Det är även därför AMD drar ungefär lika mycket. De vill precis som Nvidia få ut maximalt av arkitekturen.

Permalänk
Medlem
Permalänk
Hedersmedlem
Skrivet av Sveklockarn:

Intel slår en 1:a, snubblar på en osynlig sköldpadda och missar automatiskt nästa lansering...

Det är bara en tidsfråga innan Nvidia kommer ta merparten av all uppmärksamhet på GPU-marknaden genom att lansera GeForce RTX 40-serien, så om Intel inte hinner börja sälja sina kort innan så kommer de nog få problem att få kunder att nappa på någon annan kvalitet än ett lågt pris.

DnD-regler. Usch. Tacka vet jag D&D Expert-regler.

Visa signatur

|| SWECLOCKERS.COM ||
|| Självutnämnd Silverstone FT02-riddare ||
|| Silverstone FT02B-WRI "Limited Edition" No. 0743 & 0640 ||
|| Sweclockers officiella FT02-tråd ||

Permalänk
Medlem

Alltså det som drivit upp priset på grafikkort är att det har tillverkats 20-30 % mindre än vad marknaden efterfrågar . När nu satsningarna börjar synas hos Nvidia och Amd är 4 miljoner inte fy skam . skulle mining störtdyka så är det dock för sent då lär dom få skänka bort korten . Vet inte när proof av stake men det borde närma sig .

Visa signatur

Dator 1 5800x 32 GB ram B550 plus TUF Kingston 3000 2048 GB EVO 870 QVO 4TB ASUS 370 ti TUF RM 750 X Corsair 4000D Airflow Noctua NH-D15S WIN 10 ASUS PG279Q skärm

Permalänk
Medlem

Nån som har koll på ifall Blender kommer stödja GPU-rendering på dessa kort? Blender har ju tagit bort OpenCL till förmån för CUDA/Optix samt AMD:s HIP, men jag har inte hört nåt om huruvida Intel har nåt att komma med här.

Permalänk
Quizmaster Malmö 22

Men! Jag som skulle återvända till PCn!

Nåväl….

Skrivet av wounds:

Intel: Jag glum 💀

Förstår överhuvudtaget inte va det ska betyda 😐

Visa signatur

[Gigabyte EP35-DS4][Intel Core 2 Duo E8400 3.0 Ghz][2x2GB Corsair XMS 2][Gainward GTX 570][Sandisk Extreme II 480GB][Corsair HX 620W][Fractal Design Define XL R4][Acer GD245HQBID]

Permalänk
Medlem
Skrivet av wibbe44:

Det finns dock inget belägg på att Samsungs process skulle ha underpresterat. Det är endast rykten.
Tittar vi på AMD som kör med TSMC så ligger tex RX 6800XT och RTX 3080 inom en differensmarginal om 25W under belastning.
Detta enl. Sweclockers test.
I och med det skulle inte jag kalla Samsungs tillverkningsprocess som ineffektiv. TSMC och Samsung känns jämbördiga.
Det är även därför AMD drar ungefär lika mycket. De vill precis som Nvidia få ut maximalt av arkitekturen.

I vilken annan GeForce-generation har det skiljt 100W TDP mellan korten med 70- respektive 80-suffix?

En lista med de fem senaste generationerna och differensen i TDP mellan 70/80-korten:

20-serien har 40W differens.
10-serien har 30W differens.
900-serien har 17W differens.
700-serien har 20W differens.
600-serien har 25W differens.

Den enda förklaringen som finns kvar är att GPUn i 30-serien var för dålig för att nå prestandanivåerna de hade tänkt sig, och därför fick de trycka på med närmare 50% högre energiförbrukning för att nå dit med till buds stående medel. Samma fenomen kan observeras när man når taket för vad en CPU klarar av, att energiförbrukningen sticker iväg orimligt mycket i förhållande till den marginella prestandaökningen.

Vad ett AMD-kort med en annan arkitektur har för energiförbrukning är helt ointressant i sammanhanget.

Permalänk
Medlem
Skrivet av Sveklockarn:

I vilken annan GeForce-generation har det skiljt 100W TDP mellan korten med 70- respektive 80-suffix?

En lista med de fem senaste generationerna och differensen i TDP mellan 70/80-korten:

20-serien har 40W differens.
10-serien har 30W differens.
900-serien har 17W differens.
700-serien har 20W differens.
600-serien har 25W differens.

Den enda förklaringen som finns kvar är att GPUn i 30-serien var för dålig för att nå prestandanivåerna de hade tänkt sig, och därför fick de trycka på med närmare 50% högre energiförbrukning för att nå dit med till buds stående medel. Samma fenomen kan observeras när man når taket för vad en CPU klarar av, att energiförbrukningen sticker iväg orimligt mycket i förhållande till den marginella prestandaökningen.

Vad ett AMD-kort med en annan arkitektur har för energiförbrukning är helt ointressant i sammanhanget.

Det spelar väl högst roll att jämföra AMD och Nvidia i denna fråga just av den anledningen att de kör olika arkitekturer.
Hade ditt argument stämt så hade tex AMD dragit bra mycket mindre än Nvidias motsvarighet. Något som så inte är fallet.
Av det kan man dra slutsatsen att det beror på hur avancerade kretsar man nu kommit upp till som kräver denna förbrukning för att prestera.
Senast idag klubbades nya ATX 3.0 standarden av exakt samma orsak, nämligen att framtidens grafikkort kommer dra än mer än dagens. Den nya kabeln kommer kunna leverera upp till 600W via en enskild kabel. Vem vet, kanske grafikkort kommer kräva 2st sådana kontakter någon gång framöver?
Det är som sagt den nya standarden och inget tyder på att det kommer ändras i närtid.