Rykte: Intel avtäcker grafikkort på CES 2019

Permalänk
Medlem
Skrivet av ThomasLidstrom:

Wow!
Detta är bra.
Nvidia har precis misslyckats med sin rövare med att prostituera tillverkare.
Nu har vi tre spelare i GPU-marknaden, Intel ligger för tillfället hopplöst efter men har egna tillverkningsfabriker, ekonomiska muskler och visat att de minsann kan lägga manken till när det behövs. Räkna med turbulens under de kommande åren!

En intressant observation:
Både Intel och AMD tillverkar nu både CPUer och GPUer.
Den "yngsta" datorbussen, PCIe är 14(!!!) år gammal.
Är det kanske dags för AMD och Intel att ta fram en ny buss optimerad för CPU och GPU?
Nu med "ihoplimmade" kretsar, interposers, ser jag en öppning att vi kanske får en GPU-sockel till moderkortet?

Känns som att det blir kångligare då måste man köpa kylare till en GPU också. Tror nog snarare att APU är det som så småningom blir "the new black", dvs när de blir tillräckligt starka och billiga för att driva spel på högsta nivåer.

Permalänk
Medlem

Var väl bara en tidsfråga.

På igpu-sidan, så har Intels gpuer blivit massivt mer användbara (inte bara snabbare) senaste 10 åren. Intels experimenterande med edram och igpu (Iris) gav också förhållandevis god prestanda.

Från andra hållet har vi larrabee som kunde köra grafik, men slutade som ett renodlat beräkningskort.
Marknaden för beräkningskort har växt, rampar man upp försäljningen är det bra att kunna sälja kort med trasiga beräkningskluster till konsumenter också.

Permalänk
Medlem

Jag tror grafikkortsbranchen skulle må bra av fler aktörer. Kul om det blå laget ger sig in i konsumentgrafikkortsstriden!

Permalänk
Medlem
Skrivet av mikgus:

Tror också larabee

Med tanke på att prestanda/mm2 är så avgörande för om ett grafikkort är konkurrenskraftigt eller inte så tror jag att det extra bagaget som inte används som man får med massa x86-kärnor gör Larrabee fullkomligt odugligt som grafikkort. x86-kärnor ger väldigt lite användbar beräkningsprestanda per transistor jämfört med riktiga grafikkort för ändamålet.
Och som rent beräkningskort har de redan Xeon Phi.

Permalänk
Medlem

Då väntar vi på "Det blåser upp till storm..."-rubrikerna

Permalänk
Medlem
Skrivet av Orisons:

Ska Intel ge sig själva på tafsen? Eller har jag gravt missuppfattat nyheten?

Haha! Nä... Nvidia menade jag. Morgontrött och utan kaffe. Fixar det, tack.

Permalänk
Medlem
Skrivet av Karazhan:

Känns ju dock som intel har mycket mer att hämta i företagsmarknaden? Där dominerar väl intel kanske ännu mer och kan sälja färdiga serverpaket med sina kort i?

Det stämmer säkert, jag tänkte mer på konsumentkort.

Permalänk
Medlem

Arctic sound? 🔊 Jupiter sound?

Verkligen bra valda namn på grafikkort...

Permalänk
Medlem
Skrivet av Aleshi:

Frågan är om Intel är så hopplöst efter. Eftersom GPU:er är så skalbara så är det främst prestanda/mm2 och prestanda/watt som avgör vilken förmåga man har. Det och förmågan att skala upp kretsen och fortfarande hålla berkningsenheter matade. Vilket lär kunna vara en av Intels paradgrenar om man ser till deras processorer. De är dessutom ledande på tillverkningsprocess som är viktigt när det kommer till GPU:er då det är direkt avgörande för hur avancerade kretsar man kan bygga.
Ser man till deras integrerade grafik så verkar den ha rätt grym prestanda/watt. Även fast det är svårt att avgöra hur det ser ut i detalj.

Med det sagt så tror jag inte att de bara skalat upp lite integrerad grafik. De gör nog ingen halvmesyr.

Intel är väldigt duktiga på hårdvara, men vad de ligger långt efter på, och inte är så duktiga på, är mjukvara som tex. drivrutiner. Där har de bra mycket att både ta igen och bevisa för att kunna konkurrera med AMD och Nvidia på den lite mer krävande grafikkortsmarknaden.

Permalänk
Medlem
Skrivet av martinot:

Intel är väldigt duktiga på hårdvara, men vad de ligger långt efter på, och inte är så duktiga på, är mjukvara som tex. drivrutiner. Där har de bra mycket att både ta igen och bevisa för att kunna konkurrera med AMD och Nvidia på den lite mer krävande grafikkortsmarknaden.

Helt sant att de inte har samma erfarenheter där. Får väl se hur det är med den biten sedan. Drivrutiner spelar ju en ganska stor roll i slutprestandan idag.

Permalänk
Datavetare

Handlar väl egentligen mest om att Intel så här långt aldrig skalat upp den design man har speciellt långt.

När det pratas om att Intel skulle sakna patent och kompetens för att göra en större GPU, tror de som hävdar det rätt mycket missat att Intels GPUer har redan, sett till finesser, en av de mest kompletta DX12 implementationerna (redan Skylake nådde DX feature level 12_1 och högsta "feature level" på i princip varje undergrupp). D.v.s. man har alla delar på plats.

Men Intels GPUer presterar väl ändå helt värdelöst?

Tänk på att en GT2 krets (den som sitter i t.ex. i7-8700K) har en motsvarande "Config Core" på 192:12:8 (beräkningsenheter:texturenheter:raster-enheter). Ställer man då faktiskt prestanda mot t.ex. GT1030 (config core 384:24:16) samt väger in att GT1030 har ~40 % högre boost-frekvens, så presterar GT2 rätt mycket som förväntat (om något är prestanda bättre än vad kapaciteten skvallrar om).

För GPGPU-laster överpresterar aktuella HD-graphics kretsar i relationen till teoretisk kapacitet jämfört med AMD/Nvidia (Nvidia tar igen en hel del när man använder CUDA då det fortfarande är mer moget jämfört med OpenCL).

Går självklart inte bara att smacka på ett gäng EUs (GT2 består av 24 EU, så varje EU motsvarar väldigt löst 8 CUDA-cores och en CUDA-core är i princip en FMA-enhet) och tro det räcker. Man måste ju balansera de olika delarna och framförallt designa minnesbussen på ett helt annat sätt än i en iGPU. Men just dessa bitar har man ju redan flera generationers erfarenhet av i Xeon Phi.

Det som primärt sänkte Larrabee var att Intel gick all-in på att göra en cache-koherent design likt en multicore CPU. Det är väldigt användbart för vissa typer av beräkningar, dock vet alla (inklusive Intel vid aktuellt tillfälle) att en sådan typ av cache-koherens gör att man inte alls kan skala rå kapacitet i närheten lika högt som traditionella GPUer.

Man försökte ju trycka på att Larrabees design möjliggjorde alternativa renderingstekniker, t.ex. ray-tracing. Men det var inte i närheten tillräckligt bra för att kunna konkurrera med traditionell 3D-grafik (som väldigt mycket är extremt "embarrassingly parallel" och som klarar sig utmärkt med explicit synkronisering, d.v.s. utan traditionell cache-koherens).

Xeon Phi behöll just cache-koherens delen och det är ju en väldigt bra krets för vissa typer av GPGPU-laster p.g.a. det.

~60 % av alla PC använder iGPU, av dessa använder nästan alla någon form av Intel HD-graphics. Så vid det här laget borde man fått till grundfunktionerna rätt bra (jo, går hur bra som helt att köra med Intel iGPU även i 4k för "vanligt" skrivbordsjobb, till och med med dubbla skärmar).
"Discrete GPUs were in 39.55% of PCs, which is up 4.18%."

Det är självklart ingen garanti för att man lyckas göra en konkurrenskraftig dGPU, men nog har man all grundteknik och tillräckligt med relevanta patent för att det i alla fall inte ska vara omöjligt. Förväntar mig ändå att deras första försök blir en typisk v1,0. D.v.s den kanske visar att man har något med potential, men kommer krävas någon extra iteration innan man har något som riktigt kan konkurrera.

Edit: lite svårt att exakt reda ut om GT2 har 192:12:8 eller 192:8:8 från dokumentationen, men kvittar för diskussionen.

Permalänk
Medlem
Skrivet av Gnarf:

Arctic sound? 🔊 Jupiter sound?

Verkligen bra valda namn på grafikkort...

Sound betyder också sund - Jupiter sound ligger i Florida.

Permalänk
Medlem

Tror det kommer falla på drivrutiner till en början men om de kämpar på kan de nog ta över Nvidias position som ledande efter några år.

Permalänk
Medlem

Dom har ju även fått en massa patent i tidigare samarbeten tex med Nvidia när dom samarbetade förut (minns ej vad det var men längesen var det) Ska bli intressant.

Permalänk
Medlem
Skrivet av MikaelSwahn:

Ett stort problem som Intel har, är att AMD och Nvidia har tagit massor av patent kring GPUer. Det gör det svårt för nya spelare som vill in i hög prestanda segmentet.

Intel tog ut en licens på AMDs GPU-patent i samband med att de förnyade korslicensen på CPU-patenten senast.

Skickades från m.sweclockers.com

Permalänk
Avstängd

Så läge den klara Crysis så blir det en storsäljare.

Permalänk
Medlem

Hoppas det blir något för bitcoin-fanatikerna så att AMD och nVidia slipper dom.

Permalänk
Medlem

Bra med fler konkurrenter på marknaden än bara AMD och Nvidia. Kanske även på sikt innebär att intel inte bakar in grafikkretsen i CPU. De flesta gamers köper separat grafikkort.

Permalänk
Medlem

@Xverminator: Gamers (speldatorer) är dock inte så stor del. Finns hur många enheter som helst som klarar sig på iGPU.