Intel ger sig in på grafikkortsmarknaden och anställer Raja Koduri

Permalänk
Medlem

Coolt.

Hoppas på detta. Kommer garanterat köpa GPU och CPU från Intel om dom lyckas med det i framtiden. Borde det inte bli bättre om man har CPU och GPU från samma tillverkare?

Visa signatur

Spelar Just Nu: INGET Väntar På: HL 3, Grand Theft Auto VI
Moderkort: Gigabyte Z790 Gaming X AX CPU: Intel Core i7 13700K 3.4GHz Kylare: Arctic Liquid Freezer II 360
Internminne:
Corsair 32GB (2x16) DDR5 6000MHz Vengeance GPU: Asus RTX 4090 TUF GAMING
SSD: WD Black SN850X 1TB Gen 4 & Samsung 860 EVO 1TB OS: Windows 11 Skärm: LG C2 42"

Permalänk
Medlem

detta skrämmer mig som fan nu ska köpa g-s7nc/freesync skärm och gpu innan slutet av året och nu blir man skraj om amd eller nvidas blir skit jämfört med detta

Visa signatur

Chassi:Fractal Design R5 MB: ASUS ROG STRIX B350-F GAMING CPU: AMD Ryzen 5 3600 AiO: Corsair Hydro H100i v2 HD: 2TB WD Blue GPU: GB OC 3060 TI SSD: 250GB 850 EVO GB (OS) SSD 500GB 850 EVO GB (Spel) SSD 1TB 860 EVO GB (Spel) PSU: Seasonic Focus 850W 80+ Platinum Minne: 16 GB GSkill 16GB 3200M Flare X Skärm: Svive 34" Curved gamingskärm Pyx 34C801

Permalänk
Inaktiv
Skrivet av Herr Kantarell:

Jag håller med. Jag tror Sony, Microsoft (Xbox) och Apple (som kört AMD GPU) har varit på Intel också. Att de inte valt nVidia är antagligen att deras GPU-priser skenat iväg. De vill också ha "den bästa" grafiken i sina produkter och märkt att AMD inte når fram där och intel har inget konkurrenskraftigt att erbjuda. Apple hade kunnat välja samma chip som i skullcanyon med Intel graphics 580 till nån macbook men gjorde det inte.

Precis, alla dessa vill ju fortfarande ha ett alternativ istället för att låsa in sig vid en enda tillverkare. Intel är i slutändan, likt alla andra, tvungen att leverera vad kunderna vill ha.

Riktigt spännande att följa nyhetsrapporteringen nu, överlag ett härligt år där det hänt väldigt mycket. Fler sådanna år tack!

Skrivet av spykie:

detta skrämmer mig som fan nu ska köpa g-s7nc/freesync skärm och gpu innan slutet av året och nu blir man skraj om amd eller nvidas blir skit jämfört med detta

Kommer dröja år innan Intel har något att komma med i högre prestandasegmenten, såvida de inte licensierar eller köper teknik från Radeon Technology Group. Kan förstås också hända att de gör likt Matrox och köper Radeon-kretsar och säljer under eget varumärke, men då är det fortfarande en AMD-produkt under skalet och inget signifikant eget.

Så det är nog bara att köpa om du ändå tänkt göra det.

Permalänk

Det var lite oväntat att Raja skulle hoppa över till värsta konkurrenten men inte direkt förvånad efter att AMD - Intel samarbetet blev offentliggjort.

Oavsett lär det antagligen dröja ett tag innan vi får se diskreta grafikkort från Intel. Kan vara trevligt med mer konkurrens på marknaden.

Skrivet av segafreaks:

Coolt.

Hoppas på detta. Kommer garanterat köpa GPU och CPU från Intel om dom lyckas med det i framtiden. Borde det inte bli bättre om man har CPU och GPU från samma tillverkare?

Det går att göra redan idag? Köp AMD det är bara att testa!

Visa signatur

Bärbar Speldator: AMD Ryzen 5 5600H I Nvidia RTX 3050 Ti
Xiaomi Poco X3 Pro I Nvidia Shield TV V2 I PS4 I

Permalänk
Medlem
Skrivet av anon5930:

Intel Rajadeon förstås.

Skickades från m.sweclockers.com

Nu blir det Rajraj hos intel

Visa signatur

Ryzen 9 5950X, 32GB 3600MHz CL16, SN850 500GB SN750 2TB, B550 ROG, 3090 24 GB
Har haft dessa GPUer: Tseng ET6000, Matrox M3D, 3DFX Voodoo 1-3, nVidia Riva 128, TNT, TNT2, Geforce 256 SDR+DDR, Geforce 2mx, 3, GT 8600m, GTX460 SLI, GTX580, GTX670 SLI, 1080 ti, 2080 ti, 3090 AMD Radeon 9200, 4850 CF, 6950@70, 6870 CF, 7850 CF, R9 390, R9 Nano, Vega 64, RX 6800 XT
Lista beg. priser GPUer ESD for dummies

Permalänk
Medlem

Hade detta postats 1:a april hade jag trott det var ett april-skämt.

Har stora förhoppningar för detta. Att Raja börjat jobba hos Intel och att AMD och Intel sammarbetar med Kaby Lake G ger mig intrycket av att Intel och AMD har förklarat krig mot Nvidia. Känns som att chansen att detta i slutändan ska förbättra situationen för konsumenterna (oss) är hög.

Visa signatur

CPU: i9-13900K + Cooler Master ML360L ARGB V2 || GPU: Gainward RTX 4090 Phantom GS.
MoBo: Asus Rog Strix Z790-F Gaming || RAM 32 GB Kingston Fury Beast CL40 DDR5 RGB 5600 MHz.
PSU: Corsair RMe 1000W 80+ Gold || Chassi: Phanteks Eclipse P500A D-RGB.
Lagring: Kingston Fury Renegade M.2 NVME 2TB + Samsung 860 QVO 1TB.
Skärmar: 27" 1440p 144 Hz IPS G-sync + 27" 1440p 155 Hz VA || OS: Win 11 Home.

Permalänk
Medlem
Skrivet av MikaelSwahn:

Så Nvidia har fel. En GPU kan aldrig ersätta en CPU. Han är okunnig helt enkelt.

Jag tror att han bara gör som han alltid brukar: snackar en massa skit. Dvs förmodligen är han väl medveten om det, men eftersom han inte kan göra något åt det gäller det att skrika högt istället, för att locka över så många som möjligt att börja tro på det.

Visa signatur

5950X, 3090

Permalänk
Medlem
Skrivet av segafreaks:

Coolt.

Hoppas på detta. Kommer garanterat köpa GPU och CPU från Intel om dom lyckas med det i framtiden. Borde det inte bli bättre om man har CPU och GPU från samma tillverkare?

Skrivet av Swedish Berserk:

Det går att göra redan idag? Köp AMD det är bara att testa!

Tänkte inte ens på det för senast jag använde AMD så gick GPU sönder. Efter det så har jag alltid köpt Nvidia. Så blir Intel bra så står det mellan Nvidia och Intel för mig. Så ni som använder CPU och GPU från AMD märker ni att det fungerar bättre eller inte?

Visa signatur

Spelar Just Nu: INGET Väntar På: HL 3, Grand Theft Auto VI
Moderkort: Gigabyte Z790 Gaming X AX CPU: Intel Core i7 13700K 3.4GHz Kylare: Arctic Liquid Freezer II 360
Internminne:
Corsair 32GB (2x16) DDR5 6000MHz Vengeance GPU: Asus RTX 4090 TUF GAMING
SSD: WD Black SN850X 1TB Gen 4 & Samsung 860 EVO 1TB OS: Windows 11 Skärm: LG C2 42"

Permalänk
Medlem
Skrivet av Ratatosk:

Men större delen av Sweclockers forum var ju överens, Raja fick sparken för att Vega är en sån katastrof, hur kan det då komma sig att han fått ett nytt toppjobb?

Ja den frågar ställer jag mig med. Själv tror jag att pengar fällde Vega. Man fick helt enkelt nyttja för mycket av det gamla och arbeta med det.
Man kan ju också tänka som så att Intel vill åt Rajas insikt i bla VEGA arkitekturen för att få fastlanepass till topmarknaden. Dock ser jag inte hur detta skall gå utan att AMD stämmer Intel 5 gånger om.

Permalänk
Medlem

Jag tror att Intel köper RTG från AMD och släpper över en del teknik till AMD på cpu-sidan. Hur ska Raja annars bidra till Intel med USA:s (och även andra länders) Non-compete clause. Även framtida grafikteknik kommer väl kanske delas med AMD. Det känns inte helt ok när de enda två konkurrenterna på CPU (gällande x86) börjar samarbeta så nära.

Visa signatur

9900K | Gigabyte Z390 Auros Pro Wifi | 32 GB Corsair V LPX 3200 | 1TB Evo Plus 2TB 660P | 3090 Asus Tuf Oc | Acer XB271HU

Permalänk
Hjälpsam
Skrivet av segafreaks:

Tänkte inte ens på det för senast jag använde AMD så gick GPU sönder. Efter det så har jag alltid köpt Nvidia. Så blir Intel bra så står det mellan Nvidia och Intel för mig. Så ni som använder CPU och GPU från AMD märker ni att det fungerar bättre eller inte?

Hörde om en arbetskamrat, till en väns bror, vars Geforce kort gått sönder, sedan dess har jag alltid köpt AMD.
Nej det är ingen skillnad, du kan blanda märken som du vill.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Inaktiv
Skrivet av cyprus:

Jag tror att Intel köper RTG från AMD och släpper över en del teknik till AMD på cpu-sidan. Hur ska Raja annars bidra till Intel med USA:s (och även andra länders) Non-compete clause. Även framtida grafikteknik kommer väl kanske delas med AMD. Det känns inte helt ok när de enda två konkurrenterna på CPU (gällande x86) börjar samarbeta så nära.

Kommer nog aldrig kunna hända såvida inte Intel delas i flera mindre företag eller att Intel misslyckas rejält framöver och krymper. De är för stor som de är redan, det lär bli svårt att köpa RTG.

Är nog svårt även för exempelvis Samsung skulle jag tro, men det scenariot vore mer troligt. Dock lär AMD inte släppa på RTG då de sitter på extremt mycket tekniker och kunskap, sedan drar deras lösningar in pengar också.

Permalänk

En annan sak som man glömmer, är att om Intel vill börja släppa prestanda diskreta GPUer, så har AMD och Nvidia massa patent. Det kommer inte göra det enkelt för Intel att slå sig in i GPU marknaden. Det blir svårt.

T.ex. Intel och AMD har massa patent på x86. En ny cpu tillverkare kommer få stora problem att slå sig in på x86 marknaden. Tex. om man de försöker köpa upp AMD för att komma in på x86 marknaden, så förlorar AMD sin x86 licens. Så det går inte att köpa upp AMD för att komma in på x86 marknaden. Det är samma saker med GPUer, massa patent och hinder för Intel.

Permalänk
Inaktiv

Intel har försökt sig på separata grafikkort sedan slutet på 90-talet med Intel740 och varje gång har de misslyckas. Det finns ingenting som säger att de kommer lyckas nu. Sedan ska vi inte prata mjukvarusidan där Intel alltid varit urusla på.

Permalänk
Medlem
Skrivet av anon5930:

Kommer nog aldrig kunna hända såvida inte Intel delas i flera mindre företag eller att Intel misslyckas rejält framöver och krymper. De är för stor som de är redan, det lär bli svårt att köpa RTG.

Är nog svårt även för exempelvis Samsung skulle jag tro, men det scenariot vore mer troligt. Dock lär AMD inte släppa på RTG då de sitter på extremt mycket tekniker och kunskap, sedan drar deras lösningar in pengar också.

Hur mycket manöverutrymme kommer Raja ha på Intel utan AMD:s godkännande? Jag tycker det hela luktar skunk när de enda två företagen på CPU-fonten (x86) blir så intima. Situationen med x86 har varit under all kritik de senaste 10 åren.

Visa signatur

9900K | Gigabyte Z390 Auros Pro Wifi | 32 GB Corsair V LPX 3200 | 1TB Evo Plus 2TB 660P | 3090 Asus Tuf Oc | Acer XB271HU

Permalänk
Datavetare
Skrivet av anon5930:

Kommer nog aldrig kunna hända såvida inte Intel delas i flera mindre företag eller att Intel misslyckas rejält framöver och krymper. De är för stor som de är redan, det lär bli svårt att köpa RTG.

Är nog svårt även för exempelvis Samsung skulle jag tro, men det scenariot vore mer troligt. Dock lär AMD inte släppa på RTG då de sitter på extremt mycket tekniker och kunskap, sedan drar deras lösningar in pengar också.

Ser inte hur det skulle finnas några relevanta hinder för Intel att köpa RTG. Intel må sälja flest GPU-kretsar till PC, men Nvidia är helt dominerade på marknaden för dGPU just nu.

Finns företag med större market-cap än Intel, t.ex. Samsung och Apple. Apple tillverkar för övrigt både sin egen CPU och GPU nu för tiden, det ovanpå att man är den spelare som nästan har monopol på vinsterna (dock inte omsättningen) från marknaden man riktar sina CPU+GPU kretsar mot.

Vidare är de-facto monopol inte förbjudet, inte ens i staterna. Är däremot förbjudet att utnyttja en monopolliknade ställning. Men Intels skulle inte ens få en sådan om man köpte RTG.

Det sagt, tvivlar att AMD vill släppa RTG då det är en del som av företaget som är kritiskt för "semi-custom". Semi-custom delen har ju rätt konsekvent gått med vinst. Men i företagsvärlden finns det alltid ett pris som får folk ändra uppfattning...

Sedan är det inte precis så att Intel måste starta från scratch för en dGPU-design. Ovanpå det har företag som AMD (Zen), Apple (både CPU och GPU) samt nu också Qualcomm (Centriq) visat att det går att komma från nästan ingenstans och nå nära toppen på första försöket. Detta är möjligt då Moores lag, Dennard scaling och en rad andra faktorer är i princip ute ur ekvationen.

Tog Apple några försök, men man har nu en CPU-design som enligt många tester har världens högsta genomsnittliga IPC! Av allt att döma lyckades Apple inte bara göra en konkurrenskraftig GPU för mobila enheter, man ser ut att skapat den just nu snabbaste mobil-GPU som existerar. Det på första försöket!

Qualcomm har vad jag vet inte designat egna CPUer förut. Stämmer de tidiga indikationerna har man då på första försöket lyckats skapa en CPU som slår sig in mellan Intels och AMDs absoluta toppmodeller för servers. AMD försöker inte ens jämföra toppmodellen av Epyc mot Xeon Platinum 8180 (och det är typ en faktor 2-3 i prislapp mellan dessa), men är precis det Qualcomm gör med sin toppmodell (som prismässigt ändå ligger mer i nivå med toppmodellen av Epyc).

Om det inte är ren BS från Qualcomm hade nog Keller rätt, AMD borde kört Aarch64 (64-bitars ARM, K12) spåret för servers. x86 börjar bli väldigt mycket en kvarnsten samtidigt som Aarch64 allt mer visat sig vara extremt väldesignat. En Epyc designad för Aarch64 hade garanterat presterat bättre än x86 versionen, möjligen tillräckligt mycket bättre för att faktiskt kunna utmana Intels nuvarande toppmodell.

Varken Apple eller Qualcomm hade nått dit de är på den tid de haft om de kört x86. x86 CPUer är idag snabba trots sin ISA, inte p.g.a. av den.

Intel har sin iGPU att stå på, man har Xeon Phi och AVX512. AVX512 och ISA i en modern GPU är i grunden väldigt lika, en GPU designad för grafik måste självklart ha lite extra kisel för texturering och liknande. Det sista är nog området Intel behöver hjälp i att skala upp till en högpresterande krets.

För GPU är också fördelen att det inte finns någon ISA-legacy att ta hänsyn till. Enda som spelar någon roll är hur väl kretsen samt drivare hanterar DirectX, Vulkan och OpenCL!

Edit: och menar naturligtvis att Qualcomm inte gjort någon high-end server CPU innan, de har ju en rad Snapdragon för mobila enheter (så de har tidigare erfarenhet av att designa ARM CPUer).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Inaktiv
Skrivet av cyprus:

Hur mycket manöverutrymme kommer Raja ha på Intel utan AMD:s godkännande? Jag tycker det hela luktar skunk när de enda två företagen på CPU-fonten (x86) blir så intima. Situationen med x86 har varit under all kritik de senaste 10 åren.

Intel bör ha fått de licenser de behöver efter förhandlingar med AMD så de kan utveckla produkterna. Raja kommer plocka in det folk som behövs, är nog bara att räkna med att AMD och Nvidia kommer börja tappa folk framöver till förmån för Intels satsning.

Håller med om x86, situationen hade varit bättre om Intel accepterade licensiering med exempelvis Nvidia. Idag hade vi förmodligen kommit längre i utvecklingen och slipper en situationen där tillverkare av relevanta CPUer kan räknas på en halv hand.

Jag tror inte det är Nokia-situationen igen men jag förstår verkligen de som ser det scenariot ige.

Spännande tider framöver.

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av anon5930:

Intel Rajadeon förstås.

Skickades från m.sweclockers.com

Rajadeon Koduri Lake.

Permalänk
Hjälpsam

AMD kommer inte att ge upp sina GPUr, de är allt för beroende av dem i massor av fall, konsoller, APUr, bärbart, ROCm och mer.
Något som jag inte trodde på innan men som jag tror på mer och mer, är dock ett samägande mellan Intel och AMD av RTG.
De som pekar åt det hållet, är deras samarbete med en AMD GPU i en Intel CPU och Rajas flytt till Intel.
Fördelarna är uppenbara, Intel får tillgång till bra GPU:r och AMD får tillgång till Intels produktionsteknik.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

Märkligt. Märkligt att de tydligen ska göra explicita grafikkort och inte bara grafikkortsliknande beräkningskort. Ser Inte hur Intel ska kunna komma ikapp Nvidia och ATI/AMD som pysslat med detta i drygt 2 decennier. För att inte tala om alla patent. Jag trodde denna marknad var helt låst. Och så Raja ovanpå allt. Märkligt märkligt.

Skrivet av Emil Hansson:

Riktigt spännande! Tycker att Nvidia kan kontra med att ge sig in på High end CPU marknaden

Skrivet av Startrance:

Med tanke på att Nvidias CEO Jensen Huang sa att "the era of cpus are dead", så tror jag det är det sista Nvidia skulle göra

"Jensen Huang said that Nvidia GPUs will replace CPUs due to the fact that its computational capacities have grown tremendously over the years and is the ideal solution for AI based applications. He further added that designers can hardly work out, advanced parallel-instruction architectures for CPU and therefore, GPUs will soon replace CPUs."

Skrivet av xmmm:

Jaha nu blev det en röd tråd.
först kommer detta
https://www.sweclockers.com/nyhet/24705-intel-core-i7-8705g-o...

Någon dag senare:
nu grafikchefen Raja Koduri över till Intel, där han ska arbeta med företagets nya satsning på högpresterande grafikkretsar för processorer och grafikkort

Nu är det krig mot Nvidia

Lämnar denna här
http://www.alexstjohn.com/WP/2017/06/10/the-age-of-nvidia/

Tyvärr är den väldigt svårtillgänglig och numer hittar jag inte ens en cachad version.

Skrivet av Zero Cool:

Vad hände med Larrabee?

Skickades från m.sweclockers.com

The project to produce a GPU retail product directly from the Larrabee research project was terminated in May 2010.
https://en.wikipedia.org/wiki/Larrabee_(microarchitecture)

Skrivet av _Merc_:

det får vi inte hoppas, marknaden för pc existerar enbart för att intel behöver amd och nvidias grafikkretsar.
Det bästa som kan hända är att intel konkar så att 86 plattformen kan öppnas för fler aktörer.

Skickades från m.sweclockers.com

Eller så kan PowerPC äntligen ta över

Skrivet av anon5930:

AMD ligger bättre till än Nvidia, som kommer få det tufft. Se PR-utskicket: https://newsroom.intel.com/news-releases/raja-koduri-joins-in...

Första stycket är talande nog:
"SANTA CLARA, Calif., Nov. 8, 2017 – Intel today announced the appointment of Raja Koduri as Intel chief architect, senior vice president of the newly formed Core and Visual Computing Group, and general manager of a new initiative to drive edge computing solutions. In this position, Koduri will expand Intel’s leading position in integrated graphics for the PC market with high-end discrete graphics solutions for a broad range of computing segments."

Intel ser ut att göra exakt vad Nvidia gör, vilket kommer klämma bort Nvidia från en eller flera marknader. AMD och Intel står sig bättre då de kan leverera en komplett lösning medans Nvidia är beroende av bägge dessa aktörer. Är typ bara Nintendo som vill ha Tegra, Tesla sammarbetar med AMD för att hitta en ersättare och fler lär göra samma sak av de få som ens valt att använda Nvidias lösning.

Styrkeförhållandena mellan AMD och Intel är stora men kan hända att det jämnas ut nu. De har också en del sammarbeten emellan.

Samtidigt finns det mycket starka krafter som vil göra sig av med beroendet av x86. Läs länken ovan om The Nvidia age.

Skrivet av MikaelSwahn:

Men det är fel av flera skäl. En GPU kan inte ersätta CPUer i datorer pga:

1) En GPU har mycket högre genomströmning, men inte lägre latency. GPU har massa trådar, men varje tråd är långsam och klen. Tänk dig en cpu med 2048 trådar som alla är trögstartade, och även klena. Visst, när de väl kommer igång så kommer de klara av att köra mycket data. Men det är inte säkert att en vanlig desktop användare gör såna saker att han triggar 2048 trådar. Då är det bättre med få men rappa trådar som dessutom är starka.

För servrar är det dock en annan sak, såna betjänar många användare samtidigt och då behövs många trådar. Men gärna rappa trådar, inte såna som tar lång tid på sig att starta upp.

2) Många problem går inte att parallelliseras. Då spelar det ingen roll hur mågna trådar du har. Arbetslaster har en typisk IPC. T.ex. serverlaster har ofta en IPC på 0.5 eller lägre. T.ex databas TPC-C har en IPC på kring 0.5. Då spelar det ingen roll om CPUn har en IPC på 2 eller 3 eller 10. Själva koden har en maxbegränsning på 0.5. En hög IPC cpu kanske kan klämma ut 0.51 IPC och en låg IPC cpu kanske kan klämma ut 0.48 - men det spelar ingen roll.

Det är precis som att alla bilvägar har hastighetsbegränsningar på 100km/h. Då är det ju korkat att köpa bilar med så hög max hastighet som möjligt. Varför betala dyra pengar på 300km/h eller 350km/h bilar? Det är ju bättre att köpa bilar med hög acceleration istället. Samma med IPC. Folk som fokuserar på IPC är ju okunniga eftersom själva koden har en viss max IPC. En CPU kan inte klämma ut mycket mer IPC än så, oavsett hur hög IPC en cpu har.

Det är ungefär lika korkat som att tro att en kärna på 2GHz är bättre än 2 kärnor på 1 GHz var. Skälet till det är att en kärn som kör flera program samtidigt (vilket alla gör idag) kommer få tömma och fylla cachen hela tiden beroende på vilket program som körs. Om du istället har 2 kärnor så behöver de inte tömma cpu cachen lika ofta. Sen har vi även andra problem med att koden kanske inte är optimalt skriven, så det kan finnas mutex lås och annat som gör att en kärna inte används effektivt. T.ex. om ett program hänger sig eller får andra problem (vilket händer) så stannar hela datorn upp. Om du istället har 2 kärnor, så kommer den andra kärnan att arbeta på utan problem. Det märker man ju när man gick från 1 kärna till 2 kärnor, och till 4 kärnor. Ju fler kärnor, desto rappare blev hela datorn, även om man hade flera svagare kärnor.

Så att fokusera på IPC är lika korkat som att tro att hög GHz ger en snabb cpu. Eller lika korkat som att tro att en snabb kärna är bättre än två långsammare kärnor. I en ideal värld skulle en snabb kärna och två hälften så snabba kärnor vara lika bra - men kod är aldrig perfekt. Det blir alltid synkroniseringar, lås, etc etc som gör att koden lägger beslag på hela kärnan under en kort stund. Då är det bättre med flera kärnor.

Så Nvidia har fel. En GPU kan aldrig ersätta en CPU. Han är okunnig helt enkelt.

JHHs uttalande ska nog ses som en marknadsutfästelse snarare än en teknisk förändring.

Skrivet av Yoshman:

Ser inte hur det skulle finnas några relevanta hinder för Intel att köpa RTG. Intel må sälja flest GPU-kretsar till PC, men Nvidia är helt dominerade på marknaden för dGPU just nu.

Finns företag med större market-cap än Intel, t.ex. Samsung och Apple. Apple tillverkar för övrigt både sin egen CPU och GPU nu för tiden, det ovanpå att man är den spelare som nästan har monopol på vinsterna (dock inte omsättningen) från marknaden man riktar sina CPU+GPU kretsar mot.

Vidare är de-facto monopol inte förbjudet, inte ens i staterna. Är däremot förbjudet att utnyttja en monopolliknade ställning. Men Intels skulle inte ens få en sådan om man köpte RTG.

Det sagt, tvivlar att AMD vill släppa RTG då det är en del som av företaget som är kritiskt för "semi-custom". Semi-custom delen har ju rätt konsekvent gått med vinst. Men i företagsvärlden finns det alltid ett pris som får folk ändra uppfattning...

Sedan är det inte precis så att Intel måste starta från scratch för en dGPU-design. Ovanpå det har företag som AMD (Zen), Apple (både CPU och GPU) samt nu också Qualcomm (Centriq) visat att det går att komma från nästan ingenstans och nå nära toppen på första försöket. Detta är möjligt då Moores lag, Dennard scaling och en rad andra faktorer är i princip ute ur ekvationen.

Tog Apple några försök, men man har nu en CPU-design som enligt många tester har världens högsta genomsnittliga IPC! Av allt att döma lyckades Apple inte bara göra en konkurrenskraftig GPU för mobila enheter, man ser ut att skapat den just nu snabbaste mobil-GPU som existerar. Det på första försöket!

Qualcomm har vad jag vet inte designat egna CPUer förut. Stämmer de tidiga indikationerna har man då på första försöket lyckats skapa en CPU som slår sig in mellan Intels och AMDs absoluta toppmodeller för servers. AMD försöker inte ens jämföra toppmodellen av Epyc mot Xeon Platinum 8180 (och det är typ en faktor 2-3 i prislapp mellan dessa), men är precis det Qualcomm gör med sin toppmodell (som prismässigt ändå ligger mer i nivå med toppmodellen av Epyc).

Om det inte är ren BS från Qualcomm hade nog Keller rätt, AMD borde kört Aarch64 (64-bitars ARM, K12) spåret för servers. x86 börjar bli väldigt mycket en kvarnsten samtidigt som Aarch64 allt mer visat sig vara extremt väldesignat. En Epyc designad för Aarch64 hade garanterat presterat bättre än x86 versionen, möjligen tillräckligt mycket bättre för att faktiskt kunna utmana Intels nuvarande toppmodell.

Varken Apple eller Qualcomm hade nått dit de är på den tid de haft om de kört x86. x86 CPUer är idag snabba trots sin ISA, inte p.g.a. av den.

Intel har sin iGPU att stå på, man har Xeon Phi och AVX512. AVX512 och ISA i en modern GPU är i grunden väldigt lika, en GPU designad för grafik måste självklart ha lite extra kisel för texturering och liknande. Det sista är nog området Intel behöver hjälp i att skala upp till en högpresterande krets.

För GPU är också fördelen att det inte finns någon ISA-legacy att ta hänsyn till. Enda som spelar någon roll är hur väl kretsen samt drivare hanterar DirectX, Vulkan och OpenCL!

Edit: och menar naturligtvis att Qualcomm inte gjort någon high-end server CPU innan, de har ju en rad Snapdragon för mobila enheter (så de har tidigare erfarenhet av att designa ARM CPUer).

Vad blev det av K12 egentligen?

Visa signatur

Räkna ut hur kraftigt nätaggregat du behöver på OuterVision Power Supply Calculator. 500W räcker för de allra flesta vanliga system. Seasonic är bäst. ;) – Elektrostatisk urladdning är ett verkligt problem.
"People who are serious about software should make their own hardware" – Alan Kay
Bojkotta maffian

Permalänk
Medlem
Skrivet av GilbertG:

Lämnar denna här
http://www.alexstjohn.com/WP/2017/06/10/the-age-of-nvidia/

Tyvärr är den väldigt svårtillgänglig och numer hittar jag inte ens en cachad version.

Hittade en cachad version direkt på Wayback Machine nämligen,
https://web.archive.org/web/20170710194018/http://www.alexstj...

Skapligt lång text, men kanske blir till att läsa för kunskapens skull.

Skickades från m.sweclockers.com

Visa signatur

Processor: R7 5800X3D @ CO -30 · Moderkort: Gigabyte X570S Aorus Pro AX
Grafikkort: GB RTX 3080 GOC @ 1800 @ 812mV · Ram: 32GB @ ¯⁠\⁠_⁠(⁠ツ⁠)⁠_⁠/⁠¯

NVENC-PC: i5-4430S · Quadro P600 · 16GB 1600MHz · 28TB HDD
"Budget"-VR: R7 3700X · RTX 3060 12GB · 32GB 3600MHz · ~1TB SSD

Permalänk
Medlem
Skrivet av Ratatosk:

AMD kommer inte att ge upp sina GPUr, de är allt för beroende av dem i massor av fall, konsoller, APUr, bärbart, ROCm och mer.
Något som jag inte trodde på innan men som jag tror på mer och mer, är dock ett samägande mellan Intel och AMD av RTG.
De som pekar åt det hållet, är deras samarbete med en AMD GPU i en Intel CPU och Rajas flytt till Intel.
Fördelarna är uppenbara, Intel får tillgång till bra GPU:r och AMD får tillgång till Intels produktionsteknik.

Vore inte så skumt egentligen. Nvidia äger en hel del aktier i AMD t.ex.

Visa signatur

Fractal Design Meshify 2 Compact w/ Dark Tint | Intel i5 12600K | Asus ROG Strix B660-F | 32 GB Corsair DDR5 5600 MHz CL36 | MSI Geforce RTX 3060 TI Ventus 2X OCV1 | 512 GB Samsung Pro 850 SSD + 2TB WD Black SN850 NVME PCI-E 4.0 | Corsair RM750X |

Permalänk
Medlem

@GilbertG: För att summera lite så är Intel mer eller mindre tvungna att ge sig in i grafikkorts segmentet.
Alternativet är att dom inom en snar framtid blir irrelevanta och konkurs är ett faktum.

det som möjligtvis kan stoppa detta är ett jävligt långt patent på något av dessa:
Grafén baserade CPU, Kvantdatorn, Optisk processor

och riktigt där är vi ju inte i dagsläget

Permalänk
Inaktiv

Gissar att Intel primärt är ute efter rätt kontakter för att sno åt sig marknadsandelar på grafikkort i Asien framöver eftersom dom anställer Raja Koduri för AMD's grafikkort på senare tid har varit allt annat än lyckade produkter jämfört med konkurrenten så det är knappast kunnande på hårdvarusidan man är ute efter här.

Permalänk
Datavetare
Skrivet av GilbertG:

Märkligt. Märkligt att de tydligen ska göra explicita grafikkort och inte bara grafikkortsliknande beräkningskort. Ser Inte hur Intel ska kunna komma ikapp Nvidia och ATI/AMD som pysslat med detta i drygt 2 decennier. För att inte tala om alla patent. Jag trodde denna marknad var helt låst. Och så Raja ovanpå allt. Märkligt märkligt.

Även om Nvidias VD ofta vill beskriva deras GPUer som ohyggligt komplexa så är sanningen faktiskt att GPUer består i grunden väldigt simpla beräkningsenheter. Man råkar bara ha väldigt många beräkningsenheter.

En modern CPU har långt fler unika designelement, moderna CPUer har branch-predictors, out-of-order execution, heuristik för att förutsäga framtida data-accesser etc.

Dagens GPU är mer lik en mid-90 CPU, fast som sagt med tusentals "kärnor" (streamcores).

En sak som Nvidias VD också brukar peka på och som långt med fångar problemet med att designa en modern GPU är att det krävs enorma investeringar i programvara! Nvidia har långt fler ingenjörer som jobbar med programvara än de har HW-ingenjörer. Det är helt rätt prioritering.

Själva kretsen är alltså i sammanhanget det lilla problem, framförallt för Intels om redan har en fungerande GPU-design. Finns egentligen inget som pekar på att deras nuvarande GPU inte kan skalas upp, rätt säker på att Iris Pro 580 begränsas primärt av att den sitter på 2-kanals DDR4-2133 MT/s än något annat. Kretsen presterar fantastiskt med OpenCL för fall som inte är speciellt bandbreddskrävande!

Intel har väldigt bra OpenCL stöd, deras DX/Vulkan stöd må vara enligt spec (tidigt i DX12 cykeln rekommenderade MS Intels GPUer då de mest korrekt implementerad DX12). Problemet är att ingen optimerar för Intels GPU, den är ju ändå för klen för spel så bortkastad investering.

Skrivet av GilbertG:

Vad blev det av K12 egentligen?

Officiellt lades den på is under 2016, men läst rykten som hävdar att Keller inte alls var överens med AMDs ledning kring prioriteringarna kring deras serversatsning. Då han lämnade 2015 lär K12 i praktiken varit nedlagd redan då, i alla fall om det finns någon sanning i att Keller och ledningen så saken i olika ljus.

64-bitars ARM är intressant. Visst är de flesta idag existerande ISA bättre än x86, men även x86 har sina fördelar och alla tidigare alternativa ISA har sin egen slev av problem.

Det speciella med 64-bitars ARM är att den designades så sent att de flesta misstag verkar ha varit kända. Just nu är det väldigt mycket en "perfekt" ISA. 32-bitars ARM är ett härke, de som lyckats riktigt riktigt bra är de som gått all-in på 64-bitars ARM, d.v.s. de skippar 32-bitars läget. Idag är det Apple senaste CPUer, Qualcomms och Caviums nyligen lanserade server CPUer.

Tror AMD hade varit i en klart bättre sits om de kört 64-bitars ARM spåret. I datacenter är ISA inte fullt lika viktigt, den den som ändå är viktig är delarna för virtualisering, krävs ofta att de kommer från en och samma tillverkare för att saker som live-migration ska fungera. AMD och Intel är inte kompatibla på denna punkt, detta är proprietära utökningar.

ARMv8 (som bl.a. innehåller Aarch64, d.v.s. 64-bitars ARM) innehåller stöd för virtualiseringen, hade alltså kunnat varit tre leverantörer av server CPUer som just nu kunnat denna ISA. Och Aarch64 Epyc hade presterat bättre än x86 Epyc med samma back-end, se på Qualcomms initiala resultat (och då saknas ändå en hel del optimeringar i programvara än, hade också varit en fördel om de var fler som jobbade på detta, Qualcomm är ändå stora nog att med ARMs hjälpa fixa till det).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Hjälpsam

@Yoshman: Tror att Vega är i kapp vad gäller D3D finesser.
https://en.wikipedia.org/wiki/Feature_levels_in_Direct3D#Supp...

Listan verkar dock inte purfärsk, han har inte fått med WDDM 2.3.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Datavetare

@Ratatosk: poängen var inte att Intel tidigt implementerade många features. T.ex. så räcker det rent tekniskt att implementera feature level 11.0 för att vara helt DX12 kompatibel.

Poängen var att deras drivers tidigt var den mest korrekta implementation av DX12. Microsoft rekommenderade den därför för de som vill testade lite idéer. Problemet är och var naturligtvis att kapaciteten ligger på en nivå där det i praktiken är oanvändbart för majoriteten av alla moderna spel.

Att Intel har hög DX feature-leven tror jag mest är en bieffekt av att deras iGPU allt mer blivit en GPGPU-krets. Varför har en rätt klen iGPU annars FP16 (från Broadwell, 2:1 HP:SP kapacitet), 1:4 DP:SP (när AMD har 1:16 och Nvidia 1:32 på konsumentkorten) och en lång rad OpenCL extensioner är implementerade i Skylakes iGPU.

Idag har Intels iGPU en intern data-path på 64-bitar. Breddar man den till 256-bitar, offrar lite mindre transistorer på för spel meningslösa saker som DP + Intels iGPU är faktiskt den enda som implementerar en form av SMT. AMD och Nvidia kör en enklare form, s.k. barrel processor.

D.v.s alla GPUerna har en form av HW-multitrådning på warp/wavefront nivå men bara Intels GPU som kan köra instruktioner från flera warp/wavefront under samma cykel på samma EU/CU/SM, något som rimligen ger högre IPC allt annat lika. Möjligen är det en hinder för att skala upp designen till väldigt många "stream-processorer", det tar självklart mer transistorer att ha en mer avancerad HW-scheduler.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Hjälpsam

@Yoshman: "Poängen tagen".

Japp de var långt framme, tidigt.
Och som testplattform har den nog värde, trots lite klen prestanda, går i alla fall snabbare än Warp 12.

Kände inte till att Intels iGPU var så duktig på att köra instruktioner på flera wavefronts så simultant.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

@Yoshman

ARMv8/AArch64 är definitivt intressant på servermarknaden, varför Broadcom drog sig ur (Cavium tog över deras design) är jag däremot lite frågande om, längre bak hade de custom MIPS64 via SiByte-förvärvet och borde iaf ha nytta av att utveckla något eget inom en rad telekomområden men de nöjer sig kanske helt enkelt med att licensiera ARMs IP-kärnor. Utöver det har vi ju AMCC också, som gått över till ARMv8 från PPC. Fast varför AMD inte tyckte sig kunna satsa förstår jag delvis, de vill väl inte investera i att bredda mjukvaruplattformen som inte var särskilt mogen när besluten togs. Samtidigt är det ju något RTG ändå måste arbeta med, då grafik/gpgpu-lösningar integreras i både ARMv8 och Power8-system.

Vad det gäller Qualcomm så har de designat många processorer innan precis som du förtydligade, det är ju bara att de suttit i handhållna enheter förr. Scorpion, Krait, och Kryo har de ju gjort innan, så inte direkt från ingenstans. I princip är det ingen av ARMv8-spelarna som gjort en uttryckligen generell server-cpu tidigare, men de har alla lyckas ganska bra. Vill exempelvis Nvidia in på servermarknaden och inte bara sitta i automotive-prylar så är det fritt fram för de med, även om vi redan har Cavium, AMCC och Qualcomm på marknaden. Alla de har väl sina egna olika styrkor, och en stor fördel överlag är väl att man inte behöver tusentals anställda jobbande på projektet för att slå sig in på servermarknaden där. Behöver man nödvändigtvis inte på x86-marknaden heller, men VIA / Centaur har inte levererat några nya produkter på många år och kommer nog inte rikta in sig på servermarknaden för att tävla mot Xeons, Xeon-Ds och Epycs etc.

För övrigt spelar det inte så stor roll att AMDs licens upphör om de säljs, de skulle kunna fortsätta med x86-processorer under nya ägare det är bara att man måste slåss i rätten ett tag innan de kommer överens. Centaur Technology blockerades ju aldrig efter de såldes till VIA trotts att de då saknade licens, och eftersom Intel inkräktade på deras IP så kom de till slut överens. Det är i princip godtycke som styr över sånt, och har man något att använda till försvar så klarar man sig fint när man inkräktar på patent. Nvidia hade säkert kunnat slå sig in där om de ville, de skulle ju kunnat använda samma strategi som Transmeta med binäröversättning i programvara. Var några andra som var inne på detta, samt även patent gällande GPU och den enda som bråkat på den fronten är Nvidia, men de har i princip inget att komma med mot Qualcomm, ARM osv. Intel själva har patent på grafikprocessorer tillbaka till mitten av 90-talet åtminstone, för den delen.

Men vad det gäller eventuell försäljning av AMD så finns det egentligen ingen som passar för att ta över dem. Random kineser kan i nuläget "licensiera" x86-processorer (som THATIC/CAS JVn) direkt från AMD, och får knappast köpa upp AMD även om de kan få ihop lånen som krävs. Samsung har egna ARMv8-processorer, men är inte intresserad av de marknader AMD är i osv. Vem som helst kan inte köpa upp en amerikansk firma. Vem har ens intresse av AMD och AMDs RTG? Ser inte hur det skulle passa andra halvledarfirmor. De som har intresse av att investera i AMD (via nyemission eller dylikt) kan göra det utan att ta över firman.

Permalänk
Medlem

Off:
@Yoshman
Vet du hur mycket svårare det blir med Termaldesign om man skulle lägga till SMT på t.ex AMD's eller Nvidia's stora chipp? Samt IO på bussarn?
//Nyfiken frågar.

Visa signatur

CPU: 5900x. Mem:64GB@3200 16-17-17-34-1T. (ImDIsk)
GPU: 1080 Ti@ca 6-7%OC. Sound: SB-Z -> toslink (DTS)-> old JVC. MB Realtek to Z-2300 for VOIP.