Intel kan börja använda teknik från AMD för grafik i sina processorer

Permalänk
Melding Plague

Intel kan börja använda teknik från AMD för grafik i sina processorer

Enligt nya uppgifter ska Intel använda sig av teknik från AMD för att tillverka grafikkretsar till sina processorer. Detta då företagets avtal med Nvida går ut i början av nästa år.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk

Skippa grafiken bara... Jag vill ha en cpu ingen jävla gpu i min cpu som jag aldrig använder.

Visa signatur
Permalänk
Medlem

Det hoppas jag verkligen!

Permalänk
Medlem

Intressant. Hoppas att det stämmer.

Att Intel inte fortsätter med Nvidia gissar jag beror på gammalt groll från när Intel vägrade licensiera ut x86 och i praktiken stoppade Nvidia från att göra systemkretsar till moderkort (dvs Nvidia har ingen lust att fortsätta licensiera till Intel, eller kanske begär hutlöst betalt)?

Visa signatur

5950X, 3090

Permalänk
Medlem
Skrivet av Garderoben:

Skippa grafiken bara... Jag vill ha en cpu ingen jävla gpu i min cpu som jag aldrig använder.

Och i den dära 10" supertunna 2 i 1 datorn med touch och 7mm tjocklek hade du alltså tänkt dig att tillverkare ska tvingas montera in ett separat strömhungrigt grafikkort bara för att "Integrerad grafik är dålig" eller vadå?

Nej även om integrerad grafik kanske inte är något för datorspel i 4K ultra så finns det absolut en poäng och fördel med att ibland ha integrerad grafik.

Permalänk
Inaktiv

Utvecklingen går emot att endast en liten minoritet behöver ha externa grafikkort, då dagens iGPUer är så snabba så de klarar av vad nästan allt vad vanligt folk har behov av. Excel, word, lite youtube, netflex, kolla mailen etc, folk behöver ej ha så snabbt grafikkort.

Dock finns det en liten minoritet som ändå är många till antalet som vill ha bra prestanda både i cpu och gpu, men nu när nya zen kommer så kommer dessa cpuer att komma både från Amd och intel.

Permalänk

Detta kommer slå hårt mot amds egna APUer som varumärke men visst rullar det väl in pengar för dom ändå med tanke på hur många intelprocessorer som säljs. Sen återstår det väl att se i vilken utsträckning det handlar om och ifall det ens blir av.

Skickades från m.sweclockers.com

Visa signatur

CPU:Intel i9 9900k RAM:16gb Corsair 3200mhz GPU: Msi RTX 2070 Armor MB: MSI z390-A PRO SSD: Adata sp900 256gb HDD: WD red 3tb(lagring), Toshiba 2tb(mer lagring) Chassi: Fractal design define R2 XL PSU: Corsair RM650 CPU Kylning: Noctua NH-D15

Permalänk
Medlem
Skrivet av guos89:

Och i den dära 10" supertunna 2 i 1 datorn med touch och 7mm tjocklek hade du alltså tänkt dig att tillverkare ska tvingas montera in ett separat strömhungrigt grafikkort bara för att "Integrerad grafik är dålig" eller vadå?

Intel fick gärna ha två varianter av varje konsument-cpu: med eller utan gpu-del. Jag skulle alltid välja den senare.

Skrivet av guos89:

Nej även om integrerad grafik kanske inte är något för datorspel i 4K ultra så finns det absolut en poäng och fördel med att ibland ha integrerad grafik.

I praktiken en enda poäng: som nödlösning om grafikkortet slutar fungera.

Visa signatur

5950X, 3090

Permalänk

Har svårt att tro på detta faktiskt.

Möjligtvis att Intel fått till en deal på patent från AMD men att de skulle använda AMD teknik i sina egna processorer verkar riktigt konstigt minst sagt!

Visa signatur

Bärbar Speldator: AMD Ryzen 5 5600H I Nvidia RTX 3050 Ti
Xiaomi Poco X3 Pro I Nvidia Shield TV V2 I PS4 I

Permalänk

@Garderoben: Du kanske, men för de allra flesta är integrerad grafik det absolut mest praktiska att ha då den största användningen för datorer inte är spel.

Visa signatur

Insert funny joke here

Permalänk
Medlem
Skrivet av Swedish Berserk:

Har svårt att tro på detta faktiskt.

Möjligtvis att Intel fått till en deal på patent från AMD men att de skulle använda AMD teknik i sina egna processorer verkar riktigt konstigt minst sagt!

Njaä tror att Intel har varit i förhandlingar med både NVIDIA och AMD, och tror att AMD vann med ett lägre pris.

Och jag tror att Intel också har fått höra något om de uppkommande grafikkorten av AMD som kanske nu tyder på att dom är hiskeligt bra.

Visa signatur

There is grandeur in this view of life, with its several powers, having been originally breathed into a few forms or into one; and that whilst this planet has gone cycling on according to the fixed law of gravity, from so simple a beginning endless forms most beautiful and most wonderful have been, and are being, evolved.

Permalänk
Medlem
Skrivet av Slaktardej:

@Garderoben: Du kanske, men för de allra flesta är integrerad grafik det absolut mest praktiska att ha då den största användningen för datorer inte är spel.

Jag håller med dig. För egen del ska jag skaffa ny laptop nästa år, och om det sitter en Zen-baserad APU med HBM/2 i den så ser jag det bara som positivt. Jag tänker att om man köper en kraftfull speldator så kommer den klara av allt annat man kastar på den också.

Visa signatur

Akashiro 0.9: Ryzen 5 7600, Radeon RX 7800XT Pure: 64/2000
https://podcasters.spotify.com/pod/show/thomaseron

Permalänk
Skrivet av Swedish Berserk:

Har svårt att tro på detta faktiskt.

Möjligtvis att Intel fått till en deal på patent från AMD men att de skulle använda AMD teknik i sina egna processorer verkar riktigt konstigt minst sagt!

Hur tänkte du där? Om de köper tillgång till patent från AMD för att själva göra ett hopkok med ett AMD patent, har de då inte teknik från AMD i sin produkt?

Visa signatur

| PC : i5 4690K 3,5 GHz @ 4,4 GHz/Argon AR01, MSI Z97 GAMING 5, ADATA 8GB (2x4GB) CL9 1600MHz XPG, MSI GTX 970 Gaming 4G, 1TB Toshiba 7200rpm, SSD EVO 850 120GB, NZXT H440W Silent | Mac Pro, 2.66 GHz Quad | Xbox live : DoktorKrall | Bitter gammal gubbjävel på vintern |
Vilken var din första? - Fyndtråden - Inet Fraktfritt

Permalänk

Som jag förstod det så ska Intel inte använda AMD teknik i sig, utan betalar licensavgift då deras egna teknik inkräktar på något/några patent som AMD/ATi och nVidia har.

Genom att betala AMD (Tror det var $86M/kvartal) så kan Intel hålla ryggen fri från stämningar från nVidia. Om detta gäller patent på själva grafikarkitekturen, iGPU funktionalitet eller något annat framgår inte då det inte är klart vilka patent som ingår i avtalet.

Men som så många andra större företag så inkräktar nVidia säkert på något av AMD's patent och vise versa, och det är därför dom inte stämmer varandra då dom vet att dom inte håller sig innanför andra företagets linjer till 100% själv.

Kan ha helt fel, men det är så jag uppfattade det i alla fall.

Permalänk
Medlem

Vad menas med att AMD har haft finansiella problem "den senaste tiden"? Menar du den senaste månaden, kvartal eller till och med år?

Permalänk
Medlem
Skrivet av EndLessMind:

Som jag förstod det så ska Intel inte använda AMD teknik i sig, utan betalar licensavgift då deras egna teknik inkräktar på något/några patent som AMD/ATi och nVidia har.

Genom att betala AMD (Tror det var $86M/kvartal) så kan Intel hålla ryggen fri från stämningar från nVidia. Om detta gäller patent på själva grafikarkitekturen, iGPU funktionalitet eller något annat framgår inte då det inte är klart vilka patent som ingår i avtalet.

Men som så många andra större företag så inkräktar nVidia säkert på något av AMD's patent och vise versa, och det är därför dom inte stämmer varandra då dom vet att dom inte håller sig innanför andra företagets linjer till 100% själv.

Kan ha helt fel, men det är så jag uppfattade det i alla fall.

Låter högst troligt, gpu:er är säkert en guldgruva för patenttroll, såklart att Intel ser till att hålla ryggen fri ...

Visa signatur

|| R9 7950X MSI PRO X670-P WIFI 32GB-DDR5-6400c32 MSI RTX4080 Ventus 3X OC || CORE i9 12900KF MSI Z690 Tomahawk WIFI DDR4 32GB-3600c16 Gear1 TUF RTX3080 OC V2 || R7 5800X3D X570S CH8 Extreme 32GB-3800c18 Gigabyte RTX3080 GAMING OC || R9 5900X(B2) B550-F 32GB-3800c18 EVGA RTX3070 FTW Ultra || R9 3900X X470-Prime Pro 32GB-3200c16 MSI RTX2070 Super ||

Permalänk
Medlem
Skrivet av Swedish Berserk:

Har svårt att tro på detta faktiskt.

Möjligtvis att Intel fått till en deal på patent från AMD men att de skulle använda AMD teknik i sina egna processorer verkar riktigt konstigt minst sagt!

Inte så konstigt, de har redan gjort det i över 10 år... x86-64

Visa signatur

WS: Asus X570-E, Ryzen 5900x, 2x16GB Ballistix E-die, EVGA 3080 FTW3 Ultra
FS: Asus X370-F, Ryzen 3600, 4x8GB G.Skill Flare, GT710, CM Stacker
HTPC: Asus F2A85-M, A10-5800K, 2x4GB G.Skill 2133MHz

Permalänk
Medlem
Skrivet av Legacy_wow_jon:

Vad menas med att AMD har haft finansiella problem "den senaste tiden"? Menar du den senaste månaden, kvartal eller till och med år?

Så vitt jag vet så har AMD mest gått back senaste 2 åren i alla fall.

Visa signatur

Chassi: CM NR200P Kylare: Scythe Fuma 2
CPU
:
R5 5600x@4,6Ghz GPU: ASUS RTX 3080 TUF OC V2
Moderkort
:
ASUS X570-I Gaming Minne: 32GB 3600Mhz
Lagring
:
2xSamsung 970 EVO 500GB
Nätaggregat: Corsair SF750W

Permalänk
Inaktiv

Hoppas AMD fått bra betalt för patenten. Skulle gissa på att de kunnat få vad de ville då Intel förmodligen inte vill använda Nvidia denna gång och utan licenser går större delen av Intels processor-utbud inte längre att sälja.

Intel bör för övrigt supporta VESA Adaptive Sync snarast när de ändå håller på. Extra kul om vi får se GCN-baserade grafikkort även från Intel, skulle täcka upp segment Intel inte har något alls att konkurrera med i dagsläget.

För övrigt borde detta inte förvåna någon. Både AMD och Intel är företag som normalt kan sammarbeta med andra företag. Inte Nvidia vi talar om direkt.

Permalänk
Medlem
Skrivet av kirkunit:

Inte så konstigt, de har redan gjort det i över 10 år... x86-64

Intel och AMD har haft någon form av avtal om kors-licensiering sedan 1981. Det brukar löpa på fem år åt gången, och det var dags att förnya det nu under hösten 2016. Det är antagligen under den omförhandlingen som detta kom upp. Nvidia har ju varit på krigsstigen med sina patent nyligen, så det är inte svårt att tänka sig att AMD var en mer resonabel motpart.

Visa signatur

5900X | 6700XT

Permalänk
Medlem
Skrivet av guos89:

Och i den dära 10" supertunna 2 i 1 datorn med touch och 7mm tjocklek hade du alltså tänkt dig att tillverkare ska tvingas montera in ett separat strömhungrigt grafikkort bara för att "Integrerad grafik är dålig" eller vadå?

Nej även om integrerad grafik kanske inte är något för datorspel i 4K ultra så finns det absolut en poäng och fördel med att ibland ha integrerad grafik.

Absolut, men varför inte utelämna det i entusiastprocessorer, åtminstone K-modellerna?

Permalänk
Skrivet av Legacy_wow_jon:

Vad menas med att AMD har haft finansiella problem "den senaste tiden"? Menar du den senaste månaden, kvartal eller till och med år?

Såhär länge har det gått dåligt för AMD: https://www.avanza.se/aktier/om-aktien.html/529720/advanced-m...

Mao har det i princip gått utför sedan K7/K8-tiden. Det är alltså mycket bra för oss alla om denna nyhet stämmer.

Visa signatur
Permalänk
Medlem
Skrivet av Marsupilami:

Såhär länge har det gått dåligt för AMD: https://www.avanza.se/aktier/om-aktien.html/529720/advanced-m...

Mao har det i princip gått utför sedan K7/K8-tiden. Det är alltså mycket bra för oss alla om denna nyhet stämmer.

Som aktieägare i AMD så är jag mycket väl medveten om AMDs tidigare problem (just därför aktien var så billig). Men sedan visade ju dom på vinst i somras och därför undrar jag om nyhetsförfattaren sitter på någon information som jag inte har, likvida eller andra.

Permalänk
Medlem
Skrivet av Oyes:

Absolut, men varför inte utelämna det i entusiastprocessorer, åtminstone K-modellerna?

x99 har inte inbyggd grafikkrets.

Permalänk
Medlem
Skrivet av Oyes:

Absolut, men varför inte utelämna det i entusiastprocessorer, åtminstone K-modellerna?

Sannolikt för att det faktiskt är billigare att lämna den kvar. Besparingen är ett antal mm2 som GPUn tar upp, medan kostnaden är att Intel tvingas validera en mask till. (besparing per processor)*(antal K-processorer som säljs per generation) < (kostnaden för att validera en mask). Intel jagar inte precis mm2 att sprar just nu - en del maskar har t.o.m ett par mm2 över som inte används. Detta beror på att Intel designar chippen som ett antal kvadrater som kan inkluderas i designen eller inte, och då blir det ibland en liten bit av chippet över som inte används alls. Jag vet att Sandy Bridge quadcore hade det, och Haswell quadcore med GT2 ser också ut att ha ett sådant område bredvid memory controllern.

Visa signatur

5900X | 6700XT

Permalänk
Medlem
Skrivet av Oyes:

Absolut, men varför inte utelämna det i entusiastprocessorer, åtminstone K-modellerna?

I entusiastmodellerna, det vill säga -E så är det precis så, ingen GPU-del.

Visa signatur

Storburk: Ryzen 7 3700X, MSI B450M Mortar, FD Define Mini, CM M2 Silent 720W, 32 GB, ASUS RX 580 8GB, NVME SSD + HDD - HTPC: Ryzen 5 2400G, 16 GB, NVME SSD, BeQuiet 550W - Bärbar: ASUS F3SR, Core2Duo@2,6-3,1Ghz 4 GB, SSD

Permalänk
Medlem
Skrivet av EndLessMind:

Som jag förstod det så ska Intel inte använda AMD teknik i sig, utan betalar licensavgift då deras egna teknik inkräktar på något/några patent som AMD/ATi och nVidia har.

Genom att betala AMD (Tror det var $86M/kvartal) så kan Intel hålla ryggen fri från stämningar från nVidia. Om detta gäller patent på själva grafikarkitekturen, iGPU funktionalitet eller något annat framgår inte då det inte är klart vilka patent som ingår i avtalet.

Men som så många andra större företag så inkräktar nVidia säkert på något av AMD's patent och vise versa, och det är därför dom inte stämmer varandra då dom vet att dom inte håller sig innanför andra företagets linjer till 100% själv.

Kan ha helt fel, men det är så jag uppfattade det i alla fall.

Precis så

Det kommer mao att bli intels vanliga iGpu'er, med enda skillnaden att dom kanske gör vissa ändringar om en lösning är "för mycket nvidia".
Skillnaden är att dom betalar AMD istället för nvidia för licencer, för sådant dom bygger själva.

Permalänk
Datavetare
Skrivet av Swedish Berserk:

Har svårt att tro på detta faktiskt.

Möjligtvis att Intel fått till en deal på patent från AMD men att de skulle använda AMD teknik i sina egna processorer verkar riktigt konstigt minst sagt!

Är av precis samma åsikt. Det har tagit AMD respektive Intel väldigt många att skapa en krets med både GPU och CPU. Med HSA (Intel har de flesta funktioner där också) är dessa kretsar långt mer än CPU+GPU på samma kiselbricka, de sitter ihop på många lurig sätt. Inget man ändrar i en handvändning. Man har ju haft motsvarade avtal från Nvidia och finns av allt att döma ingen Maxwell/Pascal DNA i Intels iGPUer.

De spekulationer jag sett är att AMD och Nvidia har var och en så pass mycket patent kring GPUer att det är omöjligt för någon att skapa en GPU till PC som inte gör intrång på flera av patenten. AMD och Nvidia gör intrång på varandras patent, men båda inser att det inte är lönt att gå till rättegång för då kommer bara en radda motstämningar där enda vinnare är advokaterna. Det råder alltså ett form av kallt krig med patent i stället för kärnvapen som upprätthåller status quo.

Vidare går spekulationen ut på att det Intel i praktiken måste betalat för är rätten till en av dessa GPU-supermakters patentarsenal, är alltså inte tekniken i sig man vill åt utan "skydd" under en av GPU-supermakterna.

Om det finns någon substans i den spekulationen, ligger det i Intels egenintresse att upprätthålla status quo. Givet läget på marknaden är det strategiskt långt vettigare att ge patentpengarna till AMD än att ge dessa till Nvidia. Risken är ju att ena supermakten blir så pass mäktig att dess patentportfölj blir så mycket mer slagkraftig att stämningar blir ett lockande alternativ.

Om Intel däremot säger att de ska ge sig in i dGPU-branchen så skulle jag absolut se ett värde i att köpa det mesta av tekniken från endera AMD eller Nvidia, men på iGPU är det överlägset viktigaste egenskapen prestanda/W och där ligger Intel före både AMD och Nvidia med Iris Graphics.

Skylake CPU+iGPU+64 GB eDRAM på 15 W har faktiskt en GPU-prestanda motsvarande eller något bättre än någon av AMDs iGPU som Notebook Check har testat (det inkluderar desktop-modeller).

Har däremot aldrig förstått poängen med Iris Pro (än mindre efter att köpt en CPU med Iris Pro och testat den first-hand). Även om det är den bäst presterande iGPUn man hittar finns den bara i modeller med 45 W TDP och uppåt. Enheter man kan få in en CPU med 45 W TDP är i praktiken alltid stora nog att kunna husera en dGPU som presterar långt bättre (fast jag vill se GPU via Thunderbolt för bärbara!!!).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av mpat:

Sannolikt för att det faktiskt är billigare att lämna den kvar. Besparingen är ett antal mm2 som GPUn tar upp, medan kostnaden är att Intel tvingas validera en mask till. (besparing per processor)*(antal K-processorer som säljs per generation) < (kostnaden för att validera en mask). Intel jagar inte precis mm2 att sprar just nu - en del maskar har t.o.m ett par mm2 över som inte används. Detta beror på att Intel designar chippen som ett antal kvadrater som kan inkluderas i designen eller inte, och då blir det ibland en liten bit av chippet över som inte används alls. Jag vet att Sandy Bridge quadcore hade det, och Haswell quadcore med GT2 ser också ut att ha ett sådant område bredvid memory controllern.

Senaste vanliga Intelcpu utan iGPU var väl i5 2550K har jag för mig, den var nog bara en vanlig med trasig GPU dock..

Skickades från m.sweclockers.com

Visa signatur

Storburk: Ryzen 7 3700X, MSI B450M Mortar, FD Define Mini, CM M2 Silent 720W, 32 GB, ASUS RX 580 8GB, NVME SSD + HDD - HTPC: Ryzen 5 2400G, 16 GB, NVME SSD, BeQuiet 550W - Bärbar: ASUS F3SR, Core2Duo@2,6-3,1Ghz 4 GB, SSD

Permalänk
Medlem

Hoppas AMD får bra betalt.

Skrivet av propellerhatt:

Detta kommer slå hårt mot amds egna APUer som varumärke men visst rullar det väl in pengar för dom ändå med tanke på hur många intelprocessorer som säljs. Sen återstår det väl att se i vilken utsträckning det handlar om och ifall det ens blir av.

Skickades från m.sweclockers.com

AMD har väl gjort en avvägning och säkert tagit med det i beaktning vid förhandlingarna. Eftersom Intel säljer så mycket mer processorer än AMD så är det säkert mer värt för AMD att licensiera ut vissa patent. Det är ju garanterade pengar utan risk, jobbet är redan gjort.

Skrivet av Yoshman:

Är av precis samma åsikt. Det har tagit AMD respektive Intel väldigt många att skapa en krets med både GPU och CPU. Med HSA (Intel har de flesta funktioner där också) är dessa kretsar långt mer än CPU+GPU på samma kiselbricka, de sitter ihop på många lurig sätt. Inget man ändrar i en handvändning. Man har ju haft motsvarade avtal från Nvidia och finns av allt att döma ingen Maxwell/Pascal DNA i Intels iGPUer.

De spekulationer jag sett är att AMD och Nvidia har var och en så pass mycket patent kring GPUer att det är omöjligt för någon att skapa en GPU till PC som inte gör intrång på flera av patenten. AMD och Nvidia gör intrång på varandras patent, men båda inser att det inte är lönt att gå till rättegång för då kommer bara en radda motstämningar där enda vinnare är advokaterna. Det råder alltså ett form av kallt krig med patent i stället för kärnvapen som upprätthåller status quo.

Vidare går spekulationen ut på att det Intel i praktiken måste betalat för är rätten till en av dessa GPU-supermakters patentarsenal, är alltså inte tekniken i sig man vill åt utan "skydd" under en av GPU-supermakterna.

Om det finns någon substans i den spekulationen, ligger det i Intels egenintresse att upprätthålla status quo. Givet läget på marknaden är det strategiskt långt vettigare att ge patentpengarna till AMD än att ge dessa till Nvidia. Risken är ju att ena supermakten blir så pass mäktig att dess patentportfölj blir så mycket mer slagkraftig att stämningar blir ett lockande alternativ.

Om Intel däremot säger att de ska ge sig in i dGPU-branchen så skulle jag absolut se ett värde i att köpa det mesta av tekniken från endera AMD eller Nvidia, men på iGPU är det överlägset viktigaste egenskapen prestanda/W och där ligger Intel före både AMD och Nvidia med Iris Graphics.

Skylake CPU+iGPU+64 GB eDRAM på 15 W har faktiskt en GPU-prestanda motsvarande eller något bättre än någon av AMDs iGPU som Notebook Check har testat (det inkluderar desktop-modeller).

Har däremot aldrig förstått poängen med Iris Pro (än mindre efter att köpt en CPU med Iris Pro och testat den first-hand). Även om det är den bäst presterande iGPUn man hittar finns den bara i modeller med 45 W TDP och uppåt. Enheter man kan få in en CPU med 45 W TDP är i praktiken alltid stora nog att kunna husera en dGPU som presterar långt bättre (fast jag vill se GPU via Thunderbolt för bärbara!!!).

Om nu AMD, sorgligt nog, skulle gå under inom en överskådlig tid så hade det åtminstone varit väldigt intressant att ser hur relationen mellan Intel och Nvidia artat sig. Nvidia har aldrig dragit sig för att ta en fight och slå in en kil när de fått möjlighet.

Visa signatur

Räkna ut hur kraftigt nätaggregat du behöver på OuterVision Power Supply Calculator. 500W räcker för de allra flesta vanliga system. Seasonic är bäst. ;) – Elektrostatisk urladdning är ett verkligt problem.
"People who are serious about software should make their own hardware" – Alan Kay
Bojkotta maffian