Intel och AMD samarbetar kring processor för bärbara speldatorer

Permalänk
Medlem
Skrivet av str8forthakill:

Intressant att de valde AMD när Nvidia ligger långt före i energieffektivitet och prestanda. Kanske Intels sätt att ge AMD en klapp på ryggen? Eller sker ett likadant samarbete med Nvidia just nu som sopas under mattan av pr för AMD?

GPU:er används också till annat än spel.
AMD:s konsumentkretsar är mer compute-inriktade än Nvidias diton, men den troligaste anledningen är nog ändå att Nvidia är mindre villiga att ta fram semicustom-chip. Man vill hellre sälja färdiga lösningar som använder Nvidia-proprietär mjukvara. Det var den största anledningen att Steve Jobs sparka ut Nvidia från Apples burkar som jag förstått det. Den sista men inte den minsta är nog också att Nvidia brukar ta bra betalt för sina chip.

Visa signatur

🖥️ AMD Ryzen 3700x, MSI B350 Mortar Arctic, Corsair lpx 3200, Sapphire 6900XT Nitro, Mbpro 15, MacMini.

Permalänk
Medlem

Min sons Lenovo Legion drar upp till 150W med GTX1060 6GB, den drar runt typ "alla" spel i 1080P men väger 3.2Kg och har en jättelik nätdel, min egen HP med i stort identisk formfaktor som Macbook Pro 15" drar 15-20W max och är tunn och lätt nätdelen ser ut som en mobilladdare. Spela Windows går i princip lika bra som på Legion men spel kan man ju fetglömma(inte därför jag har den, har den som portabel DAW). Visst vore det intressant om det gick att kombinera dessa i samma modell, kanske inte lika bra i varje aspekt men nära nog. Intressant nyhet

Visa signatur

|| R9 7950X MSI PRO X670-P WIFI 32GB-DDR5-6400c32 MSI RTX4080 Ventus 3X OC || CORE i9 12900KF MSI Z690 Tomahawk WIFI DDR4 32GB-3600c16 Gear1 TUF RTX3080 OC V2 || R7 5800X3D X570S CH8 Extreme 32GB-3800c18 Gigabyte RTX3080 GAMING OC || R9 5900X(B2) B550-F 32GB-3800c18 EVGA RTX3070 FTW Ultra || R9 3900X X470-Prime Pro 32GB-3200c16 MSI RTX2070 Super ||

Permalänk
Medlem

Den stora vinnaren i detta är givetvis AMD. Dels kommer man in i en marknad man har haft ytterst svårt att konkurrera (premium notebooks) och sen är det Intel som tar den största risken (denna lösning lär inte vara billig, och kräver mycket samarbete mellan flera parter).

Intel lär förmodligen ha insett att man inte har en chans inom grafik, och man ser Nvidia som ett betydligt större hot än AMD.

Permalänk
Medlem

Kan bli något nice detta

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av str8forthakill:

Intressant att de valde AMD när Nvidia ligger långt före i energieffektivitet och prestanda. Kanske Intels sätt att ge AMD en klapp på ryggen? Eller sker ett likadant samarbete med Nvidia just nu som sopas under mattan av pr för AMD?

1) HBM. Det är nog svårt att göra detta med GDDR. AMD har kört HBM sen Fury X, och drev utvecklingen innan dess. NVidia satsade på HMC först och är sena med HBM, och kör det idag bara på GP100/GV100 i minimala volymer och (vad det sägs) med usel yield
2) Samarbetsproblem. NVidia har svårt att samarbeta med andra rent allmänt, och speciellt Intel har de bråkat med förr. Tror att Intel håller sig borta från dem.

Skickades från m.sweclockers.com

Visa signatur

5900X | 6700XT

Permalänk
Medlem

April april? Vad är AMDs motivering här? Numera är de ju mycket närmare täten på CPU än vad Intel är på GPU.

Skickades från m.sweclockers.com

Permalänk
Inaktiv

Inte helt oväntat då det ryktats om just detta i något år nu. Verkligen kul att det blir av med, och visar återigen att AMD och Intel är seriösa företag som kan sammarbeta om de båda får ut något av det. Till skillnad från Nvidia som alltid beter sig som en bortskämd snorunge och inte kan vika sig en millimeter.

Intels behov av licenser för fortsatt utveckling av grafikkretsar var väl känd med. Nvidia är svåra att arbeta med vilket branschen kryllar av exempel med. Behövs mer info hur detta kommer påverka bägge företag, AMD lär ha fått rätt bra betalt för licenserna för att motivera detta. Lär knappast påverka AMD som helhet negativt då även AMD får ut en hel del av satsningen vilket flera redan påpekat.

Intressanta tider och första gången Intel gjort något vettigt i år i mitt tycke. En klart seriösare satsning på just spelgrafik vilket förhoppningsvis kan dra igång utvecklingen rejält även här med. 2017 blir kanske året där både CPU-utvecklingen men även grafikutvecklingen drar igång på allvar igen. Riktigt härligt!

Permalänk
Medlem
Skrivet av jacozz:

GPU:er används också till annat än spel.
AMD:s konsumentkretsar är mer compute-inriktade än Nvidias diton, men den troligaste anledningen är nog ändå att Nvidia är mindre villiga att ta fram semicustom-chip. Man vill hellre sälja färdiga lösningar som använder Nvidia-proprietär mjukvara. Det var den största anledningen att Steve Jobs sparka ut Nvidia från Apples burkar som jag förstått det. Den sista men inte den minsta är nog också att Nvidia brukar ta bra betalt för sina chip.

NVidia gjorde semicustom-chip för Apple förr - den integrerade grafikkretsen 320M var bara Apple. Att nVidia är ute i kylan nu lär beror på att nVidia hotat stämma Apple för grafiken i iPhone, och det hände i vilket fall långt efter Jobs död.

Jobs lär dock personligen ha slängt ut AMD en gång på nittiotalet efter att de läckt kommande Powermac Cube dan innan den skulle släppas. Det tog flera år innan AMD fick komma tillbaka från det.

Skickades från m.sweclockers.com

Visa signatur

5900X | 6700XT

Permalänk
Medlem

Där satt den.

Visa signatur

[ AMD 7800X3D // EK-Block @ custom loop, 2x420mm ][ MSI B650 Tomahawk ][ 32GB G.Skill Z5 Neo @ DDR6000 CL28 1T ][ AMD 7900XTX @ custom loop ][ Corsair 750D // Corsair RM1000X ][ 2TB Samsung 990PRO M.2 SSD ][ Win10 PRO x64 ][ LG 34GN850 ]

Permalänk
Medlem
Skrivet av mpat:

NVidia gjorde semicustom-chip för Apple förr - den integrerade grafikkretsen 320M var bara Apple. Att nVidia är ute i kylan nu lär beror på att nVidia hotat stämma Apple för grafiken i iPhone, och det hände i vilket fall långt efter Jobs död.

Jobs lär dock personligen ha slängt ut AMD en gång på nittiotalet efter att de läckt kommande Powermac Cube dan innan den skulle släppas. Det tog flera år innan AMD fick komma tillbaka från det.

Skickades från m.sweclockers.com

Ok.
Hur som, verkar det som om många i industrin föredrar att jobba med AMD av olika anledningar.

Visa signatur

🖥️ AMD Ryzen 3700x, MSI B350 Mortar Arctic, Corsair lpx 3200, Sapphire 6900XT Nitro, Mbpro 15, MacMini.

Permalänk
Medlem
Skrivet av backfeed:

Kanske delvis beror på att Intel och Nvidia har lite negativt laddad historia, från när Intel vägrade låta Nvidia tillverka chipsets och när Nvidia ville tillverka x86-processorer trots att de saknade avtal med Intel. Dvs det kan vara Nvidia som inte vill samarbeta.

"Alla barnen hade stabila datorer utom lidia för hon hade chipset från Nvidia." Humor från förr.

Visa signatur

42? Seven and a half million years and all you can come up with is 42?!
► FD Define R2 | Win10Pro | i7-3770K | Hyper212+ SP120PWM | P8P67 PRO | CML8GX3M2A1600C9 | 1080 Ti | AX750 | Asus VG27WQ | Eizo S2100 | HP Z24n |► OnePlus 6 |

Permalänk
Medlem

Låter som att Linus får gå tillbaka på sitt ord om att Intel aldrig kommer att sammarbeta med RTD, klagar faktiskt inte.

Visa signatur

"Oh glorious cheeseburger… we bow to thee. The secrets of the universe are between the buns..."
"All my farts come straight from hell, you're already dead if you notice a smell"

Permalänk
Rekordmedlem

Är det här möjligen för att jäklas med Nvidia som ett svar på DGX ?

Visa signatur

R5 5600G, Asus ROG STRIX X470-F Gaming, WD SN850X 2TB, Seasonic Focus+ Gold 650W, Aerocool Graphite v3, Tittar på en Acer ET430Kbmiippx 43" 4K. Lyssnar på Behringer DCX2496, Truth B3031A, Truth B2092A. Har också oscilloskop, mätmikrofon och colorimeter.

Permalänk
Medlem

Win för intel:
Får grafik som är konkurrenskraftig
Sänker nVidias priser som stadigt ökat de 5 senaste åren.
Får ett företag som gör drivrutiner och optimerar för spel vilket de själva inte gör.

Win för AMD:
Får sälja mer GPUer, kanske vinner över fler kunder till andra segment.

Win för kunderna:
Vi får de bästa och energisnålaste CPUerna, det område där intel lagt allt sitt krut sen Sandy bridge på laptop segmentet.
Vi får helt okej grafik och stödjer öppna standarder.

Frågetecken varför inte använda sin egen Ryzen för detta? Tror som nån annan sa: APPLE

Visa signatur

Ryzen 9 5950X, 32GB 3600MHz CL16, SN850 500GB SN750 2TB, B550 ROG, 3090 24 GB
Har haft dessa GPUer: Tseng ET6000, Matrox M3D, 3DFX Voodoo 1-3, nVidia Riva 128, TNT, TNT2, Geforce 256 SDR+DDR, Geforce 2mx, 3, GT 8600m, GTX460 SLI, GTX580, GTX670 SLI, 1080 ti, 2080 ti, 3090 AMD Radeon 9200, 4850 CF, 6950@70, 6870 CF, 7850 CF, R9 390, R9 Nano, Vega 64, RX 6800 XT
Lista beg. priser GPUer ESD for dummies

Permalänk
Medlem

Låter för bra för att vara sant. Kan man hoppas på en gaming-nuc för TVn nu?!?!?!

Skickades från m.sweclockers.com

Permalänk
Inaktiv

Äntligen

Permalänk
Medlem
Skrivet av mpat:

1) HBM. Det är nog svårt att göra detta med GDDR. AMD har kört HBM sen Fury X, och drev utvecklingen innan dess. NVidia satsade på HMC först och är sena med HBM, och kör det idag bara på GP100/GV100 i minimala volymer och (vad det sägs) med usel yield

Klart de kan om de vill, Polaris och 4 GB GDDR5 går fint på en förpackning, som MCM alltså. Deras mindre Pascal skulle nog vara lämplig för samma typ av tillämpning. Fast detta är såklart inte riktigt lika kompakt som HBM2 + Vega, men i samma förpackning bör gå.

Permalänk
Medlem
Skrivet av Commander:

Trevligt nästa Laptop blir då Antingen Intel + AMD eller AMD/AMD så slipper man Nvidia's stängda och skruttiga drivrutiner till fördel mot Intels/AMDs openSåS.

Intel+AMD har tidigare inte varit någon bra kombination i en laptop även om situationen blivit bättre sista året.
AMD+AMD har fungerat mycket bättre men med sämre batteritid.
Det ska bli spännande och se hur dessa kommer fungera med öppna drivrutiner i linux.

Permalänk
Medlem
Skrivet av Baver:

April april? Vad är AMDs motivering här? Numera är de ju mycket närmare täten på CPU än vad Intel är på GPU.

Skickades från m.sweclockers.com

Men deras marknadsandelar på laptop-marknaden är väldigt liten och gemene man kommer inte ha någon aning om vad en dator med "Ryzen" är, dock känner dom igen Intel i3, i5, i7 osv.

Permalänk
Medlem

Vad är det för datum?!!?!

Visa signatur

Min musik: https://www.youtube.com/channel/UCZKidNeIKsz8LZMO3VRcBdQ

Ryzen 3900x. Skärm: AOC cu34g2x/bk 144hz 34" ultrawide. RTX 2080ti

Laptop: MSI GT80 Titan Sli

Permalänk
Inaktiv

Någon nämnde det innan men en spelbar datorlösning med Nintendo Switchs formfaktor hade jag gärna sett. Mycket av mitt spelande sedan lanseringen av Switchen utförs med just en handhållen Switch.

Permalänk
Medlem
Skrivet av Baver:

April april? Vad är AMDs motivering här? Numera är de ju mycket närmare täten på CPU än vad Intel är på GPU.

Skickades från m.sweclockers.com

För att AMDs marketshare på den bärbara sidan är typ 0%, Intel och Nvidia DOMINERAR den marknaden (som är jävligt stor).. detta är ett grymt sätt för AMD att få in sina chipp på den portabla marknaden också.

Visa signatur

|Chassi: Phanteks P400S | CPU: i9 9900k, Corsair H90 | GPU: 2x GTX 980 @ 1450/8000MHz | RAM: 16GB Corsair LPX @ 2400mhz | PSU: Corsair AX850 med MDPC-X sleeve | Mobo: Asus Z390-F | SSD: Samsung 840 Pro 256GB, Samsung 860 EVO 500GB| HDD: Samsung F1 640GB, WD Blue 1TB |

Permalänk
Medlem

Dra mig baklänges uppåt Klimtachacka!

Tror detta bara är positivt. Tvivlar på att många skulle valt AMD-CPUer i sina bärbara iaf, plus att AMD får in någon av sina produkter i den bärbara marknaden. Det måste ändå vara första steget. Att alls få ett fotgrepp. Detta luktar Apple-flirtning lång väg! 😁

Visa signatur

DATOR i bruk: ASUS ROG STRIX B550-F Gaming, Ryzen 7 5900X. 4x16 GB Ballistix MAX RGB @ 3800 MT/s 16-17-18-34-51 (1T)/~58 ns. MSI RTX 4090 Ventus x3. Samsung 980 Pro 1 TB. EK AIO Elite 360.
DATOR 2011 års modell: Underbara Sandy Bridge, i7 2600K@4,7 GHz på ett P67 Sabertooth-bräde. Radeon HD 7770

Permalänk
Avstängd
Skrivet av jacozz:

Jo, lite mindre än halva kretsen är nog det rimligaste och som du är inne på lär inte dessa vara speciellt högt klockade.
Men poängen är att få vettig grafikprestanda ur ultrabooks, inte konkurrera med de släpbara

Nu när jag kollat hur stor en Vega krets är i förhållande till en HBM2 krets så är det troligen en fjärdedel! Så då kunde dom Säkert få ned den till 25 watt med runt 900 Mhz boost.

Visa signatur

2600x||16GB @3000Mhz 14-14-10-14-32-46||Vega 64||1TB SSD||HX1000 plat||FD R6 TG vit||CH VII||H100i V2||SST-ARM22SC||SG 32" QHD 144 Hz VA|| https://folding.extremeoverclocking.com/team_summary.php?s=&t...

Permalänk
Medlem

Undrar om Intel fick med lite lim från AMD eller om de använder eget lim när de limmar kretsen.

Permalänk
Inaktiv
Skrivet av Snubb1:

Undrar om Intel fick med lite lim från AMD eller om de använder eget lim när de limmar kretsen.

Intel har limmat förr så de har nog lim så det räcker.

Permalänk
Medlem
Skrivet av Snubb1:

Intel+AMD har tidigare inte varit någon bra kombination i en laptop även om situationen blivit bättre sista året.
AMD+AMD har fungerat mycket bättre men med sämre batteritid.
Det ska bli spännande och se hur dessa kommer fungera med öppna drivrutiner i linux.

Yup men då var också problemen många tekniska då drivrutinerna bråkade om libGL. Numera så har man ju glvnd som Nvidia var med där andra tillverkare gick på spåret där alla kan ha sin egna implementation av OpenGL och on the fly byta mellan dessa vilket gör det möjligt för Optimus liknande lösning. Då Både Intel och AMD kör öppet så skulle kombinationen funka rätt så utmärkt speciellt när man tittar på hur bra mycket bättre AMD's öppna drivrutiner är i nuläget mot bara för ett par månader sen.

Visa signatur

Arch - Makepkg, not war -||- Gigabyte X570 Aorus Master -||- GSkill 64GiB DDR4 14-14-15-35-1T 3600Mhz -||- AMD 5900x-||- Gigabyte RX6900XT -||- 2x Adata XPG sx8200 Pro 1TB -||- EVGA G2 750W -||- Corsair 570x -||- O2+ODAC-||- Sennheiser HD-650 -|| Boycott EA,2K,Activision,Ubisoft,WB,EGS
Arch Linux, one hell of a distribution.

Permalänk
Medlem

Men men men... hur kommer det då att gå för Intel GMA?

Visa signatur

AMD R7700/ASRock X670E/GSkill 32GB DDR5 6000cl32/XFX RX6800/Kingston Fury 2TB NVMe/Corsair RM850e
KIDS: i7 4790K/16GB/GF1070Ti/1TB NVMe #2: i7 4790K/16GB/GF970/1TB SSD
CLUB: i5 6600K/16GB/GF980/1TB SSD #2: i7 2600K/16GB/GF680/256GB SSD #3: Q9550/4GB/GF770/500GB SSD
HTPC: E8400/4GB/R4600/2TB HDD SONY VAIO: i3 2310M/6GB/R6470M/500GB SSD
AMIGA A4000/PPC, A4000/060, A1200/060, A600/030, A500/020, A1000 etc.

Permalänk
Datavetare
Skrivet av Esseboy:

Undrar hur mycket lägre latensen är mellan GPU och CPU är och hur det påverkar prestandan? I sammankoppling med den ren lägre latensen mellan GPU och HMB2 jämfört med GDDR5

Gissar att det i praktiken är noll skillnad i latens mellan en "vanlig" interposer och EMIB. Poängen med EMIB verkar ju främst vara att det är billigare jämfört med en interposer samt att det möjliggör att större kaka med kretsar kopplas ihop då flera EMIBs kan användas i ett visst paket medan en "vanlig" interposer begränsas av hur stora kretsar man kan göra (då interposern själv är en form av krets).

Skrivet av Petterk:

Renderingen får mig att tänka att den är tänkt att ligga mellan KBL-R och -H, den har inte PCH on-package exempelvis. Effektförbrukningen på processorn lär ligga närmare KBL-R än -H eftersom de nämner slimmade bärbara. GPUn ser på renderingarna ut att vara någonstans kring 200 mm². Om det inte rör sig om dual-core KBL, och förutsatt att renderingen är någorlunda till skala vilket den säkert inte är.

Apple bryr sig nog inte om BoM, men bara för att Apple kör produkten så behöver ju inte andra haka på, utan de kan vända varenda krona istället. Hos andra kan det vara mer värt att köra KBL-R med t.ex. en bärbar variant av Vega, och det är ju också något som är kompakt, mycket kompaktare än att köra KBL-H och GTX 1050 som idag hos XPS15 exempelvis. Med tanke på GPUns potentiella storlek så tänker jag att den kan ligga runt 4 GFLOPS, så ja kanske något som är lämpligt i MBP15, men vad ska de då köra i MBP13? Fortsätta köra dual-core kan de ju inte göra.

Finns ingen anledning att köra med dual-core då även 15 W TDP modellerna är 4C/8T nu för tiden (och Apple har så här långt använt 28 W TDP kretsar i 13" MBP). Vet inte riktigt hur kompakt lösningen som diskuteras i artikeln är, normalt sett är ju en fördel med separat GPU att det är enklare att kyla två separata kretsar jämfört med en CPU+iGPU. Det som beskrivs i artikeln är ju trots allt fortfarande separata kretsar även om det är ett enda paket.

Skrivet av Snubb1:

Undrar om Intel fick med lite lim från AMD eller om de använder eget lim när de limmar kretsen.

Intel är ju rätt frekvent användare av MCM, t.ex. så är alla deras mobilkretsar MCM (CPU+chipset och i vissa fall även eDRAM).

Var inte "lim-referensen" väldigt mycket en gliring till att AMD kallade Pentium D och C2Q för "hoplimmade"? Oavsett är det rätt stor skillnad på att skapa en CPU m.h.a. MCM kontra en monolitisk krets, den senare må vara dyrare men den är mer konsekvent i sitt beteende, Intel hade problem med vissa fall på sin tid och AMD har problem med samma typ av fall idag.

I grunden är ändå MCM ett kostnadseffektivt och utrymmeseffektivt sätt att bygga ett paket med väldigt mycket funktioner. I fallet chipset och dGPU finns egentligen ingen nackdel utöver att MCM ändå lär vara dyrare än att montera kretsarna separat (fast det tar betydligt mer plats).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Enigma:

Där satt den.

Smack!

Visa signatur

XFX Radeon RX 7700 XT Speedster QICK 319 Black Edition | AMD Ryzen R7 5700X | Noctua NH-D15 | Asus TUF Gaming B550-Plus | Kingston Fury Beast DDR4 3600MHz 4x8GB | Samsung 990 Pro 1TB | Corsair HX1000i | Fractal Design Define S | LG 27GL83A | Corsair K95 Platinum | Corsair Sabre RGB PRO Wireless | Corsair Void Elite Wireless