Intel skjuter upp kombinerad processor-grafikkort

Permalänk
Melding Plague

Intel skjuter upp kombinerad processor-grafikkort

Både Intel och AMD arbetar för fullt med att slå ihop grafikkort och processor i en enda krets. Nu verkar det som att åtminstone Intels variant är på väg att bli försenad.

Läs nyheten

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Hedersmedlem

Var väll rätt väntat egentligen, lär ju inte vara det lättaste att genomföra direkt...

Permalänk
Entusiast

Jag förstår inte fördelen att integrera grafikkortet i processorn istället för moderkortet någon som kan förklara?

Visa signatur

PS5 :: Switch :: Steam :: StarCraft II

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Firkraag
Jag förstår inte fördelen att integrera grafikkortet i processorn istället för moderkortet någon som kan förklara?

Utan att egentligen veta så skulle jag gissa på att det är en prestanda vinst att ha det på processorplattan istället för i chipset. Vidare så ger ju det här möjligheten att faktiskt släppa en "spel processor" där man kanske har 4 vanliga cpu kärnor och 2 gpu kärnor med hyffsat bra hastighet och därgenom (åtminstonde i det första skedet) slippa vanliga prestanda grafikkort. Konsekvensen av detta är bättre spelprestanda i bärbara datorer och på små mini datorer baserad på nano-itx exempelvis.

Visa signatur

| Errare humanum est |

Permalänk

Det är la lättare med det för då slipper de tänka på den extra platsen som skulle behövas om de satt utanför.
Och sen så får man ett sett att byta både grafik och processor enkelt, utan att köra med ett vanligt grafik kort eller byta processor:

Visa signatur

Ryzen 5 7600
Rx 6650xt
32Gb

Permalänk
Avstängd

Ett sätt att få reda på fördelarna är att faktiskt LÄSA artikeln man kommenterar, men det kanske är för mycket begärt?

"Att kombinera grafikkort och processor i en enda krets har en mängd fördelar. Främst handlar det om att kunna pressa tillverkningskostnaderna, men också om att erbjuda energisnåla produkter till bland annat bärbara datorer."

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av SWE|OggE
Var väll rätt väntat egentligen, lär ju inte vara det lättaste att genomföra direkt...

mmm håller med, dom tog sig vatten över huvudet

Visa signatur

>AMD Phenom™ 1055T@3,8Ghz + NH-D14|Gigabyte GTX460 1GB@ 850/2200mhz|Gigabyte 870A|A-Data 4GB Ram|CM HaF 912+|Creative X-Fi Titanium+Z-5500|Kingston SSD| Och lite till.<

Permalänk

Bättre att göra någon sorts brygga från cpu:n till gpu:n om man vill ha snabba överföringar mellan dom. För laptop kanske det är attraktivt och kanske för F@H

Permalänk
Entusiast
Citat:

Ursprungligen inskrivet av dundermuppen
Ett sätt att få reda på fördelarna är att faktiskt LÄSA artikeln man kommenterar, men det kanske är för mycket begärt?

"Att kombinera grafikkort och processor i en enda krets har en mängd fördelar. Främst handlar det om att kunna pressa tillverkningskostnaderna, men också om att erbjuda energisnåla produkter till bland annat bärbara datorer."

Jag tolkar det som en jämförelse mellan inbyggd i processorn och vanligt PCI-E grafikkort. Inte som en jämförelse mellan inbyggd i processorn, och inbyggd i moderkortet.

Försök att inte gnälla på en legitim fråga det första du gör, men det kanske är för mycket begärt?

Visa signatur

PS5 :: Switch :: Steam :: StarCraft II

Permalänk
Medlem

Har det där moderkortet en SO-DIMMplats också? Eller vad är det där under minnesplatserna?

Visa signatur

Every day sends future to past

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av dundermuppen
Ett sätt att få reda på fördelarna är att faktiskt LÄSA artikeln man kommenterar, men det kanske är för mycket begärt?

"Att kombinera grafikkort och processor i en enda krets har en mängd fördelar. Främst handlar det om att kunna pressa tillverkningskostnaderna, men också om att erbjuda energisnåla produkter till bland annat bärbara datorer."

Ytterligare en fördel som speltillverkare gått runt idag är förmodligen att man kan öka hastigheten i kommunikation mellan grafikkort och processor. Idag verkar det som att de jobbar hårt just för att skicka data färre sändningar eftersom detta är en stor flaskhals. Skulle man på något vis kunna integrera grafikkortet helt med processorn så tror jag det skulle kunna ge enorma fördelar även om själva grafikkprocessorn inte var så snabb som de snabbaste grafikkorten idag. Krävs iofs omskrivning av en del programvara

Visa signatur

Programmerare med C++ som huvudspråk.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Firkraag
Jag förstår inte fördelen att integrera grafikkortet i processorn istället för moderkortet någon som kan förklara?

GPU'n kan t.ex använda HyperTransport.. APU som AMD kallar CPU+GPU kommer råda bot på många flaskhalsar i systemet. Frågan är bara när systemet är moget

Visa signatur

Knowledge is not achieved until shared.

Permalänk
Medlem

Det finns både för och nackdelar med att integrera GPUn i CPUnn (om det sen blir på samma kisel eller flipchip är till stor del en kostnadsfråga).

Föredelarna:
*Man sparar plats på moderkortet.
*Man minskar strömförbrukningen.
*Man kan göra simplare kretsar och strömförsörjning på moderkortet.

Förklaring till ovan:
Nu kanske vissa tänker att allt sitter ju ändå i nordbryggan och den ska dem ju inte ta bort... Nordbryggans vanliga roll försvinner iom integrerad
minnes och PCI-E kontroller, så i den meningen försvinner nordbryggan.

Strömförbrukningen minskar på flera sätt, dels för att kortare avstånd inte kräver lika starka signaler, dels för att man nu kan minska strömförsörjningen till chipset som annars skulle behöva klara en GPU och till sist så blir det en lite simplare layout på moderkortet vilket spar plats och "tid (latenser" för andra komponenter.

Nackdelarna:
*Man är bunden till en viss GPU och således måste man byta cpu för att byta GPU, å andra sidan måste man byta moderkort om man vill ha ett nytt integrerat graffe (som sitter i chipset) så på laptopsidan blir det lättare att byta CPU/GPU (vilket blir en fördel).

Sen kommer vi till tillverkningen, beroende på hur man integrerar kretsen så uppstår en del problem. Sätter man GPUn i samma kisel som CPUn betyder det att GPUns yields måste vara lika bra som CPUns. Samtidigt måste man skapa en helt ny revision av CPUn för att uppgradera GPUn.

Sätter man dem i olika kisel men på samma flipchip blir det lättare att ersätta/omarbeta ena utan att påverka den andra. Ev problem med yields försvinner också så detta är den billigare och förmodligen ett val som vissa kommer göra i början.

Permalänk
SpelClockers
Citat:

Ursprungligen inskrivet av Xeno81
Har det där moderkortet en SO-DIMMplats också? Eller vad är det där under minnesplatserna?

Jag har för mig att någon pratade om att det var en plats för extra minne till grafikkärnan?

Permalänk
Medlem

Känns som om den redan kommer vara omodern när den lanseras...

Visa signatur

Riggen:ASRock X570M Pro4 - AMD Ryzen 7 3700X - Corsair 32GB DDR4 3200MHz - Corsair MP510 960Gb NVME - EVGA 1080ti SC2 - 3x Samsung 840 500GB - EVGA SuperNOVA G1+ 650W - Fractal Design Meshify C Mini Dark TG
NAS: FreeNAS @ HP Proliant MicroServer Gen 8 - Xeon E3-1230 V2 - 16Gb Kingston ECC RAM - Intel 530 120Gb - IBM m1015/LSI 9220-8i - 4x WD Red 3Tb

Permalänk

Vad är RV700 för något? Än så länge finns det väl bara RV770, RV740, RV710, och R700???

Visa signatur

Macbook Pro 15" Retina 2013 | Spelriggen: Asus Rampage Formula | Sapphire HD7970 | 4GB ram | Intel Q6600 @ 3.2 ghz | Samsung 840 Pro 256gb + 3.3TB HDD | Antec P182B | Zalman ZM-850HP | BenQ FP241W | Logitech G500+Qpad MK-85 Pro|
Ljud: Peachtree Grand Pre, Emotiva XPA-2, Triangle Magellan Duetto, Beyerdynamic DT990

Permalänk
Medlem

Inte så konstigt då Nehalem kommer senare än förväntat.

Visa signatur

Athlon x2 5000+ BE_Stepping G2_14x200 = 2800mhz_ VCore 1.15

Vilka jävla nötter det finns här!

Permalänk
Medlem

Är det jag som förstått helt fel då, för jag fick för mig att det handlade om en processor som kunde användas både som CPU och GPU d.v.s. man kan sätta den på moderkortet och använda den som en "vanlig" processor eller så kan grafikkortstillverarna sätta den på ett grafikkort d.v.s. som jag förstod det är det inte frågan om att sluta tillverka grafikkort, däremot tänker de använda samma processorer på grafikkort som de som de använder till till "vanliga" beräkningar plus att man även skall kunna köra båda sakerna samtidigt på t.ex. bärbara fårn en processor men då antagligen med mycket begränsad hastighet mot för ett dedikera en processor (eller flera) helt till grafiken.

Har jag missförstått allt då?

Visa signatur

För länge sedan hade jag tydligen: Mac Book Pro 13" & Athlon 64 X2 4200+, Asus A8N32-SLI Deluxe, Corsair 3GB TwinX DDR 400, 2x Raid 0 Seagate Barracuda 160GB:s SATA, GeCube Radeon x1900xt , Nec ND-3500, Audigy2 Platinum, Cooler Master ATC-201 m.m.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Gerthoi
Fel. fel, osv.

Har jag missförstått allt då?

Japp!

Får se om de kan få ut bra prestanda på detta också!

Visa signatur

HD5770 1GB| Phenom 2 x2 555 3.2ghz BE@ x3 3.6Ghz| 2x2048ddr3 corsair xms3 1600mhz | Corsair HX520w | HP w2207| Antec 180b

Permalänk
Medlem
Citat:

Processorjätten hävdar också att Havendale är utrustad med den mest avancerade integrerade grafikkretsen i världen.

AMD 780G introducerades 23 januari 2008, och det vore skämmigt för intel om de 2 år senare inte lyckas få fram en mer avancerad integrerad grafik.

Visa signatur

Vägra fx 3of4 Pi 1M 1.84 s Memory remapping
Minnen har ingen egen hastighet. Märkningen anger bara vilken hastighet minnena uppges klara

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Hardware guy
AMD 780G introducerades 23 januari 2008, och det vore skämmigt för intel om de 2 år senare inte lyckas få fram en mer avancerad integrerad grafik.

780GX är ju snabbare

Visa signatur

Knowledge is not achieved until shared.

Permalänk
Avstängd

Mest avancerad och snabbast behöver inte nödvändigtvis vara samma sak.

Den kan ju exempelvis klara av samma som 780G på 1/10 av mängden transistorer och på 1/10 av strömförbrukningen, då hade den i mina ögon varit rejält avancerad.

Permalänk
Avstängd

Intressant, undrar vem som blir först. Ser ut att kunna bli ganska hård kamp trots allt...

Jag tycker förövrigt att detta är riktigt bra att utvecklingen går åt detta hållet. Väldigt smidigt med GPGPUer direkt på processorn, ungefär som matteprocessor var för 20 år sedan.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Gerthoi
Är det jag som förstått helt fel då, för jag fick för mig att det handlade om en processor som kunde användas både som CPU och GPU d.v.s. man kan sätta den på moderkortet och använda den som en "vanlig" processor eller så kan grafikkortstillverarna sätta den på ett grafikkort d.v.s. som jag förstod det är det inte frågan om att sluta tillverka grafikkort, däremot tänker de använda samma processorer på grafikkort som de som de använder till till "vanliga" beräkningar plus att man även skall kunna köra båda sakerna samtidigt på t.ex. bärbara fårn en processor men då antagligen med mycket begränsad hastighet mot för ett dedikera en processor (eller flera) helt till grafiken.

Har jag missförstått allt då?

Grafiken är integrerad i processorn istället för chipsetet

Visa signatur

mobo Asus M4A88TD-M EVO/USB3 cpu 1100T kylare Noctua NH-D14
gpu RX 460 passive ram 16GB DDR3 1600MHz ssd Samsung 850 EVO 250GB
psu Corsair AX 850 skärmar 3 * 40" NEC P401

Permalänk
Medlem

Hade en dröm för några nätter sen om en framtidsdator där man hade egna sockets på moderkortet för CPU och GPU. Varje C/GPU hade i sin tur en ny socket på ovansidan så man kunde lätt uppgradera genom att lägga en ny C/GPU ovanpå den gamla.
Minnet fanns i likadana förpackningar så man skapar alltså staplar av C/GPUer och så minnen längst upp.
Kanske möjligt när man inte längre behöver kyla komponenter?

Permalänk
Medlem

jag la ut 5000 på en lagom dator år 2005 nu är det skruttibangbang rakt ner i sopptunnan. för i helvete dom kan inte mena att man ska behöva lägga ut ca 7laxar per år för att uppgradera datorn så man kan köra gosiga spel. man blir ju tokig med det här att nyta ut... kan det inte bara vara en låda så är det klart utan nå jävla mek.

för fan altså man blir ju rasande när man tänker på hur mycket man lagt ut, det senaste året har jag bytt grafik kort 3 gånger för att hänga med i utvecklingen!

nästan så man vill gå ut och skrika åt dom jävla grisarna att sälja nått som man iallfall kan behålla ett par år (1-3).

Visa signatur

Det är inte sant.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Lulbin
jag la ut 5000 på en lagom dator år 2005 nu är det skruttibangbang rakt ner i sopptunnan. för i helvete dom kan inte mena att man ska behöva lägga ut ca 7laxar per år för att uppgradera datorn så man kan köra gosiga spel. man blir ju tokig med det här att nyta ut... kan det inte bara vara en låda så är det klart utan nå jävla mek.

för fan altså man blir ju rasande när man tänker på hur mycket man lagt ut, det senaste året har jag bytt grafik kort 3 gånger för att hänga med i utvecklingen!

nästan så man vill gå ut och skrika åt dom jävla grisarna att sälja nått som man iallfall kan behålla ett par år (1-3).

Det finns ingen anledning för dem att stanna upp utvecklingen så att det senaste är det senaste länge. Och om du nu måste ha det senaste så mycket att du köper grafikkort tre gånger om året så är det väl snarare ditt problem. Nu uppgraderade jag nyligen till Quadcore och HD4850 CF. Innan dess har jag inte haft någon speldator sedans min Athlon XP med Radeon 9700.

Permalänk
Medlem

jag tycker inte att dom ska stanna utvecklingen men att dom ska göra en dator som inte behöver uppgraderas varje år bara för att den kommer närmare data himmeln om man t'ex ska spela world in conflict, crysis på high settings eller cod4a...

och förästen jag vill inte ha det senaste, har jag sakt det?? nej jag vill bara ha så att det är laggfritt på spel idiot är det mycke man begär tjänar dom inte redan miljoners på data industrin eller har jag fel?

Visa signatur

Det är inte sant.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Lulbin
jag tycker inte att dom ska stanna utvecklingen men att dom ska göra en dator som inte behöver uppgraderas varje år bara för att den kommer närmare data himmeln om man t'ex ska spela world in conflict, crysis på high settings eller cod4a...

och förästen jag vill inte ha det senaste, har jag sakt det?? nej jag vill bara ha så att det är laggfritt på spel idiot är det mycke man begär tjänar dom inte redan miljoners på data industrin eller har jag fel?

MAn om du vill ha det laggfritt så se över din internetuppkoppling då. Vill du däremot ha jämt flyt i spelet så behöver du kanske inte köra på max, utan nöja dig med mindre.
Och hur exakt hade du tänkt att de skulle göra grafikkort som höll längre? Att de ska göra framtidskort redan idag? Eller att spelen ska sluta utvecklas så att alla spel är så gamla och fula att du kan köra dem i max?

Permalänk
Medlem

lite trökigt att om man köpte röjar dator för 20papp så är den värdelös efter ett år max...

Visa signatur

Det är inte sant.