Intel skjuter upp kombinerad processor-grafikkort

Trädvy Permalänk
Inhibitor
Registrerad
Dec 1999

Intel skjuter upp kombinerad processor-grafikkort

Både Intel och AMD arbetar för fullt med att slå ihop grafikkort och processor i en enda krets. Nu verkar det som att åtminstone Intels variant är på väg att bli försenad.

Läs nyheten

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa leder till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Trädvy Permalänk
Hedersmedlem
Plats
Växjö
Registrerad
Mar 2007

Var väll rätt väntat egentligen, lär ju inte vara det lättaste att genomföra direkt...

Trädvy Permalänk
Entusiast
Plats
Göteborg
Registrerad
Jul 2002

Jag förstår inte fördelen att integrera grafikkortet i processorn istället för moderkortet någon som kan förklara?

Dator: Intel 6700K :: 16GB DDR4 :: GeForce GTX 1080 Ti :: Asus Xonar Essence ST :: Samsung 850 EVO 500GB
Kring : Eizo Foris FG2421 :: Philips Fidelio X1 :: O2Amp :: CM Storm Novatouch TKL :: SteelSeries Rival 300
Misc. : YouTube :: Steam :: StarCraft II :: Street Fighter V

Trädvy Permalänk
Medlem
Plats
Göteborg
Registrerad
Okt 2004
Citat:

Ursprungligen inskrivet av Firkraag
Jag förstår inte fördelen att integrera grafikkortet i processorn istället för moderkortet någon som kan förklara?

Utan att egentligen veta så skulle jag gissa på att det är en prestanda vinst att ha det på processorplattan istället för i chipset. Vidare så ger ju det här möjligheten att faktiskt släppa en "spel processor" där man kanske har 4 vanliga cpu kärnor och 2 gpu kärnor med hyffsat bra hastighet och därgenom (åtminstonde i det första skedet) slippa vanliga prestanda grafikkort. Konsekvensen av detta är bättre spelprestanda i bärbara datorer och på små mini datorer baserad på nano-itx exempelvis.

| Errare humanum est |

Trädvy Permalänk
Medlem
Plats
Vänersborg
Registrerad
Jan 2008

Det är la lättare med det för då slipper de tänka på den extra platsen som skulle behövas om de satt utanför.
Och sen så får man ett sett att byta både grafik och processor enkelt, utan att köra med ett vanligt grafik kort eller byta processor:

Trädvy Permalänk
Avstängd
Plats
Eslöv
Registrerad
Maj 2005

Ett sätt att få reda på fördelarna är att faktiskt LÄSA artikeln man kommenterar, men det kanske är för mycket begärt?

"Att kombinera grafikkort och processor i en enda krets har en mängd fördelar. Främst handlar det om att kunna pressa tillverkningskostnaderna, men också om att erbjuda energisnåla produkter till bland annat bärbara datorer."

Trädvy Permalänk
Avstängd
Plats
Kristianstad
Registrerad
Okt 2007
Citat:

Ursprungligen inskrivet av SWE|OggE
Var väll rätt väntat egentligen, lär ju inte vara det lättaste att genomföra direkt...

mmm håller med, dom tog sig vatten över huvudet

>AMD Phenom™ 1055T@3,8Ghz + NH-D14|Gigabyte GTX460 1GB@ 850/2200mhz|Gigabyte 870A|A-Data 4GB Ram|CM HaF 912+|Creative X-Fi Titanium+Z-5500|Kingston SSD| Och lite till.<

Trädvy Permalänk
Medlem
Plats
Vänersborg
Registrerad
Dec 2007

Bättre att göra någon sorts brygga från cpu:n till gpu:n om man vill ha snabba överföringar mellan dom. För laptop kanske det är attraktivt och kanske för F@H

Trädvy Permalänk
Entusiast
Plats
Göteborg
Registrerad
Jul 2002
Citat:

Ursprungligen inskrivet av dundermuppen
Ett sätt att få reda på fördelarna är att faktiskt LÄSA artikeln man kommenterar, men det kanske är för mycket begärt?

"Att kombinera grafikkort och processor i en enda krets har en mängd fördelar. Främst handlar det om att kunna pressa tillverkningskostnaderna, men också om att erbjuda energisnåla produkter till bland annat bärbara datorer."

Jag tolkar det som en jämförelse mellan inbyggd i processorn och vanligt PCI-E grafikkort. Inte som en jämförelse mellan inbyggd i processorn, och inbyggd i moderkortet.

Försök att inte gnälla på en legitim fråga det första du gör, men det kanske är för mycket begärt?

Dator: Intel 6700K :: 16GB DDR4 :: GeForce GTX 1080 Ti :: Asus Xonar Essence ST :: Samsung 850 EVO 500GB
Kring : Eizo Foris FG2421 :: Philips Fidelio X1 :: O2Amp :: CM Storm Novatouch TKL :: SteelSeries Rival 300
Misc. : YouTube :: Steam :: StarCraft II :: Street Fighter V

Trädvy Permalänk
Medlem
Registrerad
Jun 2003

Har det där moderkortet en SO-DIMMplats också? Eller vad är det där under minnesplatserna?

Every day sends future to past

Trädvy Permalänk
Avstängd
Plats
Göteborg
Registrerad
Jan 2005
Citat:

Ursprungligen inskrivet av dundermuppen
Ett sätt att få reda på fördelarna är att faktiskt LÄSA artikeln man kommenterar, men det kanske är för mycket begärt?

"Att kombinera grafikkort och processor i en enda krets har en mängd fördelar. Främst handlar det om att kunna pressa tillverkningskostnaderna, men också om att erbjuda energisnåla produkter till bland annat bärbara datorer."

Ytterligare en fördel som speltillverkare gått runt idag är förmodligen att man kan öka hastigheten i kommunikation mellan grafikkort och processor. Idag verkar det som att de jobbar hårt just för att skicka data färre sändningar eftersom detta är en stor flaskhals. Skulle man på något vis kunna integrera grafikkortet helt med processorn så tror jag det skulle kunna ge enorma fördelar även om själva grafikkprocessorn inte var så snabb som de snabbaste grafikkorten idag. Krävs iofs omskrivning av en del programvara

Programmerare med C++ som huvudspråk.

Trädvy Permalänk
Avstängd
Plats
kalmar
Registrerad
Dec 2006
Citat:

Ursprungligen inskrivet av Firkraag
Jag förstår inte fördelen att integrera grafikkortet i processorn istället för moderkortet någon som kan förklara?

GPU'n kan t.ex använda HyperTransport.. APU som AMD kallar CPU+GPU kommer råda bot på många flaskhalsar i systemet. Frågan är bara när systemet är moget

Knowledge is not achieved until shared.

Trädvy Permalänk
Medlem
Plats
Twilight Zone
Registrerad
Nov 2001

Det finns både för och nackdelar med att integrera GPUn i CPUnn (om det sen blir på samma kisel eller flipchip är till stor del en kostnadsfråga).

Föredelarna:
*Man sparar plats på moderkortet.
*Man minskar strömförbrukningen.
*Man kan göra simplare kretsar och strömförsörjning på moderkortet.

Förklaring till ovan:
Nu kanske vissa tänker att allt sitter ju ändå i nordbryggan och den ska dem ju inte ta bort... Nordbryggans vanliga roll försvinner iom integrerad
minnes och PCI-E kontroller, så i den meningen försvinner nordbryggan.

Strömförbrukningen minskar på flera sätt, dels för att kortare avstånd inte kräver lika starka signaler, dels för att man nu kan minska strömförsörjningen till chipset som annars skulle behöva klara en GPU och till sist så blir det en lite simplare layout på moderkortet vilket spar plats och "tid (latenser" för andra komponenter.

Nackdelarna:
*Man är bunden till en viss GPU och således måste man byta cpu för att byta GPU, å andra sidan måste man byta moderkort om man vill ha ett nytt integrerat graffe (som sitter i chipset) så på laptopsidan blir det lättare att byta CPU/GPU (vilket blir en fördel).

Sen kommer vi till tillverkningen, beroende på hur man integrerar kretsen så uppstår en del problem. Sätter man GPUn i samma kisel som CPUn betyder det att GPUns yields måste vara lika bra som CPUns. Samtidigt måste man skapa en helt ny revision av CPUn för att uppgradera GPUn.

Sätter man dem i olika kisel men på samma flipchip blir det lättare att ersätta/omarbeta ena utan att påverka den andra. Ev problem med yields försvinner också så detta är den billigare och förmodligen ett val som vissa kommer göra i början.

Trädvy Permalänk
Geeks Gaming
Registrerad
Mar 2008
Citat:

Ursprungligen inskrivet av Xeno81
Har det där moderkortet en SO-DIMMplats också? Eller vad är det där under minnesplatserna?

Jag har för mig att någon pratade om att det var en plats för extra minne till grafikkärnan?

Allt skoj händer på Geeks Discord!

Trädvy Permalänk
Medlem
Plats
Bollnäs
Registrerad
Sep 2007

Känns som om den redan kommer vara omodern när den lanseras...

Riggen: 2x Xeon E5-2670 @ 16x3,2 Ghz - Z9PE-D8 WS - Corsair 32GB RAM - GTX 1080 ti - Dell U3415W 34" - HyperX Predator PCIe/M.2 - 4x Samsung 840 500GB - Asus Xonar DX - 2x NH-U12S - 2x EVGA Supernova G2 850W - Obsidian 900D
NAS: FreeNAS @ HP Proliant MicroServer Gen 8 - Xeon E3-1230 V2 - 16Gb Kingston ECC RAM - Intel 530 120Gb - IBM m1015/LSI 9220-8i - 4x WD Red 3Tb

Trädvy Permalänk
Medlem
Plats
Stockholm
Registrerad
Jan 2008

Vad är RV700 för något? Än så länge finns det väl bara RV770, RV740, RV710, och R700???

Macbook Pro 15" Retina 2013 | Spelriggen: Asus Rampage Formula | Sapphire HD7970 | 4GB ram | Intel Q6600 @ 3.2 ghz | Samsung 840 Pro 256gb + 3.3TB HDD | Antec P182B | Zalman ZM-850HP | BenQ FP241W | Logitech G500+Qpad MK-85 Pro|
Ljud: Peachtree Grand Pre, Emotiva XPA-2, Triangle Magellan Duetto, Beyerdynamic DT990

Trädvy Permalänk
Medlem
Plats
jjjjiiilllpp
Registrerad
Nov 2004

Inte så konstigt då Nehalem kommer senare än förväntat.

Athlon x2 5000+ BE_Stepping G2_14x200 = 2800mhz_ VCore 1.15

Vilka jävla nötter det finns här!

Trädvy Permalänk
Medlem
Registrerad
Jan 2003

Är det jag som förstått helt fel då, för jag fick för mig att det handlade om en processor som kunde användas både som CPU och GPU d.v.s. man kan sätta den på moderkortet och använda den som en "vanlig" processor eller så kan grafikkortstillverarna sätta den på ett grafikkort d.v.s. som jag förstod det är det inte frågan om att sluta tillverka grafikkort, däremot tänker de använda samma processorer på grafikkort som de som de använder till till "vanliga" beräkningar plus att man även skall kunna köra båda sakerna samtidigt på t.ex. bärbara fårn en processor men då antagligen med mycket begränsad hastighet mot för ett dedikera en processor (eller flera) helt till grafiken.

Har jag missförstått allt då?

Mac Book Pro 13" & Athlon 64 X2 4200+, Asus A8N32-SLI Deluxe, Corsair 3GB TwinX DDR 400, 2x Raid 0 Seagate Barracuda 160GB:s SATA, GeCube Radeon x1900xt , Nec ND-3500, Audigy2 Platinum, Cooler Master ATC-201 m.m.

Trädvy Permalänk
Medlem
Plats
GBG o STHLM
Registrerad
Sep 2004
Citat:

Ursprungligen inskrivet av Gerthoi
Fel. fel, osv.

Har jag missförstått allt då?

Japp!

Får se om de kan få ut bra prestanda på detta också!

HD5770 1GB| Phenom 2 x2 555 3.2ghz BE@ x3 3.6Ghz| 2x2048ddr3 corsair xms3 1600mhz | Corsair HX520w | HP w2207| Antec 180b

Trädvy Permalänk
Medlem
Plats
Scania-Earth-Milky way
Registrerad
Nov 2001
Citat:

Processorjätten hävdar också att Havendale är utrustad med den mest avancerade integrerade grafikkretsen i världen.

AMD 780G introducerades 23 januari 2008, och det vore skämmigt för intel om de 2 år senare inte lyckas få fram en mer avancerad integrerad grafik.

Vägra fx 3of4 Pi 1M 1.84 s Memory remapping
Minnen har ingen egen hastighet. Märkningen anger bara vilken hastighet minnena uppges klara

Trädvy Permalänk
Avstängd
Plats
kalmar
Registrerad
Dec 2006
Citat:

Ursprungligen inskrivet av Hardware guy
AMD 780G introducerades 23 januari 2008, och det vore skämmigt för intel om de 2 år senare inte lyckas få fram en mer avancerad integrerad grafik.

780GX är ju snabbare

Knowledge is not achieved until shared.

Trädvy Permalänk
Avstängd
Plats
Eslöv
Registrerad
Maj 2005

Mest avancerad och snabbast behöver inte nödvändigtvis vara samma sak.

Den kan ju exempelvis klara av samma som 780G på 1/10 av mängden transistorer och på 1/10 av strömförbrukningen, då hade den i mina ögon varit rejält avancerad.

Trädvy Permalänk
Avstängd
Plats
Jönköping
Registrerad
Jul 2001

Intressant, undrar vem som blir först. Ser ut att kunna bli ganska hård kamp trots allt...

Jag tycker förövrigt att detta är riktigt bra att utvecklingen går åt detta hållet. Väldigt smidigt med GPGPUer direkt på processorn, ungefär som matteprocessor var för 20 år sedan.

Trädvy Permalänk
Medlem
Plats
Östersund
Registrerad
Aug 2007
Citat:

Ursprungligen inskrivet av Gerthoi
Är det jag som förstått helt fel då, för jag fick för mig att det handlade om en processor som kunde användas både som CPU och GPU d.v.s. man kan sätta den på moderkortet och använda den som en "vanlig" processor eller så kan grafikkortstillverarna sätta den på ett grafikkort d.v.s. som jag förstod det är det inte frågan om att sluta tillverka grafikkort, däremot tänker de använda samma processorer på grafikkort som de som de använder till till "vanliga" beräkningar plus att man även skall kunna köra båda sakerna samtidigt på t.ex. bärbara fårn en processor men då antagligen med mycket begränsad hastighet mot för ett dedikera en processor (eller flera) helt till grafiken.

Har jag missförstått allt då?

Grafiken är integrerad i processorn istället för chipsetet

mobo Asus M4A88TD-M EVO/USB3 cpu 1100T kylare Noctua NH-D14
gpu RX 460 passive ram 16GB DDR3 1600MHz ssd Samsung 850 EVO 250GB
psu Corsair AX 850 skärmar 3 * 40" NEC P401

Trädvy Permalänk
Medlem
Plats
Helsingfors
Registrerad
Jun 2004

Hade en dröm för några nätter sen om en framtidsdator där man hade egna sockets på moderkortet för CPU och GPU. Varje C/GPU hade i sin tur en ny socket på ovansidan så man kunde lätt uppgradera genom att lägga en ny C/GPU ovanpå den gamla.
Minnet fanns i likadana förpackningar så man skapar alltså staplar av C/GPUer och så minnen längst upp.
Kanske möjligt när man inte längre behöver kyla komponenter?

Trädvy Permalänk
Medlem
Plats
Stockholm
Registrerad
Jul 2007

jag la ut 5000 på en lagom dator år 2005 nu är det skruttibangbang rakt ner i sopptunnan. för i helvete dom kan inte mena att man ska behöva lägga ut ca 7laxar per år för att uppgradera datorn så man kan köra gosiga spel. man blir ju tokig med det här att nyta ut... kan det inte bara vara en låda så är det klart utan nå jävla mek.

för fan altså man blir ju rasande när man tänker på hur mycket man lagt ut, det senaste året har jag bytt grafik kort 3 gånger för att hänga med i utvecklingen!

nästan så man vill gå ut och skrika åt dom jävla grisarna att sälja nått som man iallfall kan behålla ett par år (1-3).

Det är inte sant.

Trädvy Permalänk
Avstängd
Plats
Jönköping
Registrerad
Jul 2001
Citat:

Ursprungligen inskrivet av Lulbin
jag la ut 5000 på en lagom dator år 2005 nu är det skruttibangbang rakt ner i sopptunnan. för i helvete dom kan inte mena att man ska behöva lägga ut ca 7laxar per år för att uppgradera datorn så man kan köra gosiga spel. man blir ju tokig med det här att nyta ut... kan det inte bara vara en låda så är det klart utan nå jävla mek.

för fan altså man blir ju rasande när man tänker på hur mycket man lagt ut, det senaste året har jag bytt grafik kort 3 gånger för att hänga med i utvecklingen!

nästan så man vill gå ut och skrika åt dom jävla grisarna att sälja nått som man iallfall kan behålla ett par år (1-3).

Det finns ingen anledning för dem att stanna upp utvecklingen så att det senaste är det senaste länge. Och om du nu måste ha det senaste så mycket att du köper grafikkort tre gånger om året så är det väl snarare ditt problem. Nu uppgraderade jag nyligen till Quadcore och HD4850 CF. Innan dess har jag inte haft någon speldator sedans min Athlon XP med Radeon 9700.

Trädvy Permalänk
Medlem
Plats
Stockholm
Registrerad
Jul 2007

jag tycker inte att dom ska stanna utvecklingen men att dom ska göra en dator som inte behöver uppgraderas varje år bara för att den kommer närmare data himmeln om man t'ex ska spela world in conflict, crysis på high settings eller cod4a...

och förästen jag vill inte ha det senaste, har jag sakt det?? nej jag vill bara ha så att det är laggfritt på spel idiot är det mycke man begär tjänar dom inte redan miljoners på data industrin eller har jag fel?

Det är inte sant.

Trädvy Permalänk
Avstängd
Plats
Jönköping
Registrerad
Jul 2001
Citat:

Ursprungligen inskrivet av Lulbin
jag tycker inte att dom ska stanna utvecklingen men att dom ska göra en dator som inte behöver uppgraderas varje år bara för att den kommer närmare data himmeln om man t'ex ska spela world in conflict, crysis på high settings eller cod4a...

och förästen jag vill inte ha det senaste, har jag sakt det?? nej jag vill bara ha så att det är laggfritt på spel idiot är det mycke man begär tjänar dom inte redan miljoners på data industrin eller har jag fel?

MAn om du vill ha det laggfritt så se över din internetuppkoppling då. Vill du däremot ha jämt flyt i spelet så behöver du kanske inte köra på max, utan nöja dig med mindre.
Och hur exakt hade du tänkt att de skulle göra grafikkort som höll längre? Att de ska göra framtidskort redan idag? Eller att spelen ska sluta utvecklas så att alla spel är så gamla och fula att du kan köra dem i max?

Trädvy Permalänk
Medlem
Plats
Stockholm
Registrerad
Jul 2007

lite trökigt att om man köpte röjar dator för 20papp så är den värdelös efter ett år max...

Det är inte sant.