Vill du vara del av diskussionerna i forumet, ställa frågor eller hjälpa andra? Registrera dig här!

Intel föreslår "SLI" med integrerad grafik och grafikkort

Trädvy Permalänk
Cyberman
Registrerad
Dec 1999

Intel föreslår "SLI" med integrerad grafik och grafikkort

I upptakten till Xe-lanseringen vill Intel dra nytta av sina integrerade grafikdelar, som i dagsläget inte kommer till användning.

Läs hela artikeln här

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa leder till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Trädvy Permalänk
Medlem
Plats
Växjö
Registrerad
Jan 2012

Detta skulle ju vara spännande, särskilt med tanke på att många chip har en GPU del som i stort sett är oanvänd och värdelös 99.9% av tiden. Sålänge CPU inte drar mer W och blir mycket varmare tror jag det är en väldigt bra tanke att avlasta delar av grafiken.

I7 8700K, Asus GTX 1080TI, Acer Predator XB270HU 1440p 144hz G-sync och annat smått o gott.

Trädvy Permalänk
Medlem
Plats
Summer '79
Registrerad
Maj 2002

Sjukt intressant! Detta kan bli riktigt stort tror jag

▩ Monitor: ASUS 27" ROG Swift @ 1440p / 165Hz ▩ CPU: Intel i9-9900KS @ 5Ghz ▩ GPU: ASUS 2080 Ti STRIX OC @ 140Mhz+ core / 1000Mhz+ memory ▩ Memory: G.SKill Trident Z Neo 32GB @ 3600MHz ▩ Motherboard: ASUS ROG Maximus XI Hero ▩SSD: Samsung 860 EVO ▩ PSU: Corsair AX 860W 80+ Platinum ▩ Chassi: Corsair Obsidian 750D ▩ 3Dmark Time Spy: 15 468

Trädvy Permalänk
Medlem
Registrerad
Apr 2012

Detta gjorde mig upphetsad som fan när det först presenterades för 100 år sen. Tyvärr har ingen nappat.

Tanken att slippa slänga sin gamla gpu när man köper ny är fin.

Min musik: https://www.youtube.com/channel/UCZKidNeIKsz8LZMO3VRcBdQ

I7 4790K @ 4,8ghz, Corsair 110i GT, Titan Xp, 32 Gb 1600 Mhz RAM, 2 st 256 SSD i RAID0 för spel, 512 gb SSD systemdisk., Tascam US-2000 ljudkort. Skärm: Philips BDM4065UC 40" 4k.

Laptop: MSI GT80 Titan Sli

Trädvy Permalänk
Medlem
Registrerad
Dec 2004

Jag kanske tänker fel men är inte DirectX snarare ett högnivågränsnitt?
Det ligger ju i Windows och kan nyttjas mot flera olika grafikkortstillverkare och vitt skilda modeller.
Ett lågnivågränssnitt är så nära förknippat med hårdvaran att det inte borde gå att använda på det sättet som jag ser det?
Tycker även att det borde vara möjligt att hantera SLI i DirectX om kortet följer deras riktlinjer så att spelprogrammerarna ska slippa den delen.

The Beast: Asus Maximus VIII Extreme | 6700k @ 4900 | EVGA 980ti SC+ ACX 2.0+ | Corsair 110i GTX | Corsair 2666 DDR4 LPX 16 GB | Samsung 950 Pro 512 GB | Samsung 850 Evo 512 GB | Corsair RM1000i | Corsair Carbide 600Q

Trädvy Permalänk
Medlem
Plats
Göteborg
Registrerad
Jun 2010

AMD körde ju något liknande för väldigt länge sedan. Har för mig att jag fick det att funka med ett 3850 och något integrerat, kanske 3200?

Trädvy Permalänk
Medlem
Plats
Karlskoga
Registrerad
Feb 2005
Skrivet av Sh4d0wfi3nd:

Detta skulle ju vara spännande, särskilt med tanke på att många chip har en GPU del som i stort sett är oanvänd och värdelös 99.9% av tiden. Sålänge CPU inte drar mer W och blir mycket varmare tror jag det är en väldigt bra tanke att avlasta delar av grafiken.

fast nu har många t.ex slutna vattenkylare på sina cpuer som bör kunna ta lite mer värme.
likaså har man en bra luftkylare utan att klocka så har man ju lite marginal, så det är ju egentligen ett mindre bekymmer

annars får man väl uppgradera sin kylare vilket i sin tur är enkelt åtgärdat om man är i behov av det.

| Asus Zenbook UX430UN | Intel i5 8250U | 8 GB DDR4 | MX150 | m.2 - 256GB SSD |
| Steam - Toivo |

Trädvy Permalänk
Medlem
Registrerad
Aug 2003

Ja det är väl inget nytt, frågan är om spelutvecklare kommer nappa på det, gissar på att det krävs en hel del extra kod för detta.

Men får man den att avlasta diskret GPU och CPU genom att sköta specifika delar i spelet så vore det ju coolt.

Trädvy Permalänk
Medlem
Plats
Skellefteå
Registrerad
Sep 2011

Helt klart intressant! Skulle även vara intressant om det gick uppdela, tex att använda den inbyggda grafiken som ett capture card

Trädvy Permalänk
Medlem
Plats
Sörmland
Registrerad
Jul 2012

Detta har de väl pratats om jämnt, utan att det hänt så mycket. Hade förhoppningar att AMD skulle fixa något liknande med deras APU:er, men det tog sig aldrig riktigt. Är det för mycket runt om som måste fixas för att detta ska fungera?

i5 8400 / Gigabyte B360N Wifi / Sapphire R9 Nano / Raijintek Metis / Silverstone SX500-LG / Corsair Vengance LPX 16 GB DDR4 @ 2666mhz / Sandisk A110 & OCZ Trion 150 / Silverstone Argon AR-01

Lenovo Ideapad 700-15ISK - i5 6300HQ / GTX 950M 4Gb / 12 Gb DDR4

Trädvy Permalänk
Hedersmedlem
Plats
Stockholm
Registrerad
Jul 2017
Skrivet av HeroiX:

Helt klart intressant! Skulle även vara intressant om det gick uppdela, tex att använda den inbyggda grafiken som ett capture card

Jag antar att du menar att använda CPU:n grafikdel för videokodning. Det går ju redan idag med rätt programvara.

Jag har hört att t.ex. Adobe Premiere kan QuickSync-encodern inbyggd i Intel-processorer för videokodning.

Skulle inte förvåna mig om man skulle kunna göra något liknande för streaming, t.ex. med OBS där man kan välja olika encoders.

Dock så ska just QuickSync inte vara så bra kvalitetsmässigt, vilket är varför det inte är mer populärt.

Mycket killgissningar i detta inlägg, men ja, rent teoretiskt och delvis praktiskt går det redan idag. Det är ju dock inte samma sak som att båda GPU:erna jobbar tillbaka för att rendera samma last.

Trädvy Permalänk
Medlem
Plats
Skellefteå
Registrerad
Sep 2011
Skrivet av pv2b:

Jag antar att du menar att använda CPU:n grafikdel för videokodning. Det går ju redan idag med rätt programvara.

Jag har hört att t.ex. Adobe Premiere kan QuickSync-encodern inbyggd i Intel-processorer för videokodning.

Skulle inte förvåna mig om man skulle kunna göra något liknande för streaming, t.ex. med OBS där man kan välja olika encoders.

Dock så ska just QuickSync inte vara så bra kvalitetsmässigt, vilket är varför det inte är mer populärt.

Mycket killgissningar i detta inlägg, men ja, rent teoretiskt och delvis praktiskt går det redan idag. Det är ju dock inte samma sak som att båda GPU:erna jobbar tillbaka för att rendera samma last.

Jo precis, skrev lite snabbt. Jaså, det hade jag ingen aning om, intressant koncept! Nej det är ju sant, ska bli roligt att se hur detta utspelar sig

Trädvy Permalänk
Medlem
Plats
Inglewood
Registrerad
Aug 2005

Mycket intressant detta och det är lite konstigt att det inte blivit större tidigare.
Dock riktigt bra att Intel pushar och tar fram kodbas för att förenkla detta.

WS: 8700K 4.8ghz - 32GB - 2.5TB SSD - 15TB HDD - RTX 2070 Super - 40" 3840x2160 - W10 Pro
LAPTOP: Lenovo ThinkPad X131e - 12GB - 240GB SSD - W10
NAS: HP MicroServer Gen8 - 32TB
Mobil: OnePlus 6T

Trädvy Permalänk
Medlem
Plats
Skåne
Registrerad
Dec 2002

Vill också minnas att jag läst om detta tidigare.

Riktigt bra med en stor aktör bakom!

[Gigabyte EP35-DS4][Intel Core 2 Duo E8400 3.0 Ghz][2x2GB Corsair XMS 2][Gainward GTX 570][Sandisk Extreme II 480GB][Corsair HX 620W][Fractal Design Define XL R4][Acer GD245HQBID]

Trädvy Permalänk
Datavetare
Plats
Stockholm
Registrerad
Jun 2011
Skrivet av pv2b:

Jag antar att du menar att använda CPU:n grafikdel för videokodning. Det går ju redan idag med rätt programvara.

Jag har hört att t.ex. Adobe Premiere kan QuickSync-encodern inbyggd i Intel-processorer för videokodning.

Skulle inte förvåna mig om man skulle kunna göra något liknande för streaming, t.ex. med OBS där man kan välja olika encoders.

Dock så ska just QuickSync inte vara så bra kvalitetsmässigt, vilket är varför det inte är mer populärt.

Mycket killgissningar i detta inlägg, men ja, rent teoretiskt och delvis praktiskt går det redan idag. Det är ju dock inte samma sak som att båda GPU:erna jobbar tillbaka för att rendera samma last.

Just kvaliteten hos QuickSync verkar vara den punkt där det förkommer mest felaktig information. Det finns inte bara ett sätt att använda QS, sättet det används i Handbrake ger större filer jämfört med att köra på CPU. Dock har det skett en förbättring över varje generation, men finns få tester med något senare än Sandy Bridge (Skylake QS är rätt mycket bättre).

Sättet Handbrake använder QS verkar vara rätt utdaterat. Sättet Adobe Premier och även ffmpeg (i alla fall under Linux med ffmpeg byggt med stöd för Intel Media SDK) ger i praktiken identiskt resultat som att köra på CPU. Prestandaboosten är rätt enorm, min Surface Pro 4 (med Iris Graphics Plus) kan koda video ungefär lika snabbt som min 3900X!

Hardware Canucks har en video där man visa skillnaden (eller brist på skillnad) i kvalité med och utan QS i Adobe Premier.

För just denna artikel är titeln rejält missvisade. Vad Intel föreslår är inte SLI, man nämner den tekniken och pekar på att den har en rad problem i DX12/Vulkan.

Vad Intel föreslår här är precis det AMD pushade för med "async compute" (AC). Nackdelen med att köra AC på det "normal" grafikkortet är att det äter upp prestanda från grafikrenderingen. Att använda sin iGPU ger fördelarna med AC, men utan att offra prestanda hos den GPU som renderar grafik.

iGPU ska alltså göra ren "compute", t.ex. avancerad fysik eller partikeleffekter. Det medan dGPU hanterar grafiken.

För just "compute" finns fördelar med en iGPU: den delar minne med CPU så kommunikationskostnaden mellan dessa är extremt låg. Här finns en skillnad mellan Intels iGPU och AMDs APUer, i båda delar RAM med CPU men i Intels fall delar CPU och GPU också L3$ så där är det i praktiken noll kommunikationslatens (det gäller även för t.ex. Apples och de senaste Qualcomm systemkretsar).

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Trädvy Permalänk
Medlem
Plats
Kalmar
Registrerad
Nov 2008

AMD har redan testat och det sög köttbullar, var fullständigt bortkastat och fyllde absolut ingen funktion på en desktop. Ska försöka leta upp testet.
Det enda scenariot det skulle fylla någon sorts funktion är möjligtvis i bärbara datorer där den diskreta GPUn också är skräp.

Trädvy Permalänk
Medlem
Plats
Helsingfors
Registrerad
Jun 2004

Ogillar tanken att iGPUn ska få en viss specifik uppgift och inget annat, för då har vi tre olika saker vars prestanda ska balanseras utan flaskhalser (CPU, GPU och iGPU). Bättre vore om man dynamiskt kunde dela upp laster mellan de olika GPUerna, men vet inte om det är praktiskt med tanke på alla latenser.

Trädvy Permalänk
Datavetare
Plats
Stockholm
Registrerad
Jun 2011
Skrivet av ajp_anton:

Ogillar tanken att iGPUn ska få en viss specifik uppgift och inget annat, för då har vi tre olika saker vars prestanda ska balanseras utan flaskhalser (CPU, GPU och iGPU). Bättre vore om man dynamiskt kunde dela upp laster mellan de olika GPUerna, men vet inte om det är praktiskt med tanke på alla latenser.

Att få asymmetriska system att dynamisk samarbete är extremt komplicerat och har historisk nästan alltid fallerat på att kostnaden för balansering överstiger eventuellt vinst.

Men om man lägger specifika "compute"uppgifter på iGPU finns en väldigt enkelt lösning där det saknas iGPU: använd SIMD (SSE/AVX) då det finns på alla moderna CPUer och saker som är designat för att effektivt köras på en GPU kan i princip alltid också köras effektivt med SIMD. Poängen med att primärt använda iGPU är att trots dess relativt låga prestanda motsvarar den ändå en väldigt kompetent CPU sett till SIMD-kapacitet.

Ställer man en high-end GPU mot en high-end CPU är den förra minst en tiopotens snabbare sett till SIMD-kapacitet!

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Trädvy Permalänk
Medlem
Registrerad
Apr 2015

Speldatorer har GPU för att ni, Intel av någon anledning har valt att göra en GPU på processorn som sen inte används, jävla idioter.

Ska inte behöva betala flera tusen bara för att få en processor utan GPU.

Trädvy Permalänk
Medlem
Plats
Stockholm
Registrerad
Aug 2007

Detta var väl egentligen ingenting nytt. Stödet har funnit i DX12 ett tag nu.

Jag antar att intel vill belysa lite mer om fördelar och utmaningar med tekniken.

Man kan tänka sig att iGPU gör t.ex. Physx beräkningar och dylikt.

Spel: Ryzen 7 1800x, Vega 64 8GB, 16GB DDR4 Flare X
Har haft dessa GPUer: Tseng ET6000, Matrox M3D, 3DFX Voodoo 1-3, nVidia Riva 128, TNT, TNT2, Geforce 256 SDR+DDR, Geforce 2mx, 3, GT 8600m, GTX460 SLI, GTX580, GTX670 SLI, 1080 ti AMD Radeon 9200, 4850 CF, 6950@70, 6870 CF, 7850 CF, R9 390, Vega 64
Lista beg. priser GPUer ESD for dummies

Trädvy Permalänk
Medlem
Registrerad
Nov 2010

Löst relaterat, men det hade ju inte varit så dumt om alla Intels iGPUer fick jobba med Folding@Home...

Nybörjare på Linux? Se hit! #15665841
Google är inte din vän. www.donttrack.us
Skaffa säker epost med ProtonMail! #14698306
Spela Supreme Commander! www.faforever.com

Trädvy Permalänk
Festpilot, Antiallo
David Kvist
Plats
Göteborg
Registrerad
Jun 2012

Detta är ju knappast nytt.
Körde A10-7850 + AMD HD 7750...
Fungerade sämre än skit. Men det var Crossfire!

 | PM:a Moderatorerna | Kontaktformuläret | Geeks Discord |
Testpilot, Skribent, Moderator & Geeks Gaming Huvudadmin

Trädvy Permalänk
Medlem
Registrerad
Apr 2012
Skrivet av snajk:

AMD körde ju något liknande för väldigt länge sedan. Har för mig att jag fick det att funka med ett 3850 och något integrerat, kanske 3200?

AMD hybrid graphics vill jag minnas att det kallades.

Trädvy Permalänk
Medlem
Plats
Norrbotten
Registrerad
Dec 2003

https://m.sweclockers.com/forum/trad/1102963-lucid-virtu-mvp

Hade det på min ivy bridge, men det fungerade i princip aldrig...

Trädvy Permalänk
Medlem
Registrerad
Jun 2016

Känns mer som Intel febrilt letar efter argument varför folk ska fortsätta köpa deras proppar och att samtidigt kunna belysa deras cpu med inbygd gpu fördelar. På så sätt fortsätta ta bra betalt och givetvis få prestanda fördelar där det kommer stödjas.

Slår det kan det vara så att AMD känner sig tvugna att haka på, då kommer vi alla få betala mer kostnaden vilket lag vi en väljer.....

Trädvy Permalänk
Medlem
Plats
Göteborg
Registrerad
Okt 2011

Varför pratar alla jämt i dom här trådarna alltid som att... Allt ska brassas på maximalt och vi skiter i hur mycket ström allt drar och det är bara det som man max kan prestera som räknas. ?

Är den ingen som någonsin tänkt att ett användande skulle kunna vara att om man bara ser på film och surfar så skulle ju hela externa grafikkortet kunna stängas ner helt. Sen när man vill spela så slås det på. Man skulle spara massor med ström på det sättet.

Kraschfield

Trädvy Permalänk
Medlem
Registrerad
Mar 2012

AMD pushade för det här för ca 7 år sen. Vi får väl se om Intel lyckas tvinga fram det.

New: Asus x370 prime pro, Ryzen 1700 (@3.925ghz) , Ripjaws V 16GB 3600 MHz (@3200mhz 14c). https://valid.x86.fr/curj7r
Radeon VII.

Trädvy Permalänk
Medlem
Plats
Göteborg
Registrerad
Feb 2010
Skrivet av Tangentbord:

https://m.sweclockers.com/forum/trad/1102963-lucid-virtu-mvp

Hade det på min ivy bridge, men det fungerade i princip aldrig...

Yepp, körde det jag med på min förra rig men det var inte direkt stabilt, i bästa fall kunde jag få ut 10% mer FPS men det var sällan, konceptet är dock briljant tycker jag. Men å andra sidan tror jag nog mer på AMDs väg att inte ha integrerad grafik, renodla CPU:n istället. Det är såklart en del i förklaringen till varför AMD kan ge så fruktansvärt mycket mer prestanda per krona än Intel, för Intel skickar med en iGPU som väldigt få använder som såklart inte kostar 0.

Trädvy Permalänk
Medlem
Plats
Sundsvall
Registrerad
Okt 2003

Hoppas de får till det bättre än Virtu (från Lucidlogix) som skulle göra motsvarande med Z68.
Den lösningen fick jag aldrig att fungera...

Trädvy Permalänk
Medlem
Plats
Falun
Registrerad
Feb 2010
Skrivet av snajk:

AMD körde ju något liknande för väldigt länge sedan. Har för mig att jag fick det att funka med ett 3850 och något integrerat, kanske 3200?

Så var det på min urgamla Acer burk som hade ATI Radeon HD 3650 och integrerad 3200.

MSI X99A GODLIKE Gaming | i7 6850K 4.5GHz | 32GB RAM | RTX 2080

Jag blev Sweclockers 147283'e medlem