DirectX 12 öppnar för bättre utnyttjande av flera grafikprocessorer

Permalänk
Melding Plague

DirectX 12 öppnar för bättre utnyttjande av flera grafikprocessorer

AMD skvallrar om att DirectX 12 innehåller ytterligare en finess från det egna gränssnittet Mantle, nämligen möjligheten för utvecklare att optimera användningen av flera grafikprocessorer.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Inaktiv

Framtiden.

Permalänk
Medlem

hade säkert förlängt livstiden för en del kort...

Visa signatur

GAMING
XV252QF 390Hz|NR200P|SF750|ROG STRIX B650E-I|RYZEN 7800X3D|DOMINATOR TITANIUM RGB EXPO 32GB|RTX 4090|990 PRO 2TB|PLAYSTATION 5
MEDIA
SHIELD TV PRO|OLED77S90C|HW-Q995C

Permalänk
Discokungen

Korten är behöver fortfarande i princip identisk data i minnet, även om kanske lite kan vara annorlunda. Det är inte så mycket som förändras efter en frame...

Visa signatur

AMD 5800X3D - G.Skill Trident Z 3200 CL16 32GB - Asus B550 TUF - ASRock 7900 XTX Phantom - Intel 900p - CaseLabs S8 - LG 42C2 - Corsair AX1200i - Aquaero 6 - Vattenkyld

Permalänk
Medlem
Skrivet av Gilgamesh:

hade säkert förlängt livstiden för en del kort...

Ja det hade vart fantastiskt om en upgrade innebär att man bara byter det äldsta kortet i datorn!

Eftersom att det hänger på spelutvecklarna så skulle jag gissa på att konsolerna behöver ta ett eller två steg till mot PC hållet för att detta ska kunna bli verklighet i mer än bara undantagsfall.

Permalänk
Relik 📜
Skrivet av Flamso:

Korten är behöver fortfarande i princip identisk data i minnet, även om kanske lite kan vara annorlunda. Det är inte så mycket som förändras efter en frame...

Tanken AMD för fram är väl mera att systemet ska "veta" vilka objekt som hamnar på vilket kort och därmed kunna hantera exakt var texturer och så vidare ska lagras. Jag är ingen expert inom området, men det känns som extremt komplext att få bra. Mycket material lär väl fortfarande förekomma växelvis hos båda korten, så en stor del av informationen borde trots allt behöva speglas. Att få ut "effektiva" 8 GB grafikminne känns väldigt avlägset.

SFR är förövrigt inget "nytt" egentligen utan användes flitigt för SLI/Crossfire på den gamla goda tiden. Någon kanske minns "mätaren" man kunde få upp med Geforce som visade var "gränsen" mellan kortens renderingszoner låg? Längs vägen bedömdes det dock att AFR var enklare och SFR dog ut mer eller mindre helt.

Visa signatur

För övrigt anser jag att Karthago bör förstöras.
▪ Nöje #1 -> i5-11400F - B560M-ITX/ac - RTX 3070 - 16 GB DDR4
▪ Nöje #2 -> R5 5600 - Prime B450-Plus - RX 6750 XT - 16 GB DDR4
▪ Mobilt -> HP Pavilion Aero - R5 5625U - 16 GB DDR4
▪ Konsol -> Steam Deck, Xbox Series S

Permalänk
Discokungen
Skrivet av emilakered:

Tanken AMD för fram är väl mera att systemet ska "veta" vilka objekt som hamnar på vilket kort och därmed kunna hantera exakt var texturer och så vidare ska lagras. Jag är ingen expert inom området, men det känns som extremt komplext att få bra. Mycket material lär väl fortfarande förekomma växelvis hos båda korten, så en stor del av informationen borde trots allt behöva speglas. Att få ut "effektiva" 8 GB grafikminne känns väldigt avlägset.

SFR är förövrigt inget "nytt" egentligen utan användes flitigt för SLI/Crossfire på den gamla goda tiden. Någon kanske minns "mätaren" man kunde få upp med Geforce som visade var "gränsen" mellan kortens renderingszoner låg? Längs vägen bedömdes det dock att AFR var enklare och SFR dog ut mer eller mindre helt.

Ja men precis. Det känns mer som att man kanske kan få ut 4,2GB effektivt minne i så fall. Det måste dessutom hållas koll på vad som är vad vilket jag kan tänka mig blir lite klurigt att göra utan prestandaförlust.

Indeed! Det går fortfarande att köra med Crossfire men jag har för mig att de slutade med det för att prestandan med AFR skalade mycket bättre.

Visa signatur

AMD 5800X3D - G.Skill Trident Z 3200 CL16 32GB - Asus B550 TUF - ASRock 7900 XTX Phantom - Intel 900p - CaseLabs S8 - LG 42C2 - Corsair AX1200i - Aquaero 6 - Vattenkyld

Permalänk
Medlem

För att förtydliga: gäller detta även 295X2 (eller vad det heter) och liknande dual gpu grafikkort?

Permalänk

Detta skulle kunna leda till lösningar där ett kraftigt grafikkort tar hand om en huvudskärm och ett svagare tar hand om två sidoskärmar eller mitten respektive ytterkanten. För att underlätta skulle ju enklare texturer kunna användas för det svagare kortet.

Visa signatur

Jag kan ha fel, men jag tror att jag har rätt.

Permalänk
Medlem

Samt att det skulle kunna ge fördelar för APU + kraftigare GPU kombinationer.

Permalänk
Medlem

Låter bra, det ska GDC i år kan bli riktigt intressant att följa.

Visa signatur

| HAF932 | Ryzen 3700X @ 4,3 GHz | Gigabyte X570 Aorus Ultra | 32 GB G.Skill @ 3600 MHz | RTX 2070 @ 2 GHz | O2 + ODAC | MP600 1TB + 2x 2TB RAID 1 + 2x 2TB RAID 1 | Win10 Pro 64-bit |

Permalänk
Medlem

Split-frame/XFR har väl egentligen alltid varit ett "bättre" alternativ om man bortser från tanklöst FPS-jagande? Man slipper ju även problem med frame pacing och att varje GPU bara behöver hålla den data som berör sin del av renderingsytan i minnet verkar ju rätt självklart.

Visa signatur

CPU: AMD Ryzen 7 7800X3D CO + 2133 MHz FCLK GPU: Sapphire RX 7900 XT Pulse OC
RAM: Corsair 2x16GB 6000 MT/s CL30 (Hynix) BZ subtimings
MB: ASUS ROG Strix B650E-F Gaming WIFI SSD: Kingston KC3000 2TB PSU: Corsair RM850x

Permalänk
Medlem

Skulle kräva väldigt mycket från programmerare för att få tveksamma prestandavinster i några få fall. Jag tror inte på idén. Kommer nog bli väldigt mycket data som delas i praktiken, fast med väldigt mycket längre utvecklingstid. Ingen spelutvecklare kommer haka på idén gissar jag på.

Permalänk
Medlem

Ja, det skulle nog kräva mer programmering men detta är i princip samma programmering som hur flertrådning och "core" splitting fungerar, bara mycket extremare då en GPU har 1k-3k cores idag, men det ska kunna åstadkommas mycket enklare, tror däremot inte Visual Studio eller dagens programmering supportar det så bra.

Visa signatur

Gpu: EVGA GeForce GTX 1080 TI FE Kraken G10+H110 Psu:Corsair AX760 Mb: Gigabyte Aorus Gaming 7 Cpu: Intel 8700k @5.2GHz @ 1.385V Cpu-kylare:EVGA CLC 280 Chassi:Define R5 Minne:G.Skill Ripjaws V 3600Mhz CL16 SSD:OCZ Arc 240GB HDD: Toshiba 3TB A-600

Permalänk
Medlem
Skrivet av Arzei:

Split-frame/XFR har väl egentligen alltid varit ett "bättre" alternativ om man bortser från tanklöst FPS-jagande? Man slipper ju även problem med frame pacing och att varje GPU bara behöver hålla den data som berör sin del av renderingsytan i minnet verkar ju rätt självklart.

Jag håller generellt med, även om split frame nog inte är så lätt att få till på ett bra sätt det heller.
Det är knappast trivialt att dela upp arbetet mellan GPU:erna, och man måste ta hand om uppdelningen mellan korten (inklusive avklippt geometri) på ett sätt så det blir perfekt... Och nästan all data på ena renderingsytan lär behövas även på andra i praktiken.

Men hur krångligt den än är, så tycker jag ändå det är typ enda vägen att gå. Alternate frame renderering är en helt poänglös lösning som jag ser det, och ger ju mer input-lag samt problem med framepacing.

Visa signatur

A modest man is usually admired, if people ever hear of him.

Permalänk
Medlem

Jag tänker fortfarande på Scan-Line Interleave när jag hör SLI. Dubbla Voodoo2 baby

Visa signatur

“Problems that remain persistently insoluble should always be suspected as questions asked in the wrong way.” ― Alan W. Watts

Permalänk
Medlem

børjar vara dags før sockel på mk før grafikprocessorer med løst minne & valfri grafikkrets då borde man dessutom kunna køra dubbla kort med gemensamt minne men e væl mest en drøm det ( 3 socklar med løsa minnen 1 processor & 2 grafiksocklar)

Visa signatur

Arne Berg

Permalänk
Medlem
Skrivet av warh0g:

Jag tänker fortfarande på Scan-Line Interleave när jag hör SLI. Dubbla Voodoo2 baby

jag kommer ihåg första egna begagnade datorn jag fick när jag var liten innehöll en amd på 6 - 700 mhz tror jag och den hade voodoo2 i SLI^^

de klarade väl Blue shift på fulla inställningar även om de buggade lite;P, tyvärr har jag inte kvar den datorn då det hade varit kul att äga de sakernaxD

Permalänk
Medlem
Skrivet av Pudeln:

För att förtydliga: gäller detta även 295X2 (eller vad det heter) och liknande dual gpu grafikkort?

Ja, de fungerar på precis samma sätt som en vanlig CF/SLI konfig.

Permalänk
Medlem

Skulle programmerarna kunna ge grafikkort 1 uppdrag. Att hantera bakgrundstexturer och grafikkort 2 hantera rörliga saker (fiender t.ex.) ?

Permalänk
Medlem
Skrivet av CTH:

Skulle programmerarna kunna ge grafikkort 1 uppdrag. Att hantera bakgrundstexturer och grafikkort 2 hantera rörliga saker (fiender t.ex.) ?

Slutar med stuttering, man måste ge i princip samma uppgift till båda korten för att få bra flyt.

Visa signatur

Gpu: EVGA GeForce GTX 1080 TI FE Kraken G10+H110 Psu:Corsair AX760 Mb: Gigabyte Aorus Gaming 7 Cpu: Intel 8700k @5.2GHz @ 1.385V Cpu-kylare:EVGA CLC 280 Chassi:Define R5 Minne:G.Skill Ripjaws V 3600Mhz CL16 SSD:OCZ Arc 240GB HDD: Toshiba 3TB A-600

Permalänk
Medlem

nVidia 970 ägare jublar i tystnad nu

Permalänk
Medlem
Skrivet av biorrith:

nVidia 970 ägare jublar i tystnad nu

tænkte du på att dx12 har stød før detta då

Visa signatur

Arne Berg

Permalänk
Medlem

Att det blir mer komplicerat till att börja med är väl rätt klart när alla är vana vid att ha det "enkelt" med AFR, det som behövs är väl som alltid nya smarta lösningar som gör om allt från grunden och upp tills det blir "helt" transparent för utvecklarna.

Visa signatur

:CPU: 13900KF | Arctic LF II 360 | 6x Silentwings 3 :Mobo: ROG Strix Z690-A Gaming WiFi D4 :RAM: 32GB Corsair Vengeance RGB RT :GPU: KFA2 SG 4090 :Monitor: Acer Predator XB323UGP :Chassi: Lian Li O11D | 6x Silentwings 3 :PSU: Seasonic Prime TX-1000 :HDD: Kingston KC3000 2TB | Seagate Barracuda PRO 8TB

Permalänk
Medlem

Jag ser detta som en "teknikskt mycket intressant", men det kommer nog inte att ha någon större praktiskt betydelse.
Hur många användare har två olika grafikkort i sina datorer där det kraftfullare har för lite minne?

Saker jag skulle vilja se:
* Använda GPUns beräkningskraft till annat än grafik
* Göra det möjligt för GPU att använda annat minne är VRAM till videominne
Och slutligen:
* Använda CPUs inbyggda GPU-del när man använder ett (diskret) grafikkort

Permalänk
Medlem
Skrivet av CTH:

Skulle programmerarna kunna ge grafikkort 1 uppdrag. Att hantera bakgrundstexturer och grafikkort 2 hantera rörliga saker (fiender t.ex.) ?

Det kan man absolut göra, och en fundamental del av de nya APIerna (mantle/dx12/gl.next/metal..) är att tillhandahålla synkoniseringsprimitiver för att man skall kunna styra upp något sådant. Eftersom uppgiften att balansera jobben mellan GPUer ligger på spelmotorutvecklaren så är den modellen betydligt svårare att hantera. En frame är inte klar innan sista jobbet är klart, så det gäller att ge alla GPUer lika mycket jobb, vilket så klart är lättast om alla får ungefär samma jobb.

En intressant aspekt av att köra olika jobb på olika GPUer är att alla jobb ju inte behöver uppdateras lika frekvent. T.ex texturer för reflektioner uppdateras ofta inte varje frame, så de kan puttra på i lite långsammare takt.

Dessutom tror jag inte att AMD syftade på DX12 när de pratade om Mantles efterföljare. AMD lämnade ju över Mantle-specen till Khronos som hanterar OpenGL, och de kommer visa sitt Mantle-baserade cross vendor API på GDC den 5:e Mars.
http://schedule.gdconf.com/session/glnext-the-future-of-high-...

Inte för att det spelar så stor roll, eftersom jag inte tror att DX12 kommer skilja sig på den punkten.

Permalänk
Medlem
Skrivet av emilakered:

Tanken AMD för fram är väl mera att systemet ska "veta" vilka objekt som hamnar på vilket kort och därmed kunna hantera exakt var texturer och så vidare ska lagras. Jag är ingen expert inom området, men det känns som extremt komplext att få bra. Mycket material lär väl fortfarande förekomma växelvis hos båda korten, så en stor del av informationen borde trots allt behöva speglas. Att få ut "effektiva" 8 GB grafikminne känns väldigt avlägset.

SFR är förövrigt inget "nytt" egentligen utan användes flitigt för SLI/Crossfire på den gamla goda tiden. Någon kanske minns "mätaren" man kunde få upp med Geforce som visade var "gränsen" mellan kortens renderingszoner låg? Längs vägen bedömdes det dock att AFR var enklare och SFR dog ut mer eller mindre helt.

Hur fungerade 3dfx sli?

http://en.wikipedia.org/wiki/Scan-Line_Interleave

Visa signatur

XFX Radeon RX 7700 XT Speedster QICK 319 Black Edition | AMD Ryzen R7 5700X | Noctua NH-D15 | Asus TUF Gaming B550-Plus | Kingston Fury Beast DDR4 3600MHz 4x8GB | Samsung 990 Pro 1TB | Corsair HX1000i | Fractal Design Define S | LG 27GL83A | Corsair K95 Platinum | Corsair Sabre RGB PRO Wireless | Corsair Void Elite Wireless

Permalänk
Relik 📜
Skrivet av skruvis:

Minns jag rätt renderade korten varannan pixelrad horisontellt..

Skickades från m.sweclockers.com

Visa signatur

För övrigt anser jag att Karthago bör förstöras.
▪ Nöje #1 -> i5-11400F - B560M-ITX/ac - RTX 3070 - 16 GB DDR4
▪ Nöje #2 -> R5 5600 - Prime B450-Plus - RX 6750 XT - 16 GB DDR4
▪ Mobilt -> HP Pavilion Aero - R5 5625U - 16 GB DDR4
▪ Konsol -> Steam Deck, Xbox Series S

Permalänk
Medlem
Skrivet av ThomasLidstrom:

* Använda GPUns beräkningskraft till annat än grafik

Brute force! (för privat/testbruk såklart) Går mycket snabbare med GPU än CPU. Samma anledning som att man "minar" bitcoins och dylikt med hjälp av monstruösa GPUer istället för Xeons!

Visa signatur

i7 4970k@4,7 GHz | Corsair H100i | 16GB Corsair DDR3 1600MHz | Asus z97-A | Gtx 970 Strix | OZC 750W | Hatar OS | Fractal Design R5 | Samsung 840 EVO 256gb
ASUS 24" VG248QE 144Hz + Två VA-paneler från Benq

Permalänk
Medlem
Skrivet av ThomasLidstrom:

Jag ser detta som en "teknikskt mycket intressant", men det kommer nog inte att ha någon större praktiskt betydelse.
Hur många användare har två olika grafikkort i sina datorer där det kraftfullare har för lite minne?

Saker jag skulle vilja se:
* Använda GPUns beräkningskraft till annat än grafik
* Göra det möjligt för GPU att använda annat minne är VRAM till videominne
Och slutligen:
* Använda CPUs inbyggda GPU-del när man använder ett (diskret) grafikkort

1. Onödigt då CPU sköter det simpla och att programmera till ett grafikkort är overkill och extremt jobbigt.
2. Bandbredd failure, stuttering.
3. Är i princip samma sak denna tråd handlar om.

Visa signatur

Gpu: EVGA GeForce GTX 1080 TI FE Kraken G10+H110 Psu:Corsair AX760 Mb: Gigabyte Aorus Gaming 7 Cpu: Intel 8700k @5.2GHz @ 1.385V Cpu-kylare:EVGA CLC 280 Chassi:Define R5 Minne:G.Skill Ripjaws V 3600Mhz CL16 SSD:OCZ Arc 240GB HDD: Toshiba 3TB A-600