DirectX 12 öppnar för Geforce och Radeon i SLI-liknande konfiguration

Permalänk
Medlem

Detta är utveckling åt rätt håll!
Då kan man ju dra nytta av ett gammalt grafikkort även fast man köpt ett nytt!

Visa signatur

Chassi: Fractal Meshify, Skärm: LG C2 oled, GPU: AMD 6950XT, CPU: Ryzen 5800X3D, M2: 1TB , SSD: 480GB, M2 1TB, PSU: Dark Power Pro 1500W, Mobo: ASUS TUF GAMING X570-PLUS, RAM: 32GB Ripjaws @ 3600MT, Mus: Logitech G502X Matta: Steelseries QcK Heavy, Tbord: Logitech MX Mech Mini, Hörlurar: BD DT1990 Pro, DT770 PRO, Superlux HD-668B, Sennheiser HD599 OS: Win11. AI: Tascam US-20x20, Monitorer: Yamaha HS7 x2.
Citera när ni svarar! :)

Permalänk
Medlem

Vore väldigt spännande om det kan bli stöd för IGP + dGPU i DX12-spel. Det vore väl iaf inte helt orimligt för AMDs APU och GPU.

Jag har tidigare sett olika grafikprogrammerare skriva om potentialen i att ha det integrerade grafikkortet dedikerat till GPGPU.

Permalänk
Medlem
Skrivet av Ixos:

Det kan det väl omöjligtvis göra? Rätta mig om jag har fel men är inte tanken med Freesync/Gsync att rendera bilden såfort den är genererad av grafikkortet?

Om två olika grafikkort generar bilder så innebär det i teorin iaf att skärmen endast updaterar vissa delar när motsvarande grafikkort har genererat sin del av bilden = tearing på en helt ny nivå

Två kort med olika prestanda renderar olika stora delar och kommer att vara klara samtidigt. Best-case iaf. Eftersom de jobbar på samma frame kommer denna frame inte att kunna visas förrän alla kort renderat klart sin del. Borde fungera smärtfritt med freesync.

Skickades från m.sweclockers.com

Permalänk
Moderator
Testpilot

Antar att mitt tips var intressant.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem
Skrivet av anon179444:

AMD kommer inte heller gå med på det.
De som sitter på ett 7970/280 idag kommer ju inte skrota det och köpa ett 380 om man kan få samma prestanda genom att behålla det man har och köpa typ ett 360.

Om Microsoft gjort detta bra så har AMD och NVidia inget att säga till om. Korten kommer att få rendera sin del utan att veta hur många andra kort som finns Eller vilka fysiska skärmar som finns. Då får de vägra acceptera DX12 i sin helhet. Kanske har Microsoft byggt det så att specialstöd krävs i drivarne, men jag tycker att det låter osannolikt.

Skickades från m.sweclockers.com

Permalänk
Datavetare

Detta tar ju det hela ett steg till, men redan idag är det möjligt att låta dGPU-kretsen köra grafik medan iGPU-kretsen t.ex. kör fysikberäkningar eller andra flyttalsintensiva beräkningar via OpenCL som inte direkt resulterar i pixels på skärmen. Detta vet jag av egen erfarenhet att det fungerar (körde med Intel iGPU och Nvidia dGPU).

Det skulle också vara möjligt att låta dGPU-kretsen rendera majoriteten av scenen, fast med "render-target" satt till en textur. Denna textur kan sedan iGPU-kretsen med liten arbetsinsats rendera + den renderar andra delar av skärmen. Om jag inte missförstått något kring denna DX12 finess så skulle detta ge samma slutresultat och även om jag inte testat detta själv ser jag inte varför det inte skulle fungera.

Problemet med båda dessa varianter är att man ändå måste hantera fallet när ett system inte har två GPU-kretsar. Känns som det är problemet med DX12 finessen också då de explicit hamnar i knät på utvecklarna att stödja detta.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Skulle ju bli intressant att se hur detta utvecklar sig, då amd och nvidia ofta har haft visuella skillnader, säkerligen pga optimeringar i drivrutinen eller hur dom hanterar/kompilerar/optimerar shaders...

Permalänk
Medlem

Om jag inte minns helt fel så har detta redan varit på tapeten innan för drygt tio år sen. Då var det att det var möjligt att blanda grafikkort men Nvidia låste sina till att bara samarbeta med sina egna kort.
Inte så olikt Nvidia och kommer alternativet upp igen så tippar jag på att samma sak händer igen.

AMD lär ju dock köra samma öppna standard som innan och gärna låta det fungera, hjälper dock inte så mycket när ena parten låser sitt.

Visa signatur

Laptop Workstation PC Specialist || Intel 10875H - 250mv & Liquid Metal || Nvidia RTX 2070 883mv @ 1935MHz & Liquid Metal ||64GB Ram || Samsung 970 EVO 2TB + 512GB OEM || 1TB & 512GB External SSD + 2.5TB NAS
Lyssna gärna på mitt band The Mulak Mind
Citera gärna om du vill ha svar!

Permalänk

Interesting, to say the least!

Visa signatur

Lian Li 011 Air Mini | Ryzen 7800X3D | EK-Nucleus AIO CR240 Lux | | G.Skill Trident Z5 NEO DDR5 6400mhz | Radeon 7900 XTX Hellhound | Asus ROG Strix B650-A Gaming | DeepCool PX1200G | Western Digital SN850X 2TB | Crucial P3 4TB | +Femtioelva rgb-fläktar^^

Permalänk
Medlem

"är däremot kön alltid en bildruta eller mindre" Mitt kön är mindre än en bilruta iaf. =P

Visa signatur

2x Xeon E5-2699 v4, 256gb Quad Channel RAM, 2x nVIDIA 980ti
----
AMD Ryzen 5950X, 128gb Dual Channel RAM, 2x AMD 6900XT
----
Massiv amiga och 3dfx-samling.

Permalänk
Medlem
Skrivet av TechGuru:

Två kort med olika prestanda renderar olika stora delar och kommer att vara klara samtidigt. Best-case iaf. Eftersom de jobbar på samma frame kommer denna frame inte att kunna visas förrän alla kort renderat klart sin del. Borde fungera smärtfritt med freesync.

Det är väl knappast så live rendering fungerar? Korten kan ju aldrig veta i förväg vilken del av skärmen som kommer drabbas av den där extra intensiva explosionen eller extra detaljerade avataren som rör sig massor???

Det låter bra i teorin, men jag är mycket tveksam att det går att genomföra praktiskt.

Permalänk
Skrivet av rektor:

Äntligen!

Fuck SLI och fuck CrossFire!
Fuck Nvidia och fuck AMD och deras proprietära gränssnitt och protokoll.

Förhoppningsvis får vi se öppna, heterogena, standardiserade system framöver.

Inte med MS bakom rodret i alla fall. Borde tagit med fuck MS Går ju inte köra Linux med Directx precis.

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Medlem
Skrivet av Dinoman:

Antar att mitt tips var intressant.

fick du ett tack?

Permalänk
Medlem
Skrivet av tvelander:

Hell ye :3

GTX 980 och ett R9 290 + Intel H400 i SLI / CF / Intel FIrE?

290 ? Varför inte 290X ? Jag vet att 290 är ett riktigt bra kort, men både 290 och 290X är väl "singlegpu" kort där 290X är det som presterar bättre. Presterar 980 och 290 mer likvärdigt?

OnT: Att använda en HSA/APU gpu och en diskret för att gemensamt rendera bildrutor? Ja du kan ju försöka splitta det 50/50 och inte få synkroniseringsproblem med gpu:er som presterar olikvärdigt. Jag undrade alltid varför man skulle ha likadana kort i SLI/Xfire, men när man tänker på att de helst ska rendera lika snabbt så är det inte så konstigt.
Om gpuer kan ta bråkdelar av en bild och rendera så vore det ju häftigt

Visa signatur

No man is free who is not master of himself

Permalänk
Medlem

Säg att man har ett GTX 770 och skaffar ett GTX 980Ti och kan använda även det gamla kortet för lite extra prestanda.. skulle vara väldigt trevligt.

Frågan är om det skulle minska så mycket på ny försäljningen.. skulle garanterat minska på andrahandsförsäljning av gamla kort.

Permalänk
Medlem
Skrivet av Alpha77:

Säg att man har ett GTX 770 och skaffar ett GTX 980Ti och kan använda även det gamla kortet för lite extra prestanda.. skulle vara väldigt trevligt.

Frågan är om det skulle minska så mycket på ny försäljningen.. skulle garanterat minska på andrahandsförsäljning av gamla kort.

Minskad andrahandsförsäljning skulle möjligen kunna spilla över i ökad försäljning av nya mid/lowrangekort?

Permalänk
Moderator
Testpilot
Skrivet av MarkSix:

fick du ett tack?

Nej inte vad jag vet.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Master of Overkill
Skrivet av Luminous:

290 ? Varför inte 290X ? Jag vet att 290 är ett riktigt bra kort, men både 290 och 290X är väl "singlegpu" kort där 290X är det som presterar bättre. Presterar 980 och 290 mer likvärdigt?

OnT: Att använda en HSA/APU gpu och en diskret för att gemensamt rendera bildrutor? Ja du kan ju försöka splitta det 50/50 och inte få synkroniseringsproblem med gpu:er som presterar olikvärdigt. Jag undrade alltid varför man skulle ha likadana kort i SLI/Xfire, men när man tänker på att de helst ska rendera lika snabbt så är det inte så konstigt.
Om gpuer kan ta bråkdelar av en bild och rendera så vore det ju häftigt

Va inget riktigt speciellt med 290 eller 290x eller 980, mest bara skrev kul om man kan få alla 3 jobba ihop

Visa signatur

CASE Caselabs SMA8-A + TH10+PED + Louqe Ghost S1 CPU 9900k @5.3GHz (No AVX) 9800X @4.8GHz GPUs RTX 3090 FE RAM 4x16GB Corsair Dominator Platinum 3533MHz CL13 + 2x16GB Corsair Dominator Platinum RGB 3000MHz PSU EVGA T2 1600W + Corsair SFF 750W SSD 905p 480GB, 4x Samsung 970 Pro M.2 Headphones Audeze Maxwell + FOSTEX TR-X00 + Audeze LCD-2 + Moon Cable DAC/AMP Chord Mojo, Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard X299 EVGA DARK + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240

Permalänk
Medlem

hmm

både microsoft och nvidia har failat med mindre ambitiösa projekt. i call it bluff

Permalänk
Medlem
Skrivet av Paddanx:

Nu när Nvidia har börjat följa RGB färger och inte nån 15-235 eller vf det var för fullösning, så ska det nog kunna se lika ut

Det finns fler källor till skillander, t.ex. antialiasimplementationer. Det vore väldigt intressant att direktjämföra renderingsresultaten från ett kort från AMD respektive Nvidia. Och Intel. Med identiska grafikinställningar i ett spel.

Visa signatur

5950X, 3090

Permalänk
Medlem
Skrivet av tvelander:

Va inget riktigt speciellt med 290 eller 290x eller 980, mest bara skrev kul om man kan få alla 3 jobba ihop

Aha, jo självklart

Visa signatur

No man is free who is not master of himself

Permalänk
Avstängd
Skrivet av Broken-arrow:

Inte med MS bakom rodret i alla fall. Borde tagit med fuck MS Går ju inte köra Linux med Directx precis.

Det är för att det inte satsas på att utveckla en DirectX implementation för Linux.
Det finns en Direct3D 9 implementation för Linux, Gallium Nine, en state tracker för Gallium3D som är den del av Mesa.
Tidigare hölls det på lite med en Direct3D 10/11 implementation som en state tracker också, men det lades på is.
Iofs är Direct3D bara en komponent av DirectX men ändå.

Linux satsar mer på OpenGL än DirectX, och även där har dom svårt att hänga med, och dom öppna drivrutinerna är inte kompatibla med OpenGL 4.5, eller 4.4, eller ens 4.3.
Du kan se de olika drivrutinernas stöd på http://mesamatrix.net/

Sen om Microsoft har lyckats få GeForce och Radeon att fungera tillsammans utan SLI/CrossFire så kan säkert Khronos Group som utvecklar OpenGL ta fram något liknande.

Permalänk
Skrivet av rektor:

Det är för att det inte satsas på att utveckla en DirectX implementation för Linux.
Det finns en Direct3D 9 implementation för Linux, Gallium Nine, en state tracker för Gallium3D som är den del av Mesa.
Tidigare hölls det på lite med en Direct3D 10/11 implementation som en state tracker också, men det lades på is.
Iofs är Direct3D bara en komponent av DirectX men ändå.

Linux satsar mer på OpenGL än DirectX, och även där har dom svårt att hänga med, och dom öppna drivrutinerna är inte kompatibla med OpenGL 4.5, eller 4.4, eller ens 4.3.
Du kan se de olika drivrutinernas stöd på http://mesamatrix.net/

Sen om Microsoft har lyckats få GeForce och Radeon att fungera tillsammans utan SLI/CrossFire så kan säkert Khronos Group som utvecklar OpenGL ta fram något liknande.

Nä, är inget spel os från början, utan gjort för server. Men med detta håll Microsoft kör åt, så har man stor lust att byta os och Linux är tyvärr steget att gå (jag tycker det är rätt trevligt os, men jäkligt uppdelat). Vill man kunna spela hyfsat smärtfritt, går det ju inte om spelet är kodat endast för DirectX.

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Avstängd
Skrivet av Broken-arrow:

Nä, är inget spel os från början, utan gjort för server. Men med detta håll Microsoft kör åt, så har man stor lust att byta os och Linux är tyvärr steget att gå (jag tycker det är rätt trevligt os, men jäkligt uppdelat). Vill man kunna spela hyfsat smärtfritt, går det ju inte om spelet är kodat endast för DirectX.

Nej, det är varken ett OS från början eller gjort för server.
Linus skrev Linux som en hobby och en fri implementation av Unix för Intel 386 som var hem PC.
Så det var nog först och främst ämnat så att studenter och vanliga människor skulle kunna köra ett Unix operativ system på en vanlig PC utan att behöva betala 20000 kr för en Unixlicens.

Sedan har Linux fått stora investeringar från stora företag (bland annat IBM, Intel och RedHat) som gjort att Linux blivit väldigt lyckat som operativ system på servrar.

Sedan gjorde Google stora satsningar på Linux för att skapa Android och blir lyckat på mobiler.

Nu håller Valve på att satsa på Linux för spel.

Utbudet av titlar för Linux på Steam är rätt bra, och blir kontinuerligt bättre och bättre. Alla de stora spelmotorerna har stöd för Linux numera.

Permalänk
Avstängd
Skrivet av Kilgore:

Till skillnad från ditt älskade Microsoft då som gör allt för konsumentens bästa ...

Det kan ju vara så bra att Microsoft gör det omöjligt för nVIDIA och AMD att förhindra samarbetande GPU'er. Vi får hoppas på det

Visa signatur

Nya funktioner i “Anniversary Update” för Windows 10 som släpps till sommaren:
http://www.howtogeek.com/248177/whats-new-in-windows-10s-anni...

Permalänk
Medlem

Skulle vara grymt i en laptop att kunna kombinera intel gpun med något.

Visa signatur

Ryzen 9 5950X, 32GB 3600MHz CL16, SN850 500GB SN750 2TB, B550 ROG, 3090 24 GB
Har haft dessa GPUer: Tseng ET6000, Matrox M3D, 3DFX Voodoo 1-3, nVidia Riva 128, TNT, TNT2, Geforce 256 SDR+DDR, Geforce 2mx, 3, GT 8600m, GTX460 SLI, GTX580, GTX670 SLI, 1080 ti, 2080 ti, 3090 AMD Radeon 9200, 4850 CF, 6950@70, 6870 CF, 7850 CF, R9 390, R9 Nano, Vega 64, RX 6800 XT
Lista beg. priser GPUer ESD for dummies

Permalänk
Medlem

Ett kort med sådana här möjligheter är värt mer än ett kort utan.
Frågan är om det är värt eventuellt utvecklingsarbete.