DirectX 12 öppnar för Geforce och Radeon i SLI-liknande konfiguration

Permalänk
Medlem

Ser ju bra ut... på pappret

Visa signatur

"Claiming Java is good because it works on all OS' is like claiming anal sex is good because it works on all genders"

Permalänk
Avstängd
Skrivet av Rouge of Darkness:

Har svårt att tro att nvidia kommer låta detta fungera utan fulhackade drivrutiner eller liknande...

AMD kommer inte heller gå med på det.
De som sitter på ett 7970/280 idag kommer ju inte skrota det och köpa ett 380 om man kan få samma prestanda genom att behålla det man har och köpa typ ett 360.

Permalänk
Avstängd
Skrivet av anon179444:

AMD kommer inte heller gå med på det.
De som sitter på ett 7970/280 idag kommer ju inte skrota det och köpa ett 380 om man kan få samma prestanda genom att behålla det man har och köpa typ ett 360.

Känns väldigt troligt att det blir så. Tyvärr. AMD och nVIDIA jobbar inte alltid för konsumentens bästa.

Visa signatur

Nya funktioner i “Anniversary Update” för Windows 10 som släpps till sommaren:
http://www.howtogeek.com/248177/whats-new-in-windows-10s-anni...

Permalänk
Medlem

Samstämmer med alla som tror att detta kommer att blockeras av tillverkarna i form av drivrutiner eller hårdvaruspärrar. Antagligen mest av NVIDIA i dagsläget då de har mer att förlora, men om situationen varit den omvända med AMD som marknadsledande hade nog de med största sannolikhet dragit i bromsen. Företag sysslar inte med välgörenhet, och om AMD leker good-guy för tillfället är det för att de vinner på det.

Nu är jag inte så insatt, men vore det möjligt att låta ett svagare kort hantera t.ex. periferin på ett flerskärmssystem i lägre kvalitet medan det starkare driver huvudskärmen med högre detaljinställningar?

Permalänk
Medlem

Vi få se vad det blir av det hela men intressant sak om dom lyckas med den.
Det där med en virtuell grafik av korten man har kan bli många variabler av få hoppas dom får den att utnyttja det bästa av korten ...

Visa signatur

Låda thermaltake view 91 M-kort ASUS X399 ROG Zenith Extreme CPU AMD Ryzen Threadripper 1920X 3.5 GHz Kylning Hemma byggd vattenkylning 2 x 480mm + 1 x 420mm radiatorer Minne 8 X 16Gb DDR4 HD SSD 240GB OCZ Trion 100 Grafik Gigabyte Geforce RTX 3080 10GB GAMING OC WATERFORCE WB AGG Corsair RM 1000w 80+ Gold Skärm ASUS 43" ROG Strix XG438QR 4K VA HDR 120 Hz

Permalänk
Medlem

Intressant om det skulle fungera..

Tror de som jublar mest är nätaggtillverkare och elbolagen.
Alla kommer sitta på multi GPU lösningar.. fungerar det bra så är AMD:s A serie relevantare än nånsin.

Visa signatur

[1700X] [B350 mITX] [32GB DDR4@3000MHz CL15] [Vega 56] [Nano S] [D15S] [Win 10 Pro]

Permalänk
Medlem

Halv intressant men precis som Rouge of Darkness var inne på så har man historisk sett vidtagit implementeringar för liknande gpu harmonisering mellan utvecklare. Det finns dock alltid vägar att kringå dessa men frågan är hurvida det bär sej på det stora hela sett till prestanda i stort och för att inte glömma stabilitet..

Visa signatur

Dator: | Chassi: Fractal Design Define R4 | CPU: Intel i7 8700K | MB: ASUS PRIME Z370-A | RAM: Corsair Vengeance LPX 16GB 3200MHz DDR4 | GPU: Gigabyte GeForce Zotac RTX 3080 Trinity OC 10gb | Ljudkort: M-TRACK HUB/Asus Xonar Essence STX II | OS: Windows 10 64-bit | Bootdrive: Samsung 970 EVO Plus 500GB M.2 | PSU: EVGA Supernova G2 1300W | CPU kylning:Noctua NH-D15 chromax.black | Monitor: samsung c49rg90 | Hörlurar: HIFIMAN HE-400I/STAX SR-L300 | Högtalare: ADAM AUDIO T7V

Permalänk
Medlem

Superintressant!
Nu kanske man äntligen kan få lite nytta av grafikdelen i sin processor.

Permalänk
Medlem

Det kommer säkert att blockeras i början men iom att möjligehten finns så kommer det förr eller senare att fungera. För många fulhack och uppmaningar ifrån konsumenter kommer att sätta stor press på amd/nvidia. Dessutom så behöver bara en av dem att tillåta detta så blir det otroligt stor press på den andra. Tänk om AMD kort helt plötsligt kan sammarbeta med intelgrafik, det ger ju en fin boost som nvidia kort då inte har.

Permalänk
Avstängd

Äntligen!

Fuck SLI och fuck CrossFire!
Fuck Nvidia och fuck AMD och deras proprietära gränssnitt och protokoll.

Förhoppningsvis får vi se öppna, heterogena, standardiserade system framöver.

Permalänk
Medlem

Nvidia kommer göra allt för att detta inte ska hända.

Visa signatur

E-penis:
i9 9900k @ 5hz | Aorus Master Z390 | 2x16GB Corsair 3200 LPX | ASUS ROG STRIX GeForce RTX 3080 10GB | Phateks Evolv X | EVGA SuperNOVA G2 750W | Corsair H115i PRO | 6TB HDD | Asus MG279Q 27" | Asus Claymore Core | Logitech G403/G35 | Windows 10 Pro x64

Permalänk
Hjälpsam
Skrivet av anon179444:

Det här sänker försäljningen av grafikkort och kommer aldrig att ske.
De kommer stoppa detta i drivrutinerna. Om det gås runt via hack så kommer de lägga spärrar i hårdvaran.
Det enda som är oklart är hur ärliga de är om det.
"Vi har stoppat det, eftersom det leder till minskad försäljning". eller "Tyvärr så går inte det med våra nya kort, Jättetråkigt!"

"Våra grafikkort är optimerade för maximall spelupplevelse, detta kan inte garanteras om okänd hårdvara interagerar med vår, vi har därför, som en sevice till våra kunder, säkerställt att så inte blir fallet."

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av backfeed:

Blir renderingsresultatet alltid identiskt, jag menar, det kan inte skilja lite beroende på hårdvaruimplementationer (hantering av avrundningsfel etc)?

Vore ju inte så trevligt om t.ex. färger och ljuseffekter inte såg exakt likadana ut; så fick man ett udda lapptäcke som renderingsresultat.

PhysX på halva skärmen (y)

Permalänk
Medlem
Skrivet av Söderbäck:

Njäe. Så bra är det nog inte tyvärr. Om du har två olika grafikkort som ska rita på samma bild så behöver båda grafikkorten har samma texturer i sitt minne. Det kommer fortfarande att gå för långsamt att låta GPUn hämta data ur minnet från ett annat grafikkort.
Så ungefär samma sak kommer fortfarande gälla. Minnet måste inte vara speglat om man använder grafikkort på det här sättet men gissningsvis kommer minnet vara fyllt nästan likadant på båda enheterna ändå.

Edit:
Samma fråga kom upp i tråden efter nyheten med lösningen kring beyond earth.
http://www.sweclockers.com/forum/52-nyhetskommentarer/1351490...

Jo du har nog tyvärr rätt tänkte Bara lite optimistiskt och inte alla tekniska begränsningar

Visa signatur

Ryzen 5 7600
Rx 6650xt
32Gb

Permalänk
Avstängd
Skrivet av Ratatosk:

"Parfymerat bajs"

Spot on!

Permalänk
Medlem
Skrivet av backfeed:

Blir renderingsresultatet alltid identiskt, jag menar, det kan inte skilja lite beroende på hårdvaruimplementationer (hantering av avrundningsfel etc)?

Vore ju inte så trevligt om t.ex. färger och ljuseffekter inte såg exakt likadana ut; så fick man ett udda lapptäcke som renderingsresultat.

Det finns ju specifika situationer då det inte alls spelar roll dock. Kan tänka mig att man på en dator med en bra och en klen gpu låter den svagare rendera UI't till exempel. (Om spelet har tillräckligt stor UI-yta för att det ska vara meningsfullt vill säga, vilket antagligen inte är särskilt ofta... men ändå ).

Visa signatur

SweClockers Dark Pearl tema: http://www.sweclockers.com/forum/trad/1484891
(Rek. Stylus)

Permalänk
Medlem
Skrivet av Fire_Ice:

Idén är varken ny eller obeprövad. Lucidlogix skapade en lösning som de kallade Hydra för ca 5 år sedan men då med hjälp av extra hårdvara:
http://en.wikipedia.org/wiki/Hydra_Engine
http://www.sweclockers.com/recension/6225-msi-big-bang-fuzion...

Fungerade tyvärr inte så bra, men var också ett väldigt ambitiöst projekt, särskilt på den tiden. Får hoppas att det blir bättre nu när det sköts direkt i mjukvaran. Jag vill råda alla att låta "Hype-tåget" stanna på stationen tills vidare.

Bara för att en annan misslyckas behöver inte alla andra göra det.

Permalänk
Medlem
Skrivet av dpom86:

Det finns ju specifika situationer då det inte alls spelar roll dock. Kan tänka mig att man på en dator med en bra och en klen gpu låter den svagare rendera UI't till exempel. (Om spelet har tillräckligt stor UI-yta för att det ska vara meningsfullt vill säga, vilket antagligen inte är särskilt ofta... men ändå ).

Som jag förstått det så delas bilden upp i ett rutnät, och det finns inget stöd för att rendera enbart ui:t separat med en gpu och sedan slabba in detta ovanpå vad en annan gpu har renderat?

Visa signatur

5950X, 3090

Permalänk
Medlem

Låter ju mycket bra.
Nu kan ju den i CPU:n intrigerade GPU: användas till enklare bilder och grafikkortet går på tomgång ända tills det behövs mer kraft.
Men kräver inte detta helt nya moderkort.

Permalänk
Medlem

Mer intressant för mig vore om man kunde få samarbete mellan GPU och APU.
Att man vid vanligt desktoparbete (skriva text, websurf) kan använda APU. Men att datorn automatisk slår över till GPU vid mer krävande arbete. Jag menar det är en aningen overkill att mitt R9 290 hanterar grafiken om jag spelar MS Röj.

Visa signatur

Skärm: Acer XB271 HU, Keyboard: Corsair k95
Moderkort: Asus Prime-A Z690, GPU: RTX 4080
CPU: Intel i7 13700k, Ram: 32Gb DDR5 6000Hz
Chassi: Lian Li Lancool 3, Högtalare: ALTEC LANSING 5.1 THX
Disk 1: WD 850x 1Tb, Disk 2: WD 850x 2Tb,PSU: Seasonic Prime 1000w

Permalänk
Medlem
Skrivet av strejf:

Känns väldigt troligt att det blir så. Tyvärr. AMD och nVIDIA jobbar inte alltid för konsumentens bästa.

Till skillnad från ditt älskade Microsoft då som gör allt för konsumentens bästa ...

Visa signatur

Martha's Second Law of the Universe
The more things an item is designed to do, the less likely it is to do any of them very well .

Permalänk
Medlem
Skrivet av backfeed:

Som jag förstått det så delas bilden upp i ett rutnät, och det finns inget stöd för att rendera enbart ui:t separat med en gpu och sedan slabba in detta ovanpå vad en annan gpu har renderat?

Nej masking vore coolt, men t.ex. en minimap är rektangulär i många spel. Bortsett från minimap'en så är gui't antagliget billigt att rendera ändå - det var en random tanke bara.

Visa signatur

SweClockers Dark Pearl tema: http://www.sweclockers.com/forum/trad/1484891
(Rek. Stylus)

Permalänk
Medlem

Tänk om detta möjliggör att komma runt nvidias artificiella block av att köra ett enklare nvidia kort för att få physx även om man har amd kort (som funkade förut men blockades i drivers av nvidia).

Visa signatur

Huvudriggen är en Gigabyte Aorus Xtreme | 128gb DDR5 6000 | Ryzen 7950X | 3080Ti
Utöver det är det för många datorer, boxar och servar för att lista :P

Permalänk
Medlem
Skrivet av backfeed:

Blir renderingsresultatet alltid identiskt, jag menar, det kan inte skilja lite beroende på hårdvaruimplementationer (hantering av avrundningsfel etc)?

Vore ju inte så trevligt om t.ex. färger och ljuseffekter inte såg exakt likadana ut; så fick man ett udda lapptäcke som renderingsresultat.

Nu när Nvidia har börjat följa RGB färger och inte nån 15-235 eller vf det var för fullösning, så ska det nog kunna se lika ut

Skrivet av rektor:

Äntligen!

Fuck SLI och fuck CrossFire!
Fuck Nvidia och fuck AMD och deras proprietära gränssnitt och protokoll.

Förhoppningsvis får vi se öppna, heterogena, standardiserade system framöver.

Du inser alltså att då skulle MS... göra det öppet och standardiserat!?!?! Låter väldigt olikt dem.

Permalänk
Medlem

BSOD!

Skickades från m.sweclockers.com

Visa signatur

SpelBurk: Asus Z87 PRO/Intel 4770k/ HD7970/ 16 GB Ram/ Samsung 840 pro SSD.
TV-Burk: Asus Z97 Plus/ Intel G3258/ Asus Geforce GTX970 Strix/ Xonar D2/ 8 GB Ram/ Intel SSD.

Permalänk
Medlem

BSOD eller lagg.. upp till bevis, även om jag älskar idén !

Visa signatur

My rig 144hz 1440p 27" samsung g5, xfx 6950xt, 11900K, TM Peerless assassin,Gigabyte z590 UD, 32GB 3200MHz Vengeance, 1tb nv2, 2TB SSD 4TB HDD, corsair750 vengeance, Lancool 215.
GFs rig 144Hz samsung 1080p, Palit 3060Ti, 10400F,corsair H60 , B560 Auros, 16GB 3000MHz, 500GB NV1, 480GB A400, 2TB+750GB HDD, Seasonic 650 gold, Kolink Void Laptop Lenovo Legion 5, 2060, 4800H, 16GB, 1,5TB NVME HTPC 3060, 10400F, 16GB, 500GB NVME, 960GB A400 3rd PC 3060Ti, 3700X, Hyper 212, 16GB, 250GB SSD, 2TB HDD, 650w gold, P300A

Permalänk

detta lät faktist intressant måste jag säga! ^^
Återstår att se hur det faktists kommer att funka, skulle vara perfekt för laptops men jag ser också en och annan utnyttja funktionen för att få physx på desktop.

Visa signatur

- Citera för svar -

Permalänk
Medlem
Skrivet av Paddanx:

Du inser alltså att då skulle MS... göra det öppet och standardiserat!?!?! Låter väldigt olikt dem.

Någon har gjort rätt?! Den personen får nog snart sparken så är allt tillbaka till det normala.

Visa signatur

Desktop: | Win10 | InWin 303 | ASUS TUF X570 | AMD Ryzen 5 3600 | Noctua NH-U12S (PP) | Intel 600p 256GB | Gigabyte GTX 670 | 32GB DDR4 2400Mhz | Corsair RM650x | 3x 1080 Screens |
Datacenter: | 1x Physical | 1x Virtual |
Laptop: | 2x |

Dell Certified Technician

Permalänk
Medlem

Börjar bli riktigt imponerad av DX12!

Visa signatur

PC: Intel i7 3930K16 GB RAMGTX 980 SLI1 TB SSD
Ljud: Audeze LCD-3 FazorShure SE846EONE MKII MUSES (AMP + DAC)
Bild: Samsung 43" 4K SUHD HDR 12-bit (till Dator/PS4 Pro)
Bärbart: Apple iPad Pro 12,9"Apple MacBook 12"Oppo HA-2

Permalänk

Något säger mig att det kommer sluta med blåskärmar när man försöker starta ett spel.

Visa signatur

Ursäktar för stavfel