Cryengine får stöd för Vulkan och DirectX 12 under hösten

Permalänk
Entusiast
Skrivet av Yoshman:

AMD tog ju bort DSP i samband med lanseringen av GCN4

"A new version of TrueAudio, TrueAudio Next, was released with the AMD Radeon 400 series GPUs. TrueAudio Next utilizes the GPU to simulate audio physics" (länk)

Är den här typen av ljudhantering inte lämpligare att hantera med SSE4/AVX, framförallt i ljuset av DX12/Vulkan som gör fler CPU-cykler tillgängliga? Lämpligen gör man detta via bibliotek eller någon teknik likt SPMD så koden inte är låst till en viss CPU-arkitektur/modell (för tillfället finns kodgeneratorer för SSE, AVX på x86 och NEON på ARM).

Eller går sådant att göra via OpenCL/CUDA? Om så vore fallet skulle man ha flera möjligheter, t.ex. kör ljudhanteringen i iGPU om sådan finns eller CPU/dGPU (OpenCL är ett icke-problem, för CUDA finns CUDA-x86) med samma kodbas.

Jo jag noterade att AMD tagit bort DSPn i den senaste iterationen av GCN.

Tanken var väl mer att det känns bättre att dumpa över ljudmanipulering på en DSP istället för att lägga massa CPU/GPU-cykler på det. Både Nvidia och AMD verkar ju lägga ljudberäkningarna på GPUn och den kapaciteten känns som att det är bättre att lägga på grafik. Intresset för mer avancerad ljudhantering kommer nog öka markant i och med VR som ställer högre krav på positionering med mera. Vi har även sett en generell trend mot ljud de senaste åren. Delvis på grund av att moderkortstillverkarna behövt något att differentiera sig med nu när allt mer funktionalitet är integrerat i CPU och hårt bundet till chipset. Fast vi har ju även sett en trend mot att folk lägger lite mer på bra hörlurar och en hyfsad mikrofon istället för att köra på högtalarna som sitter inbyggda i skärmen.

Får man tillgång till bra ljudhårdvara finns det mer än bara positionering man kan leka med. Kontextbaserad musik kan bli betydligt mer avancerad. Idag kör man generellt bara ett antal ljudspår parallellt och så crossfadar man mellan dem. Med ordentlig hårdvara kan man rendera musiken i realtid och på så sätt manipulera den väldigt mycket mer. Det öppnar också upp för processuellt genererad musik på en helt annan nivå.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Avstängd

Ja, Crysis 3 ser riktigt fint ut @sesese.

Har bra FPS med bara ett 980Ti i 1080p. Dippar till 60 emellanåt i krävande utomhusmiljöer. Kommer ihåg att introt knäckte mitt 290 direkt.

Visa signatur

http://iogt.se/
du blir ful och dum av sprit
flow är lek

Permalänk
Hjälpsam
Skrivet av Orfi:

Då borde ju teoretiskt Star Citizen få DX12 stöd också?
Oooohh happy day! Mmmhmm-mh

Star Citizien kommer att få DX15 när det väl släpps.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Skrivet av Wiruz:

Citat:

Resultatet är i bästa fall högre bildfrekvens på samma hårdvara ställt mot DirectX 11 eller OpenGL.

I bästa fall

Ja, det där med DX12 verkar mer vara ögonfluff än fysik, det var bättre förr.

Visa signatur

An application program (sometimes shortened to application) is any program designed to perform a specific function directly for the user or, in some cases, for another application program.
https://www.userbenchmark.com/ Talar om vad du har!

Permalänk
Inaktiv

Låter vettigt och något Crytek också måste göra då de licensierar ut sin motor.

Skrivet av Ratatosk:

Star Citizien kommer att få DX15 när det väl släpps.

Nu var du lite väl snäll, DirectX 42 vid lanseringen av Windows 3000.

Skrivet av Punnisher:

Ja, det där med DX12 verkar mer vara ögonfluff än fysik, det var bättre förr.

https://youtu.be/1o0Nuq71gI4

Det tråkigaste är att det inte används till något. Hade Nvidia varit intresserade av att se GPU-accelererad PhysX användas hade de varit öppnare med användningen av lösningen. Bra teknik men behöver användas i mer än teknikdemon.

I mitt tycke är nog Nvidias köp av Ageia den tredje största sorgen under 00-talet. Den andra IBM och att de lämnade konsumentmarknaden och sen första och största 3Dfx förfall.

Skickades från m.sweclockers.com

Permalänk
Medlem

Så mao... snart kommer vi alla kunna köra Crysis?

Kanon dock att de gör både Vulkan och DX12. Kan bli bra sätt att jämföra dem, samt det öppnar marknaden för att spelen som byggs på detta inte måste vara låst till X86 och Windows.

Permalänk
Medlem
Skrivet av anon5930:

Låter vettigt och något Crytek också måste göra då de licensierar ut sin motor.

Nu var du lite väl snäll, DirectX 42 vid lanseringen av Windows 3000.

Det tråkigaste är att det inte används till något. Hade Nvidia varit intresserade av att se GPU-accelererad PhysX användas hade de varit öppnare med användningen av lösningen. Bra teknik men behöver användas i mer än teknikdemon.

I mitt tycke är nog Nvidias köp av Ageia den tredje största sorgen under 00-talet. Den andra IBM och att de lämnade konsumentmarknaden och sen första och största 3Dfx förfall.

Skickades från m.sweclockers.com

Här gör ju physx en hel del:
https://www.youtube.com/watch?v=9_UNRp7Wrog

Hur mycket det kräver av kortet och om man inte kunnat göra dom detaljerna utan physx är något jag inte har en aning om.

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk
Inaktiv
Skrivet av ClintBeastwood:

Här gör ju physx en hel del:
https://www.youtube.com/watch?v=9_UNRp7Wrog

Hur mycket det kräver av kortet och om man inte kunnat göra dom detaljerna utan physx är något jag inte har en aning om.

Arkham Citys implementering är rätt simpel, det som görs där hade nog gått lika bra på CPUn. Men det är, eller iallafall var, en viktig marknadsföringsgrej.

Arkham Knight ser lite bättre ut där men långt ifrån vad teknikdemos visar upp.

Sacred 2 är nog fortfarande det spel jag tyckte det för mig gav mest. Riktigt mysigt med löv som far runt i spelvärlden, även om jag nu idag tycker att det var lotr väl extremt mycket partiklar som far runt.

Idag verkar det gå bra nog att låta CPU utföra fysik vad det verkar. Havok använder bara CPU och PhysX används nästan enbart på CPU i spel med.

Rätt synd, fysik är ändå viktigt i många spel och trovärdig simulering av detta är ju något spm bidrar till en bättre upplevelse, speciellt då i simulatorer.

Skickades från m.sweclockers.com

Permalänk
Medlem

Betyder detta att gamla titlar patchas för den nya versionen, eller gäller det endast nya titlar? Kanske är olika från fall till fall, förvisso. Jag hade väldigt bra prestanda i Far Cry Primal, men exempelvis Vulkan hade ju inte skadat.

Visa signatur

Rigg: Intel Core i7-8700K @ 3,7 GHz, 32GB RAM (3200 MHz), ASUS TUF RTX 3080, Corsair TX850M
Tillbehör: Iiyama ProLite X4372UHSU (43", 4K), Razer Naga Hex MOBA, Func KB-460 (Cherry MX Red)
NAS: Synology Diskstation 413j + 4 * 3TB WD RED

Permalänk
Inaktiv
Skrivet av Thursday:

Betyder detta att gamla titlar patchas för den nya versionen, eller gäller det endast nya titlar? Kanske är olika från fall till fall, förvisso. Jag hade väldigt bra prestanda i Far Cry Primal, men exempelvis Vulkan hade ju inte skadat.

Kommer troligen inte hända något med gamla titlar utan mer att nya spel får stöd när de utvecklas med de nta uppdaterade spelmotorerna.

Det enda Far Cry-spel Crytek ligger bakom är det första. Ubisoft ligger bakom 2, 3, 4, Blood Dagon och Primal. Dessa använder dessutom Dunia.

Personligen har jag nog alltid sett Far Cry som en del av Crysis-serien, mutanter och sci fi hör mer ihop med Crysis än Far Cry 2 och framåt då dessa har en mer realistisk spelvärld som inte är helt olik verkligheten, även om övernaturliga fenomen förekommer.

Hade varit trevligt om Crysis kunde fått en färskare spelmotor. Väl värd det i mitt tycke. 10-års jubileum nästa år dessutom.

Skickades från m.sweclockers.com

Permalänk
Entusiast
Skrivet av ClintBeastwood:

Här gör ju physx en hel del:
https://www.youtube.com/watch?v=9_UNRp7Wrog

Hur mycket det kräver av kortet och om man inte kunnat göra dom detaljerna utan physx är något jag inte har en aning om.

PhysiX är inte så avancerat utan "fuskar" glatt en hel del. Deras fluidsimulering är till exempel samma som deras stela kroppar fast med en yta över. Tänk dig ett bollhav med en filt över. Det är därför vatten ser ut som kräm då de inte klarar av att köra tillräckligt små kroppar för det tar för mycket beräknignskraft.

Sen visar den där trailern samma problem som flera spel som använder GPU-accelererad partikelfysik har. De slänger på mängder av partiklar bara för att de kan så resultatet ser ut som skit. Maffia 2 var ett typexempel där varje kulhål genererade en skottskärra full av grus. Vet inte hur mycket det beror på utvecklarna och hur mycket det är från Nvidias sida. De lånar ju ut egna ingenjörer till studior och jag vet inte hur mycket de har att säga till om eller hur mycket Nvidia trycker på.

Nåja, hårdvaruaccelererad PhysX är mer eller mindre helt irrelevant i spelvärlden. Det är en handfull spel som använder det och det verkar inte vara särskillt många nya titlar på gång. Antar att det var för dyrt och att Nvidia tröttnade på att pumpa in pengar i konceptet.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Hjälpsam

@Zotamedu: För att vara lite petig tror jag inte att det är stela kroppar, utan partiklar.
Stela kroppar, ledade kroppar och kollesionsdetektering klarar inte PhysX att köra på GPU:n, det är därför sådant försvunnit, på Ageias PPU gick det däremot.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Datavetare
Skrivet av Ratatosk:

@Zotamedu: För att vara lite petig tror jag inte att det är stela kroppar, utan partiklar.
Stela kroppar, ledade kroppar och kollesionsdetektering klarar inte PhysX att köra på GPU:n, det är därför sådant försvunnit, på Ageias PPU gick det däremot.

När jag satt och lekte en del med OpenCL så blev slutsatsen att om gör något som innehåller en relativt stor andel villkorad körning så går det fortare att köra det på CPU-delen (SSE/AVX) än en GPU som på pappret har lång mer FLOPS. Det även när problemet i grunden var väldigt dataparallellt.

Kollisionsdektektering innehåller absolut villkorad körning så det lär inte heller bli speciellt effektivt på (dagens) GPUer.

Vad var Ageias PPU för typ av processor till designen, någon som vet?

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Hjälpsam
Skrivet av Yoshman:

När jag satt och lekte en del med OpenCL så blev slutsatsen att om gör något som innehåller en relativt stor andel villkorad körning så går det fortare att köra det på CPU-delen (SSE/AVX) än en GPU som på pappret har lång mer FLOPS. Det även när problemet i grunden var väldigt dataparallellt.

Kollisionsdektektering innehåller absolut villkorad körning så det lär inte heller bli speciellt effektivt på (dagens) GPUer.

Vad var Ageias PPU för typ av processor till designen, någon som vet?

Någon typ av RISC-processor.
Riktigt kraftfull för sin tid på fysik, krävdes ett GTX8800 för att slå den på de delar som GPU:n klarade, till det kom ju att PPU:n klarade betydligt mer.
http://www.physxinfo.com/wiki/Ageia_PhysX_PPU
Har en gammal PPU som ligger och värmer en hylla.

Min PPU var ungefär 14 gånger mer kraftful än min Phenom 9750 på fysik.
https://www.youtube.com/watch?v=UQtjY-Q2BB8

Sånt här kunde man göra för 10 år sedan.
https://www.youtube.com/watch?v=7GsKdzoBvDk

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Datavetare

@Ratatosk: att det var en mer "traditionell" CPU var då ingen större överraskning med tanke på arbetsuppgiften. Fattar inte riktigt hur Nvidia tänkte få till motsvarande på en GPU givet hur de hanterar villkorad körning.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Hjälpsam

@Yoshman: Jag var intresserad av Ageias PhysX när det begav sig.
Har för mig att både Nvidia och ATI/AMD hävdade att sådant här görs mycket bättre på en GPU än en PPU, vilket de onekligen hade fel i, det här var också i en veva då Nvidia och ATI/AMD ofta nämnde GPU-beräkningar.

Fick faktiskt känslan av att bägge företagen ville tala ned Ageias teknik en hel del.

Varför de uttalade sig som de gjorde kan jag bara gissa.

  • De som uttalade sig visste inte bättre.

  • De avsåg att göra vissa beräknigar på GPU:n och vissa på CPU:n.

  • De planerade för att införa saknad funktionalitet på GPU:n.

  • De tyckte sig se en framtida konkurent och spred FUD, jag tror tyvärr på detta alternativ.

Efter det att Nvidia köpt Ageia hoppades jag och många andra, på att Nvidia skulle ta fram en egen PPU, kanske en som integreras på grafikkortet, så blev ju inte fallet.

Ageias PPU tog ju max 30W och denna gick ganska jämnt med ett GT8800, trots att grafikkortet drog fyra gånger så mycket kräm, PPU:n inte var en lika krympt krets och trots det att PPU:n, klarade mer PhysX.
Inte så konstigt egentligen, ofta blir något bättre om man specialicerar, en kombinerad sportbil och traktor, låter inte som en bra idé.

Eftersom Nvidia valde att inte fortsätta att utveckla PPU:r, anser jag och har alltid ansett, deras PhysX satsning, mest vara en gimmick, avsedd som marknadsföring, köpet kanske också avsåg att ta död på en potentiell konkurent.

Jag tror tyvärr inte att ATI hade skött saken bättre om det varit de som köpt Ageia, möjligtvis om de sett PPU.n mer som en framtida utveckling av CPU:n, Intel, Via eller någon annan CPU tillverkare hade troligtvis kunnat göra något av tekniken.

edit
Har för mig att jag hoppades på IBM som köpare, vi har helt klart behov av en PPU, kanske även något som hjälper till med AI?
Vi kan ha fantastisk grafik men vad hjälper det när man inte har någon känsla av ytor, en trappa består inte av trappsteg, man ser hur foten delvis sjunker ned, folk står bredvid varandra och pratar delvis ihopsmälta..

edit Kanske skall försöka få igång min PPU, allt som krävs är;

  1. Att jag kan installera den i Windows 10, trots att drivarna inte stödjer längre än till Vista.

  2. Leta reda på den sista SDK från Nvidia som stödjer PPU:n och installera.

  3. Leta reda på det hack som förhindrar Nvida, från att slå av PPU:n om det detekteras ett grafikkort från AMD och installera.

  4. Spara undan de filer som behövs för att mitt kort skall fungera.

  5. Installera den senaste SDK:n från Nvidia.

  6. Kopiera tillbaka de filer som stödjer Ageas PPU och förhindrar låsning av denna.

Inget kan gå fel!

Jag körde faktiskt Mirrors Edge på min mitt kort, men sedan tog det stop, Maffia fungerade inte.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Datavetare

@Ratatosk: tittar man på formeln för att avgöra om två klot har kolliderat så borde en modern CPU med AVX stöd absolut nå över 1 miljard tester per CPU-kärna. Visst är det 10 år senare, men känns ändå som jämförelsen i YouTube videon inte rikligt ansträngt sig vad det gäller CPU-implementationen. Gissar att den var gjort helt utan SSE stöd, något som då lämnar dataparallellism på bordet (något som verkar ha varit huvudbyggstenen i Ageias PPU).

Man lämnar också en rejält mycket billigare 1/sqrt(X) instruktion mot att explicit beräkna kvadratroten och sedan dividerar vid normalisering av vektorer. Dels är 1/sqrt(X) billigare då den inte uppfyller IEEE 754 specifikationen, vilket är ett icke-problem för spelfysik, dels så kan man normalisera m.h.a. av multiplikation i stället för betydligt dyrare division.

Det får en lite att ställa frågan varför vi inte ser mer avancerad fysik i dagens spel då CPU-delen inte precis brukar svettas ihjäl i dagens gaming-PC...

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Hjälpsam
Skrivet av Yoshman:

@Ratatosk: tittar man på formeln för att avgöra om två klot har kolliderat så borde en modern CPU med AVX stöd absolut nå över 1 miljard tester per CPU-kärna. Visst är det 10 år senare, men känns ändå som jämförelsen i YouTube videon inte rikligt ansträngt sig vad det gäller CPU-implementationen. Gissar att den var gjort helt utan SSE stöd, något som då lämnar dataparallellism på bordet (något som verkar ha varit huvudbyggstenen i Ageias PPU).

Man lämnar också en rejält mycket billigare 1/sqrt(X) instruktion mot att explicit beräkna kvadratroten och sedan dividerar vid normalisering av vektorer. Dels är 1/sqrt(X) billigare då den inte uppfyller IEEE 754 specifikationen, vilket är ett icke-problem för spelfysik, dels så kan man normalisera m.h.a. av multiplikation i stället för betydligt dyrare division.

Det får en lite att ställa frågan varför vi inte ser mer avancerad fysik i dagens spel då CPU-delen inte precis brukar svettas ihjäl i dagens gaming-PC...

Tja klarar den vanliga CPU:n biffen, desto bättre.
Men då ställer även jag frågan, varför har vi inte bättre fysik?
Man också kunna fuska lite med matten vid detektering i spel, som sagt, ungefärliga resultat bör räcka väl.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Digital fyndjägare
Visa signatur

• In My Defens God Me Defend •

Permalänk
Entusiast
Skrivet av Ratatosk:

@Yoshman: Jag var intresserad av Ageias PhysX när det begav sig.
Har för mig att både Nvidia och ATI/AMD hävdade att sådant här görs mycket bättre på en GPU än en PPU, vilket de onekligen hade fel i, det här var också i en veva då Nvidia och ATI/AMD ofta nämnde GPU-beräkningar.

Fick faktiskt känslan av att bägge företagen ville tala ned Ageias teknik en hel del.

Varför de uttalade sig som de gjorde kan jag bara gissa.

  • De som uttalade sig visste inte bättre.

  • De avsåg att göra vissa beräknigar på GPU:n och vissa på CPU:n.

  • De planerade för att införa saknad funktionalitet på GPU:n.

  • De tyckte sig se en framtida konkurent och spred FUD, jag tror tyvärr på detta alternativ.

Efter det att Nvidia köpt Ageia hoppades jag och många andra, på att Nvidia skulle ta fram en egen PPU, kanske en som integreras på grafikkortet, så blev ju inte fallet.

Ageias PPU tog ju max 30W och denna gick ganska jämnt med ett GT8800, trots att grafikkortet drog fyra gånger så mycket kräm, PPU:n inte var en lika krympt krets och trots det att PPU:n, klarade mer PhysX.
Inte så konstigt egentligen, ofta blir något bättre om man specialicerar, en kombinerad sportbil och traktor, låter inte som en bra idé.

Eftersom Nvidia valde att inte fortsätta att utveckla PPU:r, anser jag och har alltid ansett, deras PhysX satsning, mest vara en gimmick, avsedd som marknadsföring, köpet kanske också avsåg att ta död på en potentiell konkurent.

Jag tror tyvärr inte att ATI hade skött saken bättre om det varit de som köpt Ageia, möjligtvis om de sett PPU.n mer som en framtida utveckling av CPU:n, Intel, Via eller någon annan CPU tillverkare hade troligtvis kunnat göra något av tekniken.

edit
Har för mig att jag hoppades på IBM som köpare, vi har helt klart behov av en PPU, kanske även något som hjälper till med AI?
Vi kan ha fantastisk grafik men vad hjälper det när man inte har någon känsla av ytor, en trappa består inte av trappsteg, man ser hur foten delvis sjunker ned, folk står bredvid varandra och pratar delvis ihopsmälta..

edit Kanske skall försöka få igång min PPU, allt som krävs är;

  1. Att jag kan installera den i Windows 10, trots att drivarna inte stödjer längre än till Vista.

  2. Leta reda på den sista SDK från Nvidia som stödjer PPU:n och installera.

  3. Leta reda på det hack som förhindrar Nvida, från att slå av PPU:n om det detekteras ett grafikkort från AMD och installera.

  4. Spara undan de filer som behövs för att mitt kort skall fungera.

  5. Installera den senaste SDK:n från Nvidia.

  6. Kopiera tillbaka de filer som stödjer Ageas PPU och förhindrar låsning av denna.

Inget kan gå fel!

Jag körde faktiskt Mirrors Edge på min mitt kort, men sedan tog det stop, Maffia fungerade inte.

Köpet av PhysX var nog inte bara gimmick utan ser ut att ha varit en del av deras marknadsföringsstrategi. PhysX är ju en komplett fysikmotor där den hårdvaruaccelererade biten bara är en liten del. Fysikmotorn är för övrigt gratis vilket antagligen är anledningen till att flera hundra spel använder den. Fast bara en handfull av dem använder hårdvaruaccelerering. Den stora majoriteten kör den som vilken fysikmotor som helst. Det är bra för Nvidia för då får de in sin logga i början av spelet. Dessutom har de varit väldigt duktiga på att inte nämna att bara en bråkdel av alla de spel som använder PhysX faktiskt har någon som helst nytta av ett grafikkort från Nvidia.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Skrivet av Yoshman:

När jag satt och lekte en del med OpenCL så blev slutsatsen att om gör något som innehåller en relativt stor andel villkorad körning så går det fortare att köra det på CPU-delen (SSE/AVX) än en GPU som på pappret har lång mer FLOPS. Det även när problemet i grunden var väldigt dataparallellt.

Kollisionsdektektering innehåller absolut villkorad körning så det lär inte heller bli speciellt effektivt på (dagens) GPUer.

Vad var Ageias PPU för typ av processor till designen, någon som vet?

Villkorad kod är juh döden för SIMD!

Du lekte inte med fulhack som "aritmetiska booleans"?

Permalänk
Medlem
Skrivet av Ratatosk:

@Yoshman: Jag var intresserad av Ageias PhysX när det begav sig.
Har för mig att både Nvidia och ATI/AMD hävdade att sådant här görs mycket bättre på en GPU än en PPU, vilket de onekligen hade fel i, det här var också i en veva då Nvidia och ATI/AMD ofta nämnde GPU-beräkningar.

Fick faktiskt känslan av att bägge företagen ville tala ned Ageias teknik en hel del.

Varför de uttalade sig som de gjorde kan jag bara gissa.

  • De som uttalade sig visste inte bättre.

  • De avsåg att göra vissa beräknigar på GPU:n och vissa på CPU:n.

  • De planerade för att införa saknad funktionalitet på GPU:n.

  • De tyckte sig se en framtida konkurent och spred FUD, jag tror tyvärr på detta alternativ.

Efter det att Nvidia köpt Ageia hoppades jag och många andra, på att Nvidia skulle ta fram en egen PPU, kanske en som integreras på grafikkortet, så blev ju inte fallet.

Ageias PPU tog ju max 30W och denna gick ganska jämnt med ett GT8800, trots att grafikkortet drog fyra gånger så mycket kräm, PPU:n inte var en lika krympt krets och trots det att PPU:n, klarade mer PhysX.
Inte så konstigt egentligen, ofta blir något bättre om man specialicerar, en kombinerad sportbil och traktor, låter inte som en bra idé.

Eftersom Nvidia valde att inte fortsätta att utveckla PPU:r, anser jag och har alltid ansett, deras PhysX satsning, mest vara en gimmick, avsedd som marknadsföring, köpet kanske också avsåg att ta död på en potentiell konkurent.

Jag tror tyvärr inte att ATI hade skött saken bättre om det varit de som köpt Ageia, möjligtvis om de sett PPU.n mer som en framtida utveckling av CPU:n, Intel, Via eller någon annan CPU tillverkare hade troligtvis kunnat göra något av tekniken.

edit
Har för mig att jag hoppades på IBM som köpare, vi har helt klart behov av en PPU, kanske även något som hjälper till med AI?
Vi kan ha fantastisk grafik men vad hjälper det när man inte har någon känsla av ytor, en trappa består inte av trappsteg, man ser hur foten delvis sjunker ned, folk står bredvid varandra och pratar delvis ihopsmälta..

edit Kanske skall försöka få igång min PPU, allt som krävs är;

  1. Att jag kan installera den i Windows 10, trots att drivarna inte stödjer längre än till Vista.

  2. Leta reda på den sista SDK från Nvidia som stödjer PPU:n och installera.

  3. Leta reda på det hack som förhindrar Nvida, från att slå av PPU:n om det detekteras ett grafikkort från AMD och installera.

  4. Spara undan de filer som behövs för att mitt kort skall fungera.

  5. Installera den senaste SDK:n från Nvidia.

  6. Kopiera tillbaka de filer som stödjer Ageas PPU och förhindrar låsning av denna.

Inget kan gå fel!

Jag körde faktiskt Mirrors Edge på min mitt kort, men sedan tog det stop, Maffia fungerade inte.

Och alla fyra spelen visade sig vara snabbare?
Faktum är att ATI köpte delar av HAVOC och implementerade det överallt istället för att vänta på directx 9/10 Alla moderna spel kör på HAVOC eller unreal för sin fysik om de är någounda avancerade. Skyrim är HAVOC, Oblivion är HAVOC, alla spel med fysik kör idag havoc oavsett de vill det eller inte. Nu har det utökats til 12-16 titlar som drar nytta av physx till fullo istället för att köra det som em compat lager till HAVOC.

1: Ja det blir snabbare än att ha att separat kort i PCI porten (max 133mb/S)
2: Du kan ju köpa ett radeon 6200 och ha som extra physx processor i Batman spelen (kommer inte på ett enda annat som kräver eller tvingar folk att ha physx) och det kommer vara oändligt mycket snabbare än dit agaea.
3: Död API. Physx verkar leva, men DirectX har sin egen fysikAPI (vilken suger balle, då den har math errors hela tiden) och Chronos med Vulcan och openGl och Ogl-e, Ogl-M osv inte heller stödjer varken DX eller PhysX,

Ljusglimten för physx kan vara nästa nintendokonsoll men annars är det dött, nu och för evigt precis som 3dfx sli.

Visa signatur

2x Xeon E5-2699 v4, 256gb Quad Channel RAM, 2x nVIDIA 980ti
----
AMD Ryzen 5950X, 128gb Dual Channel RAM, 2x AMD 6900XT
----
Massiv amiga och 3dfx-samling.