Nvidias grafikdemo "A New Dawn" modifieras för Radeon

Permalänk
Medlem
Skrivet av astrob0y:

Får snarlikt resultat i 2560x1600

säkert då det är ju ganska skälvklart med tanke på att den är gjord för nvidia kort

Visa signatur

i5 3570K 3.8 Ghz / AGG 650 W / Msi Nvidia GTX 970 / 8 GB DDR3

Permalänk
Skrivet av anders190:

Detta spel är ju för PC en Nvidia-titel med bör ju tilläggas. De där effekterna kommer troligen från PhysX-biblioteket.

Jag håller dock med om att mer simulerade effekter i spel vore riktigt trevligt men det behöver göras på ett sådant vis att det går att använda i alla (relevanta) system. Nvidia har en relativt liten del av grafikmarknaden. AMD är ungefär lika stora medans Intel dominerar. OpenCL förslagsvis då, såvida inte Nvidia skulle få för sig att öppna upp PhysX/CUDA lite då.

Visst har det Physx. Men jag spelade med AMD-grafikkort och Physx på Low (tror inte det gick att stänga av).
Men vad jag sett på Youtube från konsolversionerna så fladdrar håret så där där också.

Kanske kan håret och klänningens fysik vara skapt i nått annat än Physx, och sedan vatten/lava-fysik och skräp som flyger när det sprängs vara gjort med Physx? Eller klarar konsolerna lite Physx?

Permalänk

FICK 9-16 FPS MED MITT 6950

Visa signatur

Intel I7 8700K/Asus Z390F/ASUS ROG 2070 Super/Phanteks P600S/Corsair Virtuoso/ASUS ROG Swift PG289Q

Permalänk
Skrivet av anders190:

Jag håller dock med om att mer simulerade effekter i spel vore riktigt trevligt men det behöver göras på ett sådant vis att det går att använda i alla (relevanta) system. Nvidia har en relativt liten del av grafikmarknaden. AMD är ungefär lika stora medans Intel dominerar. OpenCL förslagsvis då, såvida inte Nvidia skulle få för sig att öppna upp PhysX/CUDA lite då.

Nvidia är ett företag. Det handlar inte om att dela med sig till världen, det handlar om att tjäna pengar. Precis som alla andra företag. Har man ett övertag som har fått fäste bland tillverkare och folk, varför skulle man dela med sig av det?

Permalänk
Entusiast
Skrivet av anders190:

Detta spel är ju för PC en Nvidia-titel med bör ju tilläggas. De där effekterna kommer troligen från PhysX-biblioteket.

Jag håller dock med om att mer simulerade effekter i spel vore riktigt trevligt men det behöver göras på ett sådant vis att det går att använda i alla (relevanta) system. Nvidia har en relativt liten del av grafikmarknaden. AMD är ungefär lika stora medans Intel dominerar. OpenCL förslagsvis då, såvida inte Nvidia skulle få för sig att öppna upp PhysX/CUDA lite då.

Det bör ju även tänkas på att Radeon-korten inte är optimerade för denna applikation då det egentligen inte ens är tänkt att detta demo ska köras på annat än just Nvidia-kort.

Jag kan garanterat glömma att köra detta på mitt HD6970 iallafall.

Nvidia kommer aldrig släppa CUDA och PhysX fritt. Det vi kan hoppas på är att satsningarna på öppna standarder som OpenCL konkurrerar ut CUDA. AMD har ju satsat hårt på just OpenCL och de släppte nyligen en direkt konkurrent till Nvidias Tesla baserad på GNC. Vi vet ju att GNC är designad med GPGPU i åtanke så det ska bli intressant att se hur det står sig. Nvidia har ju lite problem på det området för tillfället då deras senaste K10 baserat på Kepler (det är ett GTX690 med annat namn) får stryk av äldre Fermikort som är baserade på GTX 580. K10 har ett begränsat användningsområde så det här är AMDs chans att verkligen slå sig in på Nvidias marker. Även Intel är ju på väg med sin Knights Corner, kommer inte ihåg vad de heter som färdig produkt. De valde ju ett lite annat upplägg med ett x86-kompatibelt beräkningskort med massa pentiumkärnor på. Nvidia behöver helt enkelt GK110 med full GPGPU-funktionalitet om de vill vara kvar och leka på sin egen marknad.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Inaktiv
Skrivet av Sound Shower:

Visst har det Physx. Men jag spelade med AMD-grafikkort och Physx på Low (tror inte det gick att stänga av).
Men vad jag sett på Youtube från konsolversionerna så fladdrar håret så där där också.

Kanske kan håret och klänningens fysik vara skapt i nått annat än Physx, och sedan vatten/lava-fysik och skräp som flyger när det sprängs vara gjort med Physx? Eller klarar konsolerna lite Physx?

Jag skulle tro att det händer lite mer på skärmen med ett Nvidia-kort. GPU-accelererad PhysX och mer effekter. Nu har jag inte någon direkt koll på detta spel mer än att det är just en Nvidia-titel.

Skrivet av StabTheDrama:

Nvidia är ett företag. Det handlar inte om att dela med sig till världen, det handlar om att tjäna pengar. Precis som alla andra företag. Har man ett övertag som har fått fäste bland tillverkare och folk, varför skulle man dela med sig av det?

Problemet är att Nvidia gärna sitter själv med deras lösningar, som GPU-accelererad PhysX, vilket gör det trögt/omöjligt att få någon mera spridning på tekniken. PhysX är egentligen ganska irrelevant då nästa milstolpe är en lösning som fungerar oavsett fabrikat där man istället kan börja trycka in mer effekter i alla spel, när alla kan uppleva dessa. Nu är det bara en ganska begränsad del av marknaden som kan använda detta (fullt ut) och blir snarare någon slags gimmick istället.

Nu går det förvisso rätt trögt öht med GPU-accelererad grafik, det känns som detta var betydligt mer aktuellt för något år sedan. Frågan är hur läget ser ut om 3-5 år?

Skrivet av Zotamedu:

Nvidia kommer aldrig släppa CUDA och PhysX fritt. Det vi kan hoppas på är att satsningarna på öppna standarder som OpenCL konkurrerar ut CUDA. AMD har ju satsat hårt på just OpenCL och de släppte nyligen en direkt konkurrent till Nvidias Tesla baserad på GNC. Vi vet ju att GNC är designad med GPGPU i åtanke så det ska bli intressant att se hur det står sig. Nvidia har ju lite problem på det området för tillfället då deras senaste K10 baserat på Kepler (det är ett GTX690 med annat namn) får stryk av äldre Fermikort som är baserade på GTX 580. K10 har ett begränsat användningsområde så det här är AMDs chans att verkligen slå sig in på Nvidias marker. Även Intel är ju på väg med sin Knights Corner, kommer inte ihåg vad de heter som färdig produkt. De valde ju ett lite annat upplägg med ett x86-kompatibelt beräkningskort med massa pentiumkärnor på. Nvidia behöver helt enkelt GK110 med full GPGPU-funktionalitet om de vill vara kvar och leka på sin egen marknad.

Jag håller överlag med dig helt här.

Även om jag oroar mig för hur Intels närvaro kommer påverka både AMD och Nvidia (förmodligen negativt) i och med deras kraftfullare grafikkortslösning så är det nog först då något nytt faktiskt kommer hända. Intel sitter ju för övrigt på Havok med, konkurrent till PhysX.

Permalänk
Entusiast
Skrivet av anders190:

Jag skulle tro att det händer lite mer på skärmen med ett Nvidia-kort. GPU-accelererad PhysX och mer effekter. Nu har jag inte någon direkt koll på detta spel mer än att det är just en Nvidia-titel.

Problemet är att Nvidia gärna sitter själv med deras lösningar, som GPU-accelererad PhysX, vilket gör det trögt/omöjligt att få någon mera spridning på tekniken. PhysX är egentligen ganska irrelevant då nästa milstolpe är en lösning som fungerar oavsett fabrikat där man istället kan börja trycka in mer effekter i alla spel, när alla kan uppleva dessa. Nu är det bara en ganska begränsad del av marknaden som kan använda detta (fullt ut) och blir snarare någon slags gimmick istället.

Nu går det förvisso rätt trögt öht med GPU-accelererad grafik, det känns som detta var betydligt mer aktuellt för något år sedan. Frågan är hur läget ser ut om 3-5 år?

Jag håller överlag med dig helt här.

Även om jag oroar mig för hur Intels närvaro kommer påverka både AMD och Nvidia (förmodligen negativt) i och med deras kraftfullare grafikkortslösning så är det nog först då något nytt faktiskt kommer hända. Intel sitter ju för övrigt på Havok med, konkurrent till PhysX.

Vet inte om man behöver vara så orolig då det här är en relativt ny marknad som ständigt ökar. Det är ju mer Intel och AMD som tar marknadsandelar från sig själva. Hur som helst finns det fortfarande massa utrymme för expansion på den här marknaden och både Intel och AMD har planer på att integrera mycket mer GPGPU även i vanliga processorer för hemanvändare så detta är ju ett steg i den riktningen.

Den som kommer få problem i framtiden är ju Nvidia eftersom de inte har några licenser för x86 och de kommer inte få några heller om inget revolutionerande händer. Även om de fick det är det oklart om de hade kunnat göra något vettigt med det. Se till exempel VIA. Deras satsning på ARM går ju sådär eftersom deras Tegra inte presterar riktigt så överlägset bra på grafiken som man kunde tro från ett företag som bara bygger grafikkort. Om de inte får in en ordentlig fot på ARM och GPGPU så kommer det inte gå bra för Nvidia när deras stora marknad äts upp av integrerade kretsar.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Avstängd
Skrivet av segen:

Lol, håret såg helt onaturligt ut i sina rörelser. Kort hår rör sig inte på detta viss.

Kan informera om att älvor inte heller finns i verkligheten, men det är inte riktigt det nVidia vill visa med denna demo

Skickades från m.sweclockers.com

Permalänk
Medlem
Permalänk
Medlem

15fps med min dator när man fick kolla runt själv, Hade typ 16-20 innan man kom dit.

Visa signatur

Grafikkort: RTX 3080 TI RAM: Corsair vengeance 16GB 3200Mhz
Nätagg: Corsair RM750 Moderkort: Asus prime Z370-A
SSD: Intel 660P 1TB CPU: Intel 8700k

Permalänk
Medlem

Jag fick det knappt att fungera på mitt 5830

Permalänk
Avstängd
Skrivet av riktigninja:

var hittar man en sån brud som är 19-23 ungefär ?

Du kan få mitt ex. Varning; Borderline, tourettes och hämndlystenhet medkommer.

Visa signatur

Delid 3770k@5.9GHz, Mpower, 32GB Corsair Dominator@2600MHz/CL10
XFire 390x@1335/1750, Carbide 540 AIR
E34 S36B38Turbo 897WHP

Permalänk
Avstängd
Skrivet av riktigninja:

var hittar man en sån brud som är 19-23 ungefär ?

Som är 10-15cm hög...vad ska du med en Tingeling till?!
Eller över huvud taget, vad ska du med en Älva till:
http://paranormal.se/topic/alva.html
Värkar ju iofs inte allt för långt ifrån Demonoidz beskrivning av hans ex

Skickades från m.sweclockers.com

Permalänk
Skrivet av Demonoidz:

Du kan få mitt ex. Varning; Borderline, tourettes och hämndlystenhet medkommer.

låter inte som du hade tråkigt iaf.

Permalänk
Avstängd
Skrivet av riktigninja:

låter inte som du hade tråkigt iaf.

Inte för en sekund

Visa signatur

Delid 3770k@5.9GHz, Mpower, 32GB Corsair Dominator@2600MHz/CL10
XFire 390x@1335/1750, Carbide 540 AIR
E34 S36B38Turbo 897WHP

Permalänk
Medlem
Skrivet av Zotamedu:

Fast meningen med att simulera hår är ju att det ska röra sig som just hår. Ungefär som att om man simulerar tyg så vill man att det ska bete sig som tyg, annars är det ju ingen större mening att köra det.

Ja hade det varit ett färdigt spel hade man ju siktat på att få det så realistiskt som möjligt. Men i en demo där man ska demonstrera kapaciteten av en arkitektur så är det mer viktigt att man framhäver möjligheterna att få till exempelvis hårfysik.

Visa signatur

You have earned my respect and my friendship.

Permalänk
Skrivet av Sound Shower:

Alice: Madness Returns, som är utvecklat av en ganska liten studio osv, gör det då bättre fast det är anpassat för konsol:

Tror inte du riktigt förstått poängen här - grafikdemot vill inte visa hur bra nVidias grafiker är på att animera saker, eller hur lik en anime den är, utan att deras grafikkort klarar att animera en scen som innehåller ett par miljoner polygoner, bl. a. 40 000 hårstrån, belyst med multipla ljuskällor.

Det roliga med hela den här nyheten är att kort från nVidias största konkurrent också klarar att animera den scenen.

Visa signatur

~: När du vill skriva "dem", skriv "de" eller "dom" istället :~

Permalänk
Skrivet av anders190:

Nu går det förvisso rätt trögt öht med GPU-accelererad grafik, det känns som detta var betydligt mer aktuellt för något år sedan. Frågan är hur läget ser ut om 3-5 år?

Alla högbudgetspel görs för konsoller (PS3 och Xbox360) och portas till PC. Det innebär att grafiken måste gå att köra på konsollernas hårdvara; PC versionen får ibland lite upphottade render modes och lite högre upplösning på texturerna, men i grunden rör det sig om grafik avsedd att köras på billig, sju år gammal, hårdvara.

Microsoft och Sony håller på att ta fram en ny generation konsoller som kommer att släppas inom ett år eller två, och när de släpps kommer även PC spelens grafik att bli kraftigt förbättrad.

(Sen får vi en ny 5 - 7 år lång period utan större förbättringar till det är dags för nästa generation konsoller.)

Visa signatur

~: När du vill skriva "dem", skriv "de" eller "dom" istället :~

Permalänk
Skrivet av Bananas2thebeat:

Tror inte du riktigt förstått poängen här - grafikdemot vill inte visa hur bra nVidias grafiker är på att animera saker, eller hur lik en anime den är, utan att deras grafikkort klarar att animera en scen som innehåller ett par miljoner polygoner, bl. a. 40 000 hårstrån, belyst med multipla ljuskällor.

Det roliga med hela den här nyheten är att kort från nVidias största konkurrent också klarar att animera den scenen.

Nog har jag förstått syftet. Jag menade bara att det går att få till det på ett mer effektivt sätt.

Angående att det är "roligt" funkar på AMD's grafikkort så är det väl klart det det funkar om det är programmerat med nått som är standard och inte använder physx. Tror inte Nvidia har ett eget DirectY eller OpenYL liksom.
Det är väl bara så att man måste ta bort vissa spärrar som Nvidia lagt in, något som nån finurlig person nu gjort.