Nvidia driver Epic Games Samaritan med en enda Kepler

Permalänk
Medlem
Skrivet av zillio:

Du har ingen aning om vad motionblur är va? Det är exakt det som används till filmer för att det inte ska hacka i panoreringar. Och sen spelas bluray inte i 30 fps utan 24 fps (23,976/s)

Jag tror inte det där kepler-kortet är 3x värre än 580. Men jag tror faktiskt 7970 hamnar i efterkant.

Jo, jag vet vad motionblur är, det är även något som nästan alla nya spel har, just för att försöka dölja den låga frameraten. Men det betyder ändå inte att de ser dåliga ut? Du måste väll ha spelat på en konsoll någon gång, eller hört folk prata om konsoll spel? och inte fan sitter de och gråter över att Halo X och Gears of War X går i 30fps och att det är ospelbart?

Och att spekulera kring kepler är bara onödigt, så vitt vi vet så kan det ju lika gärna vara 20% mindre kraftfullt än 7970. Allt vi vet om det nu är att det tydligen ska kunna köra ett grafikdemo ifrån Epic Games.

Permalänk
Medlem

Tycker att det kan vara viktigt att komma ihåg att det faktiskt var Epic som demonstrerade Samaritan igen fast den här gången med ett kepler kort.
Sen så är det alltid lika roligt att se folk fightas här - i detta fall om FXAA vs MXAA, att ni tar egna bilder på videon/försöker jämföra komprimerade youtube klipp.

Här bjuder jag på en bild ur NVIDIAs artikel om EPICs demonstration där du kan jämföra 4x MXAA mot FXAA på inzoomade bilder av samma scen i Samaritan: http://international.download.nvidia.com/geforce-com/international/comparisons/Samaritan/GDC2012/Samaritan-MSAAFXAA-ZoomedComparison-1.html

Dra i slidern och avundas en ny anti-aliasing lösning, för övrigt borde flera av er läsa igenom artikeln själva innan ni drar förhastade slutsatser: http://www.geforce.com/News/articles/epic-shows-samaritan-demo-running-on-next-generation-nvidia-kepler-gpu

Visa signatur

Microsoft Surface Pro 3 (i5, 4GB, 128GB)
Macbook Pro 13'' early-2011

Permalänk
Medlem
Skrivet av Nerolyn:

Tycker att det kan vara viktigt att komma ihåg att det faktiskt var Epic som demonstrerade Samaritan igen fast den här gången med ett kepler kort.
Sen så är det alltid lika roligt att se folk fightas här - i detta fall om FXAA vs MXAA, att ni tar egna bilder på videon/försöker jämföra komprimerade youtube klipp.

Här bjuder jag på en bild ur NVIDIAs artikel om EPICs demonstration där du kan jämföra 4x MXAA mot FXAA på inzoomade bilder av samma scen i Samaritan: http://international.download.nvidia.com/geforce-com/international/comparisons/Samaritan/GDC2012/Samaritan-MSAAFXAA-ZoomedComparison-1.html

Dra i slidern och avundas en ny anti-aliasing lösning, för övrigt borde flera av er läsa igenom artikeln själva innan ni drar förhastade slutsatser: http://www.geforce.com/News/articles/epic-shows-samaritan-demo-running-on-next-generation-nvidia-kepler-gpu

Nu handlar det väl inte om vilken teknik som ser bäst ut utan om att Kepler inte presterar som 3 stycken 580. Nvidia själva säger att FXAA kräver mindre än MSAA och därför blir prestanda jämförelsen orelevant.

Permalänk
Entusiast

Om det stämmer är det en sjukt bra feature. Frågan är bara hur länge den håller i sig och hur snabb den är på att fånga upp fallande FPS. Sen är frågan hur lång tid det dröjer innan partnertillverkarna släpper en switch som låser den i on-läge så att man alltid får turboläget när man spelar.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Medlem
Skrivet av Zotamedu:

Om det stämmer är det en sjukt bra feature. Frågan är bara hur länge den håller i sig och hur snabb den är på att fånga upp fallande FPS. Sen är frågan hur lång tid det dröjer innan partnertillverkarna släpper en switch som låser den i on-läge så att man alltid får turboläget när man spelar.

Håller med, det är en bra funktion. Eftersom en hel del spel man spelar kanske inte belastar kortet fullt så kan man spara watt genom att köra kortet i ett "mellanläge". Korten har ju redan en nerklockning för "desktopläge". Borde gå att få hyfsat transparent när den switchar.

Permalänk
Medlem

Kan bara hålla med om att det låter helt otroligt att vi kommer se någon speciell prispress från Nvidias sida, visst kort baserade på GK104 skulle möjligtvis kunna vara billigare att tillverka tack vare en lite mindre kärna samt mindre minne än Tahiti. Men det kommer samtidigt röra sig om Nvidias snabbaste singel kärne-kort vilket gör att det kommer ersätta 580.

Allt talar också för begränsad kapacitet hos TSMC och om de senaste ryktena är sanna även stora problem med tillverkningen på 28nm, detta sammantaget lär betyda en prisättning nära AMD's konkurrerande produkter.

Visa signatur

/havoc

Permalänk
Medlem
Skrivet av Zotamedu:

Om det stämmer är det en sjukt bra feature. Frågan är bara hur länge den håller i sig och hur snabb den är på att fånga upp fallande FPS. Sen är frågan hur lång tid det dröjer innan partnertillverkarna släpper en switch som låser den i on-läge så att man alltid får turboläget när man spelar.

Frågan är om spel skulle kännas bättre i konstant turboläge. Jag har hellre jämn fps än ryckig. Det enda du skulle höja med konstant turbo är ju din maxfps.

Visa signatur

Arch | 1440p 165Hz IPS | 7800X3D | 1080ti | 64GB@6GHz | SN850 2TB

Permalänk
Avstängd
Skrivet av Aleshi:

Dina inlägg till mig verkar som om de riktar sig mot mig som person, det tycks som att några av dina svar på sistone inte hade varit likadana om du inte känt igen min avatar eller mitt namn. Lägg ner.

Om du har något att invända mot att jag säger att vi inte ska förvänta oss rekordlåga priser så lägg fram det, nu ser jag mest bjäbb.

Keplar kommer att trycka ner priset på 7970 till 3000kr pga av dess överlägsenhet.

Permalänk
Medlem
Skrivet av Swedish Berserk:

Därför jag använder Nvidia själv? Se i sign... Tror inte på det bara helt enkelt.

Sh*t vad mycket det var från nvidia där!:P

Kan hålla med dock... Känns inte så bra att dom inte har släppt något tidigare. Nu känns det bara som om dom försöker förhindra folk från att beställa(:P) 7970.

Hoppas att det blir riktigt köttigt det här så att man kan gå tillbaka till det gröna laget tills nästa gång det är dags:)

Visa signatur

Falling In Reverse - Game Over

"Midway upon the journey of our life I found myself within a forest dark, For the straightforward pathway had been lost."

Permalänk
Skrivet av Curemylife:

Sh*t vad mycket det var från nvidia där!:P

Kan hålla med dock... Känns inte så bra att dom inte har släppt något tidigare. Nu känns det bara som om dom försöker förhindra folk från att beställa(:P) 7970.

Hoppas att det blir riktigt köttigt det här så att man kan gå tillbaka till det gröna laget tills nästa gång det är dags:)

Familjedatorn har bara kört Nvidia kort! FX5200 - FX5700 - 7600GS

Hoppas också Nvidia kan komma med något riktigt vasst och skaka om i grytan lite!

Visa signatur

Bärbar Speldator: AMD Ryzen 5 5600H I Nvidia RTX 3050 Ti
Xiaomi Poco X3 Pro I Nvidia Shield TV V2 I PS4 I

Permalänk
Entusiast
Skrivet av adamq10:

Frågan är om spel skulle kännas bättre i konstant turboläge. Jag har hellre jämn fps än ryckig. Det enda du skulle höja med konstant turbo är ju din maxfps.

Har logik någonsin stoppat en datorentusiast?

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Avstängd
Skrivet av Granter:

Keplar kommer att trycka ner priset på 7970 till 3000kr pga av dess överlägsenhet.

Luktar Nvidia fanboy över hela din kommentar.. Till att börja med så borde folk vänta tills det finns riktiga tester innan man uttalar sig om "överlägsenhet". Minns att Nvidia var lika uppspelta när man lanserade Fermi. Se hur det gick.. Och att tro att ett GTX680 är bättre än GTX580x3 är ju bara naivt. Sedan så är det också på tapeten om Nvidias kort verkligen är kraftfullare än AMDs motsvarighet.. Vad blir då priset? Och hur mycket ström drar kortet? Mer ström = högre temps. Nvidia är kända för att ha dyra kort.. presterade ja men även dyra.

Visa signatur

||NZXT H440 Black/Red||Intel i5 2500k @ 4,2GHz ||Noctua NH-D14 ||GA-Z77X-UD3H ||8 gb Corsair Vengeance 1600mhz DDR3 ||MSI GeForce GTX 970 ||OCZ Agility 3 120GB SSD ||Samsung Spinpoint F3 1TB ||Corsair HX750W||
Software is like sex, it's better when it's free. - Linus Torvalds

Permalänk
Medlem
Skrivet av Tumnus:

Sedan så är det också på tapeten om Nvidias kort verkligen är kraftfullare än AMDs motsvarighet.. Vad blir då priset? Och hur mycket ström drar kortet? Mer ström = högre temps. Nvidia är kända för att ha dyra kort.. presterade ja men även dyra.

Nya Nvidia GK104 verkar vara strömsnålare än deras tidigare kort. Läckta bilder på GK104-baserade kort har 2x6 pin, men möjlighet för 8+6 också. Det kan vara så att GTX 680 har 8+6 och GTX 670 har 6+6 (motsvarande 7970 och 7950), men det är okänt. Bara att vänta på riktiga tester innan det går att dra några slutsatser.

Permalänk
Medlem
Skrivet av Tumnus:

Luktar Nvidia fanboy över hela din kommentar.. Till att börja med så borde folk vänta tills det finns riktiga tester innan man uttalar sig om "överlägsenhet". Minns att Nvidia var lika uppspelta när man lanserade Fermi. Se hur det gick.. Och att tro att ett GTX680 är bättre än GTX580x3 är ju bara naivt. Sedan så är det också på tapeten om Nvidias kort verkligen är kraftfullare än AMDs motsvarighet.. Vad blir då priset? Och hur mycket ström drar kortet? Mer ström = högre temps. Nvidia är kända för att ha dyra kort.. presterade ja men även dyra.

Det är för tidigt att säga Kepler drar mycket ström. Vet inte varför folk förknippar Nvidia med hög strömförbrukning/värme när det inte finns tester än.

Visa signatur

Laptop 4 13.5 - Ryzen 4680U - 16 GB DDR4 - 256 GB SSD

Permalänk
Entusiast
Skrivet av Superlight:

Det är för tidigt att säga Kepler drar mycket ström. Vet inte varför folk förknippar Nvidia med hög strömförbrukning/värme när det inte finns tester än.

För att deras designfilosofi länge har byggt på stora törstiga kretsar.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Avstängd
Skrivet av Superlight:

Det är för tidigt att säga Kepler drar mycket ström. Vet inte varför folk förknippar Nvidia med hög strömförbrukning/värme när det inte finns tester än.

Nu skrev jag iof att man borde vänta tills det finns riktiga test innan man uttalar sig om prestanda.. Dessutom så var det i frågeform jag påpekade att kepler ev kan dra mycket ström och kan kosta en fin peng (Nvidia är ju kända för att vara det "dyrare" märket).

Visa signatur

||NZXT H440 Black/Red||Intel i5 2500k @ 4,2GHz ||Noctua NH-D14 ||GA-Z77X-UD3H ||8 gb Corsair Vengeance 1600mhz DDR3 ||MSI GeForce GTX 970 ||OCZ Agility 3 120GB SSD ||Samsung Spinpoint F3 1TB ||Corsair HX750W||
Software is like sex, it's better when it's free. - Linus Torvalds

Permalänk
Medlem
Skrivet av Chryspyon:

Nvidia slopade shaderfrekvensen helt för att få plats med fler CUDA cores, eller hur var det? Utan shaderfrekvensen så sjunker verkningsgraden en hel del på varje kärna, är det inte så?

Jag vet inte om det måste vara så eller om det inte behöver vara så? Men denna tycker jag verkar mer lik amds gpudesign (iaf om man jämför med fermi).

Permalänk
Medlem
Skrivet av ArakanI2:

Jo, jag vet vad motionblur är, det är även något som nästan alla nya spel har, just för att försöka dölja den låga frameraten. Men det betyder ändå inte att de ser dåliga ut? Du måste väll ha spelat på en konsoll någon gång, eller hört folk prata om konsoll spel? och inte fan sitter de och gråter över att Halo X och Gears of War X går i 30fps och att det är ospelbart?

Och att spekulera kring kepler är bara onödigt, så vitt vi vet så kan det ju lika gärna vara 20% mindre kraftfullt än 7970. Allt vi vet om det nu är att det tydligen ska kunna köra ett grafikdemo ifrån Epic Games.

Hmm dagens TV apparater kör inte 24 fps när man spelar TV spel. TjockTV gör det på grund av tekniken.....men inte platt TV apparater..

Sen är spelen anpassade efter konsolen och skall flyta bra med den hårdvaran. På PC versionen är det upp till datorägaren att uppgradera så speltillverkaren krämar på med max. Spelkonsolernas versioner har "bantade" grafikinställningar speciellt för just den hårdvaran.

Det betyder att det knappast är jämförbart att dra in konsoler i debatten

Visa signatur

Chassie Louqe Ghost S1 MKIII Limestone, Moderkort Gigabyte B550I AORUS PRO AX, RAM minnen G.SKill Trident Z Neo RGB 32GB, CPU AMD Ryzen 7 5800X, KylareNoctua Ghost S1 Edition, GPU Powercolor Radeon RX 6800 16GB, Systemdisk Samsung 970 EVO Plus series 500GB M.2, Sel/programdisk SSD 2x Samsung 850 EVO 120/500 GB, PSU Corsair sf750w, Skärm Samsung c32hg70 144hz,Mus Logitech g603 wireless gamingmouse, Tangentbord Logitech g613 wireless gaming keyboard

Permalänk
Medlem

Snyggt demo!

Visa signatur

Louqe Ghost S1 + L TopHat | ASRock Phantom Gaming ITX | Intel Core i9-9900K | Corsair Vengeance LPX 32GB | Gigabyte GeForce RTX 2080 Ti 11GB | Corsair SF750 Platinum | Samsung 970 EVO Plus 500GB | Intel 660P 2TB | Custom Vattenkylning CPU/GPU | Windows 11 Pro x64

Permalänk
Avstängd
Skrivet av Tumnus:

Luktar Nvidia fanboy över hela din kommentar.. Till att börja med så borde folk vänta tills det finns riktiga tester innan man uttalar sig om "överlägsenhet". Minns att Nvidia var lika uppspelta när man lanserade Fermi. Se hur det gick.. Och att tro att ett GTX680 är bättre än GTX580x3 är ju bara naivt. Sedan så är det också på tapeten om Nvidias kort verkligen är kraftfullare än AMDs motsvarighet.. Vad blir då priset? Och hur mycket ström drar kortet? Mer ström = högre temps. Nvidia är kända för att ha dyra kort.. presterade ja men även dyra.

jag är inte fanboy, jag är bara jävligt positiv till hur saker borde utvecklas.

Ska man ha den logiken som många AMD troll har så är de ju "jag är först med de här, då är de bäst och de är snabbast och bäst" NEJ

Man måste ju alltid tro att de som kommer i framtiden alltid är något bättre, kan ju fan inte sitta och säga att saker som kommer senare eller i framtiden är sämre, då låter man ju som en gammal gubbe som sitter och klagar "höhö de var bättre för, fy faen, jeffla nvidia, för dyrt, för grönt, neh usch"

(ノಠ益ಠ)ノ 7970 Y U NO COST 2700kr LIKE 6970?

Permalänk
Medlem
Skrivet av Granter:

jag är inte fanboy, jag är bara jävligt positiv till hur saker borde utvecklas.

Ska man ha den logiken som många AMD troll har så är de ju "jag är först med de här, då är de bäst och de är snabbast och bäst" NEJ

Man måste ju alltid tro att de som kommer i framtiden alltid är något bättre, kan ju fan inte sitta och säga att saker som kommer senare eller i framtiden är sämre, då låter man ju som en gammal gubbe som sitter och klagar "höhö de var bättre för, fy faen, jeffla nvidia, för dyrt, för grönt, neh usch"

(ノಠ益ಠ)ノ 7970 Y U NO COST 2700kr LIKE 6970?

Jag hoppas innerligt att du har rätt.. Då blire ett 7970 direkt!

Permalänk
Medlem
Skrivet av Granter:

Keplar kommer att trycka ner priset på 7970 till 3000kr pga av dess överlägsenhet.

Visst vore det underbart, men jag ser tyvärr inga belägg för det påståendet.

Permalänk
Medlem
Skrivet av Granter:

Keplar kommer att trycka ner priset på 7970 till 3000kr pga av dess överlägsenhet.

Det är ungefär som att säga att Volvo skulle sänka sina priser med 100'000 bara för att Mercedes sålde en bil som i t.ex. TopGear visade sig ha lite bättre prestanda och mer bang for the buck?
Priserna sätts inte bara baserat på konkurenter, de måste även göra maximala vinster och visst om ett kort inte säljer kan de sänka priset lite för att få upp siffrorna men det är inte så att de första de gör är sänker, mer troligt är att NVIDIA inser att om kepler är så sjukt mycket bättre kommer de kunna ta 5500-6000:- för dem medan AMD tar 4500-5000:- för sina och NVIDIA kan då släppa lite lower end kort som är billigare att göra som tävlar med AMD på den lägre prisklassen.

Visa signatur

"One is always considered mad, when one discovers something that others cannot grasp."
- Ed Wood

Permalänk
Medlem

Är det bara jag som tycker att grafikdemon inte ens ser särskilt next-gen ut? Min rentav subjektiva åsikt är att det inte ser bra ut alls.

Visa signatur

Citera för svar!

i5 2500k @ 4.6 GHz - 2x HD6950@CF - 8 GB CL8 VENGEANCE @ 1866 MHz

Permalänk
Medlem
Skrivet av joYchez:

Är det bara jag som tycker att grafikdemon inte ens ser särskilt next-gen ut? Min rentav subjektiva åsikt är att det inte ser bra ut alls.

Tycker inte heller det är så imponerande, med tanke på att man alltid kan få ett demo snyggare än ett spel då man kan skräddarsy mer. Men visst ser det bra ut, fast next-gen vill jag inte kalla upplevelsen direkt.

EDIT: Det betyder å andra sidan inte att det inte är imponerande när det drivs med en enda Kepler då det uppenbarligen är tungdrivet.

Permalänk
Medlem
Skrivet av MrAdde:

Berätta gärna vilken stor skillnad du ser jämfört med den gamla videon.

Jag kan inte direkt se någon, AA'n är ju det enda de sa att de ändrat på, det andra vet vi inte.
Och ska jag vara ärlig ser jag inga "jagged edges", gör du ?
Eller är du bara en AMD fanboy som försöker smutskasta Nvidia så mycket det går ?

Haha, jäklar vilket troll du är.

Ta en titt på videon du sa "ser ut som skit" igen tack.
Sedan kan du ta en titt här: http://www.youtube.com/watch?feature=player_embedded&v=lRNn5i...!
Exakt den du länkade, och detta råkar nämligen vara den som kör med 3 stycken 580.

Så att du ser någon skillnad är rent skitsnack, du är bara ett troll och en fanboy.

Jag vet inte vad du tittar med, eller på för den delen, jag ser dock jaggies överallt...
Jag vet inte om du har sett mina inlägg i andra trådar, men fxaa suger rejält som jag brukar skriva på ett eller annat sätt. Många smäller på det bara för att det står aa och tror att bildkvaliten automatiskt blir skitfin. Vet du vad fxaa är och vad skillnaden är jämfört med riktig aa? Vart tittar du när du inte ser jaggies? Nu med postprocessingshader så ser det ut som crap, tyvärr, och det är inte endast för att jag har ATi-kort. ATi/AMD har MLAA som fungerar på liknande sätt.

Resten tänker jag inte äns svara på, trevligt bemötande man får här på swec, vanligt nuförtin'...

Skrivet av terrax:

http://imageshack.us/f/201/jagged.png/

Wait what? Inga jaggs?

Nej videon ser inte ut som skit men inga jaggs? Undrar vem som trollar och då är det ändå bara ett exempel av många jaggs i den videon.

Videon skulle se ganska fin ut om dom slänger på en sisådär 8xAA. Verkar också bli konstigheter på bump/normal/displacement maps som gör det ännu jaggigare i vissa situationer, här kommer inte aa att hjälpa...

Permalänk
Medlem
Skrivet av Aleshi:

Tycker inte heller det är så imponerande, med tanke på att man alltid kan få ett demo snyggare än ett spel då man kan skräddarsy mer. Men visst ser det bra ut, fast next-gen vill jag inte kalla upplevelsen direkt.

EDIT: Det betyder å andra sidan inte att det inte är imponerande när det drivs med en enda Kepler då det uppenbarligen är tungdrivet.

Yes indeed. Tycker att det är lite synd ändå, med tanke på den skyhöga potentialen i moderna grafikkort, att man inte använder kraften till något som faller mig i smaken. Min stora referens är Battlefield 3, som (om de hade jobbat ner den överdrivna kontrasten i vissa miljöer) är nära perfektion, rent grafiskt.

Visa signatur

Citera för svar!

i5 2500k @ 4.6 GHz - 2x HD6950@CF - 8 GB CL8 VENGEANCE @ 1866 MHz

Permalänk
Entusiast
Skrivet av Dalton Sleeper:

Jag vet inte vad du tittar med, eller på för den delen, jag ser dock jaggies överallt...
Jag vet inte om du har sett mina inlägg i andra trådar, men fxaa suger rejält som jag brukar skriva på ett eller annat sätt. Många smäller på det bara för att det står aa och tror att bildkvaliten automatiskt blir skitfin. Vet du vad fxaa är och vad skillnaden är jämfört med riktig aa? Vart tittar du när du inte ser jaggies? Nu med postprocessingshader så ser det ut som crap, tyvärr, och det är inte endast för att jag har ATi-kort. ATi/AMD har MLAA som fungerar på liknande sätt.

Resten tänker jag inte äns svara på, trevligt bemötande man får här på swec, vanligt nuförtin'...

Videon är gjord med MSAA som sagt.

Visa signatur

EVGA GTX 1080 Ti | Intel Core i9-9900K | Fractal Design Celsius S24 | ASUS ROG Strix Z390-I | 32 GB DDR4 @3200Mhz | Corsair SF750 | Samsung 970 Evo Plus 1 TB (M.2) | Crucial MX 500 & 300 1TB (2,5") | Louqe Ghost S1 Ash | AOC AGON AG271QG, Eizo Foris FS2333 & TCL 75EP660 | Windows 11 64-bit

Permalänk
Avstängd
Skrivet av Nerolyn:

Tycker att det kan vara viktigt att komma ihåg att det faktiskt var Epic som demonstrerade Samaritan igen fast den här gången med ett kepler kort.
Sen så är det alltid lika roligt att se folk fightas här - i detta fall om FXAA vs MXAA, att ni tar egna bilder på videon/försöker jämföra komprimerade youtube klipp.

Här bjuder jag på en bild ur NVIDIAs artikel om EPICs demonstration där du kan jämföra 4x MXAA mot FXAA på inzoomade bilder av samma scen i Samaritan: http://international.download.nvidia.com/geforce-com/international/comparisons/Samaritan/GDC2012/Samaritan-MSAAFXAA-ZoomedComparison-1.html

Dra i slidern och avundas en ny anti-aliasing lösning, för övrigt borde flera av er läsa igenom artikeln själva innan ni drar förhastade slutsatser: http://www.geforce.com/News/articles/epic-shows-samaritan-demo-running-on-next-generation-nvidia-kepler-gpu

FXAA är inte nytt. Det är bara förbättrat, för just Nvidia kort.
Det kräver ingen prestanda alls jämfört med MSAA. Men man får samtidigt en suddigare bild.

Det folk inte förstår är att 1st 580 användes för Physx. Och 2 för grafiken (med MSAA eller om det nu var SSAA i första tech demot)
Så "680" är inte som 3st 580.

Skrivet av joYchez:

Yes indeed. Tycker att det är lite synd ändå, med tanke på den skyhöga potentialen i moderna grafikkort, att man inte använder kraften till något som faller mig i smaken. Min stora referens är Battlefield 3, som (om de hade jobbat ner den överdrivna kontrasten i vissa miljöer) är nära perfektion, rent grafiskt.

Långt ifrån perfektion..
Vatten, Texturer, Naturen mm

Visa signatur

GPU: Sapphire HD7950 3GB OC CPU: i5 2500K 4.4GHz KYL: Scythe Mugen 2
MOBO:
Gigabyte Z68X-UD3H B3 RAM: GSkill 8GB 1600MHz PSU: Corsair TX650W
MUS: Logitech G400 TB: Logitech G15 SKÄRM: BENQ G2220HD // G2400W
HÖRLUR: HD558 LJUDKORT: Xonar DX CASE: Define R3 SSD: NOVA 2 60GB MECH: 3.75TB

Permalänk
Medlem
Skrivet av schitzo:

Vatten, Texturer, Naturen mm

Hemskt var kritisk du var till FrostBite 2. Kan du referera till någonting som du gillar?

Min åsikt är att FrostBite 2 är den, i dagsläget, snyggaste grafikmotorn.

Visa signatur

Citera för svar!

i5 2500k @ 4.6 GHz - 2x HD6950@CF - 8 GB CL8 VENGEANCE @ 1866 MHz