Geforce GTX 285 och 295

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av mfm
Är inte 4870X2 längre det mest strömkrävande kortet någonsin?

Är inte 4850X2 längre det högljuddaste kortet någonsin?

Hur många månader efter releasen av Fallout 3 eller Dead Space tog det innan ATI fixade drivrutinerna så att inte 4870X2 hade _SÄMRE_ prestanda än 4870? När fixar man Crossfire- (eller SLI-)profiler till spel som inte är "recensionsspel" och inte dyker upp i hårdvarutester? Aldrig? Det är ganska många som är lurade och tror att de kommer få dubbla prestandan mot ett singelkort i alla spel som finns...

Det finns många nackdelar med nuvarande form av multi-GPU och jag skulle aldrig köpa ett, oberoende av tillverkare. Att säga att det inte spelar roll är att försöka blanda bort korten.

Det tar flera månader att testa fram drivrutiner för ett spel. nVidia har ju löst det smidigt med TWIMTBP som gör att de kan göra profiler i förväg, dessutom så kan spelen vara anpassade just för SLI eller texturkraftiga grafikkort redan från start. Knappast något du ska anklaga ATi för.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av bomber3
nVIDIA fuskar med vantage... ingen nyhet = http://www.sweclockers.com/nyhet/7922-nvidia_lurar_3dmark

det var nog de löjligaste jag har hört...visst, man kan tolka det hur som helst men fusk....

Nvidia köpte upp ett företag som fokuserade på fysik....sen så får dom skit för att dom implanterar det i sina grafikort? det är ju bara BS

sen tycker jag personligen att det inte borde räknas som ett CPU test utan som ett "Fysik test" dvs ATI får köra på sitt havoc och Nvidia på sitt physx...

men som sagt var ATI får ju lägre poäng då och då blir det samma sak som det är "orättvist"

Visa signatur

Stationär: Ryzen9 5900x | DDR4 3200MHz 2x16GB | Geforce GTX1080 | Asus x570-F | Samsung 980 pro 512GB | Samsung 70 pro 256GB | Corsair AX 1200W |
Server: Ryzen9 5950x | 128GB RAM |

Permalänk

Recensentens påstående om att Devil May Cry 4 är det första DMC till PC stämmer inte. Det är föga känt men DMC 3 SE kom efter ett tag även till PC.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av P1nGviN
Jodå, det är det - men det vet man när man köper det också, eller?

men är det kortets design (dualgpu) eller kylarens fel där?

Hur ser det ut nu? Slår inte HD4870x2 GTX280 i 9/10 spel?

Förstår ditt tänk, men jag tycker det är konstigt att dra till med en "snabbaste singelkortet" som något (det enda) positiva i sammanfattningen.

I 9/10 spel som man brukar testa med ja, men i alla andra spel då? Nu är väl 4870 rätt bra ändå så det kanske inte gör så mycket, är väl värre för 4850x2.

Felet är kanske inte konceptet dual-GPU i sig, men nu diskuterade jag inte teoretiska koncept eftersom jag tycker det är rätt ointressant. Hade det blivit som ATI tänkte från början: att det skulle fungera som en GPU utan att behöva crossfire och att RV770 skulle bli väldigt strömsnålt, då hade jag nog inte haft något emot det. Nu blev det inte så, när t.o.m. dubbelmackan 295 är strömsnålare och har bättre kylare så är diskussioner om en PCB vs flera PCBer helt meningslösa: Dubbelkortlösningen blev bättre eftersom GPUerna var bättre.

Kan man få fram ett tyst och relativt strömsnålt multi-GPU-kort som helst inte behöver specialfixar för varje spel, då är jag intresserad. Men innan dess, nej tack...

Citat:

Ursprungligen inskrivet av -Boris-
Det tar flera månader att testa fram drivrutiner för ett spel. nVidia har ju löst det smidigt med TWIMTBP som gör att de kan göra profiler i förväg, dessutom så kan spelen vara anpassade just för SLI eller texturkraftiga grafikkort redan från start. Knappast något du ska anklaga ATi för.

Poängen var att det måste till speciallösningar för varje spel med dessa dual-GPU-kort, oberoende av om det är ATI eller NVIDIA. Sen lär ju de med kort för 5000 kr som i flera månader går sämre än ett för 2000 kr inte ha någon större förståelse för de bakomliggande orsakerna.

Visa signatur

Main Core i9-9900k | NH-D15 | ROG STRIX Z390-F | 16GB DDR4 3200 MHz LPX | STRIX 2080 Ti GAMING OC | Samsung 970 EVO 1TB + Toshiba XG5 256GB | RM650X | R5 Blackout
HTPC/Barndator: Core i5-8400 | ASUS PRIME B360M-A | 16GB DDR4 2666 MHz | STRIX GTX 1070 OC | 2 x Toshiba XG5 256GB
Extradator: Core i7 870 | ASRock H55M-LE | 8GB 1600 MHz | Intel 320 120GB | HD6950 2GB | VX 550W

Permalänk
Avstängd

Iofs så tror jag atis 4870x2 skulle vara strömsnålare om de skulle släppa det idag, när det kom var det ju inte så farligt, eller hur?
Jämför gtx295 med rv 790 så ere rättvist, när det väl kommer

Visa signatur

All datorprestanda kan jämföras i kronor och ören (kr/poäng). Exempel: Prestanda/krona på grafikkort | www.intrnet.se

Permalänk
Medlem

Tycker det är riktigt trevligt att se tester som görs.

Saknas dock två saker i detta test för att jag skulle bli nöjd.

HD4870 1gb i stället för 512mb - det genererar i snitt 10 FPS bättre, och skulle knappat in på GTX285, men det syns inte i ett test med 512mb versionen, som endast tillverkades pga brist på DDR5, som inte längre är bristvara, så i fortsättningen, strunta i 512mb tack.

Det finns ett till kort som blåser ifrån allt annat och lägger sig straxt under HD4870x2, detta är HD4850x2.

Det är en sak om ni inte kunde få tag på bättre grejer på grund av ditten eller datten (dock är det skumt att ni alltid får tag på rätt grejer när det gäller nvidia), men det vore fruktansvärt trist om det helt enkelt är så att ni struntar i det. För då vet vi att det endast beror på att ni favoriserar nvidia. Recensenter skall alltid vara opartiska, gör er inte till en Toms Hardware kopia - det vore ganska trist.

Citat:

Ursprungligen inskrivet av [*KH*]Morierty
Recensentens påstående om att Devil May Cry 4 är det första DMC till PC stämmer inte. Det är föga känt men DMC 3 SE kom efter ett tag även till PC.

Såg detta också, känns nästan som att man tar fram kameran och fotar för att slänga upp på ImageShack eller nåt bara för att jäklas... Men orka
Om det är okunskap eller dumhet kan man ju diskutera

Visa signatur

Sometimes autocorrect makes me say things I don't Nintendo.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av McVit
det var nog de löjligaste jag har hört...visst, man kan tolka det hur som helst men fusk....

Nvidia köpte upp ett företag som fokuserade på fysik....sen så får dom skit för att dom implanterar det i sina grafikort? det är ju bara BS

sen tycker jag personligen att det inte borde räknas som ett CPU test utan som ett "Fysik test" dvs ATI får köra på sitt havoc och Nvidia på sitt physx...

men som sagt var ATI får ju lägre poäng då och då blir det samma sak som det är "orättvist"

Felet är inte att nVidia har en funktion extra. Utan för att de får poäng för samma sak två gånger. Testet är inte utformat för det. Nu kan grafikkortet köra fullt ös i grafiktestet som grafikkort och fullt ös som fysikkort i CPU-testet. Det är uppdelat i två test för att testa de olika komponenterna för sig för att få en helhet sedan. Nu testas ena komponenten plötsligt båda gångerna och ger ett snett resultat.

Permalänk
Citat:

Ursprungligen inskrivet av jioop
Tycker det är riktigt trevligt att se tester som görs.

Saknas dock två saker i detta test för att jag skulle bli nöjd.

HD4870 1gb i stället för 512mb - det genererar i snitt 10 FPS bättre, och skulle knappat in på GTX285, men det syns inte i ett test med 512mb versionen, som endast tillverkades pga brist på DDR5, som inte längre är bristvara, så i fortsättningen, strunta i 512mb tack.

Det finns ett till kort som blåser ifrån allt annat och lägger sig straxt under HD4870x2, detta är HD4850x2.

Det är en sak om ni inte kunde få tag på bättre grejer på grund av ditten eller datten (dock är det skumt att ni alltid får tag på rätt grejer när det gäller nvidia), men det vore fruktansvärt trist om det helt enkelt är så att ni struntar i det. För då vet vi att det endast beror på att ni favoriserar nvidia. Recensenter skall alltid vara opartiska, gör er inte till en Toms Hardware kopia - det vore ganska trist.

Men ge dig, fanboy. Ta kontakt med Swec och kolla om inte du kan få jobbet som killen som snackar med distributörer om du nu är så bra på det. Om AMD (eller deras distributör) är sopiga på att ordna fram kort att testa så är det väl dem du skall gnälla på istället för att anklaga Swec för opartiskhet.

P.S.
Hur kan ett kort "blåsa ifrån allt annat" och ändå inte vara bäst? Saknar du inte ett "nästan" där nånstans?

Permalänk
Medlem

Angående physX
Tänk dig att det finns två lag med två st tävlande i varsitt lag i t ex tyngdlyftning i två olika grenar.
Det ena laget kan samarbeta och ställer upp med bägge sina gubbar i bägge testen.
Det andra laget ställer bara upp med en gubbe per test.
Skall man då säga att det samarbetande laget fuskar bara för att det andra laget inte lärt sig att samarbeta?

Visa signatur

[Tiger MP. 2xAMD Athlon MP 1.4GHz , 2x512MB ddr, ?350w PSU, 80GB HDD, Geforce4 ti 4600]
[i7 950, ASUS p6t, xfx 650w, 30GB SSD a-data, 3x2GB corsair xms3, 8800GT, ][i7 920, 3x4GB Vengeance, gtx 260] [i5 3570k, MSI twin frozr PE GTX 570, Corsair 4x2GB xms3]
[3930k, GA-X79-UD3, EVGA GTX 780SC ACX, Corsair Force 3 120GB, XFX 850w, Corsair Air 540, Corsair h100i, Corsair 4x4GB Vengeance]

Permalänk
Medlem

Intressant utveckling, men korten är lite dyra (men det kan man förvänta sig).

Visa signatur

Fractal Design Define R5 l Intel i7 5820k l Gigabyte X99-UD3 l MSI RX 480 8gb l EVGA G2 850W l Crucial Sport 8gb ddr4 l WDC Black 3tb + WDC Black 1TB + WDC Red 1TB + Intel 530 SSD 120gb l Cooler Master Hyper 212 EVO l Dell U2515H l Asus MG248Q freesync l Windows 10 64-bit

Permalänk
Medlem

Herregud vad alla ATI fanboys gnäller över PhysX, vad är problemet ? Rent skitsnack att säga att det är fusk att köra med PhysX i ex. 3dmark Vantage. Om ett grafikkort kan utföra fysikberäkningar är det väl inte fusk ?

Fusk är när man ex. manipulerar drivrutiner för att få fördel i ett testprogram. Verkar förbannat onödigt att inte använda sig av något som ett grafikkort har stöd för. Hade ATI hoppat på PhysX tåget som dom hade chansen att göra hade det vart ett helt annat ljud i pipan hos alla med ATI kort.

Visa signatur

[Gigabyte X570 AORUS ULTRA]*[Ryzen 9 5900X]*[Palit GeForce RTX3080Ti GameRock]*[G.Skill 32GB DDR4 3600MHz CL16]*[Samsung C32G7]

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Nypifisel
Måste ändå påstå att nVidia fortfarande är förloraren. Att komma så här sent med en vinnare är ingen vinnare i mina ögon, snart kommer ju nästa generation som är helt nya kretsar. man kan inte komma i slutspurten och försöka vinna när dom andra redan håller på att förbereda nästa race. Nej ATI är helt klart fortfarande rent generellt vinnaren i mina ögon.

Ska bli högst intressant med nästa generation. Hoppas ATI kan skapa en lika framgångsrik och bra krets som RV770.

Erm Okej?

Det finns inga officiella startskott som avger när ett race börjar - och det så kallade "racet" är inte jämförbart med ett formel 1-race. Se det som en säsong av flera tävlingar istället och de kommande och sista kommer domineras av Nvidia. Mer rättvist om du ska tänka i de banorna.

Jag vet inte riktigt vilken värld du lever i men det handlar om vem som är bäst just nu. Om nVidia nu är de med bäst kort så är de det tills AMD släpper något bättre, och de tills nVidia släpper något bättre.

Tillverkaren som har bäst kort gynnas av ökad PR för att sälja mer i de andra segmenten. Det är därför dessa kort tillverkas och det är därför det existerar ett "krig". Hade inte de bästa korten gynnat försäljningen av mellan och låg-segmenten så hade de inte lagt någon större energi på dessa korten. Den enda andra anledningen är att man driver utvecklingen och tekniken framåt men det kanske man hade kunnat göra ändå.

För tro inte att dessa kort säljer som lemonad en varm sommardag. Det är låg och mellan-segmenten som är mest lönsamma för företagen.

Visa signatur

System: CPU: AMD Ryzen 9 3900X, MB: Gigabyte X570 Aorus Elite, Minne: Corsair 32GB DDR4 3200MHz, GPU: Asus GeForce RTX 2080 Super ROG Strix Gaming OC

Permalänk
Citat:

Ursprungligen inskrivet av jioop
Tycker det är riktigt trevligt att se tester som görs.

Saknas dock två saker i detta test för att jag skulle bli nöjd.

HD4870 1gb i stället för 512mb - det genererar i snitt 10 FPS bättre, och skulle knappat in på GTX285, men det syns inte i ett test med 512mb versionen, som endast tillverkades pga brist på DDR5, som inte längre är bristvara, så i fortsättningen, strunta i 512mb tack.

Det finns ett till kort som blåser ifrån allt annat och lägger sig straxt under HD4870x2, detta är HD4850x2.

Det är en sak om ni inte kunde få tag på bättre grejer på grund av ditten eller datten (dock är det skumt att ni alltid får tag på rätt grejer när det gäller nvidia), men det vore fruktansvärt trist om det helt enkelt är så att ni struntar i det. För då vet vi att det endast beror på att ni favoriserar nvidia. Recensenter skall alltid vara opartiska, gör er inte till en Toms Hardware kopia - det vore ganska trist.

Såg detta också, känns nästan som att man tar fram kameran och fotar för att slänga upp på ImageShack eller nåt bara för att jäklas... Men orka
Om det är okunskap eller dumhet kan man ju diskutera

Du uttrycker dig oklart; vems potentiella okunskap eller dumhet(?) är det du pratar om?

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av dawa84
Herregud vad alla ATI fanboys gnäller över PhysX, vad är problemet ? Rent skitsnack att säga att det är fusk att köra med PhysX i ex. 3dmark Vantage. Om ett grafikkort kan utföra fysikberäkningar är det väl inte fusk ?

Fusk är när man ex. manipulerar drivrutiner för att få fördel i ett testprogram. Verkar förbannat onödigt att inte använda sig av något som ett grafikkort har stöd för. Hade ATI hoppat på PhysX tåget som dom hade chansen att göra hade det vart ett helt annat ljud i pipan hos alla med ATI kort.

Men ta och läs mitt inlägg ovan. Försök förstå vad det gäller. För att ordentligt få veta prestandan av både CPU och grafikkort så är 3Dmark uppdelat i olika test. Där komponenterna ska testas individuellt. Men med nVidias drivrutin så räknas grafikkortet 2 gånger och ger på så vis mycket högre resultat. Det tillåts inte då det inte representerar kortets prestanda. För i verkliga livet kan inte samma kort prestera 100% om fysikkort och 100% som grafikkort samtidigt. Men med nVidias drivrutin så gick det plötsligt. De utnyttjade faktumet att testet var uppdelat i olika delar.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av dawa84
Herregud vad alla ATI fanboys gnäller över PhysX, vad är problemet ? Rent skitsnack att säga att det är fusk att köra med PhysX i ex. 3dmark Vantage. Om ett grafikkort kan utföra fysikberäkningar är det väl inte fusk ?

Om samma grafikkort jobbar till 100% vid 2 tillfällen (grafik och fysik) så stämmer det inte riktigt, eller hur? I verkligheten så hade kortet behövt dela på krämen för att det måste rendera grafiken samtidigt som det beräknar fysiken.

Citat:

Ursprungligen inskrivet av dawa84
Fusk är när man ex. manipulerar drivrutiner för att få fördel i ett testprogram. Verkar förbannat onödigt att inte använda sig av något som ett grafikkort har stöd för. Hade ATI hoppat på PhysX tåget som dom hade chansen att göra hade det vart ett helt annat ljud i pipan hos alla med ATI kort.

Det är ju precis det de gör. Drivrutinen gör att kortet är 100% grafikkort när det behövs och 100% fysikkort när det behövs. Futuremark hindrade Nvidia från att fortsätta med det ganska snabbt.

Visa signatur

"Jo men det var exakt det jag menade med att den enda moddningen detta galleriet innehåller är Sanningsmodifikation och photoshoppande :)"

Permalänk
Moderator, Testpilot
Citat:

Ursprungligen inskrivet av Nihilas
Dinoman har mens idag. Först missar du att läsa testsystemet som du klagar satan på, sedan klagar du på att de inte har tillräckligt många grafikkort med i testet. När han redan har skrivit att de ville få ut testet snabbt och inte hade dem hemma.

Som jag skrev innan så kan man inte göra ett test så tillfredsställande som man borde, så kanske man ska skita i det helt och hållet? Inte sant. Finns inget syfte i att publicerad halvfärdiga saker bara för att man inte kan ordna till det bättre från första början. Eftersom de flesta siterna redan har gjort reviews (som dessutom är många gånger bättre) så är det ändå ingen stress att få ut testerna, man är ändå inte först. Då kan man lika gärna bida sin tid och få till stånd ordentligt gjorda tester istället.

Men självklart borde man ha med både nya GTX 260 och ett HD4870 1GB om man nu har med HD4870 512MB.

[QUOTE]
Och hur de testar? De förklarar hur de testar, detta är en vettig recension. Du borde gå och lägga dig
[/QUOTE]

Så här tycker jag att ett bra förklaring till hur man har testat m.m. ska se ut:

http://www.xbitlabs.com/articles/video/display/evga-geforce-g...

Citat:

Ursprungligen inskrivet av sykes90
...har jag fått rätt uppfattning utav dinomans envishet så blir jag inte förvånad om det snart finns en sida som heter dinoreview

Inte omöjligt. Inte just nu bara, för nu druknar jag i plugg och arbete och bor dessutom på annan ort än mina prylar.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Hedersmedlem

*tråd rensad*

Jag tog bort två inlägg som inte hade med trådens ämne att göra.

Permalänk
Medlem

Har väldigt svårt att just hitta gtx 295 i lager på någon "bra" web-butik.

Och när kommer priserna lägga sig?

Permalänk
Avstängd

Ja det kan man undra.... 285 kortena har ju på tok för högt pris med... Men det är nvidia i ett nötskal...

Permalänk
Avstängd

Inget som säger att priserna kommer gå ner. Nvidia ville vara snabbast, nu är de det. Ärligt talat ligger de på en rimlig nivå (GTX295) om man ser till priset på ett GTX260 216.

Visa signatur

"Jo men det var exakt det jag menade med att den enda moddningen detta galleriet innehåller är Sanningsmodifikation och photoshoppande :)"

Permalänk

Saknar tester i 2560x1600, skulle se fram emot det nästa gång.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av P1nGviN
Om samma grafikkort jobbar till 100% vid 2 tillfällen (grafik och fysik) så stämmer det inte riktigt, eller hur? I verkligheten så hade kortet behövt dela på krämen för att det måste rendera grafiken samtidigt som det beräknar fysiken.

Det är ju precis det de gör. Drivrutinen gör att kortet är 100% grafikkort när det behövs och 100% fysikkort när det behövs. Futuremark hindrade Nvidia från att fortsätta med det ganska snabbt.

Så för att nvidia har en funktion på sina kort som ati inte har lyckets implementera än så fuskar nvidia? Det är nog det dummaste jag hört på evigheter. Det är en del av testet att beräkna fysik, nvidias kort kan det, klart det får högre poäng. Om intel vinner ett cpu test över en amd cpu för att den har hyperthreading fuskar Intel då?
Samtidigt förstår jag vad du menar angående deras dubbla load och att det inte är möjligt i verkligheten. Men å andra sidan hur relevanta är Futuremarks test för verkligt användande överhuvudtaget?
Det är ju hos futuremark problemet ligger och hur de byggt upp sitt test. Om ati hade haft en fungerande fysikdrivrutin tror du inte de hade gjort EXAKT samma sak...

*Bort*

Citat:

Inlägg redigerad av MaLo: Om du tycker att en användare beter sig dåligt så är det bättre att anmäla denna än att göra personliga angrepp.

Visa signatur

Intel 7700K @ 5,1ghz (Binned) | Custom H2O Loop | Asus Maximus IX Hero | 32GB Corsair @ 3200mhz | GTX 3080 | Samsung 960 EVO 500GB | Samsung 870 EVO 500GB | Samsung 860 EVO 2TB | Soundblaster Z-Xr | Asus ROG Swift PG279Q | Corsair 850W-HX | Thermaltake The Tower 900

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av mrfisse
Så för att nvidia har en funktion på sina kort som ati inte har lyckets implementera än så fuskar nvidia? Det är nog det dummaste jag hört på evigheter. Det är en del av testet att beräkna fysik, nvidias kort kan det, klart det får högre poäng. Om intel vinner ett cpu test över en amd cpu för att den har hyperthreading fuskar Intel då? Tänker du någonsin efter innan du postar ett inlägg här?

Du bör nog läsa vad du citerade ett par gånger till.

edit
Du editerade till det som kom efter citatet, så verkar som ni förstår varandra men har olika åsikter

Permalänk
Medlem

Nu väntar vi bara på några spännande namnändringar framöver på dessa kort om allt går enligt planerna för Nvidia.

Permalänk
Medlem

Håller med mrfisse till 100% vare sig jag skulle ha ett radeon eller geforce.

Visa signatur

|AMD Ryzen 9 5900X| |ASUS ROG Strix B550-F| |Crucial Ballistix 32GB CL16@3600MHz| |PNY RTX 4090 XLR8 Gaming| |Samsung 970 Evo Plus M.2 1TB| |Samsung 860 Evo 1TB| |Samsung 850 Evo 500GB| |Corsair RM1000| |Fractal Design Define R5| |LG OLED 48" C2 Evo|

Permalänk
Citat:

Ursprungligen inskrivet av FredrikMH
...

Självklart kan man göra min jämförelse! Det är mer aktuellt att jämföra korten inom generationen dom kom ut än en generell bild av hela nuvarande marknaden. ATI är helt klart fortfarande vinnaren i denna generation. nvidia kan skryta om dom vinner nästa generation.

PhysX förövrigt är en genialisk ide och credd till nvidia, detta säger jag trots ATI i hjärtat. Man ska inte låta sin "Fanboy" anda stå i vägen för fakta.

Visa signatur

i7 2600K | XFX 6970 | 8GB DDR3 1600mhz Vengeance| 1TB HDD | DVD-RW Dual Layer

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Devil May Cry
Håller med mrfisse till 100% vare sig jag skulle ha ett radeon eller geforce.

Jag har aldrig haft ATI och jag håller inte med.

Det vi som(normalt funtade) läsare, och antagligen sweklockers redaktion är intresserade av är hur bra korten presterar i förhållande mot varandra när vi läser tester/testar. Vi vill förhoppningsvis veta vad som är bäst och inget annat.

PhysX "problemet" gör 3dmark resultaten ointressanta eftersom de tappar all verklighetsförankning(i den mån syntetiska tester har det) och endast blir intressanta för när man jämför ett märke med samma märke, och inte ens det blir lätt att tyda.

Vi kan ju vända på steken och ponera om futuremark skulle helt plötsligt börjar ge massa poäng för Havok(som ATI stöder) så alla ATI kort får mycket mer poäng än Nvidias. Hur intressanta för oss skulle då futuremark resultat bli i tex en recension som denna?
Med andra ord känns det otroligt svårt att komma på ens en pytteliten sak som känns positiv med detta, kan faktiskt inte komma på en enda.

Men allt det där är möjligen gammalt och inte ett problem längre, är ju inte bra för futuremark och om inte nvidia slutat skicka med ny futuremark-DLL's med drivrutinerna eller vad det var så borde om inte annat futuremark tagit hand om saken.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av mrfisse
Så för att nvidia har en funktion på sina kort som ati inte har lyckets implementera än så fuskar nvidia?

AMD har inte misslyckats med att implementera tekniken, AMD har aldrig haft tillgång till den.

Och ja, det är fusk att låta ett kort vara dedikerat till 100% på två saker när den i ett verklighetsscenario inte kan göra det.

Citat:

Ursprungligen inskrivet av mrfisse
Det är nog det dummaste jag hört på evigheter. Det är en del av testet att beräkna fysik, nvidias kort kan det, klart det får högre poäng.

Återigen, det är inget dumt alls. Du verkar inte riktigt hängt med i vad som hänt, men Futuremark stängde av just den funktionen för att det inte ansågs som rent spel.

Citat:

Ursprungligen inskrivet av mrfisse
Om intel vinner ett cpu test över en amd cpu för att den har hyperthreading fuskar Intel då?

Verkligen inte samma sak, ta och läs på lite. Det är inte PhysX som anses som orättvist utan att ett och samma kort gör 2 separata test som i VERKLIGHETEN hade behövt dela på kortet.

Citat:

Ursprungligen inskrivet av mrfisse
Men å andra sidan hur relevanta är Futuremarks test för verkligt användande överhuvudtaget?

Citat:

Futuremark

3DMark Vantage is a PC benchmark suite designed to test the DirectX10 performance of your graphics card. We’ve been making 3DMark for over 10 years, with each new edition using the latest 3D technology to determine real-world performance.

Citat:

Ursprungligen inskrivet av mrfisse
Det är ju hos futuremark problemet ligger och hur de byggt upp sitt test. Om ati hade haft en fungerande fysikdrivrutin tror du inte de hade gjort EXAKT samma sak...

AMD har gjort samma sak tidigare (fulat sig i 3dmark alltså) och jag gillade det inte då lika lite som jag gillar att Nvidia gör det nu. Försök inte måla mig röd och påstå att jag hade godkänt det om ATi gjort det.
Och felet är inte Physx, felet är att drivrutinen lurar Vantage att tro att det är ett fysikkort (vilket det inte är).

Visa signatur

"Jo men det var exakt det jag menade med att den enda moddningen detta galleriet innehåller är Sanningsmodifikation och photoshoppande :)"

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Nypifisel
Självklart kan man göra min jämförelse! Det är mer aktuellt att jämföra korten inom generationen dom kom ut än en generell bild av hela nuvarande marknaden. ATI är helt klart fortfarande vinnaren i denna generation. nvidia kan skryta om dom vinner nästa generation.

Då undrar jag vad är det som bestämmer att AMDs senaste kort är samma generation som Nvidias senaste bara för de kom ut ungefär samtidigt? Vad händer om det blir någon "fasförskjutning" i detta och AMD släpper sina kort mitt i mellan två av Nvidias generationer.

Nvidia har sin egna generation och AMD har sin egna. Det är inte sammma generations kort i helhet utan var för sig, från respektive tillverkare.

Som fotnot är GTX 295 ingen ny generation, utan ett nytt kort i befintlig generation... dock med krympt tillverkningsteknik...

Visa signatur

System: CPU: AMD Ryzen 9 3900X, MB: Gigabyte X570 Aorus Elite, Minne: Corsair 32GB DDR4 3200MHz, GPU: Asus GeForce RTX 2080 Super ROG Strix Gaming OC

Permalänk
Medlem

Inga tester utan FSAA, AF?

Kan ju vara intressant att se hur resp kort hanterar detta...

Visa signatur

AMD Ryzen 7950x3D | Asus ROG Strix B650E-E | 32GB G.Skill DDR5 6000Hz CL30 | Palit RTX 2080 GameRock Premium | Cooler Master Tempest GP27U, Dell U2515H