Point of View Geforce GTX 260 Premium

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Björn Endre
"Nvidia vill egentligen inte att vi pratar så mycket om dessa nya drivrutiner som kommer att släppas relativt snart eftersom de vill att denna artikel främst ska koncentrera sig på skillnaden mellan deras Geforce GTX 260 216 Core och HD4870 1 GB."

"6. Fallout 3, Dead Space|...|
Nvidia gav oss en sparad spelomgång på fil som lät oss hoppa längre in i spelet för testet.|...|
Dead Space|...|
Nvidia gav oss en sparad spelomgång på fil som lät oss hoppa in längre in i spelet för testet.|...|
7. Left 4 Dead|...|
Spelet har inbyggt timedemofunktion och vi använde oss av ett demo från Nvidia som utspelar sig ute i en skog med massor av attackerande zombies."

Har du ingen skam i kroppen människa?

Hela syftet med att ha en recension av hårdvara är för att man inte kan lita på vad tillverkarna säger och behöver opartiska tester. Här är det ju bevisligen nVidia som sätter parametrarna och dikterar hur testerna skall gå till. Vad är då syftet med hela recensionen? Då kan du lika gärna ringa nVidias PR-växel och fråga hur många % bättre det aktuella kortet är gentemot AMD:s dito.

Men det klart: Är det tillverkarna som står för hårdvaran, och dessa enbart levereras för testning med vissa krav, så kanske man kan trimma på objektiviteten lite...

Visa signatur

Nej är också service.

Permalänk
Medlem

Typiskt att AMD ska säga att spelen som testades inte är optimerade för CrossFireX. Är ju ändå helt absurt att X2:n skulle fungera sämre än ett vanligt 4870 i vilket sammanhang som helst.

Visa signatur

Fractal Design R2 | BeQuiet Dark Power Pro 550 | Asus Rampage Formula | 2x Corsair XMS2 DDR2-8500 2048MB | Intel E8600 @ 3,72GHz | Noctua NH-U12P | Palit GTX 1080 Super Jetstream | Samsung EVO 840 Series SSD 250 GB | Intel X25-M 80GB | Hitachi Deskstar P7K500 500GB SATA | WD Red 3TB SATA III | WD10EACS 1TB | NEC ND35-40A | Scythe Ultra Kaze | Noctua NF-P12

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Dafydd
Typiskt att AMD ska säga att spelen som testades inte är optimerade för CrossFireX. Är ju ändå helt absurt att X2:n skulle fungera sämre än ett vanligt 4870 i vilket sammanhang som helst.

Exakt min poäng.

Visa signatur

|AMD Ryzen 9 5900X| |ASUS ROG Strix B550-F| |Crucial Ballistix 32GB CL16@3600MHz| |PNY RTX 4090 XLR8 Gaming| |Samsung 990 Pro 2TB| |Samsung 970 Evo Plus 1TB| |Samsung 860 Evo 1TB| |Corsair RM1000| |Fractal Design Define R5| |LG OLED 48" C2 Evo|

Permalänk

Ni måste förstå att den här processorn inte är tillräcklig för 4870x2. Jag minns när jag köpte detta kort och spelade Lord of The Rings och folk klagade på hur slöt det gick. De hade en 4870 x2 och en sån här skitprocessor. Jag märkte inte av det. Körde dx10 med allt på max och hade fps någonstans på mellan 60-100.

Själv så skulle jag tycka att det hade varit bra av Sweclockers att när de har en av de bättre intels processorer, gärna med en klock på inte mindre än 3.6 köra om alla testerna och utan nvdias tips på vilka banor de ska köra.

Det skulle ge oss lite mer rättvis bild av hur korten presterar.

Visa signatur

http://battlelog.battlefield.com/bf4/user/xR_III666III_I/
YT https://www.youtube.com/user/IIIRef/videos
Intel Core I7 12700K Corsair 32GB 3600MHz ASUS PRIME Z690-P D4
ZOTAC 4080 GTX EVGA 1000w, Samsung G8 OLED

Permalänk
Medlem

Bra test, och kortet verkar faktiskt riktigt bra. Om priserna pressas ner lite till 2500kr så är iaf jag intresserad av ett köp

"Sektionen av spelet aom vi använder oss i detta test utspelar sig strax efter spelets början då vi hamnar i ett bakhåll i djungeln." Sida 5, andra stycket under "Call of Duty: World at War".

Dessutom skulle iaf jag vara intresserad att ha med ett "vanligt" GTX 260 i testet? Det ser det som minst lika intressant som att jämföra med 4870.

Visa signatur

Skrivet med hjälp av Better SweClockers
PC: Ryzen 9 5900X | RTX 4080 Super 16GB | G.Skill Trident Z Neo 64GB 3600MHz CL16 | 12TB NVMe SSD - 5TB SATA SSD = total 17TB SSD + Seagate IronWolf 10TB internal HDD | Synology DS920+ w/20GB RAM SHR 48TB
Skärmar: Acer Predator XB323UGX 32" 270Hz 1440p, Asus PG349Q 34" 120Hz 1440p UW, Asus PG279Q 27"
Foto:
Canon 80D & 60D + Canon 17-55/2.8 IS, Canon 10-22, Canon 70-200/2.8L IS II, Canon 100/2.8L IS Macro

Permalänk
Hedersmedlem

"Sweclockers säljer sig till Nvidia eftersom Nvidia får välja spel"

Jag har testat grafikkort i 12 år nu (började med Rendition) så jag är mycket väl medveten om att det alltid finns en risk att företag försöker lura dig genom att skicka väldigt specifika udda spel eller prestanda-demos som visar att just deras kort är bättre.

I detta fall fanns det aldrig någon tvekan om att det inte var fallet. Vi pratar om 5 av de absolut hetaste och nyaste spelen. Jag ägde redan flera av dem (saknade egentligen bara Dead Space och Left 4 Dead) och jag har väldigt svårt att förstå klagomål på att vi använder dessa spel? Jag hade även Crysis: WH med men tog bort det i slutet för att det helt enkelt var CPU-beroende oavsett vad jag hade för inställningar. Ingen mening att ha med det när alla kort får mellan 25-30 fps oavsett om man kör medium, high, 4xAA/8xAF eller 8xAA/4xAF och samma fps i alla upplösningar. Sen la jag till två extra spel just för att titta på lite äldre spel också. Helst hade jag velat hinna med 3-4 spel till men tiden fanns inte. Jag prioriterade att testa de hetaste spelen mot att testa Call of Duty, World in Conflict, Half Life 2 etc.

Jag är tvärtom glad över att jag haft möjlighet att testa dessa nya spel lite mer eftersom flera av dem definitivt är klart bättre för framtida testar än de äldre spel vi har använt tills nu. Det finns inget "fishy" med dess spel - de är säkert med i Nvidia's "The way it is meant to be played"-program men det är många andra spel som vi normalt testar också.

"Sweclockers säljer sig eftersom de använde sig av timedemos från Nvidia"

Återigen, tidigare har både AMD och Nvidia använt sig av väldigt specifika demos för att "visa" att de var bäst. Men återigen så bedömmde jag att det inte var fallet här. Det fanns inga "udda" inställningar i spelen utan allt sattes till maximum, precis som vi alltdi försöker göra. Det är normalt inget konstigt att AMD eller Nvidia skickar med save-games (jag fick t ex en bra save-game för Oblivion för några år sedan från AMD) eftersom det gör det möjligt att testa längre in i spelet.

Fallout 3: Vi fick en save-game från en bit i spelet. Det är en helt normal situation där man springer i en stad med folk som skjuter på dig. Om inte AMD klarar av detta så är det katastrof (och de klarade ju av det bra). Alternativet hade varit för mig att spela mig ut ett antal timmar för att nå en liknadne situation. Återigen, det var inget "udda" med save-gamen.

Call of Duty 5: Efter att ha testat lite olika ställen med Fraps så fick jag bra återupprepbarhet (är det ett ord?) på det området. Jag testade även att spela in hela starten från att man fritogs tills att man gick ut i skogen men där blev det större variation.

Dead Space: Detta är egentligen det enda spel som jag var lite tveksam till, något jag nämnde. Återigen var problemet att hitta ett område där man kunde upprepa Fraps-inspelningen. Så här får jag ta på mig lite att jag inte letade bättre.

Left 4 Dead: Ahh, jag ser att det är upprördhet över "Nvidia's timedemo". Problemet är att det inte är något speciellt timedemo. Det är inspelat inne i en skog med massor av Zombies som springer mot dig, exakt den typen av scener som hela spelet är uppbyggt runt. Faktum är att jag spelade in ett eget timedemo i början av spelet (Apartment, start ute på gatan fram tills man skjutit på bilen så larmet går och massor zombies myllrar ut) och fick liknande resultat, dock något mer CPU-beroende (cappade vid 76 fps istället för runt 96 fps i det andra demot och droppade inte så mkt när upplösningen gick upp).

Far Cry 2: Där kan ingen gnälla. Jag valde exakt de inställningar som jag skulle gjort annars, d v s allt maxat. Faktum är att jag valde att köra Ranch Medium istället för Ranch Small som Nvidia föreslog.

Varför gnäller ingen över att vi använde oss av Devil May Cry 43, test 2 - det är ju en standard test som både AMD och Nvidia använder i sina presentationer?

Jag är medveten om att folk är misstänksamma men det är just därför jag var helt öppen med vad vi testade så folk i viss mån kunde återupprepa resultaten.

"Din CPU 'flaskar' alla result"

En helt korrekt observation även om lite överdriven. Som jag nämde i testet hade jag helst velat göra det på en iCore7 men det enda systemet som finns på Sweclockers var upptaget så jag fick ta vad jag hade. Jag tycker dock att det överdrivs lite när det handlar om hur mycket det påverkar slutsatsen. Vi testade GTX 260 216 Core mot HD 4870 1 GB och vår CPU var helt tillräcklig för att visa skillanden mellan dessa två GPU'er. HD4870X2 och GTX 280 hade gillat snabbare processorer men de var inte huvudfokus i testet utan med bara som jämförelse.

"HD4870X2 resultaten är fel"

Jag var också lite förvånad över resultaten men problemet är så här: om jag kör tester flera gånger och får samma resultat, då måste jag rapportera dem. Jag kan inte låtsas om att de inte händer och om de händer mig kan de hända andra. Jag vet inte om det är drivrutinsproblem, jag använde mig av Cat8.11 som enligt release-notes ska ha Far Cry 2-fixarna, eller något annat men jag kan inte ge er andra resultat än de jag får. AMD själva skickade ut ett mail dagen innan där de sa att just dessa 5 spel inte var optimerade för Crossfire. Kanske är det problemet. Kanske håller mitt HD4870X2 att dö, kanske är det någon annan flaskhals som påverkar just det kortet.

Faktum är - under de senaste 4 dagarnas test så var det resultaten jag fick av det kortet vid upprepade tester. Vad förväntar ni er att jag ska göra?

Slutligen:

Jag har testat grafikkort i 12 år nu. Jag har blivit anklagad att vara biased för AMD, Nvidia, 3dfx, Rendition etc. beroende på vilka resultat jag fått. Kanske gjorde jag fel som var så öppen med hur hela testet var uppsatt men jag ångrar mig inte. Det enda sättet jag anser att man kan vara helt oberoende är att visa transparans. Om spel kommer från NVidia, varför inte säga det? Var och en kan då bedömma ifall det är något fishy med valet av spel. Jag tycker det absolut inte. De oberoende resultaten några av er frågar efter har ni fått. Jag har kört allt på en egen burk med egna kort och skrivit upp mina egna resultat. Nvidia eller AMD har inte haft någon möjlighet att påverka siffrorna. Att automatiskt tro att allt är fusk bara för att en recension initierats av ett företag funkar inte.

Det lustiga är väl att anledningen att jag var öppen och skrev ut allt som testades var just för att ge er transparans och att ni skulle förstå exakt vad som testats och hur och därigenom kunna återupprepa och se att det inte är något fishy. Jag har själv ofta blivit irriterad på tester där man har diagram men ingen förklaring exakt vad som testats och hur. Men uppenbarligen kanske det hade varit bättre att inte förklara?

Jag står 100% bakom denna test och mina resultat och ni är självklart välkomna att inte hålla med men jag hoppas att jag iallafall förklarat lite vad det handlar om och varför allt prat om att Nvidia styrt resultaten inte stämmer.

Visa signatur

-----------------------------------------------------
Ägare/grundare: www.bjorn3d.com

Permalänk
Hedersmedlem

aMpari: Jag hade tyvärr inte tillgång till en vanlig GTX 260 i helgen. Av någon udda anledning är mitt rum fyllt med AMD-kort (allt från gamla HD2600XT till HD470X2 - ni skulle se högrarna på skrivbordet ) men jag har inte så mkt Nvidia-kort så jag fick bland annat låna in ett GTX 280 från Öjvind.

sandin: Jag hann inte skicka imorse mend et kommer. Tänkte bifoga min egna inspelade demo också för att visa skillnaden (eller bristen).

Rushdie: Läs mitt svar ovan men också: jag har full skam i kroppen och jag klarar av att vara objektiv även om företag skickar produkter. Nvidia tvingade mig inte att göra något och definitivt inte att ställa in "deras" parametrar. De föreslog att alla inställningar skulle sättas till max och det är exakt vad jag ändå gör när jag testar denna typ av kort så det är inga konstiga inställningar. AMD föreslår normalt också inställningar för deras kort när de presenterar resultat. Och det brukar alltid vara att maxa ut inställningarna.

Att jag inte skrev mer om drivrutinen var att jag ändå inte har möjlighet just nu att testa den mer. Jag gav all info som jag kunde ge nu (Nvidia hade helst säkert velat att man inte sa ett ljud) utifrån vad jag kunde testa.

Det går att se konspirationer överallt - jag har varit helt öppen med exakt vad som testats, hur det testats, med vilka inställningar som testats och jag står bakom mina resultat till 100%

Visa signatur

-----------------------------------------------------
Ägare/grundare: www.bjorn3d.com

Permalänk

Skicka över demot till mig när du har tid. Fixar en test när jag kommer hem. Jag körde lite FRAPS i L4d igår 1680x1050 16af 4aa och om man ska dra en avg fps så var det någonstans mellan 90-107fps. Det blir intressant och testa din demo.

Visa signatur

http://battlelog.battlefield.com/bf4/user/xR_III666III_I/
YT https://www.youtube.com/user/IIIRef/videos
Intel Core I7 12700K Corsair 32GB 3600MHz ASUS PRIME Z690-P D4
ZOTAC 4080 GTX EVGA 1000w, Samsung G8 OLED

Permalänk

jag är nöjd med det jag har inget spel som jag inte kan spela med fullgoda inställningar och bra flow i spel nä väntar tills DX11 korten kommer då får man se om det blir mer ATI eller Nvidia hoppas dock på ATI för HD5870 är ett kanon kort.

men GF260 core 216 verkar inte fy skam

Visa signatur

|- ASUS P6T deluxe v2-|- Intel Corei7 920 stock speed stock cooling-|- XFX HD4890 i CF|- Corsair dominator 1600mhz DDR3 -|- ANTEC P190-|- samsung 226bw-|

Permalänk

Far Cry 2: Där kan ingen gnälla. Jag valde exakt de inställningar som jag skulle gjort annars, d v s allt maxat. Faktum är att jag valde att köra Ranch Medium istället för Ranch Small som Nvidia föreslog

Jag fattar varför de ville att du skulle testa ranch "small" man får nämligen mycket bättre fps om man kör den.

Vid medium ranch kommer det mer krävande grafiska effekter.

Visa signatur

http://battlelog.battlefield.com/bf4/user/xR_III666III_I/
YT https://www.youtube.com/user/IIIRef/videos
Intel Core I7 12700K Corsair 32GB 3600MHz ASUS PRIME Z690-P D4
ZOTAC 4080 GTX EVGA 1000w, Samsung G8 OLED

Permalänk
Avstängd

Ett HD4870 och framförallt HD4870X2 trivs ju med en bra processor. I detta testet presterar ju HD4870X2 riktigt dåligt jämfört med andra test.

Lite tråkigt då det ger en skev bild av prestandan.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av sadin
Fallout 3 har många buggar, t.ex om man spelar med AA så får man stora v-ram minnesluckor. Det kan man läsa på deras sida ,om det gäller geforce kort vet jag inte.

Sen är jag också intresserad vilken sekvens det är som nvdia har skickat. Kan inte tänka mig att det är Wasteland i allafall.

Vad det gäller fps så är den inte låst vid 60fps om man inte gör det själv.

V-sync ellr om man ändra fps i ini filen. Vilket många har gjort för att få så bra och jämn fps som möjligt.

Jag hade t.ex hög fps i Fallout 3 men vid AA så sjunker den från 70-75 till 30fps på 15min. Något är fel på drivers till 4800 serien. Spelar man utan AA så funkar det bra.

Det hade varit bra om ni kunde göra en ny test när de nya drivers till 4800 serien har kommit ut.

Lustigt, jag har ganska jämn fps nära 60 (men aldrig över) med 8xAA +15xAF 1920x1200. Det kan inte bli bättre och FPS gränsen stör ju inte i spel, bara i benchmarks.

Det ser ut precis som hardocp rapporterade:

http://enthusiast.hardocp.com/article.html?art=MTU4Nyw3LCxoZW...

Lägg märke till at 4870x2 slår i 60fps även vid 2560x1600. full AA, full AF. Med samma drivrutiner som används här. Kortet är alltså fullständigt överdimensionerat för även den höga upplösningen (Medel FPS 58 vid ett tak på 60 betyder ju att kortet inte ens behöver spänna musklerna på absolut högsta inställningar och upplösning.)

Jag kör utan vsync men har iofs inte ändrat i ini filen. Förstår bara inte varför gränsen skulle var ditsatt för ATI-kort och inte Nvidia-kort.

Visa signatur

Bänktester är i värsta fall som foton utan blixt i ett mörkt rum. Väggarna blir svarta. Med fantastisk repeterbarhet.
Q9450@3,6, Asus P5E deluxe (x48), True Rev. C PP
Hd5870@1052/1331
Silverstone Fortess II, Corsair HX750

Permalänk
Medlem

Mja jag undrar jag...skumt det här...

Visa signatur

Asus Prime Z390-A - Intel I7 9700KF - Corsair Vengeance 2x8GB 3200Mhz CL16 - MSI GeForce RTX 2080 SUPER 8GB Ventus XS OC - Creative Sound Blaster Z (skäms) - Corsair AX 1200i Digital 1200W 80+ Platinum - Fractal Design R6 - Sennheiser GSP 600 - Acer Predator XB271HUA

Permalänk
Medlem

Men det var väl ett dj..la gnäll om opartiskhet,fusk o andra löjliga påståenden.
VÄX UPP!!

Det är väl inte ovanligt att nya drivare medför bättre fps eller??. Dessutom som jag sagt tidigare är ju de här nya gtx260 korten i stort sett samma som gtx280 o då är det väl heller inte konstigt att de presterar bättre än 4870 korten??

Visa signatur

Money frees you from doing things you dislike. Since I dislike doing nearly everything, money is handy.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av tEan
Men det var väl ett dj..la gnäll om opartiskhet,fusk o andra löjliga påståenden.
VÄX UPP!!

Det är väl inte ovanligt att nya drivare medför bättre fps eller??. Dessutom som jag sagt tidigare är ju de här nya gtx260 korten i stort sett samma som gtx280 o då är det väl heller inte konstigt att de presterar bättre än 4870 korten??

De är väl inte alls som GTX280? GTX260 har 192 shaders, den nya har 216, medans GTX280 har 240. I övrigt ska frekvenser ohc så vara som i 192-modellen. Alltså är den mer lik GTX260 än GTX280. Men den borde heta GTX270.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av -Boris-
De är väl inte alls som GTX280? GTX260 har 192 shaders, den nya har 216, medans GTX280 har 240. I övrigt ska frekvenser ohc så vara som i 192-modellen. Alltså är den mer lik GTX260 än GTX280. Men den borde heta GTX270.

Jag sa NÄSTAN som gtx280

Visa signatur

Money frees you from doing things you dislike. Since I dislike doing nearly everything, money is handy.

Permalänk
Medlem

"Nvidia vill egentligen inte att vi pratar så mycket om dessa nya drivrutiner |...|Därför kommer vi bara snabbt att nämna några av de nyheter som finns i drivrutinen."
Jag kanske gör en övertolkning av texten, men jag tolkar det som: nVidia säger något, och ni lyder. Om nVidia inte hade uppmanat er att tala tyst om 180-drivrutinerna i testet, hade ni då gjort det?

De aktuella spelen och själva testet i sig var det inget fel på, även om HD4870x2-resultatet kanske skulle diskuterats lite mer.

Det kanske är det som jag hänger upp mig på. Bristen på diskussion runt metod och resultat? Första gången jag läste artikeln så lyfter man ju helt klart på ögonbrynen när det används timedemos och saves från enbart den ena tillverkaren. Om det nu är så att du, genom empiriska studier (:p) eller från andra källor, vet om att det inte är något fishy med dessa: Skriv detta då. Känslan man fick av recensionen var att det trillat ner en jiffypåse på hallmattan med ett GTX260 Premium, en skiva med lite demos/saves och en postit-lapp där det stod "gör ett bra jobb, så kommer det mer prylar att testa. -Puss nVidia" (viss sarkasm där ). Du har ju givit en trovärdig och vettig förklaring här i tråden till varför det gjorts på ett visst sätt i testet. En nerbantad variant av den diskussionen hade ju varit perfekt i testet.

THG:s blunder vid (och från) släppet av socket478-cpu:erna från Intel gav dem en seriös förtroendetörn de aldrig repat sig från, med all rätt. Därför är man lite kritisk när det dyker upp test i de här kategorierna.

Visa signatur

Nej är också service.

Permalänk
Hedersmedlem

Rushdie: NDA'n för de nya drivrutinerna gick ut den 19 nov så jag hade kunnat ägna en hel artikel om det. Enda anledningen att Nvidia bad testare att inte ägna hela artikeln till drivrutinen var att de naturligtvis ville att fokus skulel vara på GTX 260 216 Core och att de hoppades att testare skulle skriva en artikel om drivrutinen senare, något som jag inte tror vi kommer göra här då det inte hinns med (man behöver helst iCore7 med flera kort för att testa SLI-optimeringar etc.).

Jag skrev ändå lite om det viktigaste ändringarna för det ändå känns lite intressant.

Jag ska erkänna att jag faktiskt trodde att jag inte skulle behöva skriva mer än jag gjorde inför varje speltest eftersom jag visade exakt vad som testades och att jag sen ansåg att man ändå måste lita på att vi på Sweclockers har integritet. Samtidigt så borde jag förstått att just grafikkort (precis som konsoler) är ett väldigt känsligt område där många användare nästan blir lite för förälskade i "sitt" märke så nästa gång får jag vara övertydlig :).

Sen måste jag bara påpeka att bara för GTX 260 216 Core är lite bättre vid högre upplösningar så betyder det inte att HD4870 1 GB är crap, tvärtom. Jag var impad över hur mkt bättre den var i vissa spel än 512MB versionen och föredrar man AMD framför Nvidia så är det ett utmärtk val. Alla korten visade sig ju prestera jäkligt bra i dessa splitternya spel. Personligen tycker jag det aldrig varit så prisvärt som nu för oss spelare.

Visa signatur

-----------------------------------------------------
Ägare/grundare: www.bjorn3d.com

Permalänk

Ett alldeles utomordentligt bra test - sluta fjompa Er med att SweC skulle vara "mutade", "köpta" eller på annat sätt nVidia freaks.

En bra test som visar att nVidia har gjort sin läxa och lanserat drivrutiner och hårdvara som står sig mycket väl i konkurrensen - kul för oss alla nVidia såväl som ATI fanboys!

Ett tydligt bevis på att konkurrens är bra och främjar en stark produktutveckling - om inte ATI hade lyckats så väl med sina 4800 kort skulle nVidia aldrig lanserat dessa förbättrade versioner - utan fortsatt märka om gamla goa 8800 till 9810GTXZ - SS HXD och fortsatt mjölka marknaden. Nu får vi alla bättre prestanda till lägre kostnad - super!

Urvalet av spel är klockrent - de bästa och "största" spelen just nu - vilka skulle man annars välja? "Jimmie Jones and the flying Spearball" & "Bounty Bob Returns again"? eller??

Snälla Ni - sluta nu med tramset och var glada för att konkurrensen ökar ytterligare i prestandasegmentet!

Vänliga hälsningar,

Splattergnejs

Visa signatur

/ CoolerMaster Cosmos S / Asus P8Z77 - Deluxe / Core i7 2700k / Corsair Vengance 16 GB RAM / Palit Jetstream GTX 680 4 GB / SSD: Intel 320 / WD 750GB / Apple HD Cinema Display 30" / Genelec 6010A

Permalänk
Avstängd

Angående tester och kritik mot testet

Det är mycket sunt med kritiska läsare, det är även viktigt och ta till sig hur läsare uppfattar ett test.

När det gäller tester generellt på hårdvara så tror jag de flesta anser att det skulle kunna förklaras en hel del till vad det hela handlar om, i alla fall de som kan en del om hårdvara. Det vanliga vid dessa tester är gissningsvis att man endast tittar på graferna.

Bara en sådan sak som att båda dessa kort är snabba, de flesta fattar inte utan ser bara att en stapel är längre än en annan. Hela problematiken med hur FPS varierar och så vidare beroende på under hur lång spelsekvens man testar och i vilket spelområde.

Ett förtroende är så starkt som den senaste lögnen eller alternativt den senaste misstänksamma förklaringen man givit.
Det krävs att man arbetar på sitt förtroende för att behålla det och det är en konst. Tar lång tid och bygga upp men kan raseras på nolltid

Visa signatur

Programmerare med C++ som huvudspråk.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av splattergnejs
Ett alldeles utomordentligt bra test - sluta fjompa Er med att SweC skulle vara "mutade", "köpta" eller på annat sätt nVidia freaks.

En bra test som visar att nVidia har gjort sin läxa och lanserat drivrutiner och hårdvara som står sig mycket väl i konkurrensen - kul för oss alla nVidia såväl som ATI fanboys!

Ett tydligt bevis på att konkurrens är bra och främjar en stark produktutveckling - om inte ATI hade lyckats så väl med sina 4800 kort skulle nVidia aldrig lanserat dessa förbättrade versioner - utan fortsatt märka om gamla goa 8800 till 9810GTXZ - SS HXD och fortsatt mjölka marknaden. Nu får vi alla bättre prestanda till lägre kostnad - super!

Urvalet av spel är klockrent - de bästa och "största" spelen just nu - vilka skulle man annars välja? "Jimmie Jones and the flying Spearball" & "Bounty Bob Returns again"? eller??

Snälla Ni - sluta nu med tramset och var glada för att konkurrensen ökar ytterligare i prestandasegmentet!

Vänliga hälsningar,

Splattergnejs

Håller med till 100procent. Bra sagt!!

Visa signatur

Money frees you from doing things you dislike. Since I dislike doing nearly everything, money is handy.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av splattergnejs
Urvalet av spel är klockrent - de bästa och "största" spelen just nu - vilka skulle man annars välja? "Jimmie Jones and the flying Spearball" & "Bounty Bob Returns again"? eller??

Problemet är att ATI brukar vara några veckor efter nVidia med att få till prestandan. Tippar på att en av orsakerna är denna: http://www.nzone.com/object/nzone_twimtbp_gameslist.html

Gissningsvis dröjer det lite till innan nyare spel även är anpassade efter ATI's kort direkt vid släppet, 48xx korten har inte funnits så länge än och spel har långa utvecklingstider

Visa signatur

Programmerare med C++ som huvudspråk.

Permalänk
Avstängd

Bara en snabb fråga, skulle min Cpu E6850 på 4000 mhz flaska med ett sånt grafikkort i artikeln?.

Någon?.....

Visa signatur

Q9650 4212 Mhz - True coler - ASUS P5E Deluxe - Corsair Dominator 4Gb 8500 C5DF 1174 Mhz 5.5.5.15 - Crossfire Oklockat - HIS Radeon 4870 1GB - Asus Radeon 4870 1GB - Corsair Powersupply 1000W M - X-Fi - 1500Gb Hd's - Antec Nine Hundred - Windows 7 Pro 64bit - 24 Tum Benq - 3dmark Vantage 18758p - Xbox360 Slim + En dator i sovrummet till tv'n ,med 5.1 ljud för mys. En laptop med till frugan. Plus annan Hightech..

Permalänk
Medlem

Kudos till Björn Endre som tar sig tid att kommentera i tråden. Det är starkt gjort när det varit så enkelt att bara strunta i alla som skriker hit och dit. Tycker väldigt många på forumet beter sig som sjuåringar.

Jag gillar både ATi och Nvidia. Men det är enormt konstigt att 4870x2 presterar sämre än 4870 i vissa tester. Om 1+1 blir 0.93 så är det något som är riktigt galet även om ATi skyller på att de inte haft tid att förbättra drivrutinerna. Det känns som en dålig ursäkt och är inte godkänt oavsett vilket företag som ligger bakom.

Visa signatur

Dator: MSI P67A-C45 B3, Intel Core i5 2500K @ 3,3 Ghz, 16 GB Corsair Vengeance DDR3 1600Mhz, MSI GTX 970 Gaming 4G, Samsung 850 EVO Series 500GB SSD, 4TB Seagate SATA2, Windows 10. Chassi: Define XL R2 Black Pearl. Monitors: Samsung 28" 4K LED U28E570D + Philips Brilliance 23" TFT Wide.
Inet - gratis frakt

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Vargen1973
Bara en snabb fråga, skulle min Cpu E6850 på 4000 mhz flaska med ett sånt grafikkort i artikeln?.

Någon?.....

Beror på, det är alltid någon del på datorn som begränsar hastighet.

Laddar du ett program för första gången så är det hårddisk, ibland är det minnet som begränsar, processor och grafikkort begränsar de med. Beror på vad du gör.

Vid spelande så är det väl i första hand minne, grafikkort eller processorn samt kommunikation mellan dessa delar som påverkar hastigheten. Vilken del vid en specifik tidpunkt som begränsar beror på vad som händer i spelet.
Så länge frames presenteras så snabbt att dina ögon inte kan uppfatta någon fördröjning så spelar det ingen roll.

Visa signatur

Programmerare med C++ som huvudspråk.

Permalänk

Nej den kommer inte att flaska för dig.

Visa signatur

http://battlelog.battlefield.com/bf4/user/xR_III666III_I/
YT https://www.youtube.com/user/IIIRef/videos
Intel Core I7 12700K Corsair 32GB 3600MHz ASUS PRIME Z690-P D4
ZOTAC 4080 GTX EVGA 1000w, Samsung G8 OLED

Permalänk
Medlem

"Vi vet ännu inte ett exakt pris för kortet men det bör hamna på 2 500–3 000 kronor eftersom det är där som konkurrerande GTX 260 216 Core ligger."

bara ja som tycker de låter lite fel? o.O är ju de kortet ni pratar om ;P

Permalänk
Hedersmedlem

contra: GTX 260 216 Core är namnet på GPU'n (har även sett GTX 260 Core 216 nämnas, den tycks inte dykt upp på Nvidia's site än så vad de kallar den till slut är en bra fråga). Kortet vi testar som använder denna GPU är Point of View Geforce GTX 260 Premium och det är priset på just detta kort jag pratar om. Det finns några 216 core GTX 260 i prisjakt och de ligger på just 2500-3000 kronor.

Visa signatur

-----------------------------------------------------
Ägare/grundare: www.bjorn3d.com

Permalänk
Moderator
Testpilot
Citat:

Ursprungligen inskrivet av Björn Endre
contra: GTX 260 216 Core är namnet på GPU'n (har även sett GTX 260 Core 216 nämnas, den tycks inte dykt upp på Nvidia's site än så vad de kallar den till slut är en bra fråga). Kortet vi testar som använder denna GPU är Point of View Geforce GTX 260 Premium och det är priset på just detta kort jag pratar om. Det finns några 216 core GTX 260 i prisjakt och de ligger på just 2500-3000 kronor.

Då undrar jag vilka kort du har hittat för när jag filtrerar på Prisjakt så hittar jag kort mellan c:a 2800-3600:- för GTX 260 Core 216. Lite skillnad det. HD4870 1GB ligger mellan c:a 2400-3300:-.

Kanske hade varit intressant att gjort den jämförelsen också?

Sen så är det enligt min åsikt fullkomligt ovidkommande hur många år du har testat grafikkort det gör dig inte automatiskt till en objektiv testare. Du kan testat grafikkort i 50år om du så vill jag bedömmer dig efter artikeln du skriver. Det är t.ex. inte särskilt tekniskt ingående för att uttrycka sig milt, vilket avslöjar att dina tekniska kunskaper kanske inte är så avancerade, dock inte sagt att det är så men man tror ju inget annat iaf.

Personligen ser jag alldeles för många varningstecken för att kunna lita på ett sånt här test. Varför testa efter Nvidias önskemål? Du måste väl rimligen ha arbetat fram en egen metod vid det här laget? Göra enga timedemos är ju knappast särskilt svårt. Om du inte kan göra något ordentligt (t.ex. vänta tills ni får tag på ett i7core-system eller få vettiga resultat med ditt HD4870x2) så gör det inte alls.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Avstängd

Håller med Dinoman.

Har man inte utrustningen som krävs för att göra ett objektivt test kanske man inte ska göra testet, för konsumenternas skull.
Ta bort testet säger jag, och lägg upp ett nytt gjort på en snabbare plattform. Och kör med neutrala timedemon.