Ursprungligen inskrivet av StrydeR
De va du gillade att få källor uppslängda i ansiktet va? Well, skämt o sido, du ska få lite här.. Sweclockers publiserade för ett tag sedan en nyhet angående grafikminne, den kan du hitta här: http://www.sweclockers.com/forum/showthread.php?threadid=7284...
Där hade det testats grafikkonsumtion i olika spel, här kommer lite diagram från nyhetens länkade sida:
http://www.yougamers.com/articles/13801_video_ram_-_how_much_...
Oblivion:
http://www.yougamers.com/articles/13801_video_ram_-_how_much_...
WIC:
http://www.yougamers.com/articles/13801_video_ram_-_how_much_...
COD4:
http://www.yougamers.com/articles/13801_video_ram_-_how_much_...
Crysis demo:
http://www.yougamers.com/articles/13801_video_ram_-_how_much_...
Finns även tester på Colin Mcrae - dirt och Stalker mm på sidan som du kan kika på..
Enligt dem skall COD4 gärna roffa åt sig strax under 400MB grafikminne om det får och jag tyckte mig känna det i deras singleplayerdemo också. Dock var det förmodligen något annat som skummade sig med då fullversionen funkar prima. Men om jag har fel i att COD4 inte kräver ett skit som du säger så är det uppenbarligen fler som har det också.
citat ur deras test:
"Permission to say "ouch", Sargent? Lowest resolution, no AA, on max details = not even for 256MB or 320MB VRAM, thank you very much. Call of Duty 4 is not only about modern warfare but modern graphics cards too."
Fast jag vet inte riktigt hur du kom in på detta. Jag skrev andra spel som krävde mer prestanda ur datorn än vad Cod 4 gör, oavsett om Cod4 käkar upp mer minne än vad till exempel Call of juares skulle ha gjort så kräver Call of Juarez mer av din dator för att få ett flytande lir. Förstår du vad jag menar?
Ursprungligen inskrivet av 2good4you
Jo, så har vi exakt samma test här i stort sett där skillnaden är mindre från en mer känd site också:
http://anandtech.com/video/showdoc.aspx?i=3175&p=8
Betydligt mindre skillnad mellan 8800GT och 3870. Och dom kör fler spel också.
Jag och alla på hela Sweclockers vet att Sweclockers test är korrekt men som de flesta vet så skiljer det från test till test och olika faktorer spelar in till varför det var större skillnad mellan HD3870 och 8800GT. En av faktorerna kan vara att i Sweclockers test så har man en bättre processor som presterar bättre och bara en processor som är bättre kan göra lite grann och det vet du om right?
Jag vet om att Anandtech förmodligen är de största i världen och jag vet också om att de aldrig fuskar på något sätt, men inte gör Sweclockers detta heller. Sweclockers gör bra prestandatester.
Ursprungligen inskrivet av 2good4you
Vad jag vet så har dom haft AA tester i fler tester hela tiden, även första gången jag såg det. Det förändrar ju dock inte saken mycket, HD38xx korten ligger fortfarande bra till och sweclockers resultat jämfört med dom på anandtech är ju klart missvisande.
Det har dom icke. Detta var nog bland de första testerna på ett tag de använde sig av AA i alla fall.
Ursprungligen inskrivet av Ratatosk
Och sen är det detta med ATI:s hotfix och Nvidias Betadrivare (169.02 är vad jag ser på deras hemsida).
På Anandtechs test? Det är 169.12 och 7.11.
Ursprungligen inskrivet av KnightCharger
Väldigt mycket på en gång men skall se om jag kan besvara en del här iaf.
Alla tester är alltid en kompromiss då man inte har en möjlighet att få allt perfekt (för alla målgrupper). Syftet var i första hand att denna gång ge en översikt över alla (så många som möjligt) dx10 grafikkort på marknaden. Vi har inte tillgång till speciellt många äldre dx9 grafikkort och jag kan garantera att det är minst sagt svårt att få någon att skicka sådana idag.
Man väljer självklart det lämpligaste grafikkort för testerna (om man ens har flera att välja mellan), men i första hand testar man tillverkarens grafikkort istället för att sänka frekvenserna och kalla den Nvidia Geforce 8800 GT. De lär inte bli speciellt glada om man ställer ner frekvenser...:) Skulle man även välja att ha med standardfrekvenser, dvs 1. maximal överklocking 2. biosfrekvenser 3. nedställda frekvenser får man således tre värden för ett antal grafikkort. Diagrammen har redan mycket information och då får man säkert många klagomål på detta, dvs att det blir svårlästa diagram. Utöver det så skulle det inneburit att man kunde haft med färre grafikkort (pgr av tidsbrist). Idag har kanske runt hälften av alla 8800GT-kort högre frekvenser än vad nvidia angav som specifikation. Samma utveckling börjar komma även på ATI-sidan så snart lär det se likadant ut där. Har än så länge inte sett något stort test där man haft tre prestandasiffror på detta sett.
Nvidia-korten var inte shaderöverklockade (8800 GT var shader överklockat i förra testet) då det helt enkelt inte fungerade tidsmässigt att testa stabilitet på minnes, gpu och shader överklockning. Vi valde därför minnes och gpu frekvenser. Det går således att få ut lite mer prestanda i överklockningarna för nvidia-korten. Att 8800GT inte fick så pass mycket högre prestanda i flera spel (när man överklockade) är knappast konstigt då kortet redan hade höga frekvenser. Med shaderöverklockning kan man tex räkna med 100 extra poäng i 3dmark 06 för MSIs 8800GT-kort. HD 3870-kortet klockade inte så bra. Har testat med ett annat HD 3870 som kommer högre (ganska stor skillnad). Problemet var helt enkelt det kortet då jag flashade om båda dessa kort på samma sätt (dvs det var inte ett bios problem).
Har haft i åtanke att göra helt andra grafikkortstester där man går djupare in på ett fåtal kort och kanske även byter kylflänsar m.m. Testet är definitivt inte i första hand för dem som redan har läst "alla" tester och vet vad korten går för utan var från början tänkt att ge en uppfattning om hur de olika modellerna står sig mot varandra. Det kommer att presenteras tester som har olika syften och kanske olika huvudmålgrupper.
Sannolikt är vi inte klara med jämförelser av prestandamodellerna, man kanske även kan se detta som en början.
Vi förstår detta och du gjorde mycket bra ifrån dig.
Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.