Geforce 9800 GTX är en trimmad G92

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av A.N'doja
Vill du att jag skall kasta 15 test på dig som bevisar det jag skriver? Eller orkar du söka själv? Titta på AA prestandan, när man aktiverar AA så ser det mycket bra ut för 9600GT. Utan AA är det inte ens lönt att diskutera.

Faktum kvarstår att 9600GT presterar mycket sämre än 8800GT i Crysis som är ett extremt grafik intensivt spel och drar stor nytta av fler SP. Det kan vi se mellan 8800GT och 8800GTS 512. Att diskutera AA i Crysis gör man inte då vi pratar om 10-15fps och här lägger sig de flesta högpresterande grafikkort på samma nivå då inget klarar trycket. Alla spel drar inte så stor nytta av fler SP när man har kommit över en viss gräns. Där presterar 9600GT mycket bra, då kortet i övrigt har liknande spec. som 8800GT.

Ingen kan veta idag hur 9800GTX kommer prestera. Jag tror hur som helst inte på några stora förbättringar arkitekturmässigt gentemot G92. Om den har frekvenser om 750+/2400MHz som det har rycktast om kommer kortet ändå prestera riktigt bra och klart bättre än 8800GTS 512/8800Ultra. 9800GTX kommer ju som sagt inte heller vara det "bästa" kortet, utan 9800GX2. Med bra drivisar kan det prestera 30-50% över Ultra, vilket inte är fy skam.

Permalänk

_NEJ usch fy, där rök ett GTX för 9 serien...

Visa signatur

CPU i9-9900K GPU ASUS RTX 2080 TI Strix OC MB ASUS STRIX Z390-E RAM Corsair VENGEANCE RGB 32GB DDR4 3200MHz Case Fractal Design Define C PSU EVGA G3 850W Cooling Noctua D15
Monitor MSI Optix MAG342CQR SSD Samsung 970 EVO 500GB 860 EVO 500GB 860 QVO 2TB + QVO 4TB PLEX Server 2x HC560 20TB+WD RED 2x10TB+12TB

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av oscarstegland
Som sagt är detta G92 och inte G94 som användes på 9600gt. Ingen vet ju om det går att anpassa G92 på samma sätt som G94. Dessutom är ju G94 en helt ny GPU så vi har ju egentligen ingen aning vad de har gjort med den. Om det är de höga frekvenserna som har åstadkommit prestandan eller om det som sagt är lite tweaking osv.

Vi vet hyffsat väl vad de gjort. G94 är en G92 med hälften så många Shaders och TMUer, där de ökat frekvensen 20% för att kompensera shaderprestandan. Dessutom har de dubblerat TMUernas bredd för att kompensera det minskade antalet TMUer samt gett ROPsen effektivare komprimering vilket ger upp till 15-20% bättre prestanda.

Med andra ord är det jättemöjligt att göra med G92 som de gjort med G94. För det är precis det de gjorde när de skapade G94. Frågan är om man kan göra en G94 med 128 streamprocessorer eller om chippet blir för stort.

Så, som det ser ut nu så står det mellan uppklockade G92or eller om det är förstorade G94or. Det lutar åt G92or men som sagt kan man aldrig vara säker.

BTW:
Denna nyheten stärker ju faktiskt teorin om att det är G92or.
http://www.sweclockers.com/nyhet/7068-nvidia_forbjuder_oc-mod...

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av -Boris-
Vi vet hyffsat väl vad de gjort. G94 är en G92 med hälften så många Shaders och TMUer, där de ökat frekvensen 20% för att kompensera shaderprestandan. Dessutom har de dubblerat TMUernas bredd för att kompensera det minskade antalet TMUer samt gett ROPsen effektivare komprimering vilket ger upp till 15-20% bättre prestanda.

Med andra ord är det jättemöjligt att göra med G92 som de gjort med G94. För det är precis det de gjorde när de skapade G94. Frågan är om man kan göra en G94 med 128 streamprocessorer eller om chippet blir för stort.

Så, som det ser ut nu så står det mellan uppklockade G92or eller om det är förstorade G94or. Det lutar åt G92or men som sagt kan man aldrig vara säker.

BTW:
Denna nyheten stärker ju faktiskt teorin om att det är G92or.
http://www.sweclockers.com/nyhet/7068-nvidia_forbjuder_oc-mod...

Ja det är har du rätt i

Det roliga är att 8800GTS G92 klockar fint och att det är så lätt att själv klocka dom. Det blir intressant om det blir någon skillnad klock mot klock när kortet väl kommer och om kortet presterar i närheten av priset som är satt.

Visa signatur

Is it "for fucks sake" or "for fuck sake"? Its for a work email so it has to sound professional.

Permalänk
Medlem

Haha, patetiskt. ATIs HD4K bygger ju på R700, som är en helt ny kärna. Så himla puckat att ge ett nytt namn åt samma kärna...

Visa signatur

CPU: AMD Ryzen 7 7800X3D CO + 2133 MHz FCLK GPU: Sapphire RX 7900 XT Pulse OC
RAM: Corsair 2x16GB 6000 MT/s CL30 (Hynix) BZ subtimings
MB: ASUS ROG Strix B650E-F Gaming WIFI SSD: Kingston KC3000 2TB PSU: Corsair RM850x

Permalänk
Medlem

Kul med lite konkurrens! Kanske får bli ett ATI nästa gång då.

har svårt att förstå folk som bryr sig om märket på kortet? Prestanda/pris är det enda som räknas.

Permalänk

Vill inte uttala mig om hur 98xx-serien kommer att prestera innan tillförlitliga test finns att tillgå. De kan floppa, men också bli ett bra steg framåt.

Däremot bekräftar detta, om det nu stämmer att det är G92-kärnan, att Nvidia blivit urdåliga på att döpa sina grafikkort. Att de första G92-korten fick etiketterna 8800GT/GTS var förvirrande nog och borde givetvis ha hetat 8850 eller 8900. Och nu blir det ju än värre när de senare G92-korten räknas som en ny generation.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av raekan
Fanboy my ass.

Är man fanboy för att man kommer med konkreta fakta? Om du är opåläst så beklagar jag detta men delar gärna med mig av info.

http://www.nordichardware.se/Recensioner/?page=9&skrivelse=19...

Upp till 10ggr så snabbt som Geforce4 Ti4600 i mer krävande situationer, där kan vi snacka om utklassning som heter duga. Som de flesta vet så tog det lång tid för Nvidia att återhämta sig från detta då inte ens efterföljande generation (Geforce FX) kunde slå ATI på fingrarna. Därmed inte sagt att ATI är ett bättre företag, pendeln svänger fram och tillbaka. Nvidia hade nyligen ett försprång som varat bra länge och vem vet vad som händer i framtiden. Jag köper det som är bäst för tillfället, just nu har jag dock inte behov av någon speldator så jag kör på mitt gamla Geforce3 som var bäst då det begav sig

Visa signatur

ASUS K7M, AMD Athlon 1000 MHz Slot A, 3dfx Voodoo5 5500 64 MB AGP, 512 MB SDRAM @ CL 2-2-2-5, Cooler Master ATC-100-SX Aluminum Mid Tower.

Permalänk
Inaktiv
Citat:

Ursprungligen inskrivet av Delerium
Är man fanboy för att man kommer med konkreta fakta? Om du är opåläst så beklagar jag detta men delar gärna med mig av info.

http://www.nordichardware.se/Recensioner/?page=9&skrivelse=19...

Upp till 10ggr så snabbt som Geforce4 Ti4600 i mer krävande situationer, där kan vi snacka om utklassning som heter duga. Som de flesta vet så tog det lång tid för Nvidia att återhämta sig från detta då inte ens efterföljande generation (Geforce FX) kunde slå ATI på fingrarna. Därmed inte sagt att ATI är ett bättre företag, pendeln svänger fram och tillbaka. Nvidia hade nyligen ett försprång som varat bra länge och vem vet vad som händer i framtiden. Jag köper det som är bäst för tillfället, just nu har jag dock inte behov av någon speldator så jag kör på mitt gamla Geforce3 som var bäst då det begav sig

Jag har inte på något sett jämfört nVidia med ATi i sammanhanget; du gjorde det. Men för all del, bevisa ATis storhet för dig själv om det gör dig upphetsad. Tänker inte mäta penis med dig, kthxbye.

Har ägt både ett Ti4600 och ett 9800Pro, och då det senare dog över en natt och det förstsagda lever än idag i min mors dator, kan jag med rätt lägga fördel på nVidia.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av -Boris-
Vi vet hyffsat väl vad de gjort. G94 är en G92 med hälften så många Shaders och TMUer, där de ökat frekvensen 20% för att kompensera shaderprestandan. Dessutom har de dubblerat TMUernas bredd för att kompensera det minskade antalet TMUer samt gett ROPsen effektivare komprimering vilket ger upp till 15-20% bättre prestanda.

Med andra ord är det jättemöjligt att göra med G92 som de gjort med G94. För det är precis det de gjorde när de skapade G94. Frågan är om man kan göra en G94 med 128 streamprocessorer eller om chippet blir för stort.

Så, som det ser ut nu så står det mellan uppklockade G92or eller om det är förstorade G94or. Det lutar åt G92or men som sagt kan man aldrig vara säker.

BTW:
Denna nyheten stärker ju faktiskt teorin om att det är G92or.
http://www.sweclockers.com/nyhet/7068-nvidia_forbjuder_oc-mod...

Så om G94 optimerats 15-20% kan även G92 optimeras samt högre klock så då är det inte så dåligt ändå Så sluta klaga så mycket, förutom att det bara är 512 GDDR3 som är ett kliv tillbaka från GTS 640 och GTX 768. GTX/Ultra borde ha 1024 för att klara höga upplösningar med AA och AF för det är ju det man köper D9E (Enthusiast) för?! Men det kommer säkerligen i en sådan version också precis som GT och GTS

Var har du källorna Boris? Bra skrivet annars!

Visa signatur

HTPC Lian Li PC-A05FNB | Intel Core i5-13400 | 32 GB DDR5-6000 | 4,5 TB SSD | RTX 4070 12 GB
Laptop Razer Blade 15 Base 2021 | Intel Core i7-10750H | 16 GB DDR4-2933 | 1,5 TB SSD | RTX 3070 8 GB
Laptop Lenovo ThinkPad E585 | AMD Ryzen 5 2500U | 16 GB DDR4-2400 | 756 GB SSD | Radeon Vega 8

Klocka GTX 460 med NiBiTor 5.8

Permalänk

Jag förstår inte varför de inte döpte hela G92 till 9800GT 512 MB, 9800GTS 512 MB osv osv

Visa signatur

|| Gigabyte GA-MA790X-UD3P || AMD Phenom II X4 955 @ 3,8 GHz || 2*2 GB Kingston HyperX PC8500 || Asus Radeon HD 5850|| Zalman ZM600-HP600W || Windows 7 64-bit ||

Permalänk

9800 GTX= en överklockad 8800 GTS 512 mb?
Herregud alltså, vem i hela friden kommer köpa 9800 GTX då?

Permalänk
Medlem

Är rätt logiskt med tanke på att kommande nVidias dual G92 kort heter 9800GX2, skulle då inte hålla att ett GTX kommer med GT200 kärnan och är ungefär dubbelt så snabbt eller mer.

Att dom drar på dubbla interconnectbryggor för tri-SLI och vässar frekvenserna till det yttersta är väl inget konstigt.

Förövrigt ser det riktigt lovande ut för AMD med deras kommande HD4000 serie och R7xx/RV7xx. Det ser ut att bli riktigt snabba grafikprocessorer när det verkar som att dom implementerat fler TMU's nu, vilket har varit tidigare generationers flaskhals i nästan allt.

Visa signatur

[ AMD 7800X3D // EK-Block @ custom loop, 2x420mm ][ MSI B650 Tomahawk ][ 32GB G.Skill Z5 Neo @ DDR6000 CL28 1T ][ AMD 7900XTX @ custom loop ][ Corsair 750D // Corsair RM1000X ][ 2TB Samsung 990PRO M.2 SSD ][ Win10 PRO x64 ][ LG 34GN850 ]

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Arzei
Haha, patetiskt. ATIs HD4K bygger ju på R700, som är en helt ny kärna. Så himla puckat att ge ett nytt namn åt samma kärna...

Som ATi gjorde med sin HD3000 serie som inte är mycket mer är en krympt HD2000 serie?
Skillnaden är den att nVidia istället för att gå upp till 9000-namnet när de krympte, vid G92, så väntade de ett tag. De gör alltså precis samma sak, fast AMD gjorde det direkt vid processbytet och nVidia väntade av någon anledning.

Men det är alltså inte det att det byter namn som är korkat, utan att de väntade.

Citat:

Ursprungligen inskrivet av raekan
Jag har inte på något sett jämfört nVidia med ATi i sammanhanget; du gjorde det. Men för all del, bevisa ATis storhet för dig själv om det gör dig upphetsad. Tänker inte mäta penis med dig, kthxbye.

Har ägt både ett Ti4600 och ett 9800Pro, och då det senare dog över en natt och det förstsagda lever än idag i min mors dator, kan jag med rätt lägga fördel på nVidia.

Du var inte mogen du. Han sa ju uttryckligen att han inte favoriserade ATi och att nVidia nu länge haft ledningen, bara det att Radeon 9000 serien var bättre än GF4, vilket han backade upp ordenltigt med konkreta siffror. Du kallar honom för fanboy trots det och pratar om penismätning och skit.

Du säger dessutom i ena meningen att du inte pratar om märken utan att det är han som gör, meningen efter så har du igen låst dig vid att han pratar om ATi som företag vilket han uttryckligen inte gör. Han säger bara att ATi hade en serie som slog en GF serie stort. Samtidigt som han på pekar att nVidia nyligen haft samma övertag och att pendeln svänger.

Sedan var det knappast kiselkretsen som gick sönder i ditt grafikkort. Det beror nog mer på kretskortstillverkarens komponenter, otur/slump, och andra omständigheter. Så skyll inte på ATi där. Om en kondensator ger efter så är det lika stor risk på nVidias grafikkort som ATis. Faktiskt du som visar Fanboy-tendenser där.

Citat:

Ursprungligen inskrivet av Calle2003
Så om G94 optimerats 15-20% kan även G92 optimeras samt högre klock så då är det inte så dåligt ändå Så sluta klaga så mycket, förutom att det bara är 512 GDDR3 som är ett kliv tillbaka från GTS 640 och GTX 768. GTX/Ultra borde ha 1024 för att klara höga upplösningar med AA och AF för det är ju det man köper D9E (Enthusiast) för?! Men det kommer säkerligen i en sådan version också precis som GT och GTS

Var har du källorna Boris? Bra skrivet annars!

Du läste inte så noga va? Om man gör det så har du ju gjort en G94. Alltså du kan inte optimera G92 på samma sätt som G94 utan att göra en till G94. Så antingen är det "ooptimerade" G92 eller så är det "optimerade" G94.
Men faktum är att de är ungefär lika optimerade, de har bara lagt olika fokus på de olika kretsarna. G94 kan kanske inte köras med så många streamenheter som G92 och är isåfall oduglig till 9800 GTX.

Källor är diverse G94 reviews. Jag har inte adresserna nu då jag hälsar på hos morsan.

Permalänk

Önskar man fick en överskådlig graf med speltester över alla de här nya korten (..och då talar jag inte om de som INTE kommit än..lol, det finns en uppsjö av nya nvidia kort)

Sämsta är väl 8800GS, inte alls pjåkigt imo....kommer nära 8800GTS 320MB i prestanda ?
Sen finns 8800GT 256MB och 512MB, 8800GTS 512MB, och nu senaste lanseringen 9600GT.

3 av de 5 är snarlika, och GS kortet kanske spöar 256MB GT...i de tester jag sett halkar nvidias 256Mb mycket efter ATIs HD3850 256MB.

Nu kommer 9800GT inom en månad...hamnar lite över 8800GTS 512? pris efter prestanda ? 10% mer ? Sen finns de gamla rävarna, 8800GTX o Ultra.

Vilka kort BEHÖVS egentligen för att täcka marknaden/kraven ? Förut fanns 8600GT, och nästa kort hade dubbla prestandan; 8800GTS 320MB

Gissar att några G92 kort ur 8-serien kommer plockas bort, om nu 9-seriens kort presterar samma.

Visa signatur

ASUS ROG Strix G17 G713QR-HG022T (Ryzen 9 5900HX, RTX 3070 Max-P 115+15W, G.Skill Ripjaws 2x16GB 3200MHz CL22 1.2v (F4-3200C22D-32GRS), 17.3" 1920x1080 300Hz 3ms, 2x1TB NVMe) + 27" 2560x1440 Acer Nitro XV272UV + Corsair K55 RGB + Deltaco DM210

Permalänk
Medlem

Who didn't see that one coming...

Visa signatur

Memento mori...

Permalänk

Lite off topic kanske..
men vilket kort kommer vara bäst: 9800GX2 eller Radeon HD 4870 X2?
Kan nån svara plz.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av raekan
Jag har inte på något sett jämfört nVidia med ATi i sammanhanget; du gjorde det. Men för all del, bevisa ATis storhet för dig själv om det gör dig upphetsad. Tänker inte mäta penis med dig, kthxbye.

Har ägt både ett Ti4600 och ett 9800Pro, och då det senare dog över en natt och det förstsagda lever än idag i min mors dator, kan jag med rätt lägga fördel på nVidia.

Och precis samma sak kunde hänt TI4600 kortet och har inget med ATI att göra över ett exemplarsfel. R3xx utpresterade NV2x (GeForce3/4) och även hela NV3x (GeForceFX) serien, både i bildkvalité och prestanda med hästlängder.

Blackbird_CaD_: Kommande 4800 serien.

Visa signatur

[ AMD 7800X3D // EK-Block @ custom loop, 2x420mm ][ MSI B650 Tomahawk ][ 32GB G.Skill Z5 Neo @ DDR6000 CL28 1T ][ AMD 7900XTX @ custom loop ][ Corsair 750D // Corsair RM1000X ][ 2TB Samsung 990PRO M.2 SSD ][ Win10 PRO x64 ][ LG 34GN850 ]

Permalänk
Medlem

Det "göttaste" (gbg-slang) e ju ändå att mitt 8800Ultra som jag köpte för några månader sen, (som jag räknade med skulle vara ett floppköp), FORTFARANDE ligger i topp o äter det mesta. Det gör ju att det känns lite mer värt sina pengar.

Visa signatur

1: Win7, i7 920@4GHz, 12GB Dominator, Gainward 4870x2, CM Cosmos, 150GB Raptor + 750GB HDD
2. SuSE 11.1, Q9550@400x8½, 8GB A-Data, GeForce 8500GT, Antec 1200, 4TB HDD

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Blackbird_CaD_
Lite off topic kanske..
men vilket kort kommer vara bäst: 9800GX2 eller Radeon HD 4870 X2?
Kan nån svara plz.

Enligt de obekräftade specifikationerna bör Radeon HD 4870 X2 vara bättre men ingen vet än

Visa signatur

ASUS K7M, AMD Athlon 1000 MHz Slot A, 3dfx Voodoo5 5500 64 MB AGP, 512 MB SDRAM @ CL 2-2-2-5, Cooler Master ATC-100-SX Aluminum Mid Tower.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Blackbird_CaD_
Lite off topic kanske..
men vilket kort kommer vara bäst: 9800GX2 eller Radeon HD 4870 X2?
Kan nån svara plz.

Försöker du göra dig lustig?

Permalänk
Inaktiv

-Boris-, spara mig predikan. Jag är till fullo medveten om att 9800:an på alla vis var prestandamässigt överlägsen, det behöver varken du eller någon annan motivera.

Jag favoriserar det jag känner för, liksom du, och alla andra gör. Det jag inte behöver från något håll är vet-bättre folk och besserwissrar. Kalla mig omogen om du vill, darling.

Permalänk
Citat:

Ursprungligen inskrivet av oscarstegland
Utan AA är väldigt värt att diskutera. Kolla på Crysis till exempel vilket är det enda spelet som verkligen har problem med dagens bästa grafikkort. AA gör nästan ingenting för Crysis men halverar nästan fps:en. Dessutom så spelar ju de flesta Crysis utan AA. Om man kollar på andra spel som CoD4 så är ju AA nästan garanterat men det är nyttigt att få en komplett bild på hur kortet presterar, dvs med AA såväl som utan AA.

Å andra sidan är 3dmark bättre optimerat än något spel på marknaden och det skulle därför inte förvåna mig om det utnyttjar ATIs "felaktiga" shader struktur (i clusters av fem tror jag det är i stället för Nvidias individuella shaders) precis lika mycket som det utnyttjar Nvidias shader struktur vilket genast elimininerar mycket av den skillnad i spelprestanda mellan 2900xt och Ultra till exempel. I 3dmark tror jag inte att 2 ultra kommer prestera märkbart mycket bättre än 2900xt.

Självklart kommer dom inte göra det (det kommer i alla fall vara bättre än Ultra, återstår att se 3870x2 vs. 9800gtx) och det är bra att du uppmärksammar folk om det. Å andra sidan är ju frågan hur mycket bättre det blir. Om ett 9800gtx bara är 10% bättre än Ultra vilket innebär ca. 3-5 fps i Crysis (höga inställningar alt. höga upplösningar) så blir det ju ändå inget kul kort. Jag hoppas att Nvidia levererar men jag hoppas framförallt att ATI tar tillbaks prestandatronen så att det blir lite jämnar och lite mer konkurrens (billigare kort, bättre kort från båda sidor)

För att stressa korten max aktiverar man AA och att ni i tråden hänger upp er på Crysis, förstår inte riktigt. Det kommer snyggare spel framöver som kräver mindre. Titta bara på Dunia motorn, så mycket mer effektiv än vad CryEngine2 är.

Det finns även spel som inte alls är speciellt snygga som kräver ruskigt mycket av datorn när man aktiverar AA så det är snarare Crysis som misslyckats med AA optimeringen i spelet.

Men självklart skall man prestanda testa utan AA också men då får man ingen rättvis bild om vilket grafikkort som presterar bäst. Om man med AA aktiverat får 7fps i Crysis eller 76fps i Oblivion är ganska ointressant. Det intressanta är vilket kort som får mest fps i majoriteten spel med AA/AF aktiverat tillsammans med max ingame quality och upplösningar, dont you think?

Citat:

Ursprungligen inskrivet av Gurrty
Faktum kvarstår att 9600GT presterar mycket sämre än 8800GT i Crysis som är ett extremt grafik intensivt spel och drar stor nytta av fler SP. Det kan vi se mellan 8800GT och 8800GTS 512. Att diskutera AA i Crysis gör man inte då vi pratar om 10-15fps och här lägger sig de flesta högpresterande grafikkort på samma nivå då inget klarar trycket. Alla spel drar inte så stor nytta av fler SP när man har kommit över en viss gräns. Där presterar 9600GT mycket bra, då kortet i övrigt har liknande spec. som 8800GT.

Samma sak här. Varför hänger du dig upp på Crysis om jag får fråga? För att det är ett krävande spel? Det finns andra spel som är krävande och lika krävande som Crysis utan AA/AF aktiverat. Att Crysis fungerar bättre med 8800GT är kanske för att CryEngine2 motorn kanske behöver fler streamprocessorer på grafikkortet för att prestera bättre. Men du kan knappast utgå från Crysis då det finns ett spel i världen som använder CryEngine2 motorn än så länge och det är just Crysis. Som jag skrev ovan. Hur många spel använder UE3 motorn? Hur ser resultaten ut där? Source motorn? Aurora? ID Tech 4? SAGE? Det finns säkert 20-30 andra grafik motorer.

Du måste jämföra alla spelen och det är väl därför man har fler spel i ett prestandatest för att utgå från olika grafikmotorer som är uppbyggda på olika sätt och kräver mer eller mindre olika features helt enkelt.
9600GT presterar 90% av 8800GT.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av A.N'doja
För att stressa korten max aktiverar man AA och att ni i tråden hänger upp er på Crysis, förstår inte riktigt. Det kommer snyggare spel framöver som kräver mindre. Titta bara på Dunia motorn, så mycket mer effektiv än vad CryEngine2 är.

Det finns även spel som inte alls är speciellt snygga som kräver ruskigt mycket av datorn när man aktiverar AA så det är snarare Crysis som misslyckats med AA optimeringen i spelet.

Men självklart skall man prestanda testa utan AA också men då får man ingen rättvis bild om vilket grafikkort som presterar bäst. Om man med AA aktiverat får 7fps i Crysis eller 76fps i Oblivion är ganska ointressant. Det intressanta är vilket kort som får mest fps i majoriteten spel med AA/AF aktiverat tillsammans med max ingame quality och upplösningar, dont you think?

Varför envisas med att bara gå på AA/AF? Är det för att ATi medvetet blivit lite svagare på just den punkten?
Personligen ser jag inten anledning till att köra någon nämnvärd AA då jag siktar på 1080P. Därför är alla de testen oväsentliga.

Permalänk
Citat:

Ursprungligen inskrivet av -Boris-
Varför envisas med att bara gå på AA/AF? Är det för att ATi medvetet blivit lite svagare på just den punkten?
Personligen ser jag inten anledning till att köra någon nämnvärd AA då jag siktar på 1080P. Därför är alla de testen oväsentliga.

Jag sitkar också på 1080p och spelar nästan alla spel i 1080p, med AA/AF.

Hur tycker du att man skall belasta ett grafikkort till 100% utan AA? Det har ingenting med AMD att göra men om de är mindre bra med AA som är en feature som väldigt många tycker är viktigt är det AMD's problem. Det är ungefär som att skriva att 1600*1200 är ingen viktig upplösning.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av A.N'doja
Jag sitkar också på 1080p och spelar nästan alla spel i 1080p, med AA/AF.

Hur tycker du att man skall belasta ett grafikkort till 100% utan AA? Det har ingenting med AMD att göra men om de är mindre bra med AA som är en feature som väldigt många tycker är viktigt är det AMD's problem. Det är ungefär som att skriva att 1600*1200 är ingen viktig upplösning.

Om grafikkortet fortfarande är så CPU begränsat i 1080P i alla spel att du inte kan avgöra kortets prestanda så ska du vara jävligt nöjd. Klart man alltid vill veta vilket som är bäst, men för mig spelar inte AA någon större roll. Jag väljer det som presterar bäst utan AA.

Och det är inte alls som att säga att 1600*1200 inte är en viktig upplösning. Men den är irrelevant för många.

Permalänk
Citat:

Ursprungligen inskrivet av -Boris-
Om grafikkortet fortfarande är så CPU begränsat i 1080P i alla spel att du inte kan avgöra kortets prestanda så ska du vara jävligt nöjd. Klart man alltid vill veta vilket som är bäst, men för mig spelar inte AA någon större roll. Jag väljer det som presterar bäst utan AA.

Och det är inte alls som att säga att 1600*1200 inte är en viktig upplösning. Men den är irrelevant för många.

Precis men nu är vi inne på vad du och jag tycker. Skall man belasta ett kort till max, pressa kortet till max och för att kunna dra en vinnare genom 10 spel måste man dra på max quality ingame. Tänk om alla tester vore i 1280*1024 med max Q.I.G och max AA/AF, det hade ju inte blivit rättvist eller 1920@1200 utan AA/AF.

Men strunt samma, jag förstår vad du menar.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Citat:

Ursprungligen inskrivet av r3mpuh
Japp det har han!, Ati och nvidia är 2 konkurerande företag och det är inte bra om en av dom får monopol. Därför vore det hur BRA som helst om Ati r7xx blir YbEr och nvidia hamnar lång på efterkälken i 2 år.
För övrigt ÄR DU en Fanboy.... Så här lät det t.ex när jag berättade om datorn jag beställt:

Hört på schacklubben;):

Jag = kim
Nvidia fanboy = Schn3ider
Allmän noob = Joakim

"Peter: Vad ska du ha för processor?

Kim: intel.

Peter: Bra, Vad ska du ha för Grafikkort då?

Kim: Ati så klart.

Peter: Men LOl, Ati går ju inte att spela på!

Kim: Jasså? Jäkla skit alltså, jag som trott jag spelat under alla dess år...

Peter: jamen, Att ha intel processor och ati grafikkort är ju som att ha korv och ost på mackan..

Joakim: Kim Har faktiskt Ost och korv på mackan!

Kim: japp, det är sant:D"

Mvh [Mogen] Kim

Du är ju också en Fanboy : "Ati Såklart" Och korv och ost e faktiskt gott

Visa signatur

Stackars Albin
Citera eller skicka PM, övervakar inte.
Använd ordet "dem" med måtta eller smaka på mitt vrede.

Permalänk
Inaktiv

nåja om de hade döpt 8800 gt och 8800gts till respektive 9800 som de borde, då hade jag förstått vad de sysslar med.
Men det här blir ju bara lustigt..

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av H_Bozz
nåja om de hade döpt 8800 gt och 8800gts till respektive 9800 som de borde, då hade jag förstått vad de sysslar med.
Men det här blir ju bara lustigt..

Jo precis. Det är ju den 'tjuvstarten' som är roten till att folk är så missnöjda nu när de jämför prestandan mellan G92 och G94. Jag kan hålla med om att jag hade förväntat mig en högre minnesbuss och fler SP:s, men samtidigt så tycker jag att det är helt okej att Nvidia i den här generationen satsade på energieffektivitet istället för rå prestanda.

Visa signatur

Gigabyte GA-P35-DS4 | Intel Core2Duo E4400 2.0Ghz@2.9Ghz (8*370) | 3GB Corsair XMS2-6400 | Geforce 8800GT@ 771/1890/1080 (max)| 3dMark06 score: 11 990p