Tidiga prestandatester på Geforce 8800 GTX

Permalänk
Citat:

Ursprungligen inskrivet av KTL
Lyckades och lyckades, det funkar bara. Testade i Half Life 2: Episode 1 nyss och jag har full HDR på och kör 4X AA. Provade att slå av och på båda så det syns klart och tydligt att det funkar. Kanske är det en funktion Nvidia uppdaterade från 7800 till 7900 serien.

Svar Nej. Du kan inte heller maxa ut alla spel med ditt kort om du inte bara spelar tetris och doom95.

Visa signatur

Allting jag skriver är om inget annat utrycks, SANT! Ingenting är subjektivt, och du kan göra antaganden baserade på mina åsikter utan att överväga mer än bara just min åsikt.
wazzabi: Varför detta prat om AMD, har de något med grafikkort att göra som jag inte förstår?

Permalänk
Citat:

Ursprungligen inskrivet av KTL
Lyckades och lyckades, det funkar bara. Testade i Half Life 2: Episode 1 nyss och jag har full HDR på och kör 4X AA. Provade att slå av och på båda så det syns klart och tydligt att det funkar. Kanske är det en funktion Nvidia uppdaterade från 7800 till 7900 serien.

Valva har gjort en "fusk" HDR som funkar med AA. Men med riktigt HDR i t ex Oblivion så funkar inte HDR+AA på 7-serien.

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Antonsson
Svar Nej. Du kan inte heller maxa ut alla spel med ditt kort om du inte bara spelar tetris och doom95.

1600*1200 med allt på fullt i både F.E.A.R, BF2, BF2142 bland annat. För mig är det rätt maxat men jag vet inte, du kanske är mer bokstavlig i dina antaganden.

Citat:

Ursprungligen inskrivet av DataNusse
Valva har gjort en "fusk" HDR som funkar med AA. Men med riktigt HDR i t ex Oblivion så funkar inte HDR+AA på 7-serien.

Det förklarar en del. Alltid lär man sig något nytt

Visa signatur

Desktop: MSI MPG X570 GAMING PLUS, AMD Ryzen 9 5950X, Be Quiet Dark Rock Pro 4, 32GB G.Skill Trident Z RGB 3200,
ASUS ROG STRIX GeForce GTX 1080 8GB GAMING, Samsung 970 EVO Plus 500GB
Notebook: Macbook Pro 14" M1 Pro

Permalänk
Medlem
Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Dvärgen
Och detta ska vara det första dx 10 kort eller?

jepp

Permalänk
Hedersmedlem
Citat:

Ursprungligen inskrivet av Calle2003
Läste om detta testet igår, skulle tipsa men var inte säker hur man gjorde så sket i det...man ska skicka PM till Nyhet eller vad?

PS
Man kan klocka ner kortet på ett enkelt sätt med drivrutinerna och ange vad det ska köra i 2D och på så sätt nå lägre strömförbrukning. Antingen med coolbits, rivatuner eller registerhack....

Du kan tipsa oss genom att klicka på "Kontakta oss" längst ner på sajten. Då kommer du till denna sida.

Visa signatur

SWECLOCKERS.COM :: If Quake was done today ::
WS: Gigabyte Z690 UD DDR5 :: Core i5 12600K :: 32 GB RAM :: Geforce RTX 3060 Ti :: 10 GbE NIC :: AOC C32G1 32" :: Seagate FireCuda 530 1TB :: Deepcool Matrexx 55
NAS: SM X10-SLM-F :: Mellanox Connect2X SFP+ :: Intel XL710-QDA1 QSFP+

Permalänk

vad skulle man behöva för nätagg till ett sådant kort tro? räcker mitt tagan 530?

Visa signatur

-[ {AMD X4 955} {Crosshair III} {6870 2gb} {Corsiar 4Gb DDR3} ]-

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av arnearne
jepp

Och ATI har inte sagt nått om när dom ska släppa sina första dx10 kort?

Permalänk
Medlem

Vad kommer ens ATIs nästa serie heta? xD
Nej jag kommer inte köpa den generationens grafikkort p.g.a 2 orsker:
-Drar mycket ström=varmt
-Min plånbok lider fortfarande efter att jag tömde den på 5.5k i sommras

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Frixos
Vad kommer ens ATIs nästa serie heta? xD
Nej jag kommer inte köpa den generationens grafikkort p.g.a 2 orsker:
-Drar mycket ström=varmt
-Min plånbok lider fortfarande efter att jag tömde den på 5.5k i sommras

Jaa ushh något måste göras när det gäller storleken och strömförbrukningen på grafikkorten!

Visa signatur

|AMD Ryzen 9 5900X| |ASUS ROG Strix B550-F| |Crucial Ballistix 32GB CL16@3600MHz| |PNY RTX 4090 XLR8 Gaming| |Samsung 990 Pro 2TB| |Samsung 970 Evo Plus 1TB| |Samsung 860 Evo 1TB| |Corsair RM1000| |Fractal Design Define R5| |LG OLED 48" C2 Evo|

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Dvärgen
Och detta ska vara det första dx 10 kort eller?

Nej, Intel x3000 var före. Visserligen integrerat, men ändå.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av MooDHooDs
Nej, Intel x3000 var före. Visserligen integrerat, men ändå.

Men sånt räknas inte;)

Permalänk
Medlem

Snälla rara Sweclockers, när ni testar de nya korten. Var vänligt och släng in Specviewperf bland prestanda programen. Är väldigt intresserad av att se hur unified shaders påverkar prestandan i vertex intensiva program.

Permalänk
Avstängd

Kvalitetsnyheter från swec med det obligatoriska ordentliga faktafelet. Sen kvalitetsinlägg från genier som tror på smörjan. Lite underhållning så här på måndagen. Bara titta in här så slipper jag titta på trafikoffer på nätet för att mätta min nyfikenhet för olyckor.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av KTL
Precis, det funkar på mitt 7900GT i alla fall.

För övrigt så är detta kort föga intressant om man såvida inte är prestandafetishist. Det finns inget spel som jag inte kör med allt maxat på till mitt GT kort så det lär dröja innan detta kort ens blir en nödvändig införskaffning. Möjligtvis finns det en fördel om kortet kommer köra DirectX 10 fullt ut men det har jag i alla fall inte hittat någon info om. Andra fördelen med detta kort är att priset kanske sjunker på Geforce 7900 serien. Kanske skaffar man SLI då när PC'n hostar efter mer prestanda

Får jag gissa att du inte kör Oblivion?

Där kan man inte få nog. Körde det i 1280 med en core2 @ 3.2ghz och 7950gt, och då får man 30-40 fps utomhus.

Permalänk
Medlem

en speldator har man ju aldrig på dygnet runt iaf, så förbrukningen spelar mindre roll även om den inte är rolig.

Nä, mitt Parhelia får puttra på i arbetsstationen ett bra tag till

Visa signatur

GUD VÄLSIGNE DIG!
Ryzen 7 5700X3D - 64Gb DDR4 - RTX2060 - Coolermaster Stacker
---------------------------- www.roaddogs.se ------------------------
------- Bofors Interstellar - A Star Citizen Corporation --------
---------------------------------- Twitch ---------------------------------

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av -Boris-
Kvalitetsnyheter från swec med det obligatoriska ordentliga faktafelet. Sen kvalitetsinlägg från genier som tror på smörjan. Lite underhållning så här på måndagen. Bara titta in här så slipper jag titta på trafikoffer på nätet för att mätta min nyfikenhet för olyckor.

Boris den bittre är lite cynisk av sig.

Visa signatur

Space, the final frontier

It's not what you've got, it's how you use it, som gamle Ray Stevens sa.

Permalänk
Medlem

" Med ingen belastning drar kortet 229 Watt, mot Radeons 184 Watt. Med full last drar Nvidia-kortet 321 Watt mot Radeons 308."

Drar korten så mycket eller hela systemet?

Permalänk
Hedersmedlem
Citat:

Ursprungligen inskrivet av Frixos
" Med ingen belastning drar kortet 229 Watt, mot Radeons 184 Watt. Med full last drar Nvidia-kortet 321 Watt mot Radeons 308."

Drar korten så mycket eller hela systemet?

Läs tidigare i tråden.

Permalänk

ingen med info om atis nya monsterkort??

har idag ett x1900xtx som jag tycker är låååångt! har ca: 5mm tillgodo tills det slår i hddd racket.( fått flytta 1 hdd till diskstationsplats och meka med kablar för att det skall passa nåtsånär!) så ett 8800 kort är omöjligt att få in i chassit som är ett normalt miditower...

kan det vara så svårt att göra "kortare" kort idag??

Permalänk

Grymt garfikort, plus att den släpps på min födelsedag

Visa signatur

Intel E6600 |Crosair 2 GB DDR2 PC6400 (2x1024MB) | Sapphire ATI Radeon X1900GT 256MB GDDR3 | Asus P5W DH DELUX | Hiper M 530 W |Seagate 7200.10 320GB | Antec Nine Hundred Gamer Case

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Kanel
Läs tidigare i tråden.

Har gjort det, men om hela systemet drar så mycket, varför rekommenderar Nvidia MINST 400W?

Permalänk
Hedersmedlem
Citat:

Ursprungligen inskrivet av Frixos
Har gjort det, men om hela systemet drar så mycket, varför rekommenderar Nvidia MINST 400W?

Kanske för att man ska vara på den säkra sidan.
Specar för nätagg speglar inte heller alltid verkligheten, speciellt kanske inte om det rör sig om (billigare) lågwattare.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Frixos
Har gjort det, men om hela systemet drar så mycket, varför rekommenderar Nvidia MINST 400W?

Dels för att ett nätagg på 400 watt inte kan levera 400W tillräckligt stabilt. Dels för att de 400 watten kan vara sammanlagda från de olika linorna. Ett 400W nätagg kanske bara levererar 250W på 12V.

Dessutom kanske du har en kentsfield. Då finns det kanske inte så mycket ström över till grafikkort av de 250 Watten.

Permalänk
Medlem

När har ni tänkt korrigera så nyheten stämmer?

"Med ingen belastning drar kortet 229 Watt, mot Radeons 184 Watt. Med full last drar Nvidia-kortet 321 Watt mot Radeons 308."

Helt jävla fel.

"Power consumption was measured using a Kill-A-Watt power meter that measures a power supply’s power draw directly from the wall outlet. The power supply used in the test system is a Thermaltake Toughpower that carries an efficiency rating up to 85%."

Där har ni den korrekta meningen, åter igen. Fixa nu innan ni ställer er som ansvariga för att folk ruinerar sin ekonomi genom att köpa 1kw-nätagg.

Ett korrekt värde borde vara runt 130-140W för bara kortet, om man använder X1950XTX som referens. Det är fortfarande helt sanslöst mycket, men några 321W drar kortet INTE.

Visa signatur

Min dator äger mig. True story.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Ackelind
När har ni tänkt korrigera så nyheten stämmer?

"Med ingen belastning drar kortet 229 Watt, mot Radeons 184 Watt. Med full last drar Nvidia-kortet 321 Watt mot Radeons 308."

Helt jävla fel.

Där har ni den korrekta meningen, åter igen. Fixa nu innan ni ställer er som ansvariga för att folk ruinerar sin ekonomi genom att köpa 1kw-nätagg.

Ett korrekt värde borde vara runt 130-140W för bara kortet, om man använder X1950XTX som referens. Det är fortfarande helt sanslöst mycket, men några 321W drar kortet INTE.

Korrekt. Tänk dock på verkningsgraden, åtminstone 20-25% borde försvinna ut i värme (tror inte på en 85%-ig verkningsgrad vid den belastningen) alltså är den riktiga förbrukningen enbart 75-80% av angivet (för komponenterna).

Citat:

Ursprungligen inskrivet av Kanel
Text.

"Time to wake up"-alarmet ringer

Visa signatur

Citera mig för svar.
Arch Linux