Nvidia Geforce 6800 Ultra

Permalänk
Citat:

Ursprungligen inskrivet av Victor C.
Det du säger här är ju motsatta poler.
Spekulerat på jämförelse med att R360:s lägre klockfrekvens mot NV38:s högre frekvens, i och med att R360 presterar bättre än den trots allt låga klockfrekvensen mot NV38:s höga klockfrekvens.
Men i nästa mening så säger du tvärt emot, att du spekulerar i att Ati:s högre klockfrekvens kommer att vinna mot Nvidias lägre?
Säger inte detta emot varandra lite?
Sammanhanget att Atis:s lägre klockfrekvenser presterar bättre än Nvidias högre, mot att Ati ändrar sina till att dom blir högre och Nvidia stannar kvar på sina?

Vad jag menar är att om NV40 presterar ett visst antal procent bättre än NV38 vid samma klockfrekvens ta 100% som exempel och R420 sen presterar 100% bättre än R360 vid samma klockfrekvens så måste R420 prestera bättre än NV40 i och med att R420 kommer ha högre klockfrekvens än vad NV40 har. R360 har nämligen lägre klockfrekvens än vad NV38 har men presterar trotts det minst lika bra. Det kan däremot vara så att skillnaden mellan ett NV40 och ett NV38 vid samma klockfrekvens är mycket större än skillnaden mellan ett R420 och ett R360 vid samma klockfrekvens, då behöver inte R420 prestera bättre.

Visa signatur

Athlon64 X2 "Toledo" 4400+, DFI LanParty Nforce4 SLI-DR, 1024MB OCZ PC3200 Gold Voltage eXtreme @ 250 1,5-2-2-8, ATI Radeon X850XT Platinum Edition, Western Digital Raptor 36GB (REV2), 2 * Western Digital Caviar 200GB SATA

Permalänk
Medlem

R420 kommer att vinna över NV40, det är jag 100% säker på.

Visa signatur

"Half-Life 2 is like Duracell of games. It just keeps owning and owning and owning."
i7 920@3.2 vCore 1.024 | Asus P6T Deluxe v2 | 6GB Corsair Dominator Twin3X 1600MHz (6-6-6-18) | Noctua NH-U12P SE2 | Asus DC2 Top V2@1000/1344 vGpu 1.025 | WD Raptor 1500ADFD | Corsair HX 750 | Vista Home Premium 64-bit|

Permalänk
Citat:

Ursprungligen inskrivet av mAster9
R420 kommer att vinna över NV40, det är jag 100% säker på.

Jag också, definitivt!

Permalänk

risken är stor, men jag hoppas inte det, hoppas nvidia vinner denna gång, men jag börjar tveka på att dom gör det med dom frekvenserna

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Kr^PacMan
Personligen ser jag två "native" anslutningar, en DVI och en VGA. Majoriteten sitter idag med CRT skärmar och även fast TFT börjar ta över behövs det fortfarande VGA-anslutningar. Och med en adapter måste det komma en viss kvalité gå bort vilket inte är det jag vill ha. Har köpt snordyra BNC-kablar till min CRT för att få bäst bild, vill inte konvertera, känns väldigt onödigt.

Hur många är det som kör två DVI-skärmar tror du? Nej, låt det vara en DVI och en VGA som det varit senaste året.

Kör du monsterupplösningar eller trasiga adapters? Jag har inte haft några problem med 1600x1200 iaf och jag vet folk som kört högre upplösningar utan att klaga...

//DjDiff

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av djdiff
Kör du monsterupplösningar eller trasiga adapters? Jag har inte haft några problem med 1600x1200 iaf och jag vet folk som kört högre upplösningar utan att klaga...

//DjDiff

Spelar man ska man inte ha för höga upplösningar.
Svenska VM mästarna i CS rekomenderar 800*600 på en 17" och 1024*768 på en 19" och det ska vara CRT pga den bättre uppdateringen+att den inte är låst vid en viss upplösning, TFT förlorar ju kvalitet när ändrar upplösningen (bilden skalas om och förstoras).

Lägre upplösning=större gubbar=lättare att träffa=du vinner

Ska man spela och kunna ändra upplösning utan kvalitetsförsämring och inte vill ha CRT får man vänta på OLED skärmarna...

Slutsats:
Behåll VGA anslutningen!

Visa signatur

HTPC Lian Li PC-A05FNB | Intel Core i5-13400 | 32 GB DDR5-6000 | 4,5 TB SSD | RTX 4070 12 GB
Laptop Razer Blade 15 Base 2021 | Intel Core i7-10750H | 16 GB DDR4-2933 | 1,5 TB SSD | RTX 3070 8 GB
Laptop Lenovo ThinkPad E585 | AMD Ryzen 5 2500U | 16 GB DDR4-2400 | 756 GB SSD | Radeon Vega 8

Klocka GTX 460 med NiBiTor 5.8

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Calle2003
Spelar man ska man inte ha för höga upplösningar.
Svenska VM mästarna i CS rekomenderar 800*600 på en 17" och 1024*768 på en 19" och det ska vara CRT pga den bättre uppdateringen+att den inte är låst vid en viss upplösning, TFT förlorar ju kvalitet när ändrar upplösningen (bilden skalas om och förstoras).

Lägre upplösning=större gubbar=lättare att träffa=du vinner

Säger inte emot dig där.

Citat:

Ursprungligen inskrivet av Calle2003
Ska man spela och kunna ändra upplösning utan kvalitetsförsämring och inte vill ha CRT får man vänta på OLED skärmarna...[/B]

Uhm....OLED har också ett specifikt antal pixels, precis som LCD:er, så där får du sannolikt samma problem med skalning.

Citat:

Ursprungligen inskrivet av Calle2003
Slutsats:
Behåll VGA anslutningen! [/B]

Konstig slutsats. Enda anledningen till att köra VGA-anslutning skulle vara pga förluster i DVI-VGA-adaptern när man kör med DVI-anslutningar. Dessa förluster kommer definitivt inte att uppstå, alternativt inte påverka bilden nämnvärt såvida man inte kör en groteskt hög upplösning. I det här fallet nånstans >1920x1440 eftersom egna empiriska studier inte visat på förluster (synbara) upp till den upplösningen. Eftersom du förespråkar låga upplösningar (förvisso i spel) så försvinner det argumentet, därför tycker jag det är underligt att du kommer till den slutsatsen.

Har man DVI-anslutning kan man välja att köra digitalt (med TFT/OLED/Whatever-skärm/projektor) eller analogt (med valfri skärm). Har man vanlig VGA-anslutning (15-polig HD-D-Sub) har man inte det valet, utan blir tvungen att köra analogt. Illa då om man vill köra dubbla TFT:er eller liknande. Man får fler förluster vid digital->analog->digital-omvandling än den adaptern som krävs för att köra VGA-D-Sub på en DVI-kontakt.

IMO så borde tillverkarna av skärmar gå över till DVI-kontakt rakt över, oavsett om det är analog eller digital anslutning. Finns ingen anledning att ha kvar den gamla D-Sub:en...

//DjDiff

Permalänk
Medlem

Ni drar ju alldeles för snabba slutsatser, ni har sett att NV40 är bra typ. Nu ska alla köpa det, hoppas ATI kommer med ett riktigt killerkort så sitter ni där med era nVIDIA........

Visa signatur

"Alla barn hade stabila datorer förutom Lidia för hon hade chipset från nvidia"

Permalänk

dom kunde jue haft ett sc på 3dmark scoren.... över 12000 låter jävligt orealistiskt.... Antagligen har dom bara fuskat ihop några staplar... nordichhardwares test låter lite troligare...

Permalänk
Citat:

Ursprungligen inskrivet av Calle2003
Spelar man ska man inte ha för höga upplösningar.
Svenska VM mästarna i CS rekomenderar 800*600 på en 17" och 1024*768 på en 19" och det ska vara CRT pga den bättre uppdateringen+att den inte är låst vid en viss upplösning, TFT förlorar ju kvalitet när ändrar upplösningen (bilden skalas om och förstoras).

Lägre upplösning=större gubbar=lättare att träffa=du vinner

Ska man spela och kunna ändra upplösning utan kvalitetsförsämring och inte vill ha CRT får man vänta på OLED skärmarna...

Slutsats:
Behåll VGA anslutningen!

När jag spelar cs så kör jag alltid i 1600*1200 och det fungerar perfekt. Gubbarna blir inte ett dugg mindre för det. Möjligen så blir siktet mindre men det spelar inte så stor roll. Det är långt ifrån alla spel som det är så i. Vill man att det ska se snyggt ut så får man nästan köra i 1280*960 eller högre gärna med lite kantutjämning.

Visa signatur

Athlon64 X2 "Toledo" 4400+, DFI LanParty Nforce4 SLI-DR, 1024MB OCZ PC3200 Gold Voltage eXtreme @ 250 1,5-2-2-8, ATI Radeon X850XT Platinum Edition, Western Digital Raptor 36GB (REV2), 2 * Western Digital Caviar 200GB SATA

Permalänk
Citat:

Ursprungligen inskrivet av deathclaw
dom kunde jue haft ett sc på 3dmark scoren.... över 12000 låter jävligt orealistiskt.... Antagligen har dom bara fuskat ihop några staplar... nordichhardwares test låter lite troligare...

Det är många sidor som fått 12k+ i 3Dmark03 så det är inte bara en sida.

Visa signatur

ASUS B450-f gaming||AMD Ryzen 3600||16Gb ram@3GHz||RTX 3080 10Gb||Dell S2721DGF||Logitech G305

Permalänk
Citat:

Ursprungligen inskrivet av deathclaw
dom kunde jue haft ett sc på 3dmark scoren.... över 12000 låter jävligt orealistiskt.... Antagligen har dom bara fuskat ihop några staplar... nordichhardwares test låter lite troligare...

På nordichardware körde dom med en XP 3200+

Visa signatur

Athlon64 X2 "Toledo" 4400+, DFI LanParty Nforce4 SLI-DR, 1024MB OCZ PC3200 Gold Voltage eXtreme @ 250 1,5-2-2-8, ATI Radeon X850XT Platinum Edition, Western Digital Raptor 36GB (REV2), 2 * Western Digital Caviar 200GB SATA

Permalänk
Medlem

Ser positivt på att Nvidia kortet inte är så högt klockat, det öppnar för värre varianter efter sommaren med uppåt 500MHz.

Alla ni som säger att R420 ska ha en klock på 600MHz, vad baserar ni det på? Och hur ska ati kunna kyla ner det?

Visa signatur

EVE-Online: MMOG defined.

Permalänk
Citat:

Ursprungligen inskrivet av Cascades
Alla ni som säger att R420 ska ha en klock på 600MHz, vad baserar ni det på? Och hur ska ati kunna kyla ner det?

Det står längre ner på sidan..

''Det har dykt upp lite information från Koreanska och Kinesiska hårdvarusajter om ATis kommande grafikkort. Modellnamnet för R420-familjen blir X800 med olika tilläggsnamn. Samtliga grafikkort i R42x-familjen använder sig av en 0.13 microns tillverkningsprocess och har cirka 160-180 miljoner transistorer.

Radeon X800 SE är det billigaste och sämst presterande kortet och har en kärnfrekvens på 450 MHz samt en minnesfrekvens på 400 MHz DDR (800 MHz effektiv klockfrekvens). Notera att det endast handlar om vanligt DDR-minne på denna modell. Det har 8 pipelines och använder sig av AGP-gränssnitt. Minnet har en 128 bitars bred minnesbuss och kortet levereras normalt med 128 Megabyte minne. Förväntat pris ligger kring 2800 kronor.

Radeon X800 Pro ligger i mitten och har en kärna på 500 MHz. Minnet körs i 1000 MHz (500 MHz DDR) och här används GDDR3-minnen så som det rapporterats tidigare. Kärnan har 12 pipelines och använder också AGP-gränssnitt. X800 Pro stödjer från 256 till 512 Megabyte minne och använder sig av en 256 bitars bred minnesbuss. Förväntat pris ligger någonstans kring 2900 kronor och det skall dyka upp på marknaden 26 april på ett LAN i USA.

Radeon X800 XT blir det bäst presterande grafikkortet med AGP-gränssnitt. Det har en kärna på hela 600 MHz och ett GDDR3-baserat minne som körs i 1200 MHz. Det har också som tidigare rapporterat 16 pixelpipelines. Referenspriset kommer ligga på cirka 3700 kronor och förväntas lanseras 31 maj.

Radeon X880 XT blir ATis PCI-Expressvariant av Radeon X800 XT och har samma specifikationer som nämna kort förutom en PCI-Express x16-anslutning.

Kort och gott verkar ATis R42x-linje grafikkort mycket intressanta, värstingmodellen Radeon X880 XT har mycket imponerande specifikationer och trots att det ryktats mycket om Nvidias NV40-prestandan är det skönt att ATi har något som förmodligen motsvarar det.''

Visa signatur

Athlon64 X2 "Toledo" 4400+, DFI LanParty Nforce4 SLI-DR, 1024MB OCZ PC3200 Gold Voltage eXtreme @ 250 1,5-2-2-8, ATI Radeon X850XT Platinum Edition, Western Digital Raptor 36GB (REV2), 2 * Western Digital Caviar 200GB SATA

Permalänk
Citat:

Ursprungligen inskrivet av MoNsT€R
Vad jag menar är att om NV40 presterar ett visst antal procent bättre än NV38 vid samma klockfrekvens ta 100% som exempel och R420 sen presterar 100% bättre än R360 vid samma klockfrekvens så måste R420 prestera bättre än NV40 i och med att R420 kommer ha högre klockfrekvens än vad NV40 har. R360 har nämligen lägre klockfrekvens än vad NV38 har men presterar trotts det minst lika bra. Det kan däremot vara så att skillnaden mellan ett NV40 och ett NV38 vid samma klockfrekvens är mycket större än skillnaden mellan ett R420 och ett R360 vid samma klockfrekvens, då behöver inte R420 prestera bättre.

Då kan jag hänga med på ditt resonemang, tycker bara det var lite luddigt skrivet.

Citat:

Ursprungligen inskrivet av x1zt
Ni drar ju alldeles för snabba slutsatser, ni har sett att NV40 är bra typ. Nu ska alla köpa det, hoppas ATI kommer med ett riktigt killerkort så sitter ni där med era nVIDIA........

Jag tror itne alla precis kommer rusa iväg, eller för all del klicka sig direkt in på en sajt som kommer sälja 6800 Ultra precis.
I så fall får den ha sanslöst med mycket pengar.
Och det verkar som om någon har något extremt mycket mot Nvidia här :S

Visa signatur

Det luktar enormt gott när man stryker.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av djdiff
Säger inte emot dig där.

Klart man får mindre gubbar om kör högre upplösning...finns en del som inte håller med om det såg jag här...projektor är en helt annan sak, då kan man köra 1024*768 o uppåt

Citat:

Ursprungligen inskrivet av djdiff
Uhm....OLED har också ett specifikt antal pixels, precis som LCD:er, så där får du sannolikt samma problem med skalning.

Var har du hört det?

Citat:

Ursprungligen inskrivet av djdiff
[B]Konstig slutsats. Enda anledningen till att köra VGA-anslutning skulle vara pga förluster i DVI-VGA-adaptern när man kör med DVI-anslutningar. Dessa förluster kommer definitivt inte att uppstå, alternativt inte påverka bilden nämnvärt såvida man inte kör en groteskt hög upplösning. I det här fallet nånstans >1920x1440 eftersom egna empiriska studier inte visat på förluster (synbara) upp till den upplösningen. Eftersom du förespråkar låga upplösningar (förvisso i spel) så försvinner det argumentet, därför tycker jag det är underligt att du kommer till den slutsatsen.

Har man DVI-anslutning kan man välja att köra digitalt (med TFT/OLED/Whatever-skärm/projektor) eller analogt (med valfri skärm). Har man vanlig VGA-anslutning (15-polig HD-D-Sub) har man inte det valet, utan blir tvungen att köra analogt. Illa då om man vill köra dubbla TFT:er eller liknande. Man får fler förluster vid digital->analog->digital-omvandling än den adaptern som krävs för att köra VGA-D-Sub på en DVI-kontakt.

IMO så borde tillverkarna av skärmar gå över till DVI-kontakt rakt över, oavsett om det är analog eller digital anslutning. Finns ingen anledning att ha kvar den gamla D-Sub:en...

//DjDiff

[/B]
Aldrig sett nån CRT med något annat än en VGA kontakt, har du? Var finns de i så fall?
Får köra adapter i så fall, men då borde väl det bli lika bra, för det är ju VGA anslutning i skärmen från början...man kan väl inte ta bort VGA:s svagheter på så sätt? (Moaré mm.)

Visa signatur

HTPC Lian Li PC-A05FNB | Intel Core i5-13400 | 32 GB DDR5-6000 | 4,5 TB SSD | RTX 4070 12 GB
Laptop Razer Blade 15 Base 2021 | Intel Core i7-10750H | 16 GB DDR4-2933 | 1,5 TB SSD | RTX 3070 8 GB
Laptop Lenovo ThinkPad E585 | AMD Ryzen 5 2500U | 16 GB DDR4-2400 | 756 GB SSD | Radeon Vega 8

Klocka GTX 460 med NiBiTor 5.8

Permalänk
Hedersmedlem

Gubbarna blir inte mindre när du kör högre upplösning i 3d-spel. Högre upplösning gör att pixlarna blir mindre men gubbarna får fler pixlar istället så de blir lika stora.

OLED funkar lite som vanliga LCD/TFT-skärmar men istället för flytande kristaller som blir mer eller mindre genomskinliga och bakgrundsbelysning har den små lysdioder.

Den analoga delen på DVI har exakt samma signaler som VGA, det enda som skiljer är själva kontakten så du blir inte av med moiré och sånt.

Visa signatur

Nämen hej!

Permalänk
Hedersmedlem
Citat:

Ursprungligen inskrivet av djdiff
Säger inte emot dig där.

Uhm....OLED har också ett specifikt antal pixels, precis som LCD:er, så där får du sannolikt samma problem med skalning.

Konstig slutsats. Enda anledningen till att köra VGA-anslutning skulle vara pga förluster i DVI-VGA-adaptern när man kör med DVI-anslutningar. Dessa förluster kommer definitivt inte att uppstå, alternativt inte påverka bilden nämnvärt såvida man inte kör en groteskt hög upplösning. I det här fallet nånstans >1920x1440 eftersom egna empiriska studier inte visat på förluster (synbara) upp till den upplösningen. Eftersom du förespråkar låga upplösningar (förvisso i spel) så försvinner det argumentet, därför tycker jag det är underligt att du kommer till den slutsatsen.

Har man DVI-anslutning kan man välja att köra digitalt (med TFT/OLED/Whatever-skärm/projektor) eller analogt (med valfri skärm). Har man vanlig VGA-anslutning (15-polig HD-D-Sub) har man inte det valet, utan blir tvungen att köra analogt. Illa då om man vill köra dubbla TFT:er eller liknande. Man får fler förluster vid digital->analog->digital-omvandling än den adaptern som krävs för att köra VGA-D-Sub på en DVI-kontakt.

IMO så borde tillverkarna av skärmar gå över till DVI-kontakt rakt över, oavsett om det är analog eller digital anslutning. Finns ingen anledning att ha kvar den gamla D-Sub:en...

//DjDiff

Majoriteten av alla personen i världen har CRT-skärmar, det är fakta. TFT kommer starkt men är inte lika vanligt som många tror. Ungefär 50% av Counter-Strike spelarna kör det med ett Nvidia MX440, vem hade kunnat tro det till exempel, det är i en dålig jämförelse men hoppas min poäng går fram.

Varför ska vi som har bra CRT-skärmar behöva använda en adapter för att få bild på våra skärmar? Verkar dumt enligt mig, väldigt dumt. Och hur många kännre du som kör dubbla TFT-skärmar?

Jag är dock tämligen säker på att tillverkarna väljer DVI och D-Sub på sina grafikkort så slipper alla miljoner köra adaptrar på sina mitten/lågbudgetsegmentkort.

Visa signatur

SWECLOCKERS.COM :: If Quake was done today ::
WS: Gigabyte Z690 UD DDR5 :: Core i5 12600K :: 32 GB RAM :: Geforce RTX 3060 Ti :: 10 GbE NIC :: AOC C32G1 32" :: Seagate FireCuda 530 1TB :: Deepcool Matrexx 55
WiFi: Grandstream GWN7660 :: GWN7630LR :: GWN7662 :: GWN7660LR

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Calle2003
Aldrig sett nån CRT med något annat än en VGA kontakt, har du? Var finns de i så fall?
Får köra adapter i så fall, men då borde väl det bli lika bra, för det är ju VGA anslutning i skärmen från början...man kan väl inte ta bort VGA:s svagheter på så sätt? (Moaré mm.)

min 21" CRT med Trinitron-rör har vga OCH dvi ingångar så nog finns det sådana skärmar alltid...

Permalänk

Hade jag inte vetat bättre hade jag sagt att denna nyheten var klart vinklad...

Visa signatur

Ryzen 2700x, Nvidia 2080, 32gb 3200CL14 B-Die, 970 Evo
"Limbo" burk: I52500k, Nvidia 560 ti, 16gb Ram.
Server: FSC PI 2664. Quad core, 4gb minne, lite hårddiskar och en hel del damm.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Kr^PacMan
Varför ska vi som har bra CRT-skärmar behöva använda en adapter för att få bild på våra skärmar? Verkar dumt enligt mig, väldigt dumt. Och hur många kännre du som kör dubbla TFT-skärmar?

DVI är mer framtid än VGA, därför ska vi CRT-skärmsanvändare använda oss av en adapter ;). Dubbla CRT-skärmar? Pfft, smidigt om man kör en CRT-skärm och exempelvis en projektor. Slipper man skutta bakom datorn å växla kablar hela tiden. Förhindrar slitage!

Visa signatur

» NAS/HTPC: Intel X3210 @ [4x]3.2GHz | Gigabyte GA-P35-DQ6 | 2 GB Corsair Dominator @ 1100 MHz | GeForce GT 430 | 2TB (raid 1)
» Asus Transformer Pad
» HTC One X

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Kr^PacMan
Majoriteten av alla personen i världen har CRT-skärmar, det är fakta. TFT kommer starkt men är inte lika vanligt som många tror. Ungefär 50% av Counter-Strike spelarna kör det med ett Nvidia MX440, vem hade kunnat tro det till exempel, det är i en dålig jämförelse men hoppas min poäng går fram.

Varför ska vi som har bra CRT-skärmar behöva använda en adapter för att få bild på våra skärmar? Verkar dumt enligt mig, väldigt dumt. Och hur många kännre du som kör dubbla TFT-skärmar?

Jag är dock tämligen säker på att tillverkarna väljer DVI och D-Sub på sina grafikkort så slipper alla miljoner köra adaptrar på sina mitten/lågbudgetsegmentkort.

Jag hade hellre sätt att dom satte D/A-omvandlaren i skärmen istället för grafikkortet och bara körde med DVI.

Ett litet problem med DVI är väl dock bandbredden? eller?

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Kr^PacMan
Majoriteten av alla personen i världen har CRT-skärmar, det är fakta. TFT kommer starkt men är inte lika vanligt som många tror. Ungefär 50% av Counter-Strike spelarna kör det med ett Nvidia MX440, vem hade kunnat tro det till exempel, det är i en dålig jämförelse men hoppas min poäng går fram.

Jag håller med dig att det är fler som kör CRT än som kör TFT, men det tycker inte jag ska hindra utveckling.

Citat:

Ursprungligen inskrivet av Kr^PacMan
Varför ska vi som har bra CRT-skärmar behöva använda en adapter för att få bild på våra skärmar? Verkar dumt enligt mig, väldigt dumt. Och hur många kännre du som kör dubbla TFT-skärmar?

Varför inte? Med DVI har du iaf alternativet att åka digitalt till TFT _eller_ analogt till TFT/CRT, det har du inte med VGA-D-Sub. Fram tills att skärmtillverkarna meckar på DVI-kontakter så får man väl åka adapters, tillverkarna får väl skicka med en. Signalförlusterna är försumbara

Citat:

Ursprungligen inskrivet av Kr^PacMan
Jag är dock tämligen säker på att tillverkarna väljer DVI och D-Sub på sina grafikkort så slipper alla miljoner köra adaptrar på sina mitten/lågbudgetsegmentkort.

Skulle inte förvåna mig heller, inte det som var poängen med diskussionen. Jag tycker dock att det är lite tragiskt att de gör så, jag skulle gärna åka dubbla DVI om inte de var så dyra och hade så låg upplösning.

Bättre att ha en funktion som man kan "krångla bort" när den inte behövs än att inte ha den och inte kunna "krångla dit" när den behövs....

//DjDiff

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Lenco
min 21" CRT med Trinitron-rör har vga OCH dvi ingångar så nog finns det sådana skärmar alltid...

Har inte råd med en 21" CRT med Trinitron-rör med vga OCH dvi ingångar.
Finns det fler CRT skärmar med såna utgångar?
Funderat på att köpa en CRT Samsung skärm...men Sony är också i toppskiktet

Så gubbarna blir lika stora på hög upplösning?
Varför rekomenderar då CS mästarna 800*600 på 17" och 1024*768 på 19" ?
Ska kolla det med gubbarna...köra annan upplösning med linjal vid skärmen

Visa signatur

HTPC Lian Li PC-A05FNB | Intel Core i5-13400 | 32 GB DDR5-6000 | 4,5 TB SSD | RTX 4070 12 GB
Laptop Razer Blade 15 Base 2021 | Intel Core i7-10750H | 16 GB DDR4-2933 | 1,5 TB SSD | RTX 3070 8 GB
Laptop Lenovo ThinkPad E585 | AMD Ryzen 5 2500U | 16 GB DDR4-2400 | 756 GB SSD | Radeon Vega 8

Klocka GTX 460 med NiBiTor 5.8

Permalänk
Medlem

Radeon X800 XT kommer inte ur föräns 31 maj enligt informationen ovan, om det kortet spöar Geforce 6800 Ultra så kan nvidia också släppa ut uppclokade versioner av sina gpuer, med snabbare minne också om det skulle behövas, nästa ati kort som kommer ut är ju som bekant X800 pro som förmodligen kommer få stryk, sen när X800 XT kommer ut så kan nvidia också såklart släppa fler grafikkortsmodeller precis som ati, ni jämnför ett ati kort som skall komma längre fram med ett redan släppt nvidia kort istället för att jämnföra denna modell med X800 Pro som den kommer att konkurera med, X800 XT kommer säkert få slås mot ytterligare ett äss som nvidia plockar fram ur ärmen, eller ytterligare en kanin som de trollar fram ur sin hatt om ni så vill..

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Calle2003
Har inte råd med en 21" CRT med Trinitron-rör med vga OCH dvi ingångar.

http://cgi.ebay.de/ws/eBayISAPI.dll?ViewItem&item=4124011795&...

likadan som min...

Permalänk
Avstängd

Tror Include överskattar nVidia lite grann.
Det är inte bara att släppa en snabbare kort utan vidare. Det är inte så jäkla simpelt.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av -Boris-
Tror Include överskattar nVidia lite grann.
Det är inte bara att släppa en snabbare kort utan vidare. Det är inte så jäkla simpelt.

Mmm, kan vara sant att Include överskattar nVidia, men jag tror det ligger en del sanning i hans teori.

// Spekulationer
GF6800U är nVidia:s första graffe i deras kommande serie/generation, så ryktena om att ATi:s kommande High-End-graffe aka X800XT skulle motsvara ett GF6800U gör mig lite lessen i ögat; jag är rädd att nVidia kommer ta hem segern denna gång och att det inte blir så mycket konkurrans den kommande tiden, men allt är endast spekulationer! Om nu inte ryktena stämmer drar jag brett på läpparna å önskar både nVidia och ATi lycka till om kampen som "nummer ett".

De inofficiella specifikationerna på ATi:s tre kommande kretsar är verkligen imponerande. Det vore tråkigt om XT-kortet inte skulle klå GF6800U-graffet, för ATi verkar ju inte ha något värre att erbjuda oss konsumenter den kommande tiden :(. nVidia har inte gjort några större avslöjanden om kommande grafikkortslanseringar, vilket kanske är ett smart drag då ATi är helt "utblottade". >Visserligen< är det inte ATi själva som läckt ut informationen utan den är endast inofficiell - som sagt. Jag hoppas hur som helst att ATi bräcker nVidia nu i början så att nVidia får komma igen om ett tag.

// Utlovanden (sanning?)
Det enda ATi egentligen sagt är att steget mellan dagens High-End-kort från ATi och deras kommande High-End-kort kommer vara lika stort som steget mellan 8500(?) och Radeon 9700 Pro. Jag tror dem håller vad som >utlovats<, och i sådana fall är nVidia ute på tunn is :D.

// Bildkvalité och prestanda
I alla recensioner av nVidia:s referenskort så har bildkvalitén kunnat mäta sig med dagens Radeon-kort, men inte kunnat smiska dem. Radeon har fortfarande ledningen vad gäller bildkvalitén, men med nVidias färdiga produkt och ett par nya drivrutiner kanske nVidia kan klå ATi även där. Prestandan vid aktiverade AA- och AF-lägen är dock helt makalöst bra på nVidias nya graffe och ligger där betydligt bättre till än ATi, i dagsläget. Hur som helst tror jag inte ATi kommer stanna kvar på samma nivå som dagens Radeon-graffen ligger på utan kommer förbättra både bildkvalité och >prestanda< i och med de nya kretsarna.

// Flaskhalsar; prolle, minne - tills vidare
Kul att se var att processorerna i de flesta recensioner blev flaskhalsar. Påminner om tiden då Radeon 9700 Pro lanserades, även om det var något mer brutalt på den tiden. Innan jag köper nytt grafikkort vill jag se vilket graffe som presterar bäst (överlag), erbjuder bäst funktioner; idag och för framtiden. Dessutom vill jag se lite pressande priser :)... som om inte det vore nog så måste jag nog säga att jag vill ha nytt bräde, ny propp och några minnesstickor också ;).

Mycket spekulationer och tekniska begrepp... weeei, ruskigt intressanta och upphetsande tider må jag säga.

Visa signatur

» NAS/HTPC: Intel X3210 @ [4x]3.2GHz | Gigabyte GA-P35-DQ6 | 2 GB Corsair Dominator @ 1100 MHz | GeForce GT 430 | 2TB (raid 1)
» Asus Transformer Pad
» HTC One X

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av -Boris-
Tror Include överskattar nVidia lite grann.
Det är inte bara att släppa en snabbare kort utan vidare. Det är inte så jäkla simpelt.

Att klocka upp gpun och/eller minnet kräver inte några större färändringar, det kan man väl göra utan vidare eller?

Företsatt att man kan få tag i snabbare minne och att yieldsen blivit bättre i fabriken, vilket den blir efter att man producerat "kretsen" (halvledaren) ett tag.

Sen vet vi inte om nvidia klockat Geforce 6800 ultra till max eller om de medvetet lämnat lite spelrum kvar till snabbare modeller, nvidia kanske föredrar att lägga sig lite lägre i klockfrekvens just för att de inte lyckats få igång produktionen ordentligt på deras nya gpuer?

Det kommer nog att visa sig tidsnog vad som är rätt och vad som är fel, men det kommer bli intressant att följa

Föresten, kommer Geforce 6800 Ultra ha 400Mhz gpu även när det kommer ut eller är det bara den här prototypen som kör det?

Permalänk
Citat:

Ursprungligen inskrivet av Include
Att klocka upp gpun och/eller minnet kräver inte några större färändringar, det kan man väl göra utan vidare eller?

Företsatt att man kan få tag i snabbare minne och att yieldsen blivit bättre i fabriken, vilket den blir efter att man producerat "kretsen" (halvledaren) ett tag.

Sen vet vi inte om nvidia klockat Geforce 6800 ultra till max eller om de medvetet lämnat lite spelrum kvar till snabbare modeller, nvidia kanske föredrar att lägga sig lite lägre i klockfrekvens just för att de inte lyckats få igång produktionen ordentligt på deras nya gpuer?

Det kommer nog att visa sig tidsnog vad som är rätt och vad som är fel, men det kommer bli intressant att följa

Föresten, kommer Geforce 6800 Ultra ha 400Mhz gpu även när det kommer ut eller är det bara den här prototypen som kör det?

Sen handlar det ju om att få en så stabil GPU som möjligt också.

Vad jag har läst så kommer det att ha 400Mhz men vem vet om specifikationerna kommer ändras eller inte.
Sen får man ju se om det kommer komma ut ett 6900 Ultra eller liknande också och se hur snabb GPU detta kort kommer få.
SPekulationer visserligen, men hur var det i FX-serien, släpptes 5800 först då?

Visa signatur

Det luktar enormt gott när man stryker.