Mer information om Geforce GTX 200

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Maho
Om ett ATI hade varit lika bra som ett nvidia så hade de nog dragit likvärdigt.
Men de va inte min poäng , du är ati fanboy med ?
Men visst , det e mycket dom drar , men dom kommer förmodligen prestera därefter med.
Hur mycket ström över era tv apparater tror ni ? 20 W ? * skrattar roande *
Klagar ni över dom med ?
Kanske ati gör en tv som drar 30 w
Det lustiga är att det sägs samma sak om o om igen,
Nvidia kör över eller åtminstone har bättre prestanda än ett Ati , då kommer det som vanligt......... "ATI drar mindre ström" , hade dock varit konstigt om de hade dragit likvädigt eftersom det presterar sämre än Nvidia.
Och nej , jag är ingen nvidia fanboy , utan föredrar det som e för tillfället bäst på marknaden för tillfället

Du är ute efter det som är bäst för tillfället, men har själv ett 8800GTS? okey!

Du dillar mer än dillen.

Visa signatur

"Jo men det var exakt det jag menade med att den enda moddningen detta galleriet innehåller är Sanningsmodifikation och photoshoppande :)"

Permalänk
Medlem

Glöm inte att det behövs stora skärmar för att dra nytta av all prestandan i ett GTX200, 24"-skärmar på 1920x1080 och uppåt sitter förstås alla på Swec med.

Själv sitter jag fortfarande på ett gammalt 8800GTS av första generationen(bra köp, bättre än 9800Pro på sin tid) och eftersom jag inte kör högre än 1280x1024 så kan jag efter lite klock och med en bra cpu fortfarande spela alla spel på högsta. Inget direkt behov av bättre prestanda för min del. Många som sitter i min sits, och självklart köper man en superskärm först innan man blir intresserad av ett supergrafikkort och inte tvärtom.

Det enda jag vill ha är tystare och svalare utan att prestandan blir sämre. 4870 verkar uppfylla det önskemålet. Den tidigare showstoppern med uselt Linux-stöd ser dessutom ut att mer eller mindre vara löst numera.

Skulle fläkten vara ljudlig, så är trösten att man kan dra ner den när man inte spelar spel och när man spelar spel är inte ljudet störande ändå. Men självklart hoppas man på en bättre fläkt än tidigare. Annars finns tredjeparts kylning.

Som grädde på moset är RV770 ett tekniskt mer avancerat chip än GTX200, det är bara inte lika massivt. Och 1GB GDDR5 känns som något som det kan vara roligt att betala för. Nvidia kör med brute force, 1 miljard transistorer. Men eftersom ATI-chippet är mer avancerat finns det en större potential för förbättringar i form av bättre drivrutiner. Och vill man ha mer, så är crossfire ett trevligt alternativ eftersom moderkort med Intel-chipset är de bästa moderkorten och i stort sett alla stöder crossfire.

Nvidia har problem, även om det gått fantastiskt bra fram till nu pga överlägsen råprestanda sen G80 kom, och en viss kontroll över spelutvecklarna från Nvidias sida(vart tog DX10.1 vägen?).

Visa signatur

|| R9 7950X MSI PRO X670-P WIFI 32GB-DDR5-6400c32 MSI RTX4080 Ventus 3X OC || CORE i9 12900KF MSI Z690 Tomahawk WIFI DDR4 32GB-3600c16 Gear1 TUF RTX3080 OC V2 || R7 5800X3D X570S CH8 Extreme 32GB-3800c18 Gigabyte RTX3080 GAMING OC || R9 5900X(B2) B550-F 32GB-3800c18 EVGA RTX3070 FTW Ultra || R9 3900X X470-Prime Pro 32GB-3200c16 MSI RTX2070 Super ||

Permalänk
Avstängd

Räknade lite.

GTX 280 har 11% bättre texturprestanda än 9800GTX och ca 40% bättre shaderprestanda. Självklart rent teoretiskt, kan ju optimerats.

HD4870 har 120% bättre texturprestanda än HD3870 och ca 100% bättre shaderprestanda.

Bara tänkte lite.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Bazooka91
Men snälla lilla vän ...

Även om 280 GTX presterar bättre än HD4870 kommer ATi då att kontra med HD4870x2 (och då får vi se vem som krossar vem ). Något "GX2" lär inte komma från Nvidia då ett sådant skulle bli en mardröm både när det gäller kylning och prislapp. Just det, effektförbrukningen betyder även oftast mer värmeenergi som behöver transporteras bort=större kylningsbehov för att skiten inte ska brinna upp/smälta=högre ljudnivå/gigantisk, tung kylning som knappt ryms i en vanlig låda.

Och det där snacket om att du inte är en fanboy. Språket du skrivit ditt inlägg med tyder på något helt annat om du frågar mig. Själv föredrar jag ATi men jag har inget som helst problem med att rekommendera Nvidia till andra och skulle själv köpt en rig med två stycken 8800GT i SLi om Nvidia kunde göra riktiga chipsets.

Hahaha , du e rolig du
Om det får dig att må bättre så får du gärna tro att jag e fanboy
Herregud vilken ati fanboy du är , hd4870x2 kommer krossa...........
Sa inte folk desamma om 4850/4870 ????
Hur står sig 3870x2 mot nvidias gts g92 ? Det kanske också krossar ?
Vi märker hur det blir med 4870x2 , vore dock bra om ati kunde pressa fram ett kort som får nvidia att börja funderar lite

Visa signatur

Main : AMD Ryzen 5900X @ 4.55 | NZXT Kraken X73 | 32 GB DDR4 Gskill 3600mhz @ 3800 CL16 | Asus ROG STRIX B550-A GAMING | Sapphire Radeon 7900 XT nitro+ | Samsung 970 evo 1TB | Windows 10 | Lian Li PC-O11 Dynamic EVO | Corsair RM 750 | AOC cu34g2x + Dell u3415w / 1st 24"
Htpc / server : Intel G3258 | Nvidia GTX 670 | 12 GB | 6TB lagring | Fractal design Node 804 | Win 10+Kodi

Permalänk
Medlem

Är dyrt att spela, dels kostar korten, sen kanske t.ex en MMO subscription... och som grädden på moset en saftig elräklning. Korten drar ju lika mkt som 30 lågenergilampor.

Visa signatur

< :: Intel i9 9900ks@5.0Ghz/Ring@4.5Ghz | 32Gb DDR4@3600Mhz | Geforce RTX 4070 :: >

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av P1nGviN
Du är ute efter det som är bäst för tillfället, men har själv ett 8800GTS? okey!

Du dillar mer än dillen.

Och du tror att jag köpte det kortet när ? igår ?
Sluta "dilla" o använd din hjärna. Ja , den följde med din kropp...
Använd den , ett gott råd.
Funderade på ett 9800x2 , men nu när 260/280 e på väg så avvaktar jag.
Är det så svårt för dig att förstå ?

Visa signatur

Main : AMD Ryzen 5900X @ 4.55 | NZXT Kraken X73 | 32 GB DDR4 Gskill 3600mhz @ 3800 CL16 | Asus ROG STRIX B550-A GAMING | Sapphire Radeon 7900 XT nitro+ | Samsung 970 evo 1TB | Windows 10 | Lian Li PC-O11 Dynamic EVO | Corsair RM 750 | AOC cu34g2x + Dell u3415w / 1st 24"
Htpc / server : Intel G3258 | Nvidia GTX 670 | 12 GB | 6TB lagring | Fractal design Node 804 | Win 10+Kodi

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Maho
Hahaha , du e rolig du
Om det får dig att må bättre så får du gärna tro att jag e fanboy
Herregud vilken ati fanboy du är , hd4870x2 kommer krossa...........
Sa inte folk desamma om 4850/4870 ????
Hur står sig 3870x2 mot nvidias gts g92 ? Det kanske också krossar ?
Vi märker hur det blir med 4870x2 , vore dock bra om ati kunde pressa fram ett kort som får nvidia att börja funderar lite

Läget 4870 mot GTX 280 ser mycket bättre ut för ATI än 3870 mot 8800. Därför ser det också ut som att HD4870 X2 kommer klara sig mycket bättre än HD3870X2 gjorde mot 8800.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av AlbinNdoja
Vad ni kidz spekulerar och kastar på varandra.

Ja GTX 280 blir bättre än HD4870 och yes GTX 280 drar mer ström. vill man inte ha ett strömslukande kort så köper man sig något annat helt enkelt. Det blir inte speciellt många kronor extra för 80w mer i load.
Sedan snackar ni om HD4870X2 skall prestera bättre än GTX 280, gör det säkert men till nästan 80w mer. Tycker man GTX 280 drar mycket ström kommer HD4870X2 dra betydligt mer ström, närmare 300w eftersom ett HD4870 har en TDP om cirka 160w.

Du är min nya bästa kompis
ska vi leka hos dig eller hos mig i helgen ?

Visa signatur

Main : AMD Ryzen 5900X @ 4.55 | NZXT Kraken X73 | 32 GB DDR4 Gskill 3600mhz @ 3800 CL16 | Asus ROG STRIX B550-A GAMING | Sapphire Radeon 7900 XT nitro+ | Samsung 970 evo 1TB | Windows 10 | Lian Li PC-O11 Dynamic EVO | Corsair RM 750 | AOC cu34g2x + Dell u3415w / 1st 24"
Htpc / server : Intel G3258 | Nvidia GTX 670 | 12 GB | 6TB lagring | Fractal design Node 804 | Win 10+Kodi

Permalänk
Moderator
Testpilot
Citat:

Ursprungligen inskrivet av Maho
Hahaha , du e rolig du
Om det får dig att må bättre så får du gärna tro att jag e fanboy
Herregud vilken ati fanboy du är , hd4870x2 kommer krossa...........
Sa inte folk desamma om 4850/4870 ????
Hur står sig 3870x2 mot nvidias gts g92 ? Det kanske också krossar ?
Vi märker hur det blir med 4870x2 , vore dock bra om ati kunde pressa fram ett kort som får nvidia att börja funderar lite

Huruvida HD3870x2 klarar att mäta sig med 8800GTS varierar. Den föreställningen som många verkar ha att HD3870x2 skulle vara totalt underlägesen 8800GTS är väldigt naiv.

ATi:s kort kan helt enkelt inte arbeta lika snabbt med massiv AA och AF, varför är en väldigt bra fråga men så är det. Dock handlar det troligen om att ATi använder sig av för få TMU:s i sin R600. Vilket är åtgärdat i R700 som använder sig av det dubbla. En annan orsak kan vara Nvidias shaderhastighet som är ordentligt snabbare än ATi:s R600 som även det är åtgärdat i R700.

Jag skulle vilja peka på att det är mycket som tyder på att ATi har en mycket bra arkitektur på väg som dessutom är modern och innovativ.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem

Vem vet , nvidia kanske har något i rockärmen för att möta 4870x2
Ett 280x4 ???
Eller nej , då kan Ati fanboysen börja pipa åter igen om att nvidia korten drar så mycket

Visa signatur

Main : AMD Ryzen 5900X @ 4.55 | NZXT Kraken X73 | 32 GB DDR4 Gskill 3600mhz @ 3800 CL16 | Asus ROG STRIX B550-A GAMING | Sapphire Radeon 7900 XT nitro+ | Samsung 970 evo 1TB | Windows 10 | Lian Li PC-O11 Dynamic EVO | Corsair RM 750 | AOC cu34g2x + Dell u3415w / 1st 24"
Htpc / server : Intel G3258 | Nvidia GTX 670 | 12 GB | 6TB lagring | Fractal design Node 804 | Win 10+Kodi

Permalänk
Citat:

Ursprungligen inskrivet av Maho
Hahaha , du e rolig du
Om det får dig att må bättre så får du gärna tro att jag e fanboy
Herregud vilken ati fanboy du är , hd4870x2 kommer krossa...........
Sa inte folk desamma om 4850/4870 ????
Hur står sig 3870x2 mot nvidias gts g92 ? Det kanske också krossar ?
Vi märker hur det blir med 4870x2 , vore dock bra om ati kunde pressa fram ett kort som får nvidia att börja funderar lite

Har du missat helt att HD4850/HD4870 bygger på en ny arkitektur? De har ökat antalet TMU:er, antalet shaders, separerat shaderklocken osv. Det har ingeting med fanboy att göra: det står i artikeln att HD4870X2 kommer vara ganska mycket bättre än GTX 280. Tills någon annan information dyker upp är det det som gäller. Läs artikeln innan du börjar kasta skit.

Hur står sig HD3870X2 mot G92. Tja, om du undviker spel som Crysis så står den sig väldigt bra, den slår ju Ultra i de flästa tillfällen, och vad jag vet så är Ultra det snabbaste kortet än i 8800 serien när det gäller höga upplösningar osv. Då det är ett Crossfire kort så måste man ju jämföra med spel där utvecklarna faktiskt tyckt att Crossfire har varit värt att implementera på ett bra sätt. Crysis är ju helt värdelöst i det avseendet. Kolla i stället på Company of Heroes eller Bioshock osv. Sedan så kan ju jag vända det här: hur tror du G92 håller sig mot HD3870X2 i DX10.1 för så vitt jag kom ihåg så fick HD3870X2 näst intill 0% prestanda förlust med AA på i DX10.1. Hur gick det för G92.

Ta det lugnt med alla dina kommentarer. Om du nu inte är en "fanboy", så känns som om du fullständigt sålt din själ till det bolag som är bäst och är redo att göra det igen. Båda bolag har för- och nackdelar...ATI är bättre i en utvecklingssynpunkt, har bättre mediafunktioner, har stöd för DX10.1....medan ingen här på forumet kan neka att Nvidia har bäst prestanda i spel. Det är helt enkelt så, men sluta tracka ner på det andra märket och kalla dem värdelösa för att de inte har bäst prestanda för tillfället. Vänta då tills HD4870X2 kommer ut, så får vi ju se hur det blir, men fortsätter du så här kan du ju räkna med att folk kommer säga en massa skit i din riktning.

Citat:

Ursprungligen inskrivet av Dinoman
Huruvida HD3870x2 klarar att mäta sig med 8800GTS varierar. Den föreställningen som många verkar ha att HD3870x2 skulle vara totalt underlägesen 8800GTS är väldigt naiv.

ATi:s kort kan helt enkelt inte arbeta lika snabbt med massiv AA och AF, varför är en väldigt bra fråga men så är det. Dock handlar det troligen om att ATi använder sig av för få TMU:s i sin R600. Vilket är åtgärdat i R700 som använder sig av det dubbla. En annan orsak kan vara Nvidias shaderhastighet som är ordentligt snabbare än ATi:s R600 som även det är åtgärdat i R700.

Jag skulle vilja peka på att det är mycket som tyder på att ATi har en mycket bra arkitektur på väg som dessutom är modern och innovativ.

Som sagt, så måste man ju jämföra i spel där Crossfire funkar någolunda bra och då på högre upplösningar också, för annars blir det som att jämföra med ett HD3870 fast med GDDR3. TMU:erna kommer säkert hjälpa med AF/AA användningen. Shaders var det inget fel på i R600 arkitekturen. Det var ju därför korten presterade så bra i 3dmark06 och shader tunga motorer som Unreal Engine 3 till exempel. Men att de separerat shader klocken från GPU klocken är skitbra.

Visa signatur

Macbook Pro 15" Retina 2013 | Spelriggen: Asus Rampage Formula | Sapphire HD7970 | 4GB ram | Intel Q6600 @ 3.2 ghz | Samsung 840 Pro 256gb + 3.3TB HDD | Antec P182B | Zalman ZM-850HP | BenQ FP241W | Logitech G500+Qpad MK-85 Pro|
Ljud: Peachtree Grand Pre, Emotiva XPA-2, Triangle Magellan Duetto, Beyerdynamic DT990

Permalänk
Moderator
Testpilot
Citat:

Ursprungligen inskrivet av Maho
Vem vet , nvidia kanske har något i rockärmen för att möta 4870x2
Ett 280x4 ???
Eller nej , då kan Ati fanboysen börja pipa åter igen om att nvidia korten drar så mycket

Eller hur. Titta på 9800Gx2 och så föreställ dig hur du smäller ihop två sådana till ett kort. I princip omöjligt. Dessutom hade du slutat med ett grafikkort som behöver ~900W, ensamt!? Du tycker att folk gnäller om strömförbrukning. Vem fan vill ha ett grafikkort som drar ström som en värmepanna.

Dock så låter det mer trovärdigt att köpa tre stycken och koppla samman i Tri-SLI. Men då får du lägga ut 18 000:- på bara de grafikkorten. Nog kommer de att mööööörda ett HD4870x2 men det kommer kosta ofantligt mycket mer.

Är det värt det är ju frågan?

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem

[QUOTE]Ursprungligen inskrivet av oscarstegland
[B]Har du missat helt att HD4850/HD4870 bygger på en ny arkitektur? De har ökat antalet TMU:er, antalet shaders, separerat shaderklocken osv. Det har ingeting med fanboy att göra: det står i artikeln att HD4870X2 kommer vara ganska mycket bättre än GTX 280. Tills någon annan information dyker upp är det det som gäller. Läs artikeln innan du börjar kasta skit.

Hur står sig HD3870X2 mot G92. Tja, om du undviker spel som Crysis så står den sig väldigt bra, den slår ju Ultra i de flästa tillfällen, och vad jag vet så är Ultra det snabbaste kortet än i 8800 serien när det gäller höga upplösningar osv. Då det är ett Crossfire kort så måste man ju jämföra med spel där utvecklarna faktiskt tyckt att Crossfire har varit värt att implementera på ett bra sätt. Crysis är ju helt värdelöst i det avseendet. Kolla i stället på Company of Heroes eller Bioshock osv. Sedan så kan ju jag vända det här: hur tror du G92 håller sig mot HD3870X2 i DX10.1 för så vitt jag kom ihåg så fick HD3870X2 näst intill 0% prestanda förlust med AA på i DX10.1. Hur gick det för G92.

Ta det lugnt med alla dina kommentarer. Om du nu inte är en "fanboy", så känns som om du fullständigt sålt din själ till det bolag som är bäst och är redo att göra det igen. Båda bolag har för- och nackdelar...ATI är bättre i en utvecklingssynpunkt, har bättre mediafunktioner, har stöd för DX10.1....medan ingen här på forumet kan neka att Nvidia har bäst prestanda i spel. Det är helt enkelt så, men sluta tracka ner på det andra märket och kalla dem värdelösa för att de inte har bäst prestanda för tillfället. Vänta då tills HD4870X2 kommer ut, så får vi ju se hur det blir, men fortsätter du så här kan du ju räkna med att folk kommer säga en massa skit i din riktning.

______________________________________________________

Ta de lungt lilla vännen , jag har aldrig sagt att ati korten är värdelösa , men det verkar som att alla ati fanboysen känner sig hotade när deras dröm om att ati 4850/4870 nya kort skulle smiska nvidias...
Har aldrig någonsin sagt att ati är kassa , så sluta säga saker jag inte har sagt.
Har aldrig nekat till att 4870x2 kommer vara bra , tvärtom , jag hoppas verkligen det blir ett riktigt bra kort.
det behövs lite konkurans faktiskt då nvidia gör lite som dom själva vill och inte tänker på oss människor.
men samma sak sas om 3870x2 , så jag väntar med att säga att de krossar nvidia innan jag ser några benchs.
Och återigen , hur vet ni att nvidia inte sitter o trycker på något mer ?

Dinoman : jag vet inte när du senast kollade på priserna , men ett 9800x2 kostar inte 6 k styck... Du kan ju åtminstone ge rätt priser

Visa signatur

Main : AMD Ryzen 5900X @ 4.55 | NZXT Kraken X73 | 32 GB DDR4 Gskill 3600mhz @ 3800 CL16 | Asus ROG STRIX B550-A GAMING | Sapphire Radeon 7900 XT nitro+ | Samsung 970 evo 1TB | Windows 10 | Lian Li PC-O11 Dynamic EVO | Corsair RM 750 | AOC cu34g2x + Dell u3415w / 1st 24"
Htpc / server : Intel G3258 | Nvidia GTX 670 | 12 GB | 6TB lagring | Fractal design Node 804 | Win 10+Kodi

Permalänk
Citat:

Ursprungligen inskrivet av Maho
Hahaha , du e rolig du
Om det får dig att må bättre så får du gärna tro att jag e fanboy
Herregud vilken ati fanboy du är , hd4870x2 kommer krossa...........
Sa inte folk desamma om 4850/4870 ????
Hur står sig 3870x2 mot nvidias gts g92 ? Det kanske också krossar ?
Vi märker hur det blir med 4870x2 , vore dock bra om ati kunde pressa fram ett kort som får nvidia att börja funderar lite

Tack, du är minst lika rolig själv du ...

Om du var det minsta påläst så skulle du förstå varför ATi:s nya kort är bra. Jag tycker att de andra svaren på ditt inlägg summerar mina tankar ganska bra dock vill jag tillägga några saker om strömförbrukningen som du inte verkar förstå riktigt.

"Just det, effektförbrukningen betyder även oftast mer värmeenergi som behöver transporteras bort=större kylningsbehov för att skiten inte ska brinna upp/smälta=högre ljudnivå/gigantisk, tung kylning som knappt ryms i en vanlig låda."

Detta skrev jag i mitt förra inlägg och den texten gick tydligen rakt förbi dina vakande ögon. Att du tror att Nvidia har ett "äss i rockärmen" - som det så fint kallas - känns som ett desperat tilltag från en person som inte har fler argument att komma med. Någon dubbelmacka ala 9800GX2 lär inte bli av med 280 GTX just pågrund av strömförbrukningen.

Det stora problemet med kort som drar mycket ström är inte att det visar sig på elräkningen utan att det påverkar saker som t.ex. överklockningsbarhet (vilket är en mycket viktig aspekt för många på det här forumet), avgiven värmeenergi (följderna av detta bör du kunna räkna ut själv) och även livslängd (detta hänger ihop med den avgivna värmeenergin). Ett så pass strömhungrigt kort som ett "280 GX2" lär dessutom inte bara kräva bra kylning utan även ett nätaggregat av rang (som lär gå lös på åtskilligt).

Med vänliga hälsningar

// Bazooka

Visa signatur

"Aurora" Intel Core i5-4670K@4,2GHz - 8GB Corsair Vengeance 1600MHz - MSi Z87-G55 - Sapphire AMD R9 290 Tri-X - 2*Samsung 1TB (RAID 0) - Antec P182 - Corsair HX620 - Noctua NH-U12P
"Mirage" Macbook Pro 13" - 16GB RAM - dualboot OSX/Win7
Hä lön's int' förklar' för dem söm int' begrip'

Permalänk
Medlem

[QUOTE]Ursprungligen inskrivet av Maho
[B]

Citat:

Ursprungligen inskrivet av oscarstegland
Dinoman : jag vet inte när du senast kollade på priserna , men ett 9800x2 kostar inte 6 k styck... Du kan ju åtminstone ge rätt priser

Jag ser drygt 4500:- st, plus ett moderkort som stödjer 3-vägs SLI a' 3000-6000kr och en uppgradering av nätaggregatet för att kunna leverera för peak. SÅ då kan vi räkna in minst 2000kr.

Så 4500*3+3500+2000=19 000 kr

Du missar dessutom poängen av hela diskussionen och det är ett under att folk ens orkar bemöda sig att svara. Du borde vara tacksam.

Visa signatur

Error 412: Precondition Failed - You need to use a real browser in order to view this signature!

Permalänk
Moderator
Testpilot
Citat:

Ursprungligen inskrivet av x86
Jag ser drygt 4500:- st, plus ett moderkort som stödjer 3-vägs SLI a' 3000-6000kr och en uppgradering av nätaggregatet för att kunna leverera för peak. SÅ då kan vi räkna in minst 2000kr.

Så 4500*3+3500+2000=19 000 kr

Du missar dessutom poängen av hela diskussionen och det är ett under att folk ens orkar bemöda sig att svara. Du borde vara tacksam.

Tack.

Jobbigt att diskutera med en person som bara läser men inte tänker.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Dinoman
Tack.

Jobbigt att diskutera med en person som bara läser men inte tänker.

För att citera Skillz välformulerade signatur : Majoriteten läser endast vad folk skriver, när man egentligen bör läsa OCH förstå samtidigt.

Visa signatur

Error 412: Precondition Failed - You need to use a real browser in order to view this signature!

Permalänk

[QUOTE]Ursprungligen inskrivet av Maho
[B]

Citat:

Ursprungligen inskrivet av oscarstegland
Har du missat helt att HD4850/HD4870 bygger på en ny arkitektur? De har ökat antalet TMU:er, antalet shaders, separerat shaderklocken osv. Det har ingeting med fanboy att göra: det står i artikeln att HD4870X2 kommer vara ganska mycket bättre än GTX 280. Tills någon annan information dyker upp är det det som gäller. Läs artikeln innan du börjar kasta skit.

Hur står sig HD3870X2 mot G92. Tja, om du undviker spel som Crysis så står den sig väldigt bra, den slår ju Ultra i de flästa tillfällen, och vad jag vet så är Ultra det snabbaste kortet än i 8800 serien när det gäller höga upplösningar osv. Då det är ett Crossfire kort så måste man ju jämföra med spel där utvecklarna faktiskt tyckt att Crossfire har varit värt att implementera på ett bra sätt. Crysis är ju helt värdelöst i det avseendet. Kolla i stället på Company of Heroes eller Bioshock osv. Sedan så kan ju jag vända det här: hur tror du G92 håller sig mot HD3870X2 i DX10.1 för så vitt jag kom ihåg så fick HD3870X2 näst intill 0% prestanda förlust med AA på i DX10.1. Hur gick det för G92.

Ta det lugnt med alla dina kommentarer. Om du nu inte är en "fanboy", så känns som om du fullständigt sålt din själ till det bolag som är bäst och är redo att göra det igen. Båda bolag har för- och nackdelar...ATI är bättre i en utvecklingssynpunkt, har bättre mediafunktioner, har stöd för DX10.1....medan ingen här på forumet kan neka att Nvidia har bäst prestanda i spel. Det är helt enkelt så, men sluta tracka ner på det andra märket och kalla dem värdelösa för att de inte har bäst prestanda för tillfället. Vänta då tills HD4870X2 kommer ut, så får vi ju se hur det blir, men fortsätter du så här kan du ju räkna med att folk kommer säga en massa skit i din riktning.

______________________________________________________

Ta de lungt lilla vännen , jag har aldrig sagt att ati korten är värdelösa , men det verkar som att alla ati fanboysen känner sig hotade när deras dröm om att ati 4850/4870 nya kort skulle smiska nvidias...
Har aldrig någonsin sagt att ati är kassa , så sluta säga saker jag inte har sagt.
Har aldrig nekat till att 4870x2 kommer vara bra , tvärtom , jag hoppas verkligen det blir ett riktigt bra kort.
det behövs lite konkurans faktiskt då nvidia gör lite som dom själva vill och inte tänker på oss människor.
men samma sak sas om 3870x2 , så jag väntar med att säga att de krossar nvidia innan jag ser några benchs.
Och återigen , hur vet ni att nvidia inte sitter o trycker på något mer ?

Dinoman : jag vet inte när du senast kollade på priserna , men ett 9800x2 kostar inte 6 k styck... Du kan ju åtminstone ge rätt priser

Nej du har inte sagt att ati är värdelösa men din attityd säger det. Det är nog ingen här som inte redan förstått att GTX 280 kommer vara rätt mycket snabbare än HD4870. Men å andra sidan, med den information vi har i dagsläget, så är det naivt att tro att HD4870X2 inte kommer vara bättre än GTX 280. Grejen med HD3870X2 är att det var fortfarande samma gamla brist på TMU:er osv. Det var ingen bra arkitektur, och det ser ut för tillfället som om det har ändrats. Självklart kan man inget säga än, men i och med att det inte finns några benchs så spekulerar vi här, men gärna med en lite mer objektiv synpunkt. Vad skulle Nvidia sitta och trycka med: GTX 280X2 (tdp på 480 watt...lägger man till resten av systemet så slutar det ju inte på 700 watt)? Självklart har de något för framtiden, men jag tror inte vi ser något ytterligare högprestanda kort från Nvidia innan 2009, förutom någon ändrad GTX 280 när de går över till 55nm.

Nej 9800GX2 kostar inte 6000, men de började på 5200-5500 så det var inte långt ifrån. Deras MSRP var $550, så du kan ju räkna med att GTX 280 ligger över 5000 i alla fall ett tag. Det var ju ett helt acceptabelt pris för best of the best för några år sedan men nu är vi vana vid högprestanda för 1000-2000 (HD3870, 8800gt, 8800gts) så det är därför det känns som ett väldigt tråkigt pris. ATI:s kort kommer väl ligga vid 3000-sträcket eller strax under men då är det också ett kort med lite utveckling bakom sig (idle tdp på under 10 watt, GDDR5, DX10.1, 7.1 ljud genom HDMI eventuellt HD-ljud decoder, osv.) vilket jag tycker är rätt intressant också. Det ser ju ut som om man kommer kunna få två stycken HD4870 till priset av ett GTX 280 om man väntar några veckor eller eventuellt en månad.

Visa signatur

Macbook Pro 15" Retina 2013 | Spelriggen: Asus Rampage Formula | Sapphire HD7970 | 4GB ram | Intel Q6600 @ 3.2 ghz | Samsung 840 Pro 256gb + 3.3TB HDD | Antec P182B | Zalman ZM-850HP | BenQ FP241W | Logitech G500+Qpad MK-85 Pro|
Ljud: Peachtree Grand Pre, Emotiva XPA-2, Triangle Magellan Duetto, Beyerdynamic DT990

Permalänk
Moderator
Testpilot
Citat:

Ursprungligen inskrivet av x86
För att citera Skillz välformulerade signatur : Majoriteten läser endast vad folk skriver, när man egentligen bör läsa OCH förstå samtidigt.

Sant.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem

236 Watt är ju fan inte sant, kan man ens kyla så mycket med en vanlig kylare?
Det finns ju kylare på uppåt kilot som ska kyla processorer som i värsta fall ligger strax över 100W, det här är ju åtminstone det dubbla....vad ska man ha för monster på den egentligen

236 Watt är ju sjukt i vilket fall som helst, mina tre burkar tillsammans, full load, ligger UNDER 200W totalt för hela systemen inkl nätaggsförluster och allt...gör att man får lite perspektiv på saker och ting.

Visa signatur

MCP - MCTS - CCNA (expired)

Permalänk
Hjälpsam

Ska i och för sig komma i håg att 236W är i load.
Förhoppningsvis har också Nvidia en del strömsparfunktioner för Idle.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av ASBR
236 Watt är ju fan inte sant, kan man ens kyla så mycket med en vanlig kylare?

8800 GTX Ultra hade 185W för över ett år sedan. Med tanke på att grafikkorten under lång tid gått mot prestanda och inte låg strömförbrukning så är inte jag förvånad över 236W.

Nöjer man sig med ett långsammare kort så går det bra att få ett energisnålare/svalare kort.