ATI och Nvidia försvarar sina strategier

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av AlbinNdoja

Jag tror Nusse tänkte på ATis HD4870X2 och 320w.

Citat:

Ursprungligen inskrivet av DataNusse
Jag menar RV670(X2) och RV770X2

Som är en möjlighet just på grund av deras svalare arkitektur och dual chip lösning. Det blir ett jävligt varmt kort, lättare att kyla än ett kort med bara en större kärna förvisso. Men samtidigt skulle ATi aldrig kunna nå den prestandan i dagsläget med bara en mastodontkärna.

nVidia får ju t.ex. problem att nå sin egen GX2 med en enda kärna. Och då till mycket högre värmeutveckling dessutom.

Det är därför RV770XT är en bra lösning, svala billiga chip, med god prestanda. Som kan köras parvis för att ge enorm prestanda, högre än möjligt med ett jättechip, till hög strömförbrukning, men med billigare tillverkning och smidigare gjort.

Citat:

Ursprungligen inskrivet av AlbinNdoja

Jo fast du får inte glömma att GTX 260 och GTX 280 tävlar om prestanda segmentet. GTX 260 kanske presterar som HD4870 om inte bättre enligt spekulationer. Nvidia har ju G92B som enligt rykten är på väg mot Juli också, även kallad för 9800GT. Jag tror inte att Nvidia är så dumma att de tror de vinner detta race med endast två högpresterande kort för så mycket pengar. De måste självklart och kommer självklart att sälja billigare kort, kanske 9800GTX för priset under HD4850 eller samma?

260 ligger bara marginellt över 9800GTX i teoretisk prestanda. Drygt 10%, och då med 20% lägre texturprestanda.
HD4870 har enligt ryktet en prestanda runt 25% över 9800GTX. Och det praktisk prestanda.
Som vi vet ger aldrig teoretisk prestanda lika mycket praktiskt.
Sen är HD4870 billigare coh svalare.
Men vi får som sagt se, finns kanske faktorer vi inte känner till. Rykten ska man ju inte helt lita på heller.

Citat:

Ursprungligen inskrivet av AlbinNdoja

Det är nog endast därför de skriver så. yckas do gå ner till 55nm runt R700 release (kan ju drömma om 45nm) så kanske det fungerar för dom men knappast annars, i så fall ordentligt nerbandat.

55nm är endast en marginell skillnad. Finns inte så mycket att hämta där. Det betydligt större hoppet från 90nm till 65nm mellan 8800 Ultra och 9800GTX sparade endast 15W. Alltså runt 10%. Det lilla hoppet från 65nm till 55nm är inget som kan göra sånna underverk.

Permalänk
Moderator
Testpilot
Citat:

Ursprungligen inskrivet av DataNusse
ATI's lösning må vara flexibel och något billigare, men sval håller jag inte riktigt med. Det är bara i viloläge som den är sval. Men i load är de lika varma som nVidias motsvarighet.
Så påstående från ATI att deras kort skulle vara svala är lek med ord, och till sist missvisande.

Du sitter och spelar 24 timmar om dagen förstår jag. Om alla rykten stämmer så kommer HD4870 ha en tpd på ~160W. Helt klart mycket men med tanke på att ett Ultra drog runt ~180W load så är det ändå hyffsat rimligt. Beroende på hur prestanda blir givetvis. Det samma gäller GTX 280, men för att det ska kännas rimligt med en load på ~240W så får det prestera något fantastiskt bra. Vilket givetvis inte är en omöjlighet.

Tidiga rykten talade även om att RV770 skulle idla på ~10W vilket om det är sant är en väldigt positiv nyhet. Varför ska grafikkortet stå och sluka ström när det ändå bara används till ~10%.

Tycker att man helt kan sluta snacka om att grafikkort är svala för det är dem inte. Oavsett ATi eller Nvidia.

Citat:

Ursprungligen inskrivet av AlbinNdoja
Japp men det är för att Nvidia inte kommer kunna sätta två stycken GTX 280 grafikprocessoer på samma PCB utan att skiten brinner upp. Förstå 240w * 2.

Det är nog endast därför de skriver så. yckas do gå ner till 55nm runt R700 release (kan ju drömma om 45nm) så kanske det fungerar för dom men knappast annars, i så fall ordentligt nerbandat.

Jo det är garanterat därför dem uttalar sig på det här viset. Vilket bara är jävligt löjligt. Jag menar risken är stor att Nvidia blir tvunga att använda sig av två stycken GTX 280 i SLI för att kunna utprestera R700. Är det fortfarande en idiotisk lösning då? Vem vet kanske kommer de göra en uppföljare på 9800Gx2 med nya krympta G92b.

Sådant marknadsföringstjafs var längesedan jag läste. Men Intel och AMD beter sig ju på precis samma sätt.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Inaktiv
Citat:

Ursprungligen inskrivet av -Boris-
Som är en möjlighet just på grund av deras svalare arkitektur och dual chip lösning. Det blir ett jävligt varmt kort, lättare att kyla än ett kort med bara en större kärna förvisso. Men samtidigt skulle ATi aldrig kunna nå den prestandan i dagsläget med bara en mastodontkärna.

nVidia får ju t.ex. problem att nå sin egen GX2 med en enda kärna. Och då till mycket högre värmeutveckling dessutom.

Det är därför RV770XT är en bra lösning, svala billiga chip, med god prestanda. Som kan köras parvis för att ge enorm prestanda, högre än möjligt med ett jättechip, till hög strömförbrukning, men med billigare tillverkning och smidigare gjort.

260 ligger bara marginellt över 9800GTX i teoretisk prestanda. Drygt 10%, och då med 20% lägre texturprestanda.
HD4870 har enligt ryktet en prestanda runt 25% över 9800GTX. Och det praktisk prestanda.
Som vi vet ger aldrig teoretisk prestanda lika mycket praktiskt.
Sen är HD4870 billigare coh svalare.
Men vi får som sagt se, finns kanske faktorer vi inte känner till. Rykten ska man ju inte helt lita på heller.

55nm är endast en marginell skillnad. Finns inte så mycket att hämta där. Det betydligt större hoppet från 90nm till 65nm mellan 8800 Ultra och 9800GTX sparade endast 15W. Alltså runt 10%. Det lilla hoppet från 65nm till 55nm är inget som kan göra sånna underverk.

I ditt första uttalande måste du väl syfta på 9800GX2?

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Nuukeer
I ditt första uttalande måste du väl syfta på 9800GX2?

Specificera vad du undar över....

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av kinc
Ekonomiskt sett så är ATI:s strategi överlägsen. Deras strategi innebär att de får fler fungerae chip per wafer. Det är också mycket enkelt att skala prestandan.

Nvidias feta monolith chip är bra för prestandan. Själv är jag grymt spänd på Tri-SLI med 790i i Vantage med deras kommande high-end singel-gpu kort. Dock så lider Nvidia av att antalet fungerade chip per wafer nu är minimal. Därav kan vi vänta oss höga priser från nvidia ännu en gång. Men det är inget en sann entusiast ska klaga på hehe

Kan inte annat än hålla med, bortsett från att jag förmodligen inte kommer köra trippel sli med dom där korten
AMDs väg passar deras situation perfekt, effektivare tillverkning (dvs mindre spill) innebär lägre priser och högre vinstmarginaler.

AMD satsningar på Mspace, multi-GPU osv har en oerhörd potential. Iom att man i ett tidigt skede besitter viktig kompetens inom området kan man snabbt skapa nya alster när det behövs.

Att man kommer placera flera kärnor på samma förpackning samt flera gpuer i samma kisel är jag helt övertygad om att vi får se i framtiden.

Sen vill jag bara tillägga att man får ett 3870X2 för 2500:- idag. Ett 9800GTX kostar 2300 som jämförelse. Så att AMDs väg skulle vara dålig är långt från sanningen. Men samtidigt, vill man ha absolut prestanda på den marknad vi ser idag så är singelchippen att föredra. Tyvärr är stödet för "multi" i allmänhet ganska dåligt men det lär det bli ändringar på i framtiden.

Boris
Du är medveten om att en minskning till 55nm från 65nm ger en teoretisk ökning på ~20% flera kärnor per wafer? Så din "marginell ökning" stämmer föga om man ser till tillverkningskapacitet. Ang värmen så finns det variabler. Vid en dieshrink brukar man fixa en del samt öka frekvenserna vilket leder till att värmeutvecklingen ökar...

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av SuperNova
Boris
Du är medveten om att en minskning till 55nm från 65nm ger en teoretisk ökning på ~20% flera kärnor per wafer? Så din "marginell ökning" stämmer föga om man ser till tillverkningskapacitet. Ang värmen så finns det variabler. Vid en dieshrink brukar man fixa en del samt öka frekvenserna vilket leder till att värmeutvecklingen ökar...

Du är medveten om att jag inte pratade tillverkningskapacitet va? Vi pratade möjligheten att slänga ihpo en GX2 280. Den lilla skillnaden det gör i värmeutveckling gör inte att GX2 blir någon duglig kandidat för ett GX2 kort.

Permalänk
Citat:

Ursprungligen inskrivet av Devil May Cry
Tycker helt ärligt att det är lite för osannoligt att ATi skulle krossa nVidia. Dom har det sämre rent ekonomiskt, och bygger på en ide som nVidia kontrade och vann med.

nVidias kort verkar dra ganska mycket mer ström vilket oftast tyder på att det är mycket kraft i kortet, specielt om man jämför 8xxx seriens strömförbrukning och nu de nya. Det här kommer vara grymt starka kort, rå kraft. Dock säger jag inte nödvändigtvis att hög strömförbrukning är bra.

Och nVidia verkar på något sätt lugna och säkra mer "jordnära"

Glöm dock inte att HD4870 tickar på med GDDR5 och att det är tillverkat i 55nm. Det gör nog rätt mycket för strömförbrukningen. Blir lite fel om man skall jämföra strömförbrukning sådär om de nu bygger på väldigt annorlunda teknologier.

Citat:

Ursprungligen inskrivet av ettis
Alla GPUn består redan av massa små cores, ATIs lösning är i stort sett som att ta 2 processorer och lägga den på en PCB aka kentsfield medan Nvidia bygger in coren direkt i en die aka nehalem.

Så jag tror på nvidia.

Citat:

Ursprungligen inskrivet av ettis
Okey suck, folk verkar inte förstå hur en modern GPU är uppbyggt.

Enkelt sagt så innehåller t.ex. en 8800GTX 128 individuella stream processorer som jobbar parallellt.

http://resources.vr-zone.com/Shamino/g80/12.jpg

Varje grön låda är en processor. Denna uppbyggnad kan man grovt säga efterlikna dagens dualcore CPU men med bara 2 cores och inte 128.

Jag tror inte det är någon här som behövde förklaras för att stream processors är små processorkärnor på en GPU. Men det du säger är ju helt enkelt intelligensbefriat. Du snackar om helt olika saker. Det du säger är att Nvidias metod är bättre, då de använder sig av massa stream processorer på en Die, medan ATIs är sämre, då de använder sig av 2 GPU på en PCB. Vet du överhuvudtaget vad du snackar om? Du tror inte att ATIs STREAM PROCESSORS (dvs. inte GPU) ligger på samma die i till exempel kort som HD4870, eller tja vilket annat singelGPU kort som tillverkats? Finns det bra stöd kan man ju få upp mot 90% ökning i Crossfire, så det är ju ingen dålig lösning. Visserligen är ju Nvidias singelGPU lösning smartare, men presterar HD4870X2 bättre som det ryktas om bryr jag mig egentligen inte.

Ontopic: Jag har också hört rykten om delat minne mellan de två GPUerna, dock att det skulle vara 2 gb vilket innebär att Nvidia hade rätt med kostnad för dubbla minnet men att det är mer effektivt. Är detta sant, så tror jag att ATI faktiskt kan vara inne på rätt spår, då det verkligen imponerar med lite innovation och utveckling.

Visa signatur

Macbook Pro 15" Retina 2013 | Spelriggen: Asus Rampage Formula | Sapphire HD7970 | 4GB ram | Intel Q6600 @ 3.2 ghz | Samsung 840 Pro 256gb + 3.3TB HDD | Antec P182B | Zalman ZM-850HP | BenQ FP241W | Logitech G500+Qpad MK-85 Pro|
Ljud: Peachtree Grand Pre, Emotiva XPA-2, Triangle Magellan Duetto, Beyerdynamic DT990

Permalänk
Hjälpsam

Båda metoderna har ju sina för och nackdelar, framtiden får utvisa vilket som fungerar bäst, kanske blir det tycke och smak som kommer att avgöra.
Fördelar med Nvidias, man slipper bekymra sig om att SLI kommer att fungera till det spel man vill spela, alla spel skalar inte heller speciellt bra även när det fungerar.
Fördelar med ATI:s, enkelt att skala ned eller upp, det blir billigare.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Avstängd

Tänkte lite.

HD3870 vs HD4870
496 Gflops mot 1008 Gflops.
9800GTX vs GTX280
649 Gflops mot 933 Gflops.

Utöver det har HD4870 fått 120% bättre texturprestanda medans GTX 260 fått 11%. Jag förstår faktiskt inte hur folk kan tro att ATi kommer komma mer efter nVidia nu än vad de var innan. Det pekar ju faktiskt åt andra hållet.

Folk har pratat om att GTX 280 ska vara mer än dubbelt så snabbt som 9800GTX, andra påstår att dagens garfikkort kommer framstå som integrerade brevid ett GTX 280.
Bara jag som känner att GTX 280 är riktigt hypade grejer?

Permalänk
Hjälpsam

Har också tänkt på det, jag tror att Nvidias försprång för singel GPU kommer att minska, men att Nvidia fortfarande kommer att ha ledningen.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

Tror till 100% att säljaren på Siba/OnOff/Elschimpansen som inte kan något om datorer, kommer peka på en dator och säga, här har du en dator med dubbla grafikkärnor, därför är den bättre.

Jag vet, jag har själv stått på Siba och gemene man som handlar datorer kan ingenting och hade helt klart gått på säljarens argument.

Tror dubbla kärnor, kan vara ett bra försäljningsknep som bonus

Permalänk
Medlem

Jag tror också att AMD/ATI knaprar in på nVidias prylar denna gång. Annat vore ju konstigt då de har levererat ganska dåliga saker ett tag nu. Som vanligt ser det bra ut på pappret men denna gång ser det faktiskt rejält mycket bättre ut.
Kul ska det bli i alla fall.

Visa signatur

Is it "for fucks sake" or "for fuck sake"? Its for a work email so it has to sound professional.

Permalänk
Hjälpsam

Håller inte med om att ATI levererat dåliga saker ett tag nu.
Deras HD3000 serie är mycket bra, även om Nvidia sitter på de snabbaste (och dyraste) korten.
Men att det kommer bli kul, håller jag med om till 100%

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av oscarstegland
Glöm dock inte att HD4870 tickar på med GDDR5 och att det är tillverkat i 55nm. Det gör nog rätt mycket för strömförbrukningen. Blir lite fel om man skall jämföra strömförbrukning sådär om de nu bygger på väldigt annorlunda teknologier.

Jag tror inte det är någon här som behövde förklaras för att stream processors är små processorkärnor på en GPU. Men det du säger är ju helt enkelt intelligensbefriat. Du snackar om helt olika saker. Det du säger är att Nvidias metod är bättre, då de använder sig av massa stream processorer på en Die, medan ATIs är sämre, då de använder sig av 2 GPU på en PCB. Vet du överhuvudtaget vad du snackar om? Du tror inte att ATIs STREAM PROCESSORS (dvs. inte GPU) ligger på samma die i till exempel kort som HD4870, eller tja vilket annat singelGPU kort som tillverkats? Finns det bra stöd kan man ju få upp mot 90% ökning i Crossfire, så det är ju ingen dålig lösning. Visserligen är ju Nvidias singelGPU lösning smartare, men presterar HD4870X2 bättre som det ryktas om bryr jag mig egentligen inte.

Ontopic: Jag har också hört rykten om delat minne mellan de två GPUerna, dock att det skulle vara 2 gb vilket innebär att Nvidia hade rätt med kostnad för dubbla minnet men att det är mer effektivt. Är detta sant, så tror jag att ATI faktiskt kan vara inne på rätt spår, då det verkligen imponerar med lite innovation och utveckling.

Jag tror det är du som har missuppfattat allting, läs om en gång till.

Visa signatur

[QX6700 @ 3.20Ghz - Tuniq Tower 120 - Abit IN9 32X MAX nForce-680i SLI - 4x1024 PC2-6400 Team Xtreem @ 800Mhz 3338 - GTX260 216 SLI @ 690/1440/2170 - 2x74GB Raptor - Tagan TurboJet 1100W - 6x TT Blue Led VR - CoolerMaster Stacker 830 Evolution - Samsung SH-S183A SATA - Dell UltraSharp 3007WFP-HC - Logitech Z-5500]

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Ratatosk
Håller inte med om att ATI levererat dåliga saker ett tag nu.
Deras HD3000 serie är mycket bra, även om Nvidia sitter på de snabbaste (och dyraste) korten.

nVidia har det dyraste kortet just pga att de är utan konkurrent i toppen, inte så konstigt. Om man sedan går nedåt i pris så ligger korten väldigt lika i pris/prestanda, så att AMD/ATI skulle ha mer prisvärda kort är bara snack. Om de har det så handlar det om mycket små skillnader. nVidia har helt enkelt det bästa kortet och har ganska länge även haft pris/prestanda-kortet i 8800GTS (G92) om det inte fortfarande är så. Kolla tester så ser du.

Men ok, AMD gör inte dåliga saker nu, nVidia gör bara ännu bättre och kollar man pris kontra prestanda så gör inte nVidia bort sig där heller. Så att AMD gör mer prisvärda grafikkort är bara BS.

Visa signatur

Is it "for fucks sake" or "for fuck sake"? Its for a work email so it has to sound professional.

Permalänk
Hjälpsam
Citat:

Ursprungligen inskrivet av blade80
nVidia har det dyraste kortet just pga att de är utan konkurrent i toppen, inte så konstigt. Om man sedan går nedåt i pris så ligger korten väldigt lika i pris/prestanda, så att AMD/ATI skulle ha mer prisvärda kort är bara snack. Om de har det så handlar det om mycket små skillnader. nVidia har helt enkelt det bästa kortet och har ganska länge även haft pris/prestanda-kortet i 8800GTS (G92) om det inte fortfarande är så. Kolla tester så ser du.

Håller med om det mesta, lämnar dock frågan om att 8800GTS ger bäst pris-prestanda öppen.
Att bägge tillverkarnas serier, har ganske likartade pris-prestanda, verkar vi vara överens om.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Ratatosk
Håller med om det mesta, lämnar dock frågan om att 8800GTS ger bäst pris-prestanda öppen.
Att bägge tillverkarnas serier, har ganske likartade pris-prestanda, verkar vi vara överens om.

Jo exakt, agree

Visa signatur

Is it "for fucks sake" or "for fuck sake"? Its for a work email so it has to sound professional.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av blade80
Som vanligt ser det bra ut på pappret men denna gång ser det faktiskt rejält mycket bättre ut.

Har det sett sämre ut i praktiken än på pappret menar du? På vilket sätt?

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av -Boris-
Har det sett sämre ut i praktiken än på pappret menar du? På vilket sätt?

När papperslanseringen av HD2900XT kom så såg det ut att bli bra, men ack så vi bedrog oss. På det sättet.

Visa signatur

Is it "for fucks sake" or "for fuck sake"? Its for a work email so it has to sound professional.

Permalänk
Moderator
Testpilot
Citat:

Ursprungligen inskrivet av blade80
När papperslanseringen av HD2900XT kom så såg det ut att bli bra, men ack så vi bedrog oss. På det sättet.

Vadå då då? Det visade ju sig att den hade en turbinmotor och nästan kunde flyga.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Citat:

Ursprungligen inskrivet av -Boris-
Som är en möjlighet just på grund av deras svalare arkitektur och dual chip lösning. Det blir ett jävligt varmt kort, lättare att kyla än ett kort med bara en större kärna förvisso. Men samtidigt skulle ATi aldrig kunna nå den prestandan i dagsläget med bara en mastodontkärna.

nVidia får ju t.ex. problem att nå sin egen GX2 med en enda kärna. Och då till mycket högre värmeutveckling dessutom.

Det är därför RV770XT är en bra lösning, svala billiga chip, med god prestanda. Som kan köras parvis för att ge enorm prestanda, högre än möjligt med ett jättechip, till hög strömförbrukning, men med billigare tillverkning och smidigare gjort.

260 ligger bara marginellt över 9800GTX i teoretisk prestanda. Drygt 10%, och då med 20% lägre texturprestanda.
HD4870 har enligt ryktet en prestanda runt 25% över 9800GTX. Och det praktisk prestanda.
Som vi vet ger aldrig teoretisk prestanda lika mycket praktiskt.
Sen är HD4870 billigare coh svalare.
Men vi får som sagt se, finns kanske faktorer vi inte känner till. Rykten ska man ju inte helt lita på heller.

55nm är endast en marginell skillnad. Finns inte så mycket att hämta där. Det betydligt större hoppet från 90nm till 65nm mellan 8800 Ultra och 9800GTX sparade endast 15W. Alltså runt 10%. Det lilla hoppet från 65nm till 55nm är inget som kan göra sånna underverk.

Jag håller med och förstår. Men ja det skall bli mycket intressant. Antingen blir det ett GTX 280 eller ett HD4870 för mig efter det jag köpt bil i sommar.

Citat:

Ursprungligen inskrivet av Dinoman
Jag menar risken är stor att Nvidia blir tvunga att använda sig av två stycken GTX 280 i SLI för att kunna utprestera R700.

Vad får dig att tro det? Vet du något om GTX 280 vi andra inte känner till?

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Moderator
Testpilot
Citat:

Ursprungligen inskrivet av AlbinNdoja
Vad får dig att tro det? Vet du något om GTX 280 vi andra inte känner till?

Oh yeah, du skulle bara veta.

Nej men det jag syftar på är att OM HD4870x2 presterar i paritet med GTX 280, eller främst då bättre än GTX 280 så kommer ju Nvidia bli tvunga att ta till argumentet GTX 280 i SLI för att proklamera sig som prestandahärskare över 3D-accelerad grafik.

En GTX 280 dubbelmacka har jag svårt att se. Kanske en GTX 260 dubbelmacka?

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av blade80
När papperslanseringen av HD2900XT kom så såg det ut att bli bra, men ack så vi bedrog oss. På det sättet.

Gjorde det verkligen det eller var det för att man läste fel? 11.9 Gtexels mot 8800GTX på 36.8 Gtexels? Man ska inte bara titta på shaders. Dessutom hade 8800GTX högre Gflopsvärde än 2900XT.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av -Boris-
Gjorde det verkligen det eller var det för att man läste fel? 11.9 Gtexels mot 8800GTX på 36.8 Gtexels? Man ska inte bara titta på shaders. Dessutom hade 8800GTX högre Gflopsvärde än 2900XT.

De som trodde så starkt på 2900XT gjorde det och jag tror fortfarande att de som trodde på det kortet än idag envisas med att det var ett bra kort, helt ärligt.
Vissa är så jäkla envisa att det inte ens är meningsfullt att ens försöka övertala dessa typer av personer.

Så vad har vi lärt oss, jo att man kan utläsa vissa saker av specs. men att man alltid måste vänta på riktiga testresultat för att se vad som presterar bäst.

Jag hoppas verkligen att test av de nya korten kommer att göras med ordentliga prollar så inte cpun blir den begränsande faktorn bara.

Visa signatur

Is it "for fucks sake" or "for fuck sake"? Its for a work email so it has to sound professional.

Permalänk
Citat:

Ursprungligen inskrivet av Dinoman
Oh yeah, du skulle bara veta.

Nej men det jag syftar på är att OM HD4870x2 presterar i paritet med GTX 280, eller främst då bättre än GTX 280 så kommer ju Nvidia bli tvunga att ta till argumentet GTX 280 i SLI för att proklamera sig som prestandahärskare över 3D-accelerad grafik.

En GTX 280 dubbelmacka har jag svårt att se. Kanske en GTX 260 dubbelmacka?

Hehe, jag är jävligt dålig med humor bak datorn har jag märkt. Alla säger att jag är rolig som sjutton men det är IRL, aja.

Det var ett så kallat "skämt" eftersom du brukar skriva så till mig ibland. Men jag förstår precis vad du menar. Faktum är att jag tror X2 blir snabbare därför att allt är till ATis fördel just nu då Nvidia har en väldigt dålig yield om nu ryktena stämmer. Sedan drar GTX 280 på tok för mycket ström än så länge för att implementera två stycken grafikprocessorer på samma PCB _vad jag tror_.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av AlbinNdoja

Jo fast du får inte glömma att GTX 260 och GTX 280 tävlar om prestanda segmentet. GTX 260 kanske presterar som HD4870 om inte bättre enligt spekulationer. Nvidia har ju G92B som enligt rykten är på väg mot Juli också, även kallad för 9800GT. Jag tror inte att Nvidia är så dumma att de tror de vinner detta race med endast två högpresterande kort för så mycket pengar. De måste självklart och kommer självklart att sälja billigare kort, kanske 9800GTX för priset under HD4850 eller samma?

ahh gamla goda G92 vilka minen( förra veckan)XD

hade nästan glömt bort den serien
det e klart att Nvidia ska släppa några nya kort med annat namn men presterar precis likvärdigt med 8800serien, dom verkar gilla det

Permalänk
Moderator
Testpilot
Citat:

Ursprungligen inskrivet av AlbinNdoja
Hehe, jag är jävligt dålig med humor bak datorn har jag märkt. Alla säger att jag är rolig som sjutton men det är IRL, aja.

Det var ett så kallat "skämt" eftersom du brukar skriva så till mig ibland. Men jag förstår precis vad du menar. Faktum är att jag tror X2 blir snabbare därför att allt är till ATis fördel just nu då Nvidia har en väldigt dålig yield om nu ryktena stämmer. Sedan drar GTX 280 på tok för mycket ström än så länge för att implementera två stycken grafikprocessorer på samma PCB _vad jag tror_.

Ja alltså ibland får man ju släppa efter lite.

Som nu till exempel, blir det bärs och CS:S.

Jo visst ser det ut som om GTX 280 inte lär fixa att tryckas in två stycken på en PCB.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av -Boris-

260 ligger bara marginellt över 9800GTX i teoretisk prestanda. Drygt 10%, och då med 20% lägre texturprestanda.
HD4870 har enligt ryktet en prestanda runt 25% över 9800GTX. Och det praktisk prestanda.
Som vi vet ger aldrig teoretisk prestanda lika mycket praktiskt.
Sen är HD4870 billigare coh svalare.
Men vi får som sagt se, finns kanske faktorer vi inte känner till. Rykten ska man ju inte helt lita på heller.

Hmm... hur kommer du fram till att 260 GTX bara skulle ha "drygt 10%" bättre teoretisk prestanda än 9800GTX?

Jag förstår inte jämförelsen, GT200 är ju en ny arkitektur. Det är ju som äpplen och päron. Jag skulle förstå motsvarande uträkningar om det gällde 4870 jämfört 3870 då AMD valt att bara göra "tweaks" med förra generationens kärna (dvs ökat klocken, antalet steam processorer, TMUs osv). Fast t.om i ATI-fallet så snackas det väl om att R700:ans steams ska vara effektivare än R600:ans, right?

Att GTX 260 bara skulle vara drygt 10% snabbare än 9800GTX tror jag inte på. Detta skulle ju innebära att GTX 280, som är max 30% snabbare än lillebror, bara är 40% snabbare än 9800GTX. Föga imponerande.

Citat:

Ursprungligen inskrivet av -Boris-
Tänkte lite.

HD3870 vs HD4870
496 Gflops mot 1008 Gflops.
9800GTX vs GTX280
649 Gflops mot 933 Gflops.

Folk har pratat om att GTX 280 ska vara mer än dubbelt så snabbt som 9800GTX, andra påstår att dagens garfikkort kommer framstå som integrerade brevid ett GTX 280.
Bara jag som känner att GTX 280 är riktigt hypade grejer?

Gflops är en kass parameter för att jämföra prestanda. Geforce 9600 GT klarar bara 208 GFlops men är inte mycket sämre än ett 9800GTX på 649 GFlops.

Angående hype av GTX 280 så håller jag nog inte med. Det är inte bara här på Sweclockers forum som många tror att ATI med Radeon 4870 kommer vara den stora överraskningen. Klart man minns de absurda ryktena om att 9800 GTX skulle vara 3 gånger så snabbt som 8800GTX, men det är ju länge sedan nu... I dagsläget har jag inte sett någon som tror att GTX 280 ska vara dubbelt så snabbt som 9800GTX. Eller?

(GTX280 vs 9800GTX) 933/649 är förresten bara 1,44. Jag tror dock att prestandaskillnaden mellan GTX280 och 9800GTX är betydligt större än så... 75% kanske (just för att det är äpplen och päron, dvs ny arktitektur).

(HD4870 vs 3870) 1008/496=2.0. Om Hd4870 är dubbelt så snabb som föregångaren, hoppas hoppas , så har du i alla fall en poäng - att AMD nog knappar in en hel del på Nvidia denna generation.

Visa signatur

Memento mori...

Permalänk
Citat:

Ursprungligen inskrivet av Pellias
Hmm... hur kommer du fram till att 260 GTX bara skulle ha "drygt 10%" bättre teoretisk prestanda än 9800GTX?

Jag förstår inte jämförelsen, GT200 är ju en ny arkitektur. Det är ju som äpplen och päron. Jag skulle förstå motsvarande uträkningar om det gällde 4870 jämfört 3870 då AMD valt att bara göra "tweaks" med förra generationens kärna (dvs ökat klocken, antalet steam processorer, TMUs osv). Fast t.om i ATI-fallet så snackas det väl om att R700:ans steams ska vara effektivare än R600:ans, right?

Att GTX 260 bara skulle vara drygt 10% snabbare än 9800GTX tror jag inte på. Detta skulle ju innebära att GTX 280, som är max 30% snabbare än lillebror, bara är 40% snabbare än 9800GTX. Föga imponerande.

Gflops är en kass parameter för att jämföra prestanda. Geforce 9600 GT klarar bara 208 GFlops men är inte mycket sämre än ett 9800GTX på 649 GFlops.

Angående hype av GTX 280 så håller jag nog inte med. Det är inte bara här på Sweclockers forum som många tror att ATI med Radeon 4870 kommer vara den stora överraskningen. Klart man minns de absurda ryktena om att 9800 GTX skulle vara 3 gånger så snabbt som 8800GTX, men det är ju länge sedan nu... I dagsläget har jag inte sett någon som tror att GTX 280 ska vara dubbelt så snabbt som 9800GTX. Eller?

(GTX280 vs 9800GTX) 933/649 är förresten bara 1,44. Jag tror dock att prestandaskillnaden mellan GTX280 och 9800GTX är betydligt större än så... 75% kanske (just för att det är äpplen och päron, dvs ny arktitektur).

(HD4870 vs 3870) 1008/496=2.0. Om Hd4870 är dubbelt så snabb som föregångaren, hoppas hoppas , så har du i alla fall en poäng - att AMD nog knappar in en hel del på Nvidia denna generation.

Jag måste bara fråga vad du snackar om?
Var det inte GT200 kärnan som alla snackade om att den va 300% bättre än G80-G92?
Vad jag vill minnas iaf.
Sen att bara gå på klocken på GTX280 vs 9800GTX är nog det dummaste jag sett, ska inte då 9600GT vara äckligt bra jämfört med andra grafikkort då den har hög clocks eller? ..jag har inte riktigt kollat på 9600gt's clocks för jag sitter just nu på mitt ps3 och inväntar nytt nätagg... antingen min kompis kompis nätagg med 600W eller ett annat skit på PCcity

Visa signatur

nuvarande dator: Asus ROG STRIX Z370-E GAMING, Intel i7 8700k 4,7Ghz, Corsair 32gb3200mhz, ASUS RTX 2070 STRIX Gaming OC

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av ScrewFearMe
Jag måste bara fråga vad du snackar om?
Var det inte GT200 kärnan som alla snackade om att den va 300% bättre än G80-G92?
Vad jag vill minnas iaf.
Sen att bara gå på klocken på GTX280 vs 9800GTX är nog det dummaste jag sett, ska inte då 9600GT vara äckligt bra jämfört med andra grafikkort då den har hög clocks eller? ..jag har inte riktigt kollat på 9600gt's clocks för jag sitter just nu på mitt ps3 och inväntar nytt nätagg... antingen min kompis kompis nätagg med 600W eller ett annat skit på PCcity

Haha, du läste nog lite slarvigt.

Jovisst menade man GT200-kärnan när man sa att "9800 GTX blir 3 ggr snabbare än 8800GTX". Detta var ju innan Nvidia kom med uppfräschade G80-or som man döpte till 9000-serien, och på den tiden trodde alla såklart att GT200 skulle få heta 9800GTX.

Det var inte klock-jämförelser jag gjorde, utan på Gigaflops, dvs den totala kapaciteten för flyttalsberäkningar hos ett grafikkort. F.ö. påpekade jag ju att detta är ett dåligt sätt att jämföra prestanda (precis som Mhz-jämförelser är).

Visa signatur

Memento mori...