ATI och Nvidia försvarar sina strategier

Permalänk
Hjälpsam

Jag hoppas på bättre än 25% över GTX.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Citat:

Ursprungligen inskrivet av ettis
Okey suck, folk verkar inte förstå hur en modern GPU är uppbyggt.

Enkelt sagt så innehåller t.ex. en 8800GTX 128 individuella stream processorer som jobbar parallellt.

http://resources.vr-zone.com/Shamino/g80/12.jpg

Varje grön låda är en processor. Denna uppbyggnad kan man grovt säga efterlikna dagens dualcore CPU men med bara 2 cores och inte 128.

Ok, undra hur ATi:s GPU:er ser ut

Det är inget speciellt med just Nvidias GPU:er utan alla chip idag är uppbyggda på samma sätt (i och med Dx10, unifierade arkitekturer). Skillnaden är att ATi gör två stycken mindre, energieffektivare kärnor och lägger dem på en och samma PCB med ett brygg-chip emellan medan Nvidia gör en enda gigantisk GPU. ATi:s lösning har (som jag sagt förut) den fördelen att den är mer flexibel medan Nvidias slipper alla problem som kommer av dagens MGPU-teknik.

Visa signatur

"Aurora" Intel Core i5-4670K@4,2GHz - 8GB Corsair Vengeance 1600MHz - MSi Z87-G55 - Sapphire AMD R9 290 Tri-X - 2*Samsung 1TB (RAID 0) - Antec P182 - Corsair HX620 - Noctua NH-U12P
"Mirage" Macbook Pro 13" - 16GB RAM - dualboot OSX/Win7
Hä lön's int' förklar' för dem söm int' begrip'

Permalänk
Medlem

Roligt att läsa alla vilda gissningar. Ni kan ju omöjligt veta vilken strategi som är bäst i förvag om ni inte har nån form av civilingenjörsutbildning inom mikroelektronik eller nått, och t.om då blir det nog svårt med en kvalificerad gissning.

Ju mer man lär sig, desto mer inser man hur lite man egentligen kan.

Permalänk
Medlem

ATI har ungefär samma uppbyggnad på deras GPUn. Deras uppkommande grafikkort har faktist 480 streamproccesorer mot Nvidias 240 men de presterar olika och har olika uppgifter så man kan ej enbart gå på antalet processorer när man vill veta hela grafikkortets prestanda.

Visa signatur

[QX6700 @ 3.20Ghz - Tuniq Tower 120 - Abit IN9 32X MAX nForce-680i SLI - 4x1024 PC2-6400 Team Xtreem @ 800Mhz 3338 - GTX260 216 SLI @ 690/1440/2170 - 2x74GB Raptor - Tagan TurboJet 1100W - 6x TT Blue Led VR - CoolerMaster Stacker 830 Evolution - Samsung SH-S183A SATA - Dell UltraSharp 3007WFP-HC - Logitech Z-5500]

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Ratatosk
Läst lite var stans att Vista SP1 har gjort mycket för prestanda i CF, men det kan vara fel.
Vore kul om dom lyckades dela på minnet, kan det vara därifrån rycktet om en 512 bitars bus kommer?

Skulle inte ati 4000 serie ha 256 bit?

Citat:

Ursprungligen inskrivet av Devil May Cry
Tycker helt ärligt att det är lite för osannoligt att ATi skulle krossa nVidia. Dom har det sämre rent ekonomiskt, och bygger på en ide som nVidia kontrade och vann med.

nVidias kort verkar dra ganska mycket mer ström vilket oftast tyder på att det är mycket kraft i kortet, specielt om man jämför 8xxx seriens strömförbrukning och nu de nya. Det här kommer vara grymt starka kort, rå kraft. Dock säger jag inte nödvändigtvis att hög strömförbrukning är bra.

Och nVidia verkar på något sätt lugna och säkra mer "jordnära"

Jasså tycker ati mer har "fötterna på jorden"! dom kritiserar ati´s kort men ati kritiserar inte nvidia!

Citat:

Ursprungligen inskrivet av Sisjöbävern
..Säger han som sitter på en fyrkärnig cpu.. :S

Tänkte just på det samma!

Visa signatur

WS:/ASUS M4A78-E/Phenom 940BE/OCZ Reaper DDR2 PC8500 6Gb/CF Ati 4870 1GB//Server: AMD Phenom 9550/MSI K9A2 CF-F/OCZ Reaper PC8500 2Gb/XFX GTS 250 Nvidia
"En enskild människas död är en tragedi, en miljon döda är statistik" -Josef Stalin

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av DataNusse
Att sätta två (eller fler) GPU på en PCB med separata minnen ser jag inte som en bra lösning. Alla fall ingen lösning man bygger hela sin strategi på som ATI gör. Denna lösning kan vara komplementarisk, men inte mer.

Nu fick du allt till det så du kunde slänga skit på ATI utan att träffa nVidia

Varför inte se det så här att ATI bygger sin strategi på att bygga billiga, prisvärda kort, om ej high-end. För att kompletera släpper de X2 för att ha något i den pris/prestanda klassen. För det är ju knappast X2 som dragit in mest pengar i 3k serien om man säger så.

Lösningen är ju ekonomisk som folk redan nämn. RV670 har väldigt bra yield och det lär förmodligen RV770 också ha.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av KjM
Tagit ifrån http://mikrodatorn.idg.se/2.1030/1.162343

Det är modellerna Radeo n HD 4850 och 4870 somhar testats mot Nvidias Geforce 9800 GTX. Det uppges då att 4870 är 30 procent snabbare än 4850 och 25 procent snabbare än 9800 GTX. Vilka testprogram som har använts framgår inte.

Tycker det låter bra för ATI;s fördel, och det räcker för mig! Jag tror på ATI!

Förlita dig inte starkt på den sidan, allt är bara spekulationer, jag såg ingen benchmark alls på den sidan.

Citat:

Ursprungligen inskrivet av ettis
Okey suck, folk verkar inte förstå hur en modern GPU är uppbyggt.

Enkelt sagt så innehåller t.ex. en 8800GTX 128 individuella stream processorer som jobbar parallellt.

http://resources.vr-zone.com/Shamino/g80/12.jpg

Varje grön låda är en processor. Denna uppbyggnad kan man grovt säga efterlikna dagens dualcore CPU men med bara 2 cores och inte 128.

Jaaahhaaa stream processorer. Då förstår jag. Men jag trodde diskutionen handle generellt om själva "hela" GPUn. Efter att ha läst E_Z post så förstår jag vad du menar.

Permalänk
Medlem

Vad är overhead? Varför skulle det bli mer spill med fler processorer?

Visa signatur

I like my women how i like my coffee... In a plastic cup.

Permalänk
Citat:

Ursprungligen inskrivet av ettis
ATI har ungefär samma uppbyggnad på deras GPUn. Deras uppkommande grafikkort har faktist 480 streamproccesorer mot Nvidias 240 men de presterar olika och har olika uppgifter så man kan ej enbart gå på antalet processorer när man vill veta hela grafikkortets prestanda.

Ditt första inlägg kändes inte som att det hade något direkt argument för Nvidia. Därför jag kommenterade :/

Än en gång: kan du förtydliga?

Visa signatur

"Aurora" Intel Core i5-4670K@4,2GHz - 8GB Corsair Vengeance 1600MHz - MSi Z87-G55 - Sapphire AMD R9 290 Tri-X - 2*Samsung 1TB (RAID 0) - Antec P182 - Corsair HX620 - Noctua NH-U12P
"Mirage" Macbook Pro 13" - 16GB RAM - dualboot OSX/Win7
Hä lön's int' förklar' för dem söm int' begrip'

Permalänk
Medlem

Tror faktiskt på ATIs lösning mer. GPUn är en väldigt parallell enhet, och trycka in mer kärnor som kör parallellt funkar mycket bättre än på CPUn där väldigt lite mjukvara är multitrådad på ett effektivt sätt.

ATI har ju även gjort stora förbättringar med deras Crossfire av vad jag läst, så dess overhead ska vara relativt liten. Fast det är klart, man får ju vänta tills korten har släppts till man ser hur de verkligen presterar.

Och sedan så gillar jag skarpt ATI för de har tagit ner strömförbrukningen så mycket med 4000-serien om det visar sig att de drar under 10W medan korten idlar när man inte spelar spel.

På något sätt så känns bara NVIDIA korten denna gång mycket mindre "fräsha" för mig. Kan inte riktigt sätta fingret på det, men det är självklart mycket möjligt jag har fel. Men det vore faktiskt bra om det var en miss från NVIDIA, då de har haft ledningen lite för länge nu tycker jag. Och ATI (AMD) är i behov av pengar

Permalänk

"Och nVidia verkar på något sätt lugna och säkra mer "jordnära""

Tycker inte dom varit speciellt lugna det senaste med tramsiga uttalanden och ett otroligt klankande på ATI och Intel. Ett ofantligt produktsprutande med likartade produkter det senaste tycker jag också är ganska dåligt.

-

Det som retat mig när man tittar på nästa generations nVidiakort är den groteskt höga strömförbrukningen och en saftig prislapp på kalaset (sedan tillkommer ju elräkningen).
Jag kan acceptera det om det presterar något in i hästväg, men jag ställer mig tveksam till att det kommer överraska något vidare. Ända sedan lanseringen av 8800 GTX och Ultra har efterföljande kort gjort mig besviken. Kanske undantaget 9800gx2 men jag tycker det verkar vara en lätt krystad konstruktion.
Den senaste tiden har vi ju kunnat köpa bra presterande kort från båda ATI och nVidia till rätt priser, vore synd om det skulle gå tillbaka till gamla nivåer med 5-7000 kronor för ett grafikkort med topprestanda.

nVidias totala oförmåga att producera vettiga chipsset så man kunde bruka deras SLI-lösningar retar mig också. Köpte ett kort med 680-chipset och sämre och varmare skit har jag aldrig beskådat. Ge Intel rättigheten att bygga vettiga SLI-chipsets! Som det är nu går SLI bort för mig.

Endast mina tankar, men jag väntar forfarande på en RIKTIG anledning att byta ut mitt 8800GTX, oviktigt om det står nVidia eller ATI på det, men just nu verkar ATI mer lovande.

Permalänk
Medlem

Som folk nämnde innan så bildas det massa overhead när man vill att två skilda processorer ska jobba ihop. Det är därför man inte får en 100% ökning i prestanda om man kör SLI mot bara ett singelkort eller om man kör med dualcore mot singlecore trots att programmet är optimerade för det.
Dessutom krävs denna lösning också fler komponenter för att fungera som extra minnen och bryggkretsar vilket både ökar priset och drar ner prestandan.

ATIs sätt att utveckla GPUn är helt enkelt inte effektivt, utan det känns mer som att de gör det för att spara tid och pengar på utvecklingskostnader.
Vilket jag inte kan skylla på dom med tanke på deras situation just nu.

Samma sak gjorde Intel när de kom ut med deras Pentium D lite hastight för att konkurera mot AMD X2 och senare också Core2quad (Kentsfield).

Visa signatur

[QX6700 @ 3.20Ghz - Tuniq Tower 120 - Abit IN9 32X MAX nForce-680i SLI - 4x1024 PC2-6400 Team Xtreem @ 800Mhz 3338 - GTX260 216 SLI @ 690/1440/2170 - 2x74GB Raptor - Tagan TurboJet 1100W - 6x TT Blue Led VR - CoolerMaster Stacker 830 Evolution - Samsung SH-S183A SATA - Dell UltraSharp 3007WFP-HC - Logitech Z-5500]

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av ettis
Alla GPUn består redan av massa små cores, ATIs lösning är i stort sett som att ta 2 processorer och lägga den på en PCB aka kentsfield medan Nvidia bygger in coren direkt i en die aka nehalem.

Så jag tror på nvidia.

Helt rätt, GPUs består av flera cores, streamprocessorerna. Dock förstår jag inte vad du menar med att ATI lägger 2 GPUs på en "platta" medan nvidia bygger in coren direkt i en die?
ATI har 2 dies på en GPU med vardera ett gäng cores, medan nvidia har en fet GPU med ett gäng cores. Sen är det väl mer ett rykte att 4870X2 kommer ha 2 separata dies på en GPU, time will tell

Citat:

Ursprungligen inskrivet av Devil May Cry
Tycker helt ärligt att det är lite för osannoligt att ATi skulle krossa nVidia. Dom har det sämre rent ekonomiskt, och bygger på en ide som nVidia kontrade och vann med.

nVidias kort verkar dra ganska mycket mer ström vilket oftast tyder på att det är mycket kraft i kortet, specielt om man jämför 8xxx seriens strömförbrukning och nu de nya. Det här kommer vara grymt starka kort, rå kraft. Dock säger jag inte nödvändigtvis att hög strömförbrukning är bra.

Och nVidia verkar på något sätt lugna och säkra mer "jordnära"

Visst, det ser ju ganska bra ut gällandes prestandan på GT200, men vi har ju sett Geforce FX-serien också, ingen glömmer väl den hårfönen?

Jag ser fram emot riktiga prestandatest. Börjar ledsna på alla j*vla rykten nu
För övrigt så håller jag med Kinc, tror att ATIs lösning är ekonomiskt effektiv, samtidigt som de lättare når ut till den stooora marknaden, vilket GT200 inte kommer göra, utan snarare endast nå ut till entusiasterna. Hoppas ATI får styr på situationen, kammar in lite slantar och kan konkurrera bättre mot nvidia

Visa signatur

WS: AMD Ryzen 3700X | 16GB Corsair LPX 3733 | MSI RX 6800 | Samsung PM981a 1TB | Louqe Ghost S1
Laptop: ASUS UX32LN | i7-4510U | 12GB DDR3 | 13.3" FHD | 256GB SSD
Server: Intel Xeon E5-2660 | 32GB DDR3 | UnRaid

Permalänk
Avstängd

hm Verkar som om Nvidia sparkade till AMD men träffade sig själv i huvudet

tror mer på ATI:s lösning, att satsa på super mega end segmentet är nog inte så smart.
Bättre att satsa på prestanda segmentet och sedan smälla ihop 2 st till dom i super mega segmentet

Permalänk
Medlem

Argh, sluta haka er upp på detaljerna, skrev det lite snabbt/slarvigt...

ATI har 2 dies där varje die innehåller x antal processorer på en PCB medan nvidia har 1 stor diemed y antal processorer på en PCB.

Visa signatur

[QX6700 @ 3.20Ghz - Tuniq Tower 120 - Abit IN9 32X MAX nForce-680i SLI - 4x1024 PC2-6400 Team Xtreem @ 800Mhz 3338 - GTX260 216 SLI @ 690/1440/2170 - 2x74GB Raptor - Tagan TurboJet 1100W - 6x TT Blue Led VR - CoolerMaster Stacker 830 Evolution - Samsung SH-S183A SATA - Dell UltraSharp 3007WFP-HC - Logitech Z-5500]

Permalänk
Medlem

Frågan är ju om de behöver bryggkretsar i dess klassiska mening. Vi har ju ingen aning om hur ATis arkitektur ser ut.

Permalänk
Citat:

Ursprungligen inskrivet av Svullo90
hm Verkar som om Nvidia sparkade till AMD men träffade sig själv i huvudet

tror mer på ATI:s lösning, att satsa på super mega end segmentet är nog inte så smart.
Bättre att satsa på prestanda segmentet och sedan smälla ihop 2 st till dom i super mega segmentet

Exakt. Jag tror att ATi har två mycket potenta kort i HD4870 samt HD4850. Att sätta ihop två stycken RV770 kommer nog att fungera bra och mer än konkurrera mot 280 GTX.

Visa signatur

"Aurora" Intel Core i5-4670K@4,2GHz - 8GB Corsair Vengeance 1600MHz - MSi Z87-G55 - Sapphire AMD R9 290 Tri-X - 2*Samsung 1TB (RAID 0) - Antec P182 - Corsair HX620 - Noctua NH-U12P
"Mirage" Macbook Pro 13" - 16GB RAM - dualboot OSX/Win7
Hä lön's int' förklar' för dem söm int' begrip'

Permalänk
Medlem

Mer marknadsföringsskräp än något annat, ATI's strategi "val" beror snarare på brist på resurser än en tro på det dom gör. Med det sagt så betyder det inte att det är en särdkillt dålig strategi. Först och främst löser det ett stort problem ati hade förr i tiden, trots att X800/X850 var bättre än Nvidias motsvarigheter och X1800/X1900 åtmindstånde var lika bra som 7800/7900 så var inte deras mainstream kort prestandamäsigt konkurenskraftiga.

Det problemet är nu borta då samma kärna kan användas till både mainstream och high-end korten. Om (eller när) man fixar dom problem Multi-GPU kort har så att det är rimligt att använda 4-8 kärnor skulle man potensiellt kunna använda samma kärna till ALLA Grafikkort.

Nvidia är lika fulla av skit som vandligt. Dom har själva dom senaste 2 generationerna (G80 och G92 är samma generation) haft dubbel-GPU kort som high-end lösning men nu när dom har en kärna som av värme skäl inte kan användas i ett X2 kort så är dessa plötsligt en dålig idé... vilket sammanträffande

Multi GPU kort tror jag blir standard i framtidens high-end lösningar, tyvär är nog teknologin inte tillräckligt mogen för att det ska fungera fullt ut än men man kan ju hoppas.

Visa signatur

WS: DFI LP UT X38T2R (Gigabyte X38-DQ6 = Trasigt)| Intel C2D E6750 | 4*1 GiB Twinmos PC2-6400 | ATI Radeon HD4870 1GB | WD Caviar XL "AAKS" SATA 500GB | Antec Neopower 480W | Antec SLK3700-BQE
Server: DFI LP NF4 Ultra | AMD 3000+ "winchester" | 2*512MiB PC3200 | ATI Radeon HD2400pro | 1000GB WD GP, 3*320GB Seagate 7200.10, 250GB WD2500 PATA, 200GB Maxtor DM10 SATA = 2410GB

Permalänk
Medlem

Tja... vad ska man säga? Inget nytt under solen.

Nvidia är kungen och ATI är torsken.

Visa signatur

Memento mori...

Permalänk
Hjälpsam
Citat:

Ursprungligen inskrivet av judge
Skulle inte ati 4000 serie ha 256 bit?

Ja, men det fanns ett ryckte tidigare om 512 bitar, vilket nog inte är sant.
Jag tror nog ändå att 4870X2 blir ungefär samma lösning som för 3870X2.
Kylaren för HD4870X2 visar ju tex på två skillda GPU:er.
Förutom dom förbättrade kärnorna kommer iofs sammarbetet dom emellan nog vara ordentligt förbättrat, dom har hunnit hitta dom svagheter som funnits för HD3870X2, och bygga bort dom.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Citat:

Ursprungligen inskrivet av Curly
Mer marknadsföringsskräp än något annat, ATI's strategi "val" beror snarare på brist på resurser än en tro på det dom gör. Med det sagt så betyder det inte att det är en särdkillt dålig strategi. Först och främst löser det ett stort problem ati hade förr i tiden, trots att X800/X850 var bättre än Nvidias motsvarigheter och X1800/X1900 åtmindstånde var lika bra som 7800/7900 så var inte deras mainstream kort prestandamäsigt konkurenskraftiga.

Det problemet är nu borta då samma kärna kan användas till både mainstream och high-end korten. Om (eller när) man fixar dom problem Multi-GPU kort har så att det är rimligt att använda 4-8 kärnor skulle man potensiellt kunna använda samma kärna till ALLA Grafikkort.

Nvidia är lika fulla av skit som vandligt. Dom har själva dom senaste 2 generationerna (G80 och G92 är samma generation) haft dubbel-GPU kort som high-end lösning men nu när dom har en kärna som av värme skäl inte kan användas i ett X2 kort så är dessa plötsligt en dålig idé... vilket sammanträffande

Multi GPU kort tror jag blir standard i framtidens high-end lösningar, tyvär är nog teknologin inte tillräckligt mogen för att det ska fungera fullt ut än men man kan ju hoppas.

Håller med. ATi försöker göra det bästa av situationen och just nu gör de det rätta tror jag. De skulle fått problem om det gått på samma linje som Nvidia.

Ska bli mycket intressant att se hur HD4870x2 står sig mot 280 GTX. Själv tror jag att 4870x2 vinner i större delen av fallen (kanske till och med hela tiden om de lyckas med Crossfire).

Visa signatur

"Aurora" Intel Core i5-4670K@4,2GHz - 8GB Corsair Vengeance 1600MHz - MSi Z87-G55 - Sapphire AMD R9 290 Tri-X - 2*Samsung 1TB (RAID 0) - Antec P182 - Corsair HX620 - Noctua NH-U12P
"Mirage" Macbook Pro 13" - 16GB RAM - dualboot OSX/Win7
Hä lön's int' förklar' för dem söm int' begrip'

Permalänk
Avstängd

+1 på Curly

Visa signatur

"Jo men det var exakt det jag menade med att den enda moddningen detta galleriet innehåller är Sanningsmodifikation och photoshoppande :)"

Permalänk
Inaktiv
Citat:

Ursprungligen inskrivet av Fluffster
"...Endast mina tankar, men jag väntar forfarande på en RIKTIG anledning att byta ut mitt 8800GTX, oviktigt om det står nVidia eller ATI på det, men just nu verkar ATI mer lovande.

8800GT är ändå ett fint litet kort tycker jag, har fått för mig att allt som slutar med "800GT" är någorlunda balanserat i förbrukning/prestanda.

Permalänk
Medlem

Haha dom äger ju sig själva:P.

"Nvidia kommenterar dock inte på varför de själva har tagit fram ett flertal grafikkort med fler än en grafikprocessor, exempelvis Geforce 9800 GX2, om denna lösning nu inte skall vara optimal."

Visa signatur

NZXT H440W||Rog Strix X470-4 Gaming || 2700X+Noctua NHD15-SE-AM4||G.Skill Flare X 16GB 3200Mhz||GTX 1080Ti Strix OC||MX100 512gb||3.5TB HDD||Corsair 750W||Steelseries Arctis Pro Wireless||Samsung 49" NEO||Windows 10 Pro||
Bärbar: Samsung Galaxy Book Pro 13.3" i7 & LTE || Mob: Samsung S22 Ultra||

Permalänk
Trollfabrik 🫶🏻
Citat:

Ursprungligen inskrivet av jeppe1990
Haha dom äger ju sig själva:P.

"Nvidia kommenterar dock inte på varför de själva har tagit fram ett flertal grafikkort med fler än en grafikprocessor, exempelvis Geforce 9800 GX2, om denna lösning nu inte skall vara optimal."

=D

Visa signatur

Kontaktas enklast via PM. Önskas svar i forumet citera mina inlägg eller pinga @Jacob. Finns även på Twitter.

"Science and technology have progressed to the point where what we build is only constrained by the limits of our own imaginations." – Justin R. Rattner

Permalänk
Citat:

Ursprungligen inskrivet av S_Z
Nu fick du allt till det så du kunde slänga skit på ATI utan att träffa nVidia

Varför inte se det så här att ATI bygger sin strategi på att bygga billiga, prisvärda kort, om ej high-end. För att kompletera släpper de X2 för att ha något i den pris/prestanda klassen. För det är ju knappast X2 som dragit in mest pengar i 3k serien om man säger så.

Lösningen är ju ekonomisk som folk redan nämn. RV670 har väldigt bra yield och det lär förmodligen RV770 också ha.

Det är faktiskt så jag tycker, sen att det kan uppfattas bajskastning är till var o en att avgöra.
Jag tycker att MultiGPU ska vara bara komplementarisk fram tills GPU applekationer kan använda full kraft av multigpu lösningar på ett effektivt sätt.

Jag vet precis vad du menar. Hela AMD med ATI går i den riktning. Prisvärda produkter. Det är väldigt bra för de, specielt då det är där de stora pengar finns, och pengar är nåt de behöver. Men att lägga hela växel i "value" är inget bra för AMD tror jag i det långa loppet. Skulle det inte vara pågrund av ekonomi så skulle AMD/ATI fortsätta pumpa ut högprestanda singel GPU. Men eftersom det ser mörkt ut så behövde de effektivisera.

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk
Medlem

dom kan tjafsa hur mycket dom vill, jag väljer part först när man får se lite resultat i förhållande till pris... sen är jag emot nvidias vårdslöshet med energiförbrukningen. Jag som trodde världen var på väg mot ett samhälle med lågenergilampor, passivhus osv...

Visa signatur

MacBook Pro 15" i5 520M 8GB GT330M 750GB

Permalänk
Medlem

Kommer nog köpa ett ATI kort i ren sympati

Lutar mest åt ATI för tillfället, hela Nvidias marknadsföring och bajskastning får mig att vilja slopa dem.

Köper det kort som är mest prisvärt, och det lutar nog åt ATI atm. Inte lust att punga ut 5000 för ett energislukande monster bara för att få en 10 FPS extra.

Permalänk
Medlem

Även om single gpu lösningen nvidia ger bättre prestanda per kort så kommer de inte kunna fortsätta i all evighet på det viset, de ligger ju redan efter ATI vad det gäller tillverkningsprocessen och strömförbrukning, om de kommande korten ska dra över 200W, vad kommer då nästa generations kort dra? Risken finns ju att det blir ett P4 scenario av det hela tillslut.

Visa signatur

Core i5 2500K@4Ghz, 8 Gb Kingston Hyper X 1600 DDR3, MSI Z68-GD55, OCZ Vertex 4, Asus GTX670 DC2, Corsair VX 450.
Kyld av Hyper 212 Plus Evo: Corsair SP120 Quiet PWM, 3 Nexus Real Silent 120 mm @ 7V.

Permalänk
Medlem

Nvidia motsäger sig själva hela vägen. Ganska sorgligt faktiskt att ha så förvånansvärt dåliga argument från talesmän på ett så omfattande företag.

4850 kommer bli guld värd i mina ögon, desto billigare (och tystare) prestanda desto bättre.

Att 4800-serien skulle köra 512-bitars interface vore nog lite felplacerat då de extra transistorerna skulle göra kortet dyrare än nödvändigt då det nya minnet i teorin ändå lär prestera fräsigt nog utan att kräva fasligt många transistorer extra för att inte stanna sig självt eller något annat. Att se en lite dyrare 4870-tolkning med 512-bit vore väldigt trevligt, gärna med 1GB GDDR5-minne, men jag vill hellre se AMD satsa på säkra kort än att blint hoppas på det bästa som det känns som Nvidia sysslar med just nu.