ATI och Nvidia försvarar sina strategier

Permalänk
Medlem

Det roliga är att nVidia helt enkelt ligger längre fram när det gäller utvecklingen av grafikkort och då menar jag prestandamässigt. AMD har inget annat att komma med än mer strömsnåla kort. Det är ju inte heller så konstigt att AMD har mer strömsnåla kort då de presterar betydligt sämre. Hurvida det är bättre med en högpresterande gpu eller två parallella mindre bra presterande gpuer är ju också bara löjligt att ens diskutera. Om det nu skulle vara bättre i många avseenden med fler gpuer så skulle ju fler tidigare kort bestå av fler gpus också som inte är fallet.

Varför man använder parallella gpuer är ju för att man har nått den fysiska gräns man för tillfället klarar av att tillverka. AMD har nått gränsen fortare än nVidia men båda företagen har problem med att gpuerna måste delas. Det är ingen tvekan om att man man får mer effektiva grafikkort med en gpu. Med det sagt är det också klart att det blir billigare att använda två gpuer som inte ligger på gränsen av vad man kan tillverka då det skulle innebära en belastning på materialkostnader för misslyckade gpuer som man försöker tillverka.

Detta innebär att båda företag använder rätt strategi. AMD måste tänka på sin ekonomi främst och nVidia ångar på med sin bäst prestanda-tåg. Summan av det hela är ju att vi konsumenter får mer att välja på i slutändan. Vill vi ha prestanda så väljer vi nVidia. Tänker vi ekonomiskt så får vi ju hoppas att AMD har råd att sälja sina highendkort billigare än nVidias näst snabbaste kort. Annars finns det ju ingen ide att välja AMDs kort.

Jag kommer välja det kort som ger mig mest prestanda för pengarna som jag alltid har gjort.

Jag hoppas att de som hoppas på drivrutiner slutar att leva i en dröm denna gång. Vi har väl lärt oss något nu i alla fall att drivrutiner inte gör några mirakel för korten utan endast bidrar till enstaka förbättringar i vissa spel. Inget magiskt händer och kommer säkert hända denna gång heller när det kommer nya drivrutiner.

Visa signatur

Is it "for fucks sake" or "for fuck sake"? Its for a work email so it has to sound professional.

Permalänk
Medlem

Det drar ju "häftighetstarmen" hos många när det gäller att ha det värsta.

Men se det så här.. Vilket kort av dessa välger ni om vi tar tex Crysis, ett spel som tydligen kräver en jävla massa för den kräsne.
Ati kör i 80 fps, är billigt, drar lite energi.
Nvdia kör i 100 Fps, är dyrt, drar massa energi.

I något spel kommer dessa sifror säkert att stämma, men låt oss säga Crysis. Vilket är då det bästa o smartaste allternativet??
Givetvis är det ATI. 80 Fps bara måste räcka.. Ja det måste det. Och spara några tusenlappar är ju aldrig fel.

Jag får inte stånd av något av dessa märken så jag är helt opartiskt när det gäller fabrikat. Om jag inte spelade skulle det sitta ett kort från Matrox i min burk.

Visa signatur

CPU: I7 7700k @ 4.6GHz - Noctua NH D15S - Asus ROG Strix Z270F Gaming.
GPU: RTX 3070TI @2 st 120mm cf-v12hp hydro dynamic fläktar. 👍
RAM: 32GB DDR4 3200MHz. HÅRDDISK: 4 st SSD, 2 Mekaniska.
MONITOR:1 Xiaomi MI 34"- 3440x1440 144Hz MONITOR:2 Optix MAG274R 27" 1080p 144Hz MONITOR/Tv:3 LG 47lv355n-ZB 47". Nätagg: Corsair Newton R2 1000W. Allt i ett Cooler Master CM Storm Stryker.

Permalänk
Citat:

Ursprungligen inskrivet av blade80
Det roliga är att nVidia helt enkelt ligger längre fram när det gäller utvecklingen av grafikkort och då menar jag prestandamässigt. AMD har inget annat att komma med än mer strömsnåla kort. Det är ju inte heller så konstigt att AMD har mer strömsnåla kort då de presterar betydligt sämre. Hurvida det är bättre med en högpresterande gpu eller två parallella mindre bra presterande gpuer är ju också bara löjligt att ens diskutera. Om det nu skulle vara bättre i många avseenden med fler gpuer så skulle ju fler tidigare kort bestå av fler gpus också som inte är fallet.

Varför man använder parallella gpuer är ju för att man har nått den fysiska gräns man för tillfället klarar av att tillverka. AMD har nått gränsen fortare än nVidia men båda företagen har problem med att gpuerna måste delas. Det är ingen tvekan om att man man får mer effektiva grafikkort med en gpu. Med det sagt är det också klart att det blir billigare att använda två gpuer som inte ligger på gränsen av vad man kan tillverka då det skulle innebära en belastning på materialkostnader för misslyckade gpuer som man försöker tillverka.

Detta innebär att båda företag använder rätt strategi. AMD måste tänka på sin ekonomi främst och nVidia ångar på med sin bäst prestanda-tåg. Summan av det hela är ju att vi konsumenter får mer att välja på i slutändan. Vill vi ha prestanda så väljer vi nVidia. Tänker vi ekonomiskt så får vi ju hoppas att AMD har råd att sälja sina highendkort billigare än nVidias näst snabbaste kort. Annars finns det ju ingen ide att välja AMDs kort.

Jag kommer välja det kort som ger mig mest prestanda för pengarna som jag alltid har gjort.

Jag hoppas att de som hoppas på drivrutiner slutar att leva i en dröm denna gång. Vi har väl lärt oss något nu i alla fall att drivrutiner inte gör några mirakel för korten utan endast bidrar till enstaka förbättringar i vissa spel. Inget magiskt händer och kommer säkert hända denna gång heller när det kommer nya drivrutiner.

Du pratar ju som om allt vore avgjort redan nu. Inget är säkert tills vi ser de första recensionerna.

Visa signatur

"Aurora" Intel Core i5-4670K@4,2GHz - 8GB Corsair Vengeance 1600MHz - MSi Z87-G55 - Sapphire AMD R9 290 Tri-X - 2*Samsung 1TB (RAID 0) - Antec P182 - Corsair HX620 - Noctua NH-U12P
"Mirage" Macbook Pro 13" - 16GB RAM - dualboot OSX/Win7
Hä lön's int' förklar' för dem söm int' begrip'

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av SCORPIUS
Det drar ju "häftighetstarmen" hos många när det gäller att ha det värsta.

Men se det så här.. Vilket kort av dessa välger ni om vi tar tex Crysis, ett spel som tydligen kräver en jävla massa för den kräsne.
Ati kör i 80 fps, är billigt, drar lite energi.
Nvdia kör i 100 Fps, är dyrt, drar massa energi.

I något spel kommer dessa sifror säkert att stämma, men låt oss säga Crysis. Vilket är då det bästa o smartaste allternativet??
Givetvis är det ATI. 80 Fps bara måste räcka.. Ja det måste det. Och spara några tusenlappar är ju aldrig fel.

Jag får inte stånd av något av dessa märken så jag är helt opartiskt när det gäller fabrikat. Om jag inte spelade skulle det sitta ett kort från Matrox i min burk.

Prestanda är aldrig fel och nVida har ju inte bara sitt bäst presterande kort heller eller hur? Vill man ha prestanda så väljer man nVidia, vill man ha det näst bästa så kan man välja vilket som. Du kan ju inte lura dig själv och påstå att det är en nackdel med valmöjligheten bäst prestanda om den nu finns. Man väljer det man själv har råd med eller behöver. nVidia har hela spektrat, AMD har det i inte, än så länge...vi får ju se hur det blir med de nya korten.

Citat:

Ursprungligen inskrivet av Bazooka91

Du pratar ju som om allt vore avgjort redan nu. Inget är säkert tills vi ser de första recensionerna.

Jag pratar om de kort som finns ute idag, ingen kan säga med säkerhet något om de kort som inte finns ute än, men man kan göra kvalificerade gissningar.

Visa signatur

Is it "for fucks sake" or "for fuck sake"? Its for a work email so it has to sound professional.

Permalänk
Citat:

Ursprungligen inskrivet av blade80
Jag pratar om de kort som finns ute idag, ingen kan säga med säkerhet något om de kort som inte finns ute än, men man kan göra kvalificerade gissningar.

Ah! Ber om ursäkt Framgick inte vilken generation du pratade om, borde ha förståt att det inte var den kommande

Du har helt rätt i det du säger. Håller med

Visa signatur

"Aurora" Intel Core i5-4670K@4,2GHz - 8GB Corsair Vengeance 1600MHz - MSi Z87-G55 - Sapphire AMD R9 290 Tri-X - 2*Samsung 1TB (RAID 0) - Antec P182 - Corsair HX620 - Noctua NH-U12P
"Mirage" Macbook Pro 13" - 16GB RAM - dualboot OSX/Win7
Hä lön's int' förklar' för dem söm int' begrip'

Permalänk
Medlem

Visst kanske 1 gpu är lättare att programmera och utnytja all effekt på men med flera så är det lättare och billigare att få en snabb prestandaboost. Lättare att stoppa dit en extra GPU och få (låt oss säga) 60% bättre prestanda än att utveckla en ny arkitektur som ger 60% bättre prestanda.

Visst är det sista att föredra men jag ser hellre att det kommer bättre kort snabbt och lite dyrare än ett som kommer lite senare men är mer effektivt? Se om någon hängre med...

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av white_rabbit_
Visst kanske 1 gpu är lättare att programmera och utnytja all effekt på men med flera så är det lättare och billigare att få en snabb prestandaboost. Lättare att stoppa dit en extra GPU och få (låt oss säga) 60% bättre prestanda än att utveckla en ny arkitektur som ger 60% bättre prestanda.

Visst är det sista att föredra men jag ser hellre att det kommer bättre kort snabbt och lite dyrare än ett som kommer lite senare men är mer effektivt? Se om någon hängre med...

Jag tycker att du säger lite mot dig själv i din första mening. Läs den igen får du se. Sen håller jag inte med dig heller att det är lättare och billigare att få en snabb prestandaboost med flera gpuer.

Du får gärna förklara dig vad du egentligen menar. Det är ganska tvetydigt och för mig intetsägande det du säger.

Hur menar du? Ta gärna ett exempel. Jag hävdar att du har fel.

Visa signatur

Is it "for fucks sake" or "for fuck sake"? Its for a work email so it has to sound professional.

Permalänk
Medlem

Nu har jag inte läst mer än första sidan av tråden men; Nvidia's och Ati's argument motsäger ju inte varann riktigt. Jag gissar att båda företagen har rätt i det som citerades och att nVidia har rätt angående varför ATI valt att köra på kort med flera GPU's (kostar mkt att forska fram ny teknologi).
Och anledningen till att även nVidia har släppts kort med dubbla gpu's är väl att de vill matcha ATI's prestanda, även om det kanske inte är den mest optimala lösningen, rent prestandamässigt.

Visa signatur

AMD 5700X@Vatten | asus prime x370pro | Asus 2080 Strix | 2x16GB Kingston Fury Renegade RGB DDR4 3.6GHZ | Lian Li O11d EVO + 2x240 EKWB RAD + 6 Lian Li AL120 | CoolerMaster V850 | NVME 2TB Seagate Firecuda 510 + NVME 1TB WD BLACK + 3 SSD | Samsung Odyssey 49" G9| DELL 2713HM | Varmilo VA69 Clear/brown | Logitech G502 2016.

Phenom X6 1045T | Corsair TWIN2X PC6400C4DHX 2x2GB + Crucial Ballistix Sport 2x2GB | Gigabyte ma785gmt-us2h | Silverstone Temjin 08 | Corsair VX450

Permalänk
Medlem

Jag hoppas det kommer recensioner med test av 3870 + 4870/4850 i CF. Vill ju inte bara plocka ut min 3870 och sen låta den samla damm

Permalänk
Medlem

Tycker att ATi är på rätt linje. Säga vad man vill om grafikkorttekniker hit och dit. Dra en parallell till evolutionsteorin (som i högsta grad är relevant då det kommer till marknadsekonomier) så är det väl de som kan anpassa sig snabbast och smartast efter de rådande situationerna som överlever och frodas. Inte behöver det väl nödvändigtvis vara den starkaste som vinner?

ATi anpassar sig effektivt efter den rådande situationen på grafikkortsmarknaden som helhet, medens NVIDIA tuffar på som vanligt med deras visserligen enormt starka kort men som bara når ut till de mest envetna entusiasterna (varav många finns på Swec: s forum då få förutom datorentusiaster söker sig till liknande forum)

Permalänk

Eftersom inget nämnt 3dfx i denna tråden ännu: Spexigt att Nvidia som ju köpte upp 3dfx nu sitter med en konkurrent med liknande strategi och argument som 3dfx i motsats till Nvidia själva som kör motsatt strategi mot både Ati och 3dfx.

Att ha färre kärnor och kombinera ihop dem för att få kraftfullare kort låter klokt.

3dfx hade ju enbart en GPU i sin sista lanserade serie, men lyckades genom att sätta ihop dem i olika mängd och kombinera dem med olikt mycket minne ändå ha ett hyfsat stort modellprogram. Sätt det i kontrast med Nvidia som väl har en unik typ av GPU för i princip varje modell.

Intressant att se hur en idé från dåtiden åter får liv.

Visa signatur

3dfx4life tycker jag - en bloggande och egenföretagande webbutvecklare.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Aeglos
Tycker att ATi är på rätt linje. Säga vad man vill om grafikkorttekniker hit och dit. Dra en parallell till evolutionsteorin (som i högsta grad är relevant då det kommer till marknadsekonomier) så är det väl de som kan anpassa sig snabbast och smartast efter de rådande situationerna som överlever och frodas. Inte behöver det väl nödvändigtvis vara den starkaste som vinner?

ATi anpassar sig effektivt efter den rådande situationen på grafikkortsmarknaden som helhet, medens NVIDIA tuffar på som vanligt med deras visserligen enormt starka kort men som bara når ut till de mest envetna entusiasterna (varav många finns på Swec: s forum då få förutom datorentusiaster söker sig till liknande forum)

"NVIDIA tuffar på som vanligt med deras visserligen enormt starka kort men som bara når ut till de mest envetna entusiasterna"
Eh, du kan ju kolla på försäljningssiffrorna de senaste åren så ser du ju vilket företag som det går bäst för. Det handlar ju så klart inte bara om tillverkarnas highendprodukter. Jag håller inte med dig där.

nVidia behöver inte "anpassa" sig på samma sätt som AMD/ATI som är tvungen att anpassa sig och komma upp med inovativa ideer för att överleva.
nVidia ligger ju så klart inte på slösidan de heller bara för att de är bäst för tillfället.

Visa signatur

Is it "for fucks sake" or "for fuck sake"? Its for a work email so it has to sound professional.

Permalänk

Nvidia har överlag haft lägst strömförbrukning de senaste 5 åren. 7900 korten drog rejält mindre än Ati´s 1900 serie. 8800 serien drog betydligt mindre än Ati´s föråldrade 1900xtx och de försenade missfostret som senare dök upp.

Ati´s 3870X2 drar extremt mycket ström för prestandan det levererar, 9800gx2 drar mycket mindre, 9800gtx rejält mindre till liknande prestanda. 9600Gt drar mindre än 3870 medan 8800Gt drar samma relativt till prestandan.

http://www.xbitlabs.com/images/video/geforce7900gtx/power.gif

Nvidias kort har med andra ord varit de mest strömsnåla de senaste 5 åren.

4870x2 drar troligen rätt mycket men jag tror det presterar bra och kanske tar Ati elförbrukningskronan tillbaka nu.

Men jag fattar inte hur folk fått för sig att Ati´s kort är strömsnåla? 8400gts drar mindre än 3850 om man skiter i prestandan... antar att ni tänker så.

Visa signatur

dualsata2| A64 3500+ 2,7 ghz | Cruical ballistix 2 gig DDR 4000 | jag hatar Nvidia 8800GTS 100% buggar (nu 5% och gudomligt 660/1044)|Windows XP Pro | Proff deluxe - kungen av vattenkylning| 480 W Hiper typeR nätagg

Permalänk
Citat:

Ursprungligen inskrivet av Fluffster
"
Endast mina tankar, men jag väntar forfarande på en RIKTIG anledning att byta ut mitt 8800GTX, oviktigt om det står nVidia eller ATI på det, men just nu verkar ATI mer lovande.

Varför byta ut ditt 8800gtx tycker själv att det håller än. Tänker hoppa över denna serie kort med.

Visa signatur

Intel I7 4930K 4,5ghz][Asus PRO2011][Corsair 32gb][Western digital 4TB][Asus stock 580GTX][Cooler Master 1000w]

Permalänk
Hjälpsam

Kanske folk tänker på att dom inte använder kortet för fullt den mesta av tiden, och i Idle är ATI-korten snålare.

Nu tycker jag inte att det kraftfullaste Nvidaikortet är farligt törstigt, så länge det kan leverera motsvarande prestanda.

Själv nöjer jag mig med ett enklare kort, men inser att många andra givetvis har andra krav än vad jag har.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Dunde
Fler kärnor än en är ALLTID en nödlösning. Det är rätt larvigt att någon i branshen påstår att man faktiskt siktar på att köra med produkter med flera kärnor.

Nej, det är alltid mycket svårare att producera ett chip med låt säga 1 miljard transistorer än två stycken med en halv miljard. Inte nog med att det mindre chippet ger mycket bättre yield, det blir i längden mycket billigare. Så det kan tillåtas högre frekvenser och billigare chip och bättre produktionstakt med två chip.

Och det är precis vad vi ser, nVidia bygger nu ett koloss som drar otroligt mycket ström, det blir dyrt och dålig yield. AMD kan göra chip som är billiga och strömsnåla. Och för absoluta highend kan de bygga ihop en egen koloss av två chip, men då når de också högre prestanda.

nVidia har dessutom problem med att göra mellanklass chip, de kan inte banta ner sina kolosschip, det kostar för mycket att tillverka kolosser som man trimmar ner för mainstream. Utan det ger dubbla utvecklingskostnader. Det ger också dyrare chip då det blir mer utveckling de ska finansiera.

Kort sagt, det är inte alls en nödlösning, det är väldigt smidigt, defintitivt inte på så parallella designer som GPUer.

Citat:

Ursprungligen inskrivet av Mikael
Nvidia:s teori verkar mer rimlig. Huruvida du har 1 miljard transistorer i ett chip eller delar upp dessa på två bör inte ha någon direkt effekt på effektförbrukninen (förutsatt en likvärdig design). Eventuella effektbesparingar (var nu dessa skulle komma ifrån), lär mycket riktigt motverkas om exempelvis fler minneschip eller en brygga måste användas. Det är också troligt att, som Thomas H skriver, dessa multi-chip-lösningar skalar sämre och att samma mängd resurser lagda på ett chip ger större prestandautbyte.

Ett jättechip ger mycket sämre yield än två stycken hälften så stora, det innebär högre tillverkningskostnader och mer spänning för att tvinga upp dem i frekvenser, alternativt lägre slutfrekvens.
Och vad ser vi på nVidia-fronten? Mycket högre värmeutveckling och trots det sänkta frekvenser jämfört med chippets föregångare. Precis det man kan vänta av ett svårtillverkat chip.
Finns en anledning till att företagen aktar sig mycket noga för att sikta för högt och göra för stora chip. Titta på phenom, kasta på en extra FPU på en vanlig X2 och bygg ihop dem som intel gör till en dubbel die. Då hade vi haft samma IPC i 3GHz+ vid det här laget, utan några förseningar, det hade kunnat släppas för över ett år sedan till och med. Men AMD tog en risk, det sket sig, ibland lönar det sig, det kunde de inte förutspå exakt i förväg. Men däremot lätt att veta i efterhand.
Nu har du stora mastodontchip, med "låg" IPC, i riktigt låga frekvenser med enorma strömkrav.

Permalänk
Medlem

Hejsan svejsan, alla som skriver här är nördar, ni är dessutom lurade. Spelar nämligen ingen roll hur mycket eller lite ett grafikkort kostar eller hur bra det presterar. Det kommer alltid finnas något snabbare, bättre, mer kostsamt och mer krävande runt hörnet (3fps mer i Crysis möjligen ).
Nu är visserligen jag ingen att döma. Jag är nog lika lurad själv och förmodligen nörd eftersom jag äger en PC och skriver här.
Min åsikt är att det vore väldigt komiskt om (om än ej troligt) ATI knäcker Nvidia i nästkommande generation (Juni). Men faktum är att det inte spelar mig ett dugg roll. För jag kommer ändå byta ut mitt nuvarande Radeon 1950Pro. Byta ut betyder då att jag inte kommer ha någon större användning för mitt gamla graffekort. Då spelar det ingen roll om det är Nvidia eller ATI som tar hem segern, något förenklat. Förvisso hoppas jag (nörd) och antagligen alla andra (nördar) att båda överlever, snart är Intel med på spåret också. Betyder, more bang for the buck.

The more the merrier

/Gemmy

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Gemmy
Hejsan svejsan, alla som skriver här är nördar, ni är dessutom lurade. Spelar nämligen ingen roll hur mycket eller lite ett grafikkort kostar eller hur bra det presterar. Det kommer alltid finnas något snabbare, bättre, mer kostsamt och mer krävande runt hörnet (3fps mer i Crysis möjligen ).
Nu är visserligen jag ingen att döma. Jag är nog lika lurad själv och förmodligen nörd eftersom jag äger en PC och skriver här.
Min åsikt är att det vore väldigt komiskt om (om än ej troligt) ATI knäcker Nvidia i nästkommande generation (Juni). Men faktum är att det inte spelar mig ett dugg roll. För jag kommer ändå byta ut mitt nuvarande Radeon 1950Pro. Byta ut betyder då att jag inte kommer ha någon större användning för mitt gamla graffekort. Då spelar det ingen roll om det är Nvidia eller ATI som tar hem segern, något förenklat. Förvisso hoppas jag (nörd) och antagligen alla andra (nördar) att båda överlever, snart är Intel med på spåret också. Betyder, more bang for the buck.

The more the merrier

/Gemmy

hahahahaha, provokative men kul skrivet.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Smartidiot89
Jag tycker inte om dubbelmackorna... Ska bli kul att se en riktig Dual-GPU. Varför finns inte dom redan? Finns ju redan Dual-Core sedan långt tillbaka och Quad-Core som CPU.

Ehum, 3870X2, sett det?

Visa signatur

Arch Linux - i5 12500@4.75GHz - Asrock B760M PG Riptide - 32GB DDR5 6000MHz - RTX 2070 Super - 1TB SN770 - 1TB SN550 - U32PWQU 4K
Dell Latitude 7400 2 in 1 - Arch Linux - i5 8265u

Permalänk
Citat:

Ursprungligen inskrivet av SWE|OggE
Man kan ju hoppas, dock är det rätt osannolikt. ^^

I övrigt tycker jag ATi's lösning är bäst. Bra pris/prestanda. Inte som något kort som drar +200W men har 10% högre prestanda. Men vill man ha det bästa får man nog räkna med det.

Host host. HD4870X2 kommer att dra över 300w om ryktena stämmer, alltså 60w mer än GTX 280 vilket också innebär att kortet får minsann prestera en del bättre för att det skall vara värt det.
Ett HD4870 har en TDP om 160w vilket är mycket så vi får väl se hur pass bra kortet presterar tanke på hur mycket ström det drar. Du får inte glömma vilken tillverkningsteknik ATi använder sig av heller. Tänk 8800GTX med 90nm och har en TDP om lite mer än 160w och detta är November 2006 och kortet har regerat hur länge som helst.

Och vart får du 10% högre prestanda ifrån? Har jag missat något?

Citat:

Ursprungligen inskrivet av Svullo90
hm Verkar som om Nvidia sparkade till AMD men träffade sig själv i huvudet

tror mer på ATI:s lösning, att satsa på super mega end segmentet är nog inte så smart.
Bättre att satsa på prestanda segmentet och sedan smälla ihop 2 st till dom i super mega segmentet

Varför tror du Nvidia får titlar i spel? Det vill säga att det står Nvidia i nästan alla spel där det antingen står Nvidia eller ATI? Just för att de antingen har pengar och vet hur man marknadsför sig eller för att de har ett kort som presterar bäst. Det var samma sak när ATi hade sitt X1900XTX även om det var marginalt, då syntes det fler spel med en ATi logga samt att ATi då hade mer pengar.

High end säljer aldrig så att man går stort plus på något sätt men det ger väldigt bra PR och namnet som i detta fall Nvidia syns tydligt och bra och det säljer och konsumenterna köper det som säljer, super lätt.

Hade ATi vart hälften så bra som Nvidia just vad gäller marknadsföra sig själv hade ATi säkerligen sålt betydligt fler GPU'r men mycket handlar om pengar givetvis och pengar är det sista dom har just nu.

Citat:

Ursprungligen inskrivet av Mr.Borka
Nvidia motsäger sig själva hela vägen. Ganska sorgligt faktiskt att ha så förvånansvärt dåliga argument från talesmän på ett så omfattande företag.

Håller med men Nvidia har tyvärr under en längre tid om inte alltid vart fulla av skit. Dom gör bra grafikkort och har gjort bra styrkretsar men dom är riktiga klåpare.

Citat:

Ursprungligen inskrivet av SCORPIUS
Det drar ju "häftighetstarmen" hos många när det gäller att ha det värsta.

Men se det så här.. Vilket kort av dessa välger ni om vi tar tex Crysis, ett spel som tydligen kräver en jävla massa för den kräsne.
Ati kör i 80 fps, är billigt, drar lite energi.
Nvdia kör i 100 Fps, är dyrt, drar massa energi.

I något spel kommer dessa sifror säkert att stämma, men låt oss säga Crysis. Vilket är då det bästa o smartaste allternativet??
Givetvis är det ATI. 80 Fps bara måste räcka.. Ja det måste det. Och spara några tusenlappar är ju aldrig fel.

Jag får inte stånd av något av dessa märken så jag är helt opartiskt när det gäller fabrikat. Om jag inte spelade skulle det sitta ett kort från Matrox i min burk.

Jag förstår din poäng och håller med dig.....om det hade vart så. Det är inte så och kommer förmodligen aldrig vara så av några anledningar. Du kommer aldrig till ett grafikkort som ser till att du har cirka 80fps i varje spel.
Du har där en skillnad på 20% i ditt exempel vilket enligt mig är mycket. Vad händer om du går ner till FPS antal 30 istället. Nvidia har 30fps och ATi har 24fps. Här är det mer betydande för de extra 6 frame gör ganska mycket, i alla fall för mig när man är nere på den nivån och spelar.
En annan sak är att mot partens grafikkort kommer inte dra mycket mer ström utan att prestera bättre, kanske mycket bättre. Vi talar om två gigantiska företag som har väldigt många års erfarenheter av att bygga upp grafikkort och Nvidia har under flera år vart mer effektiva prestandamässigt i förhållande till ström. Titta tillbaka sådär 4-6 år. Nvidia har tveklöst vart mest effektiva vad gäller strömförbrukning jämfört med ATi så varför skulle de helt plötsligt ändra sig? Det jag menar är att dra så mycket ström som GTX 280 utan att prestera mycket bättre än HD4870? Det låter osannolikt.

Citat:

Ursprungligen inskrivet av -Boris-
nVidia bygger nu ett koloss som drar otroligt mycket ström, det blir dyrt och dålig yield. AMD kan göra chip som är billiga och strömsnåla. Och för absoluta highend kan de bygga ihop en egen koloss av två chip, men då når de också högre prestanda.

Jo men HD4870X2 kanske presterar som ett GTX 280, kanske mycket bättre, kanske sämre. Det är svårt för oss att veta men till 110% kommer HD4870X2 dra mer ström. X2 har en TDP om 300w om inte över. Ett HD4870 har en TDP om ungefär 160w enligt rykten. Hur långt ner kan man komma i strömförbrukning med ett HD4870X2 tror du? HD3870X2 drar väldigt mycket ström tanke på hur uselt det presterar jämfört med 9800GX2 som presterar mycket bättre och drar nästan 30w mindre ström under load (jag vet ATi är mer effektiv under idle).
------------------

För övrigt hålelr jag med Curly som han skrev tidigare. Både ATi snackar skit och Nvidia likaså.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av AlbinNdoja
Jo men HD4870X2 kanske presterar som ett GTX 280, kanske mycket bättre, kanske sämre. Det är svårt för oss att veta men till 110% kommer HD4870X2 dra mer ström. X2 har en TDP om 300w om inte över. Ett HD4870 har en TDP om ungefär 160w enligt rykten. Hur långt ner kan man komma i strömförbrukning med ett HD4870X2 tror du? HD3870X2 drar väldigt mycket ström tanke på hur uselt det presterar jämfört med 9800GX2 som presterar mycket bättre och drar nästan 30w mindre ström under load (jag vet ATi är mer effektiv under idle).

Jo, men det är lättare att kyla två svalare chip än ett varmt, mer kontaktyta. Men det blir fortfarande en mastodont det med, men det är bara för den delen av marknaden. Med nVidia så får man en mastodont även om man vill ha mellanprestandan då de bygger sin arkitektur kring jättechip. Finns liksom ingen sval variant, det är det.

ATis lösning är flexiblare, billigare och svalare, men med kapacitet att eventuellt bli snabbare än nVidia.

nVidia kan med största sannolikhet inte köra sin dubbelmacka på ett GTX 280. Så de får mycket svårt att kontra allt som kan prestera över det. Och ATi skulle antagligen ha enorma problem med att tillverka ett chip med 960 streamprocessorer och 64TMUs, det skulle vara helt otroligt varmt och få köras på låga frekvenser och vara skitdyrt att tillverka med alla kasserade chip.
Men nu når de närmare den prestandan på ett mycket elegantare vis.

Se på nVidia nu, detta är förvisso spekulationer, men den teoretiska shaderprestandan har ökat med 45% till 933Gflops, texturprestandan verkar bara ökats med 11%, och de har fått fram ett enromt chip som drar massa ström som samtidigt är riktigt dyrt.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av AlbinNdoja
Host host.

Varför tror du Nvidia får titlar i spel? Det vill säga att det står Nvidia i nästan alla spel där det antingen står Nvidia eller ATI? Just för att de antingen har pengar och vet hur man marknadsför sig eller för att de har ett kort som presterar bäst. Det var samma sak när ATi hade sitt X1900XTX även om det var marginalt, då syntes det fler spel med en ATi logga samt att ATi då hade mer pengar.

High end säljer aldrig så att man går stort plus på något sätt men det ger väldigt bra PR och namnet som i detta fall Nvidia syns tydligt och bra och det säljer och konsumenterna köper det som säljer, super lätt.
ort bra styrkretsar men dom är riktiga klåpare.

Ja det står Nvidia på dom flesta spel idag, men det är ju det vi hoppas att denna nya seria kommer att ändra på

Så som jag ser det kommer ATI att äga Nvidia i sommar genom att ha ett mycket prisvärt kort (4870) och prestandatronen(4870 X2)
Så alltså kommer ATI att få all den publicitet som Nvidia har idag vilket borde öka deras försäljningssiffror med tanke på at dom samtidigt erbjuder bäst pris/prestanda.

Permalänk
Medlem

Alla vet ju att Nvidia har gjort gx2 kortet med 2 gpu så de kan såklart göra det, men kanske är det så att de nya generationen drar för mycket ström för att sätta 2 på samma kort så det är därför de dissar iden?

Visa signatur

i7-3770k | AMD 7970

Permalänk
Medlem

Är det inte så då att efter någon månad så har priserna jämnat ut sig på de flesta grafikkort prestandan följer priset hyfsat proportionellt.

Varken NVidia eller ATI lär ju låta sina kort ligga kvar på 5000kr i försäljningspris om konkurrenten säljer likvärdiga kort för 3000kr. Min erfarenhet är att priserna jämnar ut sig i slutändan. Kanske tar någon månad, men i regel är inte heller korten prisvärda direkt efter release, i alla fall inte när de släpper en ny generation och bara släpper monsterkortet i generationen till att börja med som kostar 5000-6000kr.

Jaja, bara min lilla Point of View.

Visa signatur

Dator: MacBook Air 13" 2012 & Raspberry Pi

Permalänk
Moderator
Testpilot
Citat:

Ursprungligen inskrivet av Ventrue
Alla vet ju att Nvidia har gjort gx2 kortet med 2 gpu så de kan såklart göra det, men kanske är det så att de nya generationen drar för mycket ström för att sätta 2 på samma kort så det är därför de dissar iden?

Alldeles säkerligen är det så.

Varför ska Nvidia så hårt prata ner dual gpu-lösningar när man själva, generationen innan, har gjort precis ett sådant kort. Plus, att man intensivt jobbar på att få SLI att skala i en myriad av olika spel.

Verkligen hyckleri från Nvidias sida.

Personligen tror jag mycket mer på ATi:s lösning. Som sagt, i takt med att stödet för SLI/XF blir bättre så kommer deras lösning att bara bli mer och mer lönsam. Som sagts innan så är det bättre att kunna skala prestandan med antalet chipp man använder sig av.

I teorin så är detta en fantastisk lönsing men då måste dem få ordning på sina drivrutiner och få bättre stöd av speltillverkarna.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Citat:

Ursprungligen inskrivet av -Boris-

ATis lösning är flexiblare, billigare och svalare, men med kapacitet att eventuellt bli snabbare än nVidia.

ATI's lösning må vara flexibel och något billigare, men sval håller jag inte riktigt med. Det är bara i viloläge som den är sval. Men i load är de lika varma som nVidias motsvarighet.
Så påstående från ATI att deras kort skulle vara svala är lek med ord, och till sist missvisande.

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk
Medlem

Bara jag som uppmärksammar att de som skriver att ATi kommer gå vinnande ur striden denna gången är samma personer som envetet och bestämt hävdat samma sak sedan introduktionen av nVidias 8800-serie. Börjar bli lätt löjligt nu.

Vänta för guds skull till de första recensionerna är ute.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Ventrue
Alla vet ju att Nvidia har gjort gx2 kortet med 2 gpu så de kan såklart göra det, men kanske är det så att de nya generationen drar för mycket ström för att sätta 2 på samma kort så det är därför de dissar iden?

nVidia brukar försöka dölja sina svagheter genom att låtsas att det är en medveten strategi, nu kan de inte göra en dubbelmacka av GTX 280 så då låtsas de att de inte vill. Precis som att de inte kan konkurera med Intel på intels domäner, så då låtsas de att deras typ av produkter är bättre och att de är nöjda med att inte kunna tillverka X86-produkter.

Citat:

Ursprungligen inskrivet av DataNusse
ATI's lösning må vara flexibel och något billigare, men sval håller jag inte riktigt med. Det är bara i viloläge som den är sval. Men i load är de lika varma som nVidias motsvarighet.
Så påstående från ATI att deras kort skulle vara svala är lek med ord, och till sist missvisande.

Ja just det, ATis 160W är ju dubbelpumpade så de är ju varmare än nVidias 240. Eller?

Permalänk
Citat:

Ursprungligen inskrivet av -Boris-
Jo, men det är lättare att kyla två svalare chip än ett varmt, mer kontaktyta. Men det blir fortfarande en mastodont det med, men det är bara för den delen av marknaden. Med nVidia så får man en mastodont även om man vill ha mellanprestandan då de bygger sin arkitektur kring jättechip. Finns liksom ingen sval variant, det är det.

ATis lösning är flexiblare, billigare och svalare, men med kapacitet att eventuellt bli snabbare än nVidia.

nVidia kan med största sannolikhet inte köra sin dubbelmacka på ett GTX 280. Så de får mycket svårt att kontra allt som kan prestera över det. Och ATi skulle antagligen ha enorma problem med att tillverka ett chip med 960 streamprocessorer och 64TMUs, det skulle vara helt otroligt varmt och få köras på låga frekvenser och vara skitdyrt att tillverka med alla kasserade chip.
Men nu når de närmare den prestandan på ett mycket elegantare vis.

Se på nVidia nu, detta är förvisso spekulationer, men den teoretiska shaderprestandan har ökat med 45% till 933Gflops, texturprestandan verkar bara ökats med 11%, och de har fått fram ett enromt chip som drar massa ström som samtidigt är riktigt dyrt.

Jag förstår vad du menar.

Jo GTX 280 är en slukare och frågan är egentligen vad Nvidia kontrar R700 med om det nu behövs. Kanske kan Nvidia gå ner till 55nm? Men det blir ingen lätt väg dit på så kort tid dock.

Citat:

Ursprungligen inskrivet av -Boris-

Ja just det, ATis 160W är ju dubbelpumpade så de är ju varmare än nVidias 240. Eller?

Jag tror Nusse tänkte på ATis HD4870X2 och 320w.

Citat:

Ursprungligen inskrivet av Svullo90
Ja det står Nvidia på dom flesta spel idag, men det är ju det vi hoppas att denna nya seria kommer att ändra på

Så som jag ser det kommer ATI att äga Nvidia i sommar genom att ha ett mycket prisvärt kort (4870) och prestandatronen(4870 X2)
Så alltså kommer ATI att få all den publicitet som Nvidia har idag vilket borde öka deras försäljningssiffror med tanke på at dom samtidigt erbjuder bäst pris/prestanda.

Jo fast du får inte glömma att GTX 260 och GTX 280 tävlar om prestanda segmentet. GTX 260 kanske presterar som HD4870 om inte bättre enligt spekulationer. Nvidia har ju G92B som enligt rykten är på väg mot Juli också, även kallad för 9800GT. Jag tror inte att Nvidia är så dumma att de tror de vinner detta race med endast två högpresterande kort för så mycket pengar. De måste självklart och kommer självklart att sälja billigare kort, kanske 9800GTX för priset under HD4850 eller samma?

Citat:

Ursprungligen inskrivet av Dinoman
Alldeles säkerligen är det så.

Varför ska Nvidia så hårt prata ner dual gpu-lösningar när man själva, generationen innan, har gjort precis ett sådant kort. Plus, att man intensivt jobbar på att få SLI att skala i en myriad av olika spel.

Verkligen hyckleri från Nvidias sida.

Japp men det är för att Nvidia inte kommer kunna sätta två stycken GTX 280 grafikprocessoer på samma PCB utan att skiten brinner upp. Förstå 240w * 2.

Det är nog endast därför de skriver så. yckas do gå ner till 55nm runt R700 release (kan ju drömma om 45nm) så kanske det fungerar för dom men knappast annars, i så fall ordentligt nerbandat.

Citat:

Ursprungligen inskrivet av m0rk
Bara jag som uppmärksammar att de som skriver att ATi kommer gå vinnande ur striden denna gången är samma personer som envetet och bestämt hävdat samma sak sedan introduktionen av nVidias 8800-serie. Börjar bli lätt löjligt nu.

Vänta för guds skull till de första recensionerna är ute.

Håller med, tråkigt värre!

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Citat:

Ursprungligen inskrivet av -Boris-

Ja just det, ATis 160W är ju dubbelpumpade så de är ju varmare än nVidias 240. Eller?

Jag menar RV670(X2) och RV770X2

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."