AMD retar Nvidia för Geforce GTX 970

Permalänk
Medlem
Skrivet av Bakgrund:

Nvidia borde kontra med en bild som driver med AMD's 250W TDP

Tror inte Nvidia lägger in sig in den här sandlådan som AMD gör nu. Det förstör snarare sitt eget företag än konkurrenten.

Permalänk

Hur kan man ens försvara nVidia? Jag skulle varit förbannad om jag köpt ett grafikkort i tron om att få specifikationer som jag sedan inte fick. Jag tycker kunderna har rätt att få någon slags kompensation! Hoppas att nVidia blir rejält stämda för det här och att de nästa gång testar deras kort ordentligt innan de släpps. Sedan blir man ganska less på alla fanboys som kommenterar "Jag tänker alltid köpa grafikkort från nVidia/amd även om konkurrenterna utklassar dem". Är det så man tänker som konsument? Man blir brydd helt enkelt...

Visa signatur

Lian Li 011 Air Mini | Ryzen 7800X3D | EK-Nucleus AIO CR240 Lux | | G.Skill Trident Z5 NEO DDR5 6400mhz | Radeon 7900 XTX Hellhound | Asus ROG Strix B650-A Gaming | DeepCool PX1200G | Western Digital SN850X 2TB | Crucial P3 4TB | +Femtioelva rgb-fläktar^^

Permalänk
Medlem
Skrivet av Vesh:

Kom just på att nvidia inte var först ut med att inte ha koll på sina produkter http://www.sweclockers.com/nyhet/14802-amd-sanker-antalet-tra...

Kan väl iofs tyckas att det är lite olika saker och i nvidias fall några rundor värre då det handlade om lite mer relevanta siffror som var fel.

Fast i det fallet så hade de inte ens släppt processorn. De hade gått ut med fel förhandsinformation som de sedan rättade själva.

Nvidia gick ut med felaktiga specifikationer och struntade i att rätta dessa. De hoppades att deras fulspel inte skulle upptäckas.

Tycker det är en enorm skillnad mellan dessa fall.

Visa signatur

Stuff: Asus P9X79 Deluxe | 3930K @ 4375 Mhz | 16 GB DDR3 @ 2000 Mhz | 2x R9 290X CrossFireX | SSD |
Windows 10
-=Water-cooled with custom loop=-
MG279Q triple screen
6700K, 32 GB DDR4, Fury X, Samsung PRO M.2 SSD 256 GB, Samsung SSD 1 TB, Windows 10 pro

Permalänk
Hjälpsam

En del har svårt att se vissa saker på mer än ett sätt.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

Ta det med ett gott skratt om ni finner det hela roligt, annars bara strunta i det finns ingen som helst anledning att ta det här personligt då företagen i fråga faktisk skiter i er personligen och vill enbart ha era pengar inte mycket mer, ja jag tror t.o.m att fanboisen tar det här betydligt värre än vad Nvidia själva gör?

Skrivet av Orici:

Typiskt AMD, den enda reklam dom gör är när dom snackar skit. Dom borde fokuserar på sina egna produkter så att dom inte går med förlust varje år.

Ja, dumma dumma AMD som snackar skit och beter sig!

Permalänk
Skrivet av Fluff3:

Frågan är inte när det släpps utan när det går att köpa i butik

http://www.nordichardware.se/Grafik/grafikkortstillverkare-qr...

Papperslansering Q3 och finns i butik Q4?

Permalänk
Skrivet av loydenboy:

Själv hade jag ett sapphire r9 290 referens design och byte till ett asus gtx 970 direct cu 11 strix och upplever kortet framförallt svalt och tyst sen 500poäng upp i 3dmark är väll inte så upphetsande men jag är nöjd än så länge😉 får la stoppa i ett till sen om man skulle behöva

Hahahaha.. Snacka om cockblocker-kommentar till alla AMD-fans som blivit upphetsade av denna nyhet!

Visa signatur

Dator: EEE901 N270/ 1GB / 20GB SSD ... Kraftigt nedbantat/tweakat Win7 x86 for speeeEED!
Facebook användare? Hatar tidslinjen? gå med i denna FB-grupp:
Undo Timeline ...med lite tur får h*lvetet ett slut!

Permalänk
Medlem
Skrivet av lastninja:

Hahahaha.. Snacka om cockblocker-kommentar till alla AMD-fans som blivit upphetsade av denna nyhet!

.... varför?

Visa signatur

Massa skit innanför ett CoolerMaster Cosmos II

Permalänk
Medlem

Hahahaha.. Tack alla! Fick väldigt många skratt i den här tråden:) det mänskliga psyket blandat med vad jag bara kan anta är vissa människors kärleks känslor till vissa företag gör det hela till utmärkt komik!

Jag som enbart trodde rosa glasögon var en term inom psykologin, antar att de får lägga till gröna också då effekten verkar vara densamma;?

Permalänk
Quizmaster Malmö 22

Den satt som gjutet

Visa signatur

[Gigabyte EP35-DS4][Intel Core 2 Duo E8400 3.0 Ghz][2x2GB Corsair XMS 2][Gainward GTX 570][Sandisk Extreme II 480GB][Corsair HX 620W][Fractal Design Define XL R4][Acer GD245HQBID]

Permalänk
Medlem

Man skulle också kunna säja "1000 Mhz ska vara 1000 Mhz" till AMD.

Visa signatur

"Maybe one day you will learn that your way, is not the only way"

Permalänk
Medlem

Och folk på det här forumet klagar på Apples fanboys...

Skrivet av thorsama:

Lite småkul ändå, man kan ju dock fråga sig om ett företag ska marknadsföra på detta viset? Sade det när de släppte "The Fixer" filmerna & säger det igen, detta är bara löjligt. Inget ett företag som vill bli taget seriöst bör göra.

Skrivet av +_+:

Ja roligt är det väl på ett sätt men jag tycker kanske inte de skall vara för kaxiga. Och lite smått oseriöst är det ju också.
Det kan nog komma tillbaka och bita dem i baken skulle jag tro

Skrivet av Hagge:

Fan va jag avskyr tjafs inom hårdvara. Hela tiden ska konkurrenter antigen härma, reta eller stämma varandra.
Nvidia misslyckades, sure, men AMD kunde vara den bättre, och skita i att nämna det. Här faller AMD lika lågt, om inte lägre.

Skrivet av Vesh:

Om man kollar på värdena i de senaste recensionerna av R9 285 och GTX 960 skiljer sig förbrukningen mellan r9 285 och gtx 960 med strax under 100 watt, skillnaden i TDP är bara 70 watt. Jämför man 970 med R9 290 så ligger både skillnaden i TDP och skillnaden i systemförbrukning runt 100 watt.

Angående marknadsföringen så är det bara barnsligt. Nvidia förtjänar att få skit för det dom har gjort men det är samtidigt tragiskt att man måste framhäva hur dålig konkurrenten istället för att briljera med en bättre produkt, vi får hoppas att 3xx-serien löser detta

Skrivet av Orici:

Typiskt AMD, den enda reklam dom gör är när dom snackar skit. Dom borde fokuserar på sina egna produkter så att dom inte går med förlust varje år.

AMD kan möta detta på två sätt. Antingen går de ut med hur konkurrenterna bluffar med siffrorna, eller så håller de tyst och gör likadant själva för att hänga med i vinstmaximeringen och gör det därmed till en branschstandard. Vilket föredrar ni?

Skrivet av Albinfiskare:

Det är sånna här guldkorn som gör dessa trådarna värda att läsa

Och redan i inlägget efter, bara 5 minuter senare…

Skrivet av S2:

På vilket sätt har de bluffat med specifikationerna? Grafikkortet har 4 GB, men när minnet går över 3,5 GB så går det långsammare bara. En liten teknisk miss.

För min del så kommer jag fortfarande köpa Nvidia, även om AMD skulle vara bättre. Det sitter i sedan grafikkortens begynnelse då AMD inte hade så bra drivrutiner till sina kort. Hade många kompisar som gnällde på det, så därför har jag alltid kört grönt...

Priceless

Visa signatur

Räkna ut hur kraftigt nätaggregat du behöver på OuterVision Power Supply Calculator. 500W räcker för de allra flesta vanliga system. Seasonic är bäst. ;) – Elektrostatisk urladdning är ett verkligt problem.
"People who are serious about software should make their own hardware" – Alan Kay
Bojkotta maffian

Permalänk
Entusiast
Skrivet av Sirme:

Hahahaha.. Tack alla! Fick väldigt många skratt i den här tråden:) det mänskliga psyket blandat med vad jag bara kan anta är vissa människors kärleks känslor till vissa företag gör det hela till utmärkt komik!

Jag som enbart trodde rosa glasögon var en term inom psykologin, antar att de får lägga till gröna också då effekten verkar vara densamma;?

Vi kan nog lägga till blåa och röda också. Orubbliga fanboys finns det i alla läger.
http://egmr.net/wp-content/uploads/2013/04/nvidia-vs-amd.jpg

Visa signatur

Bästa programmen till Linux - v2.0
Linux-guide: Val av grafisk miljö. (Att välja distribution).
-
Everyone should have a SGoC in their systems (SGoC: SysGhost on a Chip)

Permalänk
Medlem
Skrivet av Orici:

Man skulle också kunna säja "1000 Mhz ska vara 1000 Mhz" till AMD.

Måste verkligen hålla med om det faktiskt. Finns flera exempel där kort med Hawaii kretsar throttlar pga tdp.
Kom att tänka på Anantechs review av 290x vid realese.

Mer än ett år sedan nu. Tänk vad fort tiden går!

As a reminder, starting with the 290X we’ve switch from Metro: Last Light to Crysis 3 for our gaming power/temp/noise results, as Metro exhibits poor scaling on multi-GPU setups, leading to GPU utilization dropping well below 100%.

For this review Crysis 3 actually ends up working out very well as a gaming workload, due to the fact that the 290X and the GTX 780 (its closest competitor) achieve virtually identical framerates at around 52fps. As a result the power consumption from the rest of the system should be very similar, and the difference between the two in wall power should be almost entirely due to the video cards (after taking into account the usual 90% efficiency curve).

With that in mind, as we can see there’s no getting around the fact that compared to both 280X and GTX 780, power consumption has gone up. At 375W at the wall the 290X setup draws 48W more than the GTX 780, 29W more than GTX Titan, and even 32W more than the most power demanding Tahiti card, 7970GE. NVIDIA has demonstrated superior power efficiency throughout this generation and 290X, though an improvement itself, won’t be matching NVIDIA on this metric.

Overall our concern with power on high end cards has to do more with the ramifications of trying to remove/cool that additional heat than the power consumption itself – though summer does present its own problems – but still it’s clear that AMD’s 9% average performance advantage over the GTX 780 is going to come at a cost of more than a 9% increase in power consumption. Or versus the GTX Titan, which the 290X generally ties, 290X is still drawing more power. The fact that AMD is delivering better performance than a GTX 780 should not be understated, but neither should the fact that they consume more power while doing so.

FurMark, our pathological case, confirms what we were just seeing with Crysis. At this point 290X’s power consumption has fallen below GTX 780’s, but only because at this point we know that 290X has needed to significantly downclock itself to get to this point. GTX 780 throttles here too for the same reason, but not as much as 290X does. Consequently this puts the worst case power scenario for the GTX 780 at worse than the quiet mode 290X, but between this and Crysis the data suggests that the 290X is operating far closer to its limit than the GTX 780 (or GTX Titan) is.

Meanwhile we haven’t paid a lot of attention to the uber mode 290X until now, so now is a good time to do so. The 290X in uber mode still has to downclock for power reasons, but it stays in its boost state until the 290X in quiet mode. Based on this we believe the 290X uber is drawing near its peak power consumption for both FurMark and Crysis 3, which besides neatly illustrating the real world difference between quiet and uber modes in terms of how much heat they can move, means that we should be able to look at uber mode to get a good idea of what the 290X’s maximum power consumption is. To that end based on this data we believe the PowerTune/TDP limit for 290X is 300W, 50W higher than the “average gaming scenario power” they quote. This is also fairly consistent compared to the Tahiti based 7970 and its ilk, which have an official PowerTune limit of 250W.

Ultimately 300W single-GPU cards have been a rarity, and seemingly for good reason. That much heat is not easy to dissipate coming off of a single heat source (GPU), and the only other 300W cards we’ve seen are not cards with impressive acoustics. Given where AMD was with Tahiti we’re in no way surprised that power consumption has gone up with the larger GPU, but there are consequences to be had for having this much power going through a single card. Not the least of which is the fact that AMD’s reference cooler can’t actually move 300W of heat at reasonable noise levels, hence the use of quiet and uber modes.

Dold text

http://www.anandtech.com/show/7457/the-radeon-r9-290x-review/...

Visa signatur

GPU 2080Ti Moderkort ROG Crosshair VIII Formula x570
CPU 5900x Minne Corsair 32GB 3600Mhz Nätagg Corsair AX 1200i
Chassi Lian-Li PC-O7S
Skärm C49RG9x 120Hz Hårddisk Corsair MP600 Kylning husradiator, EK Blocks

Permalänk
Skrivet av Orici:

Man skulle också kunna säja "1000 Mhz ska vara 1000 Mhz" till AMD.

Var det inte "upp till" 1000mhz?

Det är ju ganska fult iallafall, men är ganska säker på att de sa "up to 1000mhz".

Visa signatur

Lian Li 011 Air Mini | Ryzen 7800X3D | EK-Nucleus AIO CR240 Lux | | G.Skill Trident Z5 NEO DDR5 6400mhz | Radeon 7900 XTX Hellhound | Asus ROG Strix B650-A Gaming | DeepCool PX1200G | Western Digital SN850X 2TB | Crucial P3 4TB | +Femtioelva rgb-fläktar^^

Permalänk
Inaktiv

Jag hade tänkt slå till på MSI:s 870 Gaming till en mid-high speldator. Jag är fånge i en Macbook Pro 15" sedan några år tillbaka och tack vare konsolcommunityn och skräpet det innebär har jag fått upp ögonen för spela på PC och tänkte vifta ihop något som håller fint i några år. Men vad tror ni om priset på just 970? Kommer det dumpas helt eller kommer återförsäljarna sälja det till samma utpris ändå? Det känns ju som det finns läge för återförsäljare att sätta åt Nvidia för detta?

Permalänk
Medlem
Skrivet av knaprisen:

Var det inte "upp till" 1000mhz?

Det är ju ganska fult iallafall, men är ganska säker på att de sa "up to 1000mhz".

Det står så nu men det verkar inte som det sas så vid lansering.

http://www.tomshardware.com/reviews/radeon-r9-290-driver-fix,...

Visa signatur

"Maybe one day you will learn that your way, is not the only way"

Permalänk
Skrivet av Orici:

Det står så nu men det verkar inte som det sas så vid lansering.

http://www.tomshardware.com/reviews/radeon-r9-290-driver-fix,...

Du menar meningen "I do have an issue with vendors simply advertising this as a 1000 MHz GPU."

Det betyder väl att det var återförsäljarna sa att det var 1000mhz, inte amd. Det känns som att det är ganska relevant i det här fallet.

Visa signatur

Lian Li 011 Air Mini | Ryzen 7800X3D | EK-Nucleus AIO CR240 Lux | | G.Skill Trident Z5 NEO DDR5 6400mhz | Radeon 7900 XTX Hellhound | Asus ROG Strix B650-A Gaming | DeepCool PX1200G | Western Digital SN850X 2TB | Crucial P3 4TB | +Femtioelva rgb-fläktar^^

Permalänk
Avstängd
Skrivet av EyeNEye:

Är det så konstigt då?

Mer förbrukning = Mer värme = Mer fläkt = Mer oljud = X Prestanda

Mindre förbrukning = Lägre fläkt = mindre oljud = likvärdig prestanda

Nej det är inte alls konstigt.
Tyckte bara att det är lite kul att då, som inte är så många år sen så var förbrukningen väldigt viktig för AMD användarna medans den nästan helt oviktig för Nvidia användarna.
Dom argument som AMD användarna använde då för att visa hur viktigt låg förbrukning är använder Nvidia idag och argumenten som Nvidia använde för att visa att det inte är så viktigt, använder AMD idag

Visa signatur

Asus Z97M-plus | i7 4790k @4.8Ghz | Aorus 1080Ti | FD Integra M 750W | Vengence 2x8 GB Ram | FD Define Mini C | Evo 850 500GB | Intel 750 1.2TB | AOC AG271QG

Permalänk
Medlem
Skrivet av Orici:

Typiskt AMD, den enda reklam dom gör är när dom snackar skit. Dom borde fokuserar på sina egna produkter så att dom inte går med förlust varje år.

Skrivet av Orici:

Man skulle också kunna säja "1000 Mhz ska vara 1000 Mhz" till AMD.

Så på nVidia listan har vi nu;
1, ljuger ang specifikationer på {bandbredd på minnet, cache samt rasters) på 970
2, begränsar sina egna drivrutiner på Linux med argumentet "feature parity with Windows" medans andra funktioner helt saknas i Linux
3, låser ut utvecklare med deras TWMP (Batman och AA problemen mm.)
4, skiter i att ge ut dokumentation på deras kort för OpenSource utvecklare men när Tegra kommer då börjas det smekas för att få det att fungera med OpenSource drivrutiner.
5, skiter i AGEA kunder vid uppköpet och släpper en drivrutin som låser ut använding av instickskorten samt låser möjlighet att använda dedikerat nVidia kort för PhysX i ett AMD system.

Inte tal om Gsync/Freesync dramat.

Good good let the green force flow through you, nVidia ljuger rakt ut med specifikationer och när en annan tillverkare försökter trycka fram motsatsen på sina produkter med lite humör så är det skit? Om det är någon som skall ha koll på sina saker då är det nVidia som bör tänka om sin strategi och relation till sina kunder.

För att balansera mitt svar lite;
AMDs FGLRX/Catalyst Linux drivrutiner är ytterst skräp att Intel vill hjälpa dom.

Visa signatur

Arch - Makepkg, not war -||- Gigabyte X570 Aorus Master -||- GSkill 64GiB DDR4 14-14-15-35-1T 3600Mhz -||- AMD 5900x-||- Gigabyte RX6900XT -||- 2x Adata XPG sx8200 Pro 1TB -||- EVGA G2 750W -||- Corsair 570x -||- O2+ODAC-||- Sennheiser HD-650 -|| Boycott EA,2K,Activision,Ubisoft,WB,EGS
Arch Linux, one hell of a distribution.

Permalänk
Medlem

Jag är en som tvekat att köpa AMD i flera år och istället gått på Nvidia och Intel. Men detta inlägget var ju lite roligt faktiskt.

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk
Medlem

Det kan vara så att GTX 970 är mitt sista kort med Nvidia-krets. Det är helt oacceptabelt som de gjort, och det enda språk företag förstår är pengar, så då får man använda sin lilla makt som konsument.

Visa signatur

[Låda: NZXT H630 Ultra Tower Silent] [MB: ASRock Z590 Velocita] [CPU: Intel 10900K] [CPU-kylning: Arctic Cooling Liquid Freezer II 360] [Mem: 32 GB 34666 MHz CL15] [GPU: XFX Speedster Merc 319 6950 XT] [Lagring: 180 GB Intel+128 GB Corsair SSD, 525 GB Crucial M.2] [Bildskärm: LG 4k 43" bildskärm] [Ljudkort: inbyggt, med extern hörlursförstärkare/DAC] [Högtalare: Edifier S530D] [Lurar: Beyerdynamic Amiron Home]

Permalänk
Avstängd

Lustigt. Bryr mig dock inte så mycket om Nvidia vs AMD. Går alltid på bäst pris/prestanda och där har ju AMD regerat ett bra tag nu.

Plockade upp ett ASUS r9 290 för 2690kr häromdagen och det är nog nästan ett oslagbart pris för den prestandan. Verkar dessutom sitta Hynix minnen på kortet. Nu är ju DCII-kylaren på eftermarknads 290 den sämsta men det verkar surra på bra i alla fall. Runt 50c i idle och 70c i load.

Vill prova Freesync i vår och tänkte spela GTAV när det äntligen kommer till PC. Borde flyta på fint.

Visa signatur

http://iogt.se/
du blir ful och dum av sprit
flow är lek

Permalänk
Medlem
Skrivet av Gibbe:

Och folk på det här forumet klagar på Apples fanboys...

AMD kan möta detta på två sätt. Antingen går de ut med hur konkurrenterna bluffar med siffrorna, eller så håller de tyst och gör likadant själva för att hänga med i vinstmaximeringen och gör det därmed till en branschstandard. Vilket föredrar ni?

Eller så ignorerar AMD detta helt, det behöver faktiskt inte betyda att AMD gör samma sak bara för att de väljer att inte kommentera det. Sen är det ju faktiskt inte bevisat att Nvidia har mörkat något heller, det ska ha varit dålig intern kommunikation som har orsakat detta. http://www.pcper.com/reviews/Graphics-Cards/NVIDIA-Discloses-... om du vet något annat så får du gärna dela med dig, om nu Nvidia har mörkat så vill jag gärna veta detta.

Jag kritiserade AMDs reklam för jag anser den vara oprofessionell, men om du tycker att den åsikten gör mig till fanboy är väl det ditt problem antar jag.

Visa signatur

You have earned my respect and my friendship.

Permalänk
Moderator
Testpilot
Skrivet av Teddis:

Har det äntligen kommit upp ett konkret test som visat att de är värdelösa då? Jag har bara sett användartest där det konstateras "hurr durr 4xSSAA kolla min dåliga framerate, måste bero på 970 minnesfelet". Anandtechs genomgång av teorin bakom minnessegmenten lät snarare så att de sista 500MB visst kunde vara till nytta.

Det finns ett otal tester, det är bara att googla.

Problemet som uppstår när minnet når 3.5+ är att det flyter på bra men att det uppstår mikro-frysningar och andra bi-effekter. Faktum kvarstår att Nvidia öppet har erkänt att 3.5GB går i 225 GB/s och 0.5GB går i en mycket lägre hastighet. Självklart gör detta skillnad.

Jag har läst på Reddit om användare som upplever att det blir "stutter" när minnet maxas.

"I have SLI 970s and play at 1440p. Turning on MSAA x8 in FC4 puts memory usage at a bit above 3.5gb (it fluctautes but remains above it) and drops my fps to between 30-50, but it is a lot choppier than it should be at those numbers."

http://www.reddit.com/r/buildapc/comments/2tekx6/discussiongt...

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem

Haha...ja visst har vi det roligt på andras bekostnad=mänskligheten i ett nötskal.
Men detta kommer att komma tillbaka på ett eller ett annat sett och bita AMD i kretsen:)

Visa signatur

"En superdator är en maskin som kör en ändlös slinga på bara två sekunder" - Okänd

Permalänk
Hjälpsam
Skrivet av Tobbbe__:

Måste verkligen hålla med om det faktiskt. Finns flera exempel där kort med Hawaii kretsar throttlar pga tdp.
Kom att tänka på Anantechs review av 290x vid realese.

Mer än ett år sedan nu. Tänk vad fort tiden går!

http://images.anandtech.com/graphs/graph7457/59320.png

As a reminder, starting with the 290X we’ve switch from Metro: Last Light to Crysis 3 for our gaming power/temp/noise results, as Metro exhibits poor scaling on multi-GPU setups, leading to GPU utilization dropping well below 100%.

For this review Crysis 3 actually ends up working out very well as a gaming workload, due to the fact that the 290X and the GTX 780 (its closest competitor) achieve virtually identical framerates at around 52fps. As a result the power consumption from the rest of the system should be very similar, and the difference between the two in wall power should be almost entirely due to the video cards (after taking into account the usual 90% efficiency curve).

With that in mind, as we can see there’s no getting around the fact that compared to both 280X and GTX 780, power consumption has gone up. At 375W at the wall the 290X setup draws 48W more than the GTX 780, 29W more than GTX Titan, and even 32W more than the most power demanding Tahiti card, 7970GE. NVIDIA has demonstrated superior power efficiency throughout this generation and 290X, though an improvement itself, won’t be matching NVIDIA on this metric.

Overall our concern with power on high end cards has to do more with the ramifications of trying to remove/cool that additional heat than the power consumption itself – though summer does present its own problems – but still it’s clear that AMD’s 9% average performance advantage over the GTX 780 is going to come at a cost of more than a 9% increase in power consumption. Or versus the GTX Titan, which the 290X generally ties, 290X is still drawing more power. The fact that AMD is delivering better performance than a GTX 780 should not be understated, but neither should the fact that they consume more power while doing so.

http://images.anandtech.com/graphs/graph7457/59321.png

FurMark, our pathological case, confirms what we were just seeing with Crysis. At this point 290X’s power consumption has fallen below GTX 780’s, but only because at this point we know that 290X has needed to significantly downclock itself to get to this point. GTX 780 throttles here too for the same reason, but not as much as 290X does. Consequently this puts the worst case power scenario for the GTX 780 at worse than the quiet mode 290X, but between this and Crysis the data suggests that the 290X is operating far closer to its limit than the GTX 780 (or GTX Titan) is.

Meanwhile we haven’t paid a lot of attention to the uber mode 290X until now, so now is a good time to do so. The 290X in uber mode still has to downclock for power reasons, but it stays in its boost state until the 290X in quiet mode. Based on this we believe the 290X uber is drawing near its peak power consumption for both FurMark and Crysis 3, which besides neatly illustrating the real world difference between quiet and uber modes in terms of how much heat they can move, means that we should be able to look at uber mode to get a good idea of what the 290X’s maximum power consumption is. To that end based on this data we believe the PowerTune/TDP limit for 290X is 300W, 50W higher than the “average gaming scenario power” they quote. This is also fairly consistent compared to the Tahiti based 7970 and its ilk, which have an official PowerTune limit of 250W.

Ultimately 300W single-GPU cards have been a rarity, and seemingly for good reason. That much heat is not easy to dissipate coming off of a single heat source (GPU), and the only other 300W cards we’ve seen are not cards with impressive acoustics. Given where AMD was with Tahiti we’re in no way surprised that power consumption has gone up with the larger GPU, but there are consequences to be had for having this much power going through a single card. Not the least of which is the fact that AMD’s reference cooler can’t actually move 300W of heat at reasonable noise levels, hence the use of quiet and uber modes.

Dold text

http://www.anandtech.com/show/7457/the-radeon-r9-290x-review/...

Men detta var med originalkylaren i übermode, den försvann för ett år sedan.
Ni måste försöka hänga med lite bättre i utvecklingen.

Inte skriver jag att Nvidias kort drar mycket mer effekt, detta stämmer ju inte längre det heller.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av Commander:

Så på nVidia listan har vi nu;
1, ljuger ang specifikationer på {bandbredd på minnet, cache samt rasters) på 970
2, begränsar sina egna drivrutiner på Linux med argumentet "feature parity with Windows" medans andra funktioner helt saknas i Linux
3, låser ut utvecklare med deras TWMP (Batman och AA problemen mm.)
4, skiter i att ge ut dokumentation på deras kort för OpenSource utvecklare men när Tegra kommer då börjas det smekas för att få det att fungera med OpenSource drivrutiner.
5, skiter i AGEA kunder vid uppköpet och släpper en drivrutin som låser ut använding av instickskorten samt låser möjlighet att använda dedikerat nVidia kort för PhysX i ett AMD system.

Inte tal om Gsync/Freesync dramat.

Good good let the green force flow through you, nVidia ljuger rakt ut med specifikationer och när en annan tillverkare försökter trycka fram motsatsen på sina produkter med lite humör så är det skit? Om det är någon som skall ha koll på sina saker då är det nVidia som bör tänka om sin strategi och relation till sina kunder.

För att balansera mitt svar lite;
AMDs FGLRX/Catalyst Linux drivrutiner är ytterst skräp att Intel vill hjälpa dom.

1. Nja, det verkar som det var dåligt kommunikation mellan avdelningar, vem vet?.
2. nVIDIA funkar iaf bättre än AMD i Linux.
3. AMD har haft liknande incidenter. t.ex Tomb Raider
4. Det är väl roligt att det blir bättre?
5. Olyckligt men det är så länge sedan och en sådant litet problem att det inte gör något i dagsläget.

Vi får se om freesync funkar men vi vet att G-Sync fungerar utmärkt.

AMD är alltid spydiga och barnsliga i sina reklamer, det ger ett dåligt intryck att ett företag som jag antar i alla fall "försöker" vara seriösa.

Visa signatur

"Maybe one day you will learn that your way, is not the only way"

Permalänk
Medlem
Skrivet av thorsama:

Eller så ignorerar AMD detta helt, det behöver faktiskt inte betyda att AMD gör samma sak bara för att de inte väljer att kommentera det. Sen är det ju faktiskt inte bevisat att Nvidia har mörkat något heller, det ska ha varit dålig intern kommunikation som har orsakat detta. http://www.pcper.com/reviews/Graphics-Cards/NVIDIA-Discloses-... om du vet något annat så får du gärna dela med dig, om nu Nvidia har mörkat så vill jag gärna veta detta.

Jag kritiserade AMDs reklam för jag anser den vara oprofessionell, men om du tycker att den åsikten gör mig till fanboy är väl det ditt problem antar jag.

Så funkar inte business. Om AMD accepterar utan att bemöta det på något endaste sätt kommer de få en konstant konkurrensnackdel. Det finns ganska många kronor att spara på att snåla på minneskonfigurationen på detta vis. Efterhand kommer de släpa efter i utvecklingen då marginalerna för dem blir mindre för samma arbete och kompetens.

Såna här saker är knappast något man glömmer påvägen mellan utveckling och marknadsföring, det är väldigt medvetna beslut som tas hela vägen för att tjäna några kronor, och så hoppas man att ingen märker något. Det är knappast unikt för elektronikbranchen eller något ö.h.t., men osedvanligt sniket då det påverkar funktionen markant. I andra fall handlar det kanske om en billigare färgblandning som blir uttjänt efter 5 istället för 15 år, men sådant brukar oftast vara underförstått genom ett lägre pris.

Min översta mening var inte riktad till någon specifik och var ingen inledning till efterföljande citat, vilket jag borde ha markerat tydligare. Men med tanke på ditt resonemang att du anser detta inte är bevis nog för att vara mörkning och att det är värre att AMD gör en ganska harmlös reklam där de helt enkelt påpekar det faktum att deras 4GB håller samma specs hela vägen till skillnad från "andra", så får du nog utstå epitetet fanboy.

Visa signatur

Räkna ut hur kraftigt nätaggregat du behöver på OuterVision Power Supply Calculator. 500W räcker för de allra flesta vanliga system. Seasonic är bäst. ;) – Elektrostatisk urladdning är ett verkligt problem.
"People who are serious about software should make their own hardware" – Alan Kay
Bojkotta maffian

Permalänk
Medlem
Skrivet av Sensuella Sven:

Absolut. De får gärna skriva vad de vill och göra vilka bilder/filmer de vill. Samtidigt får jag tycka att det är pinsamt.

Deras nya serie grafikkort kommer säkerligen vara jättebra de med, tills dess att Nvidia släpper sina utmanare som lär vara ännu bättre (vilket brukar vara mer regel än undantag).

Allt gott till AMD men de ligger tyvärr efter när det gäller det mesta.

Allting är ju relativt. De tar ju i alla fall inte 25 000 kr för sina kort.

Visa signatur

Skriv jätteintressant information här.