SweClockers modifierar omdömet runt Radeon RX 480

Permalänk
Medlem
Skrivet av Ozzed:

OK, så för att felet inte är lika "grovt" så kan man skita i att rapportera om det och utmärkelsen får vara kvar? Det verkar ju inte trovärdigt.

OM det är så att specen säger max 75W så har ju ändå en överträdelse skett, men man glor på andra hållet bara för att det är ett Nvidia-kort. Det är det jag menar.

MSI R7 370 Gaming går också över spec på PCI-E-kontakten. Men ändå brydde sig ingen om det, eftersom medel ändå var långt under.

Visa signatur

De köper en bil. Säljaren säljer bilen till dem. Var är du? Vart ska du? Varifrån kom du?

Permalänk
Medlem

Ett intressant klipp med ett "real world" scenario av vad RX480s underdimensionerade kraftförsörjning kan orsaka.

https://www.youtube.com/watch?v=rhjC_8ai7QA

Permalänk
Inaktiv
Skrivet av Triton242:

Vilket härligt skitsnack om ja får lov att använda det ordet.
När 970 3,5gig problemet dök upp vart det ett väldigt ståhej från samtliga genom att ETT obeprövad hemmasnickrare program målade upp problemet.
Det tog ett bra tag innan nvidia ens valde att kommentera problemet.

Det var ett jäkla liv om att nvidia inte klarade dx12 ordenterligt när aos kom ut som tidigt alpha benchmark när igen egentligen visste något om dx12 (vilket framkom senare).

Nu nämnde ja 2 de senaste 12 månaderna.

Skickades från m.sweclockers.com

Det finns dock en ganska stor skillnad som motiverar att dessa problem tas upp. Nvidia marknadsförde GTX 970 som ett 4GB grafikkort med full hastighet över hela minnet och ingen segmentering. Vilket visade sig att inte stämde.

Nvidia marknadsförde deras produkter som fullt DirectX 12-kompatibla när de inte ens var fullt DX12-kompatibla. Intel var den enda som faktiskt gjorde detta.

Permalänk
Medlem

Alltså...... Denna tråden handlar om ett allvarligt fel på just dessa kort.

Låt den inte spåra ut med ytterligare fanboys inlägg.

Visa signatur

Don´t do this, don´t do that. Do this and think that.
Serious, do you really think I give a shit?

Permalänk
Medlem
Skrivet av Triton242:

Vilket härligt skitsnack om ja får lov att använda det ordet.
När 970 3,5gig problemet dök upp vart det ett väldigt ståhej från samtliga genom att ETT obeprövad hemmasnickrare program målade upp problemet.
Det tog ett bra tag innan nvidia ens valde att kommentera problemet.

Det var ett jäkla liv om att nvidia inte klarade dx12 ordenterligt när aos kom ut som tidigt alpha benchmark när igen egentligen visste något om dx12 (vilket framkom senare).

Nu nämnde ja 2 de senaste 12 månaderna.

Skickades från m.sweclockers.com

Du får naturligtvis använda vilka ord du vill, det rör mig inte i ryggen

Men ta och ta en titt på de såkallat "negativa" atriklarna om Nvidia. Där kan man läsa saker som:

"Kompromissen sägs inte påverka prestandan i någon större utsträckning. För att bevisa detta åberopar Nvidia ett gäng prestandatester i höga upplösningar, där Geforce GTX 970 bara tappar någon enstaka procent mer i bildfrekvens än GTX 980 när spelen använder över 3,5 GB videominne."

och

"I fallet Ashes of the Singularity vinner AMD den första bataljen på slagfältet DirectX 12, vilket ger oss en svag fingervisning vad som går att åstadkomma med det nya grafikgränssnittet. Det är dock väldigt nämnvärt att det rör sig om en oerhört specifik speltyp som historiskt sett har gynnats av lågnivågränssnitt, vilket gör att vi försiktigt avvaktar innan vi drar alltför stora växlar."

Så mycket för det "Skitsnacket". Det framgår tydligt tycker jag att när det handlar om AMD så är det full force bash som gäller men när det kommer till Nvidia framhålls alltid förmidlrande omständigheter. Det är inte en opartisk rapportering.

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Medlem
Skrivet av Ozzed:

Så mycket för det "Skitsnacket". Det framgår tydligt tycker jag att när det handlar om AMD så är det full force bash som gäller men när det kommer till Nvidia framhålls alltid förmidlrande omständigheter. Det är inte en opartisk rapportering.

Du har fel. Ingen bashar AMD för att dom är AMD. Man rapporterar om att RX480 drar för mycket ström från moderkortet, varken mer eller mindre.

Visa signatur

9950X3D X870E HERO 96/6400c30/2200 RTX5090 Gaming OC || 7950X B650 Gaming Plus WIFI 32/6000c30 RTX5080 TUF OC(450w) UBUNTU || 12900KF Z690 Tomahawk WIFI 64/3600c16 Gear1 RTX4080 Ventus 3X OC(400W) || 5900X(B2) B550-F 32/3800c18 RTX3080 TUF OC V2 || 5800X3D CH VIII EXT. 32/3800c18 RTX3080 Gaming OC || 3700X X570 HERO 32/3000c16 RTX3070 FTW3 Ultra || Thinkpad P16s G2 PRO7840U 32/6400

Permalänk
Medlem
Skrivet av str8forthakill:

Ett intressant klipp med ett "real world" scenario av vad RX480s underdimensionerade kraftförsörjning kan orsaka.

https://www.youtube.com/watch?v=rhjC_8ai7QA

Ja, jätteintressant eftersom han i princip säger att det är på "cheap" and "old" moderkort som de här problemen
uppstår.

Visa signatur

🖥️:Phanteks Enthoo Evolv X | Ryzen 7 7800X3D | Arctic Freezer II 420 | 6x Noctua NF-P14s Redux 1500 | Asus B650 ProArt Creator | 32Gb Corsair Vengeance 6000Mhz CL30| Samsung 990 Pro 2+1TB | ASUS TUF 3080 12Gb | Corsair RM1000x Shift | Acer XB27HU | Mionix Naos QG | Ducky One 3 Mini RGB |

Permalänk
Datavetare
Skrivet av anon5930:

Det finns dock en ganska stor skillnad som motiverar att dessa problem tas upp. Nvidia marknadsförde GTX 970 som ett 4GB grafikkort med full hastighet över hela minnet och ingen segmentering. Vilket visade sig att inte stämde.

Nvidia marknadsförde deras produkter som fullt DirectX 12-kompatibla när de inte ens var fullt DX12-kompatibla. Intel var den enda som faktiskt gjorde detta.

Peka ut var Nvidia någonsin sagt att det är "full hastighet över hela minnet". Ett sådant uttalande är fel för ALLA dagens GPUer då de har sitt VRAM uppdelat över logiskt VRAM bredd / 32 antal kanaler som var för sig ger 25-30 GB/s bandbredd med dagens GDDR5.

Alla GPUer som stödjer DX12 har idag "fullt DX12 stöd" i det att de stödjer allt som DX12 kräver. Sedan finns en par finesser som är valbara, detta har funnits under väldigt lång tid och i DX12 är det uppdelat i "feature levels" och "tiers". Här är det bara Skylake som stödjer allt, men det gör inte de andra aktuella GPUerna mindre DX12-kompatibla då de stödjer allt i base-line.

Ska det vara så kan ju folk annars även ta högafflarna och facklorna för att tåga mot att Polaris 10 inte fick stöd för "feature level 12.1", något Nvidia fick stöd för med Maxwell gen 2 (900-serien).

Skrivet av Ozzed:

Du får naturligtvis använda vilka ord du vill, det rör mig inte i ryggen

Men ta och ta en titt på de såkallat "negativa" atriklarna om Nvidia. Där kan man läsa saker som:

"Kompromissen sägs inte påverka prestandan i någon större utsträckning. För att bevisa detta åberopar Nvidia ett gäng prestandatester i höga upplösningar, där Geforce GTX 970 bara tappar någon enstaka procent mer i bildfrekvens än GTX 980 när spelen använder över 3,5 GB videominne."

och

"I fallet Ashes of the Singularity vinner AMD den första bataljen på slagfältet DirectX 12, vilket ger oss en svag fingervisning vad som går att åstadkomma med det nya grafikgränssnittet. Det är dock väldigt nämnvärt att det rör sig om en oerhört specifik speltyp som historiskt sett har gynnats av lågnivågränssnitt, vilket gör att vi försiktigt avvaktar innan vi drar alltför stora växlar."

Så mycket för det "Skitsnacket". Det framgår tydligt tycker jag att när det handlar om AMD så är det full force bash som gäller men när det kommer till Nvidia framhålls alltid förmidlrande omständigheter. Det är inte en opartisk rapportering.

Båda uttalandena från SweClockers är ju manglade till döds fram till idag och de är "bevisat" korrekta! Så var ligger problemet enligt dig?

Vad det gäller "3,5 GB" problemet så har ju flera tester visat att rent praktisk får AMDs 4 GB kort tidigare får problem med "frame-drops" p.g.a. att man kör inställningar där mer än 4 GB VRAM aktivt används jämfört med 970 (och andra Nvidia kort med 4 GB VRAM). Ingen har ändå riktat en högaffel mot AMD här trots att deras 4GB kort i praktiken har mer problem med VRAM kapacitet än 970. Och varför skulle man, när detta i praktiken har blivit ett problem brukar man ändå vara rejält under 30 FPS i genomsnitt så kvittar ändå.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av str8forthakill:

Ett intressant klipp med ett "real world" scenario av vad RX480s underdimensionerade kraftförsörjning kan orsaka.

https://www.youtube.com/watch?v=rhjC_8ai7QA

Mycket bra infolänk där.

Tack så mycket.

Visa signatur

Don´t do this, don´t do that. Do this and think that.
Serious, do you really think I give a shit?

Permalänk
Medlem
Skrivet av orginallinus:

Ja, jätteintressant eftersom han i princip säger att det är på "cheap" and "old" moderkort som de här problemen
uppstår.

RX 480 är menat för billiga datorer, som ju ofta har billiga moderkort.
OEM har ännu billigare moderkort.
Personer som uppgraderar från något gammalt (troligen billigt grafikkort) har gamla och troligen billiga moderkort.

Jag tror inte att folk som sitter på Maximus Hero eller Extreme är ute efter att köpa RX 480 i allmänhet.

Visa signatur

De köper en bil. Säljaren säljer bilen till dem. Var är du? Vart ska du? Varifrån kom du?

Permalänk
Medlem
Skrivet av Yoshman:

Peka ut var Nvidia någonsin sagt att det är "full hastighet över hela minnet". Ett sådant uttalande är fel för ALLA dagens GPUer då de har sitt VRAM uppdelat över logiskt VRAM bredd / 32 antal kanaler som var för sig ger 25-30 GB/s bandbredd med dagens GDDR5.

Alla GPUer som stödjer DX12 har idag "fullt DX12 stöd" i det att de stödjer allt som DX12 kräver. Sedan finns en par finesser som är valbara, detta har funnits under väldigt lång tid och i DX12 är det uppdelat i "feature levels" och "tiers". Här är det bara Skylake som stödjer allt, men det gör inte de andra aktuella GPUerna mindre DX12-kompatibla då de stödjer allt i base-line.

Ska det vara så kan ju folk annars även ta högafflarna och facklorna för att tåga mot att Polaris 10 inte fick stöd för "feature level 12.1", något Nvidia fick stöd för med Maxwell gen 2 (900-serien).

Båda uttalandena från SweClockers är ju manglade till döds fram till idag och de är "bevisat" korrekta! Så var ligger problemet enligt dig?

Vad det gäller "3,5 GB" problemet så har ju flera tester visat att rent praktisk får AMDs 4 GB kort tidigare får problem med "frame-drops" p.g.a. att man kör inställningar där mer än 4 GB VRAM aktivt används jämfört med 970 (och andra Nvidia kort med 4 GB VRAM). Ingen har ändå riktat en högaffel mot AMD här trots att deras 4GB kort i praktiken har mer problem med VRAM kapacitet än 970. Och varför skulle man, när detta i praktiken har blivit ett problem brukar man ändå vara rejält under 30 FPS i genomsnitt så kvittar ändå.

3.5GB buggen fanns ju på alla Nvidia-kort, inklusive referens. men det kortet fick behålla sin "toppklass"-utmärkelse.

Ser man inte att detta är vinklat efter allt det jag lagt upp, samt påvisat att jag själv har ett 670 så jag är ingen fanboy, så känns det inte meningsfullt att fortsätta diskussionen. Folk får tro vad de vill såklart men detta känns ändå som ett förhastat och extremr agerande av Sweclockers tycker jag.

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Medlem

@orginallinus:
Han försökte bygga en speldator med en budget på 350 USD, RX480 är perfekt till ett sådant bygge (med amerikanska priser). Visar sig att det inte fungerar alls. Då är det inte ens överklockat.

OEM datorer har oftast dåliga/billiga moderkort med billiga komponenter och dåliga/billiga PSUs. Om AMD nu säljer ett kort som kräver kvalitetskomponenter för att fungera ordentligt som det ultimata OEM kortet? Nja.

Permalänk
Medlem
Skrivet av ArcticFire:

RX 480 är menat för billiga datorer, som ju ofta har billiga moderkort.
OEM har ännu billigare moderkort.
Personer som uppgraderar från något gammalt (troligen billigt grafikkort) har gamla och troligen billiga moderkort.

Jag tror inte att folk som sitter på Maximus Hero eller Extreme är ute efter att köpa RX 480 i allmänhet.

OK, ja jag fattar att mitt Z77 börjar bli gammalt nu. Men vad är det som säger att inte fler serier av grafikkort skulle dra mer än specifikationerna över PCIE? Här är det så klart uppenbart, eftersom strömdelen är så kraftigt underdimensionerad.

Visa signatur

🖥️:Phanteks Enthoo Evolv X | Ryzen 7 7800X3D | Arctic Freezer II 420 | 6x Noctua NF-P14s Redux 1500 | Asus B650 ProArt Creator | 32Gb Corsair Vengeance 6000Mhz CL30| Samsung 990 Pro 2+1TB | ASUS TUF 3080 12Gb | Corsair RM1000x Shift | Acer XB27HU | Mionix Naos QG | Ducky One 3 Mini RGB |

Permalänk
Datavetare
Skrivet av Ozzed:

3.5GB buggen fanns ju på alla Nvidia-kort, inklusive referens. men det kortet fick behålla sin "toppklass"-utmärkelse.

Ser man inte att detta är vinklat efter allt det jag lagt upp, samt påvisat att jag själv har ett 670 så jag är ingen fanboy, så känns det inte meningsfullt att fortsätta diskussionen. Folk får tro vad de vill såklart men detta känns ändå som ett förhastat och extremr agerande av Sweclockers tycker jag.

Vad är "3.5GB buggen"? Vilket praktiskt problem har någon kunna påvisa att det orsakat? Varför skulle man inte få behålla "toppklass" för att man valt en annorlunda teknisk lösning som i praktiken presterar exakt som förväntat?

Tja, själv spelar inte speciellt mycket och när det blir spelat är det nästan alltid på konsol (så AMD kort). Rätt säker på att flera här sätter mig i något Nvidia fack och har Nvidia kort just nu i speldator. Men det är mitt första Nvidia kort för stationär sedan GeForce256... Är betydligt mycket mer intresserad av tekniken i sig än att faktiskt köra spel.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av orginallinus:

OK, ja jag fattar att mitt Z77 börjar bli gammalt nu. Men vad är det som säger att inte fler serier av grafikkort skulle dra mer än specifikationerna över PCIE? Här är det så klart uppenbart, eftersom strömdelen är så kraftigt underdimensionerad.

Tom's Hardware har testat många grafikkort. Alla utom 480 har ett medeltal under 75W, vissa är väldigt långt under.

Visa signatur

De köper en bil. Säljaren säljer bilen till dem. Var är du? Vart ska du? Varifrån kom du?

Permalänk
Inaktiv
Skrivet av orginallinus:

OK, ja jag fattar att mitt Z77 börjar bli gammalt nu. Men vad är det som säger att inte fler serier av grafikkort skulle dra mer än specifikationerna över PCIE? Här är det så klart uppenbart, eftersom strömdelen är så kraftigt underdimensionerad.

Det är ju inte det första kortet som går tar över 75W via PCI-e porten men det är det kort det pratats mest om hitills. Samtidigt är det bra om det är en sak som kommer granskas även på andra kort framöver om det nu verkligen är ett så stort problem som vissa tror det är.

Frametimes var också en sån sak som inte rapporterades om ofta tidigare men blivit vanligare på senare år. Mycket bra i mitt tycke. Förr lades det också tid på att jämföra bildkvalitet vilket är något jag inte sett i grafikkortsrecensioner på lång tid.

Permalänk
Medlem
Skrivet av Ozzed:

Så mycket för det "Skitsnacket". Det framgår tydligt tycker jag att när det handlar om AMD så är det full force bash som gäller men när det kommer till Nvidia framhålls alltid förmidlrande omständigheter. Det är inte en opartisk rapportering.

Det du tycker stämmer ju inte riktigt överens med verkligheten, Sweclockers är ju väldigt opartiska?

Permalänk
Medlem
Skrivet av Querth:

Det du tycker stämmer ju inte riktigt överens med verkligheten, Sweclockers är ju väldigt opartiska?

Det är inte "vad jag tycker". Det är verkliga citat från Sweclockers atriklar.

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Medlem
Skrivet av Ozzed:

Det är inte "vad jag tycker". Det är verkliga citat från Sweclockers atriklar.

Som du tolkar på ditt sätt?

Visa signatur

System: AMD Ryzen 7 9800X3D, 64 GB RAM, RTX 5080
Shitlist: Asus, NZXT

Permalänk
Medlem
Skrivet av FredrikMH:

Som du tolkar på ditt sätt?

Jag har fetmarkerat det som är relevant vad gäller att Sweclockers är noga med att hitta en förmilrande omständighet om Nvidia får "negativ" publicitet.

Om Sweclockers t. ex skrivit något i stil med att "Det högre strömuttaget saknar dock praktisk betydelse eftersom dagens moderkort är väl rustade för att hantera ett högre strömuttag än specifikationen medger", typ så... Så hade de behandlat AMD och Nvidia mer lika.. Men något sådant citat finns ju inte.

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Medlem
Skrivet av Ozzed:

Det är inte "vad jag tycker". Det är verkliga citat från Sweclockers atriklar.

"Det framgår tydligt tycker jag att när det handlar om AMD så är det full force bash som gäller men när det kommer till Nvidia framhålls alltid förmidlrande omständigheter. Det är inte en opartisk rapportering."

Du skriver till och med själv att -du tycker- det framgår tydligt, det är din åsikt och vad du tolkar från Sweclockers texter. Ingenting du skriver är ju riktigt fakta som visar att världen tycker mer om Nvidia och att det "bashas" på AMD?

Att sweclockers drar tillbaks sin bemärkelse är ju inte konstigt alls, och precis som de skriver kan de återinföra den om allting visar sig fungera utan problem, men det gör det inte just nu.

Permalänk
Medlem
Skrivet av Querth:

"Det framgår tydligt tycker jag att när det handlar om AMD så är det full force bash som gäller men när det kommer till Nvidia framhålls alltid förmidlrande omständigheter. Det är inte en opartisk rapportering."

Du skriver till och med själv att -du tycker- det framgår tydligt, det är din åsikt och vad du tolkar från Sweclockers texter. Ingenting du skriver är ju riktigt fakta som visar att världen tycker mer om Nvidia och att det "bashas" på AMD?

Att sweclockers drar tillbaks sin bemärkelse är ju inte konstigt alls, och precis som de skriver kan de återinföra den om allting visar sig fungera utan problem, men det gör det inte just nu.

Det hade inte varit konstigt... Om de också dragit tillbaka "toppklass"-utmärkelsen efter 3.5GB-problemen uppdagades med Nvidia men nu gjorde de inte det.

Som sagt.. Jag klagar inte på att man kritiskt granskar, men jag tycker man skall granska och behandla alla företag lika i så fall.

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Medlem
Skrivet av Ozzed:

Det hade inte varit konstigt... Om de också dragit tillbaka "toppklass"-utmärkelsen efter 3.5GB-problemen uppdagades med Nvidia men nu gjorde de inte det.

Men det är ju inget problem, hur många gånger ska detta behöva påpekas för dig?

Ozzed, ta ett djupt andetag och släpp ifrån dig tangentbordet en stund nu. Du står för en tredjedel av inläggen i denna tråden känns det som, och det mesta verkar vara gnäll på hur AMD behandlas orättvist av allt och alla. Det är ingen konspiration, Nvidia får lika mycket skit när dom tabbar sig.

Visa signatur

CPU: i9-13900K + Cooler Master ML360L ARGB V2 || GPU: Gainward RTX 4090 Phantom GS.
MoBo: Asus Rog Strix Z790-F Gaming || RAM 32 GB Kingston Fury Beast CL40 DDR5 RGB 5600 MHz.
PSU: Corsair RMe 1000W 80+ Gold || Chassi: Phanteks Eclipse P500A D-RGB.
Lagring: Kingston Fury Renegade M.2 NVME 2TB + Samsung 860 QVO 1TB.
Skärmar: 27" 1440p 144 Hz IPS G-sync + 27" 1440p 155 Hz VA || OS: Win 11 Home.

Permalänk
Medlem
Skrivet av MinscS2:

Men det är ju inget problem, hur många gånger ska detta behöva påpekas för dig?

Ozzed, ta ett djupt andetag och släpp ifrån dig tangentbordet en stund nu. Du står för en tredjedel av inläggen i denna tråden känns det som, och det mesta verkar vara gnäll på hur AMD behandlas orättvist av allt och alla. Det är ingen konspiration, Nvidia får lika mycket skit när dom tabbar sig.

Vem avgör vad som är ett problem? Om det inte praktiskt är möjligt att komponenter kommer till skada på grund av detta så är det väl inte heller ett "problem" i så fall.

OK om det varit så att någons dator for illa, man undersökte saken, och sedan kom fram till att det berodde på ett för högt strlmuttag från PCI-E porten... Men nu är det ett teoretiskt problem med teoretiska följdverkningar som blåses upp något enormt.

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Medlem
Skrivet av MinscS2:

Men det är ju inget problem, hur många gånger ska detta behöva påpekas för dig?

Ozzed, ta ett djupt andetag och släpp ifrån dig tangentbordet en stund nu. Du står för en tredjedel av inläggen i denna tråden, och det mesta känns som gnäll och/eller att du jagar spöken som inte finns.

Inte för att jag egentligen vill späda på denna debatt men nog är det så att det är Nvidias drivrutin som gör allt den kan för att inte minnet över 3,5 GB skall användas. Där av kanske ej detta märks så mycket.

För mig som hade hoppats på RX480 då det passar min plånbok är jag faktiskt besviken på vad AMD åstadkommit.
Inte bara att det drar mer effekt än vad PCI-E är specat för utan att man ej kommit längre men den nedskalade 14nm processen.
Man ligger i paritet med GTX 970/980 både vad gäller effektuttag och prestanda och då var det väl ca 2 år sedan som dessa lanserades.
Visst detta skulle vara ett mellanklass kort men ändå...14nm + optimerade CGN kärnor + snabbare VRAM.

Permalänk
Medlem
Skrivet av Ozzed:

Men nu är det ett teoretiskt problem med teoretiska följdverkningar som blåses upp något enormt.

Teoretiskt problem? Det finns en anledning att det finns en specifikation som man skall hålla sig inom, det finns ingen ursäkt, däremot kanske det finns en förklaring som vi inte vet ännu.

Visa signatur

9950X3D X870E HERO 96/6400c30/2200 RTX5090 Gaming OC || 7950X B650 Gaming Plus WIFI 32/6000c30 RTX5080 TUF OC(450w) UBUNTU || 12900KF Z690 Tomahawk WIFI 64/3600c16 Gear1 RTX4080 Ventus 3X OC(400W) || 5900X(B2) B550-F 32/3800c18 RTX3080 TUF OC V2 || 5800X3D CH VIII EXT. 32/3800c18 RTX3080 Gaming OC || 3700X X570 HERO 32/3000c16 RTX3070 FTW3 Ultra || Thinkpad P16s G2 PRO7840U 32/6400

Permalänk
Inaktiv
Skrivet av str8forthakill:

Ett intressant klipp med ett "real world" scenario av vad RX480s underdimensionerade kraftförsörjning kan orsaka.

https://www.youtube.com/watch?v=rhjC_8ai7QA

Ajaj, detta är verkligen katastrof för AMD, detta hade vart illa nog PR-mässigt om det bara var ett teoretiskt "problem" i ett testlabb med tanke på hur fort högafflarna kommer fram på internet. Men som det ser ut så kommer detta vara ett verkligt problem för 480-köpare. Detta kommer mer eller mindre svärta ner hela 400-serien, spelar ingen roll hur bra eftermarknadskorten kommer vara. Titta bara på ljud och temperatur "problemet" hos 290/x, folk skriker fortfarande om att AMD:s kort är högljudda och varma... Och här satt man och vänta på en come back från amd :/

Skrivet av Ozzed:

Precis det jag menar. Där var det minsann inte tal om att plocka bort nomineringar i efterhand inte.

Frågan här är imo inte hur vida sweclockers borde dra tillbaka sin nominering eller inte, utan om AMD kommer återkalla korten eller strypa dom via drivrutiner. Är katastrof att korten sänker system med moderkort utan biffig strömförsörjning.

Permalänk
Medlem
Skrivet av str8forthakill:

@boibo:
Skrivet av en person som lärt sig om PCI-E på wikipedia samma dag.

Detta är skrivet av en person som vet vad han pratar om : http://www.pcper.com/reviews/Graphics-Cards/Power-Consumption...

"I asked around our friends in the motherboard business for some feedback on this issue - is it something that users should be concerned about or are modern day motherboards built to handle this type of variance? One vendor told me directly that while spikes as high as 95 watts of power draw through the PCIE connection are tolerated without issue, sustained power draw at that kind of level would likely cause damage. The pins and connectors are the most likely failure points - he didn’t seem concerned about the traces on the board as they had enough copper in the power plane to withstand the current."

Hmmm, Kom att tänka på en kompis som hade en död burk för många år sedan.
Han visade bilder på pci-e kontakterna på grafikkortet, och dom såg ut som om dom ärjats och konstiga fläckar mellan kontakterna. Tänkte inte så mycket på det då, men när jag läste citatet så klickade det till.

Om det nu är relaterat vet jag inte, men om det är det, så kan det sluta ganska illa mao. slutade med att han fick byta ut allt i burken, förutom några HD's som överlevde.

Permalänk
Medlem
Skrivet av the squonk:

Teoretiskt problem? Det finns en anledning att det finns en specifikation som man skall hålla sig inom, det finns ingen ursäkt, däremot kanske det finns en förklaring som vi inte vet ännu.

Det är väl samma sak som att man ska kunna förvänta sig att hela minnet på ett grafikkort presterar lika bra?

Sen håller jag inte med om att det skall ses som ett problem "bara för att". Om de hade haft rapporter om datorer som pajat i ryggen så visst, men nu är det ett teoretiskt problem och inget annat, och standardorganet har ju själv godkännt kortet så så farligt kan det inte vara.

Men på allmän begäran aå lägger jag ner nu. Det är tydligt för mig vart folk har sina sympatier och då känns det inte meningsfullt att från ett opartiskt håll påvisa bias i rapporteringen.

Om någon nödvändigtvis vill fortsätta tröska detta med mig så ta det via PM.

Ha det gott.

//Ozzed

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Inaktiv
Skrivet av Ozzed:

Det är väl samma sak som att man ska kunna förvänta sig att hela minnet på ett grafikkort presterar lika bra?

Sen håller jag inte med om att det skall ses som ett problem "bara för att". Om de hade haft rapporter om datorer som pajat i ryggen så visst, men nu är det ett teoretiskt problem och inget annat, och standardorganet har ju själv godkännt kortet så så farligt kan det inte vara.

Men på allmän begäran aå lägger jag ner nu. Det är tydligt för mig vart folk har sina sympatier och då känns det inte meningsfullt att från ett opartiskt håll påvisa bias i rapporteringen.

Om någon nödvändigtvis vill fortsätta tröska detta med mig så ta det via PM.

Ha det gott.

//Ozzed

Antar att du fortfarande inte kollat på klippet... https://www.youtube.com/watch?v=rhjC_8ai7QA