AMD-anställda röjer Radeon R9 380X – nytt flaggskepp med staplade minnen

Permalänk

Kommer staplade minnen innebära någon större skillnad för en 1080p-lodis som mig?

Visa signatur

GPU: EVGA GTX 980Ti 2.0 ACX, CPU: i7 3770k @ 4,6ghz, Ram: 16gb 1600mhz, Mobo: MSI Z77A-S03 INET EDITION, PSU: be quiet! Power Zone 850W Bronze, OS: W10

Permalänk
Medlem
Skrivet av Silcan:

Visst är det som du säger, om man ska dra det längre så ger inte all energiförbrukning utav ett starkare grafikkort värme häller, ett grafikkort ger tämligen en oekonomisk värme jämfört mot en värmepump eller direktverkande el. Finns nåt värde man anger på effektivitet men jag kommer inte ihåg.

Men igentligen spelar det inte så stor roll, eftersom det inte är mkt pengar ändå (för individen). Vi lever ändå i ett samhälle där vi vill minska våran energikonsumtion och börjar man räkna in alla miljoner grafikkort som säljs blir det en hel del energiåtgång (negativ miljöpåverkan).

Ett grafikkort bör väl ändå ge exakt lika mycket värme som direkverkande el?
Att en värmepump blir effektivare är ju för att du tar värme/energi från luften ute o frigör den inne.

Permalänk
Medlem
Skrivet av Silcan:

Visst är det som du säger, om man ska dra det längre så ger inte all energiförbrukning utav ett starkare grafikkort värme häller, ett grafikkort ger tämligen en oekonomisk värme jämfört mot en värmepump eller direktverkande el. Finns nåt värde man anger på effektivitet men jag kommer inte ihåg.

Visst är det "mindre effektivt" eftersom man värmer lite på fel plats. Men samtidigt är det ren vinst, man ska ju spela i alla fall... Och förhoppningsvis har man någon form för värmeåtervinningssystem i huset, om man betalar för värmen själv. Annars är det nog dags att titta på att skaffa det, med tanke på hur mycket energi vi förbrukar och som kan återanvändas till husets uppvärmning.
B!

Visa signatur

Allting jag skriver är om inget annat uttrycks, min åsikt! Ingenting måste vara dagens sanning enligt din åsikt, och gör du antaganden baserade på mina åsikter hoppas jag att du övervägt mer än bara just min åsikt.

Permalänk
Medlem
Skrivet av Boss302:

Ett grafikkort bör väl ändå ge exakt lika mycket värme som direkverkande el?
Att en värmepump blir effektivare är ju för att du tar värme/energi från luften ute o frigör den inne.

Jag tror inte det. Då ett el-element är gjort för att ge så mkt energi det kan till uppvärming. Jämför man ett vattenburet el-element mot ett med olja i så är det med olja mer energi effektivt. Och jag kan inte den tekniska förklaringen till det. Bara det att det är målat med en viss färg gör att värmen överförs effektivare ut i rummet (värme är fotoner alltså ljus, olika material utger olika ljus tex infra ljus som känns varmt på huden). Vissa element har mer infra värme en andra exempelvis.

Grafikkortet är gjort som så att det ska rita ut bilder för den energin den använder, spillet utav energin blir värme.

Off topic: Mänskliga kroppen lyser, alltså avger fotoner (ljus) som vi kallar infra. Det kan man se med värmekameror

Men jag avslutar ändå med att jag vet inte hur effektivt ett grafikkort är på att omvandla el till värme. Men något typ av förlust är det, bara det jag villa påpeka. Och jag vet inte om det är lika effektivt som direktverkande el, jag bara tror att det inte är det.

Skrivet av -=Mr_B=-:

Visst är det "mindre effektivt" eftersom man värmer lite på fel plats. Men samtidigt är det ren vinst, man ska ju spela i alla fall... Och förhoppningsvis har man någon form för värmeåtervinningssystem i huset, om man betalar för värmen själv. Annars är det nog dags att titta på att skaffa det, med tanke på hur mycket energi vi förbrukar och som kan återanvändas till husets uppvärmning.
B!

Jag har väldigt svårt att tro att ett grafikkort ger så pass bra energi till värme att det kan likna med vanlig värmekälla i huset. Ett grafikkort är gjort för att rita bilder och inte värma. På samma sätt som att en lampa har för uppgift att lysa, så har dessa lamptillverkare försökt få ut maximal energi till ljus. Detta är något många husägare förr trodde på att det inte var så oekonomiskt att låta alla lampor lysa, för att energin läggs på totala husets energi konsumtion. Fel, dom hade ett dåligt värde energi-värme och att låta oljan eller direktverkande elen sköta jobbet var billigare.

Värme det avger ju all elektronik, vissa mer effektivt en andra. Och det tillför ju hushållets totala energi behov utav värme. Så alla kronor går inte till "spillo" att låta TV:n va på ofta, det ger ju värme med

Permalänk
Medlem
Skrivet av Silcan:

Jag har väldigt svårt att tro att ett grafikkort ger så pass bra energi till värme att det kan likna med vanlig värmekälla i huset.

All elen som förbrukas i GPU'n omvandlas till värme. Så verkningsgraden är precis lika bra som i ett el-element.
I TV'n är det en liiiiten del som omvandlas till ljus. Ljuset omvandlas till värme när det absorberas någonstans, och det är ganska ok att hävda att all elen blir till värme. Vi har en del energi som avges i form av rörelseenergi i våra burkar, om det sen är HD's som roterar, eller fläktar. Men i förlängningen hamnar även den energin i rummet som värme, även om energin från fläktarna kan vara svår att mäta / följa...

El element med olja är egentligen inte mer effektiva än element utan. Men man värmer oljan för att få självcirkulation i elementet, så man slipper värma "hela" elementet, utan bara oljan i nederkant, och på köpet får man ett värmemagasin, så man kan använda högre effekt, i kortare intervall. Det förlänger livslängden.

Börjar man snacka luft värmepumpar osv, där man plockar ut mer värme än den energin man faktiskt stoppar in, så är det mer effektivt än datorer, men annars är det inte effektiviteten vid omvandling från el till värme som är problemet, utan platsen där det sker. Element brukar vara monterade under fönster för att motverka kallras osv.
Men man går mer och mer mot centralvärmelösningar, där elementen under fönstret har spelat ut sin roll, och med effektiv luftförflyttning är datorn inte sämre än någon annan direktverkande el. Så jag föreslår fortfarande ett bra värme-återvinningssystem. Men en luftvärmepump, bergvärme och andra "bättre än direktverkande el" lösningar är mer ekonomiska.
B!

Visa signatur

Allting jag skriver är om inget annat uttrycks, min åsikt! Ingenting måste vara dagens sanning enligt din åsikt, och gör du antaganden baserade på mina åsikter hoppas jag att du övervägt mer än bara just min åsikt.

Permalänk
Medlem
Skrivet av -=Mr_B=-:

All elen som förbrukas i GPU'n omvandlas till värme. Så verkningsgraden är precis lika bra som i ett el-element.
I TV'n är det en liiiiten del som omvandlas till ljus. Ljuset omvandlas till värme när det absorberas någonstans, och det är ganska ok att hävda att all elen blir till värme. Vi har en del energi som avges i form av rörelseenergi i våra burkar, om det sen är HD's som roterar, eller fläktar. Men i förlängningen hamnar även den energin i rummet som värme, även om energin från fläktarna kan vara svår att mäta / följa...

El element med olja är egentligen inte mer effektiva än element utan. Men man värmer oljan för att få självcirkulation i elementet, så man slipper värma "hela" elementet, utan bara oljan i nederkant, och på köpet får man ett värmemagasin, så man kan använda högre effekt, i kortare intervall. Det förlänger livslängden.

Börjar man snacka luft värmepumpar osv, där man plockar ut mer värme än den energin man faktiskt stoppar in, så är det mer effektivt än datorer, men annars är det inte effektiviteten vid omvandling från el till värme som är problemet, utan platsen där det sker. Element brukar vara monterade under fönster för att motverka kallras osv.
Men man går mer och mer mot centralvärmelösningar, där elementen under fönstret har spelat ut sin roll, och med effektiv luftförflyttning är datorn inte sämre än någon annan direktverkande el. Så jag föreslår fortfarande ett bra värme-återvinningssystem. Men en luftvärmepump, bergvärme och andra "bättre än direktverkande el" lösningar är mer ekonomiska.
B!

Ja det kanske bara är mindre ekonomiskt mot dessa "bättre" värmelösningarna som du säger, i mitt fall bergvärme. Tack

Permalänk
Medlem
Skrivet av Larsioni:

Vad avser strömförbrukningen så är den inga problem, det är ingenting som jag överhuvudaget bryr mig om. Du tjänar runt 200kr om året med ett motsvarande Nvidia kort. Ingen större summa, absolut inte en avgörande faktor för att inte köpa ett 290.

Problemet med törstiga kort är väl inte elräkningen utan värmeutvecklingen och ljudnivån.

Nu stod det iof inte specifikt tdp, men har någon koll på hur grafikkortstillverkarna använder det? Om det är som tex intel så är det snarare ett mått för kylningen än vad det drar, nu är det ju ofta ett ganska starkt samband mellan dom men ett chip kan ju också vara svårkylt (tex Haswell), kan ju vara något med den nya designen och 20nm som gör att den är svår att kyla som gör att den får en hög tdp jämfört med andra kort. Nu har väl iof 290x också typ 300w tdp, men det känns skapligt mossigt och oroväckande om de måste smacka på med 300w för att konkurrera i prestanda, speciellt när de har en teknisk fördel (20nm etc). Nvidia har ju ganska mycket utrymme för att göra större och strömtörstigare modeller men här känns det som att man inte kan komma med så mycket mer om det redan ligger på gränsen. Nä känns som att det är betydligt tryggare i Nvidia båten även om amd fortfarande är konkurrenskraftiga (verkar dock oftast vara på en bekostnad av mindre marginaler).

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av Silcan:

Jag tror inte det. Då ett el-element är gjort för att ge så mkt energi det kan till uppvärming. Jämför man ett vattenburet el-element mot ett med olja i så är det med olja mer energi effektivt. Och jag kan inte den tekniska förklaringen till det. Bara det att det är målat med en viss färg gör att värmen överförs effektivare ut i rummet (värme är fotoner alltså ljus, olika material utger olika ljus tex infra ljus som känns varmt på huden). Vissa element har mer infra värme en andra exempelvis.

Grafikkortet är gjort som så att det ska rita ut bilder för den energin den använder, spillet utav energin blir värme.

Off topic: Mänskliga kroppen lyser, alltså avger fotoner (ljus) som vi kallar infra. Det kan man se med värmekameror

Men jag avslutar ändå med att jag vet inte hur effektivt ett grafikkort är på att omvandla el till värme. Men något typ av förlust är det, bara det jag villa påpeka. Och jag vet inte om det är lika effektivt som direktverkande el, jag bara tror att det inte är det.

Jag har väldigt svårt att tro att ett grafikkort ger så pass bra energi till värme att det kan likna med vanlig värmekälla i huset. Ett grafikkort är gjort för att rita bilder och inte värma. På samma sätt som att en lampa har för uppgift att lysa, så har dessa lamptillverkare försökt få ut maximal energi till ljus. Detta är något många husägare förr trodde på att det inte var så oekonomiskt att låta alla lampor lysa, för att energin läggs på totala husets energi konsumtion. Fel, dom hade ett dåligt värde energi-värme och att låta oljan eller direktverkande elen sköta jobbet var billigare.

Värme det avger ju all elektronik, vissa mer effektivt en andra. Och det tillför ju hushållets totala energi behov utav värme. Så alla kronor går inte till "spillo" att låta TV:n va på ofta, det ger ju värme med

Nä, värme är inte fotoner, värme kan däremot överföras som strålning men det kan också ske genom ledning eller masstransport

Skickades från m.sweclockers.com

Visa signatur

Define R3 | Asrock P67 PRO3 Rev B3 | I5 2500K@4,5GHz | Xigmatek Gaia | Corsair Vengeance LP 8GB 1866MHz | EVGA GTX 970 SSC | XFX core edt. 550W| Intel 320 120GB, Crucial MX100 256GB, WD caviar black 750GB

Permalänk
Medlem
Skrivet av Broken-arrow:

Frågan är om detta "skryt" gäller stock klockade kort. Kan ju också bara vara ett skrytkort likt titan också och kommer vettigare kort ett steg ner som 380 eller 370x Sen är det troligt AMD med flit läkt lite, så det skapas mer buzz runt detta.

Sägs ju all PR är bra PR

Stämmer, men brukar inte vara speciellt uppenbart att det är anställda. Läckan brukar ja vara från utomstående, som partners m.m.

Visa signatur

Engineer who prefer thinking out of the box and isn't fishing likes, fishing likes is like fishing proudness for those without ;-)
If U don't like it, bite the dust :D
--
I can Explain it to you, but I can't Understand it for you!

Permalänk
Medlem
Skrivet av nackskägg:

Känner du till deras interna NDA alltså? Intressant.

Man ser väll var gränsen finns deras externa NDA för mjukvarutuvecklare och sammarbetspartners av redan färdiga/släpta produkter, av det så kan man ju rätt säkert anta nivån på den interna för anställda.
Vari är problemet med det?

Visa signatur

Engineer who prefer thinking out of the box and isn't fishing likes, fishing likes is like fishing proudness for those without ;-)
If U don't like it, bite the dust :D
--
I can Explain it to you, but I can't Understand it for you!

Permalänk
Medlem
Skrivet av lastninja:

Damen i fråga är oskyldig till det ovannämnda.
Den anställda som gick ut med specifika tekniska detaljer var Linglan Zhang. Herrn i fråga var han som tex tog cred med citatet: "Developed the world's first 300W 2.5D discrete GPU SOC using stacked die High Bandwidth Memory and silicon interposer".
Det är väldigt mycket som tillskrivits damen i fråga, men den riktiga godispåsen har vi Linglan Zhang att tacka för.
Godiset smakade gott i vilket fall som helst.

OK! Hon bara fortsatte trenden

EDIT: Såg att Linglan Zhang plockat bort inlägget på linkedin...

Visa signatur

Engineer who prefer thinking out of the box and isn't fishing likes, fishing likes is like fishing proudness for those without ;-)
If U don't like it, bite the dust :D
--
I can Explain it to you, but I can't Understand it for you!

Permalänk

Jaha ja intressant att se vad AMD tar fram för att toppa Titan X och ska bli intressant att se hur Titan X presterar mot 980Ti om nåt sånt kommer samt AMD´s motsvarighet.
Intressanta tider under våren komma skall.

Visa signatur

[MSI GE70 2OE-014NE]

Permalänk
Medlem
Skrivet av thomas_skane:

Säg 50w extra från tidigare generation, under maximal effekt. Så säg att GPUn går på 50% effekt 12 timmar om dagen, varje dag hela året (364 dagar), vilket fortfarande är mycket mer än vad som är ett realistiskt scenario.

Det blir ca 110kwh (109200wh). En kwh kostar ca 80öre inräknat avgifter och moms (1 års avtal 76,4öre/kwh för mig, 3 månaders är 73öre). Detta kalas kostar dig ca 90kr per år (87,36kr). Och detta är ett väldigt generöst exempel. I praktiken används GPUn bara de få timmar om dygnet du spelar. Allt annat på datorn behöver i princip inte GPUn alls.

Är du en av dem med elvärme i huset drar GPUn egentligen bara extra ström om huset är för varmt.

Skrivet av cider123:

Äntligen någon som faktiskt förstår vad el kostar. Börjar få mardrömmar utav alla som kommenterar om hur elen kostar hur mycket som helst om man köper ett 300w grafikkort - 300w är ingenting även om det hade varit på 100% load dygnet runt

För mig med en "orelistisk" belastning av mitt systemet jag syftade på i mitt tidigare inlägg så är det närmare 35-50 kwh i månaden i skillnad pga mer energisnåla och mer effektiva produkter. Jag menar då ett helt nytt system i jämnförelse med det gamla, tyckte det verkade ganska självklart men jag kan va litet luddig av mig när jag skriver.
Inte mycket pengamässigt men det var inte riktigt åt de hållet jag bara gick

Jag tycker inte att det bara handlar om vad el kostar eller inte. Jag har samma uppsättning idag av datorer som för 4 år sen och min elräkning har inte långt ifrån halverats sen 2010.

Sen som jag nämnde för att inte dra in miljö för mycket. Vi må ha så kallad "ren el" i Sverige så har långt ifrån andra länder detta, så där är påverkan större ur en miljösynpunkt. Dock kan detta vara sjukt svårt om inte omöjligt att mäta mot vad tillverkningen av kortet släppte ut transport osv osv osv. hur länge du har det och bla bla. Så den frågan kan vara svår.
Men förutsatt att förhållandena är lika jämnfört med 50w mer eller mindre gånger x antal hundra tusen produkter så är det stor påverkan.
Menar inte att vi ska förhindra utveckligen men jag ser ingen nytta mer att gå på en högre förbrukning så länge inte prestanda vinsten är stor. Åter igen, så länge prestanda vinsten är stor
Tänk om 980 hade dragit 50w mer ä 780ti, prestandaskillnaden per watt är ju ganska värdelös då kan jag tycka

Det gäller alla produkter och inte bara grafikkort även om det i detta fall var det som skrevs om.

Visa signatur

|| AMD 5900x || ASUS ROG Formula VIII || 2x ASUS GTX 980 SLI || 32GB G-Skill || Vattenkylt || HDD : SSD’er || Skärm : LG42" SL8500 / Acer G24 ||

Permalänk
Medlem
Skrivet av fieskmask:

Nu vet jag att det finns vissa som byter grafikkort ett par gånger per år, vill bara ställa frågan varför?
Jag klarar mig finfint med mitt 7970, har väl ett par år på nacken nu men känns som slöseri med pengar att köpa nytt för att man får ett par extra fps här och där, eller vad är det roliga?

Det är som att trimma en bil.. Man blir "effektblind"

Visa signatur

Intel 5820K~3,3GHZ+/ASUS X99-S/2 st R9 290 CF/Crucial DDR4 2133MHz 16 (4x4)/ANTEC HCG-900 PSU/AeroCool Hitech 7 chassi

Permalänk
Medlem
Skrivet av Xeno88:

Håller med. Det är ett högprestanda kort vi pratar om. Att det drar mycker är inte så konstigt. Det är som att klaga på att en sportbil drar mer än en Polo.

Att jämföra en sportbil med en Polo är som att jämföra ett 295X2 med ett GT610. En mer relevant jämförelse vore en Aston Martin (290x) mot en Tesla (GTX 980). Båda är likvärdigt prissatta och har likvärdig prestanda, men Teslan är tystare och rejält mycket billigare i drift.

Visa signatur

i7-3930K @stock | Fortfarande tillräcklig, slänger ut Windows nästa år

Permalänk
Medlem

Gillar att ena snubben skrivit "'King of the hill' line of processors"

Visa signatur

Räkna ut hur kraftigt nätaggregat du behöver på OuterVision Power Supply Calculator. 500W räcker för de allra flesta vanliga system. Seasonic är bäst. ;) – Elektrostatisk urladdning är ett verkligt problem.
"People who are serious about software should make their own hardware" – Alan Kay
Bojkotta maffian

Permalänk
Medlem
Skrivet av Gibbe:

Gillar att ena snubben skrivit "'King of the hill' line of processors"

"Products", inte "processors".

Permalänk
Skrivet av Homunculus:

Kommer staplade minnen innebära någon större skillnad för en 1080p-lodis som mig?

Det beror på hur mycket mer krävande spelen kommer bli i 1080p framöver.
Men en annan trevlig aspekt med staplade minnen är att det blir strömsnålare pga mycket mer bandbredd trots lägre minnesbus-mhz (klockfrekvens).
Om du vill köpa en bra spellaptop så borde staplade minnen kunna ge dig bättre batteritid, temperaturer och mindre fläkt oväsen - alternativt mycket mer grafikkraft.

1080p kan självklart bli mycket snyggare än vad det är nu med bättre texturer osv. Staplade minnen bjuder ju på mer bandbredd vilket är viktigt för tex texturer och olika effekter.
Så ja, detta borde vara oxå vara goda nyheter för dig med

Visa signatur

Dator: EEE901 N270/ 1GB / 20GB SSD ... Kraftigt nedbantat/tweakat Win7 x86 for speeeEED!
Facebook användare? Hatar tidslinjen? gå med i denna FB-grupp:
Undo Timeline ...med lite tur får h*lvetet ett slut!

Permalänk
Avstängd

Hur mycket ström tar Radeon R9 290X var det 600 watt?

Visa signatur

Server: två Intel Xeon E5-2690v2 och 128 GB ram

Min server dator: #15149189 http://i.imgur.com/BKxOmUP.jpg
zxhosting: https://www.facebook.com/pages/Zxhosting/1476037889350815

Permalänk
Medlem
Skrivet av zxhosting:

Hur mycket ström tar Radeon R9 290X var det 600 watt?

290x dar allt mellan 290-315W beronde på vilket test man tittar på.

Endast kortet.

Dold text

Hela systemet.

Dold text
Visa signatur

GPU 2080Ti Moderkort ROG Crosshair VIII Formula x570
CPU 5900x Minne Corsair 32GB 3600Mhz Nätagg Corsair AX 1200i
Chassi Lian-Li PC-O7S
Skärm C49RG9x 120Hz Hårddisk Corsair MP600 Kylning husradiator, EK Blocks

Permalänk
Hjälpsam
Skrivet av Tobbbe__:

290x dar allt mellan 290-315W beronde på vilket test man tittar på.

Endast kortet.

Hela systemet.

Står väl att det tar 225W på första bilden.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av Ratatosk:

Står väl att det tar 225W på första bilden.

Kommentar av Tom's Hardware till bilden du kommenterar.

When Push Comes to Shove: The Peak Values

If you want to take the Radeon R9 290X to its limits, then you need to push it hard by increasing its power limit and dropping the target temperature. Under those conditions, it's possible to exceed 300 W. We even saw 335 W from the card, though that's probably not at all something you want to reproduce.

The 225 W we measured using a compute-heavy load and stock settings can be pushed as high as 295 W by giving the fan more room to spin up and targeting a lower thermal ceiling. Unfortunately, those conditions don't last. Once the Radeon R9 290X hits its target temperature, power consumption drops considerably. This explains the card’s relatively low performance in our GPGPU benchmarks.

Guru 3d 286W

Dold text

Så i runda slängar drar R9 290X allt mellan 225-333W beroende på hur mycket den throttlas av värme samt applikationen den använder.
Guru 3d hade ett snitt på 286W efter att ha stresstestat korten i 100% load en längre tid.

Så när alla hoppar i taket över att nästa flaggskepp 380x/390x ska ha en TDP på 300W vet jag inte vad alla är så förvånade över. Helt uppenbart att deras föregående flaggskepp hade liknande TDP. Även 780Ti där uppe kring 260-280W så länge kylningen finns där är det inget problem.

780Ti TDP 262W

Dold text

Förutsatt att AMD sparkat dom som designade deras senaste referenskylare.

Visa signatur

GPU 2080Ti Moderkort ROG Crosshair VIII Formula x570
CPU 5900x Minne Corsair 32GB 3600Mhz Nätagg Corsair AX 1200i
Chassi Lian-Li PC-O7S
Skärm C49RG9x 120Hz Hårddisk Corsair MP600 Kylning husradiator, EK Blocks