Bild på Ati R600

Permalänk
Medlem

Men herregud folk! Grafikkort har alltid funnits i det långa utförandet! t ex 3dLabs Wildcat serien som i princip bara säljs till proffs har jättemånga modeller som är lika långa som detta kort. Watt-förbrukningen kan man ju inte heller gå runt o klaga på. Vill man ha fler transistorer behöver man mer energi. Punkt slut. Köp ett GF 4 mx om ni vill ha tyst, kallt och snålt! Tänk på att kortet är stort av en anledning. De har satt på en rejäl kylare som kommer hålla kortet kallt i låga ljudnivåer. Man borde prisa ATi för att de skickar kvalité istället för någon fjuttig liten fläkt som dör efter 6 månader.

Permalänk

Ett sött litet monster
Och att det drar en nedras massa ström gör väl inte så mycket för elräkningen för de flest då det hjälper till att värma upp huset endå så. Nånstans måste ju energin komma ifrån så varför inte satsa på en riktigt varm dator =D Ljudnivån är problemet man har kvar, men det löser man alltid.

Visa signatur

=)

Permalänk
Citat:

Ursprungligen inskrivet av Girgoo
Vem skulle våga köpa ett sånt där kort? 240watt är enormt mycket specielt med tanke på elpriserna. Tänk också på att det är bara för självaste grafikkortet så du får säkert lägga till minst 100watt.

Processorerna och grafikorten kan inte ta skilda vägar när det gäller ström förbrukningen båda måste gå åt samma hål - neråt, minska till mindre än element funktion.

PS. Vågar inte tänka på SLI förbrukningen.

Av dom 240W som grafikkortet drar, hur mycket går till beräkningar och hur mycket till värme? väldigt mycke blir väl värme och den värmen används ju till att värma upp huset/lägenheten. så är man orolig för kostnaden att ha en kraftfull dator kan man dra ner lite på husuppvärmingen.

vad kostar/drar en dator i dagens läge? en bra burk då, E6600, 8800gtx, 2-4 gig minne, 2 hårddiskar,brännare å skärm?

edit: kolla tiden på inlägget innan mitt

Visa signatur

gigabyte p35 ds3 | e6750 | 8800gt | X-FI extreme gamer | 320GB seagate | p182| Corsair vx450W

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av laggarbacken
Jag tycker utvecklingen går åt fel håll!

Det var ett väldigt gnäll på effektförbrukningen. Uppenbarligen går saker och ting åt rätt håll, om ni inte vill den senaste teknologin finns det alltid svalare kort som presterar sämre men som är betydligt svalare. Vi kommer nog inte se någon minskning i effektförbrukningen hos dessa monsterkort förens nVIDIA/AMD lyckas krympa tillverkningsprocessen till 80 eller kanske 65 nm.

Visa signatur

- In the beginning the Universe was created. This has made a lot of people very angry and has been widely regarded as a bad move
- The Guide is definitive. Reality is frequently inaccurate.
Douglas Adams

Permalänk
Medlem

Frågan är hur långt Grafikkortet når innan nya och gamla generationer inte är så skiljda, då hoppar jag att strömförbrukningen är det som sänks.

Ett monsterkort som drar +200W imponerar inte mig.
Ett monsterkort som drar under 120W imponerar på mig.

Visa signatur

Fractal Design Meshify C | Corsair RM650X v2 | MSI X570 MPG GAMING EDGE WIFI | AMD 5800X3D | RTX 3070 | 32GB 3200MHz CL16

Permalänk
Avstängd

Med den storleken så kan dom ju glömma att jag kommer köpa ett, får nog bli ett 8900GTX när de kommer.

Visa signatur

You stink. Bender's great. Deal with it

Permalänk
Medlem

Jag har 7 fläktar, 6 hårddiskar, en E6600 överklockad, 2 gig RAM, lite USB-grejjer och 2 st DVD-brännare... sen ska jag köpa ett R600 också. Får hoppas att mitt 520W nätagg räcker!

Visa signatur

"Bibeln skrevs av samma människor som sa att jorden var platt..." -O. Kend
"The best argument against democracy is a five-minute discussion with the average voter." -W. Churchill
"Religionens värsta fiende är informationsåldern." - F. C. Hughes

Permalänk

min burk drar 330w med nedanstående tech.. har ett 580w nätagg (hiper typ-r)

kan detta stämma?

Amd x2 4800+ @ 5000+
X1900XTX
2x1gb ddr4000 ram
4x wd 320gb i raid0
floppy
dvdläsare(rw)
4x120mm fläktar
vattenpump waterchill extreme 12v
frontpanel lcd
x-fi fatality ljudkort

tycker 330w låter lite lite med deras uträkningar

med ett r600 skulle jag hamna på :: 459w.. så ja skulle klara mig!!??

Permalänk
Medlem

Hört i ATI korridoren:

-"We have a problem sir..."
-"What?"
-"We built our new monster-ship too big, It gets hot beyond cooling, and consumes WAY too much power. What shall we do?"
-"DAMN! The nvidiaFX syndrome! First, forget about the release-date.
Second, attach it to a monster vacumcleaner. Third, leak info about size and powerconsumtion so the consumers wont be all in shock. Fourth, Pray..."

Visa signatur

En sann moddare blir aldrig klar.MBY är SWEC SSD Kung!
Har hängt här sedan 2002. Började modda vid P200. Har gröna datafingrar. -Och du undrar hur jag kan veta allt?!?!?

|4700K|HD7970matrix|16Gb|Seasonic x-650|WaterC DDC BIP120+MP-05|

Permalänk

nu skiter jag i R600, trodde det skulle bli trevligt men det blev otrevligt ....

Visa signatur

E6600 | 2*Corsair XMS2 Xtreme 1024mb Cas4 | 6800 GT | Asrock Dual VSTA s775 | 200 + 300gb Seagate | Antec P150 |

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Love_is_a_.45
Av dom 240W som grafikkortet drar, hur mycket går till beräkningar och hur mycket till värme?

Och vart går energin som går till beräkningarna då? Energi kan inte försvinna, och information är inte energi. Allt går till värme.

Permalänk

lite design skillz hade inte skadat, hoppas de sätter nån rolig bild på den, såg ut som ett förlängt 9200SE men heatpipes o fläkt.

Visa signatur

Q6600, Dominator 8500,IP35 Pro,8800GTS,Corsair 550W, Antec Ninehundred Two

Permalänk
Medlem

Var det inte såna dom letade efter i Irak, ICBM, SCUD-missiler och liknande?
Tur att OEM är lång bara.

Visa signatur

Det kan inte bli mer än fel.
En renrasig homosapiens, en härförare, en titan - kort och gott: en Göteborgare!
Självmord är en långvarig lösning på ett tillfälligt problem.

Permalänk
Avstängd

Vem bryr sig om watten? Hmm, 90% på sweclockers, men inte jag.
Oem versionen blir säkert klockvänligare iomed att den är kallar då värmen sprids ut på större yta.

Visa signatur

All datorprestanda kan jämföras i kronor och ören (kr/poäng). Exempel: Prestanda/krona på grafikkort | www.intrnet.se

Permalänk
Medlem

Jag fattar inte var man ska fästa kortet på "andra sidan"... eftersom det är så långt... det lär ju brytas av sin egen vikt om man bara låter det "hänga" i lådan!

Visa signatur

"Bibeln skrevs av samma människor som sa att jorden var platt..." -O. Kend
"The best argument against democracy is a five-minute discussion with the average voter." -W. Churchill
"Religionens värsta fiende är informationsåldern." - F. C. Hughes

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Xstar
Jag fattar inte var man ska fästa kortet på "andra sidan"... eftersom det är så långt... det lär ju brytas av sin egen vikt om man bara låter det "hänga" i lådan!

OEM-lådorna som kommer med de långa korten har förmodligen fästen till det.

Citat:

Ursprungligen inskrivet av ajp_anton
Och vart går energin som går till beräkningarna då? Energi kan inte försvinna, och information är inte energi. Allt går till värme.

Energin går inte direkt till att "beräkna", energin försvinner när elektroner förflyttar sig i transistorerna. Det är förflyttningen av elektroner i transistorer och kretsar som till slut leder till att man får det som en människa tolkar som "beräkning". Ju mer resistans det är i kretsen dessto mer energi går över till värmeenergi. Men en stor del av energin går även till att överföra rörelseenergi till andra elektroner o s v. Så det man kan tolka som "energi som går till beräkning" per definition av Love_is_a_.45 är resten av den energi som skickades in i grafikkortet från att en viss process påbörjades till att den slutfördes, t ex rendera 10000 polygoner, man skulle kanske kunna kalla det grafikkortets verkningsgrad? Jag är också intresserad av denna siffra. Då skulle verkligen kunna jämföra hur effektiva kretsar nVIDIA vs ATi kör.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av piXtor
Men herregud folk! Grafikkort har alltid funnits i det långa utförandet! t ex 3dLabs Wildcat serien som i princip bara säljs till proffs har jättemånga modeller som är lika långa som detta kort. Watt-förbrukningen kan man ju inte heller gå runt o klaga på. Vill man ha fler transistorer behöver man mer energi. Punkt slut. Köp ett GF 4 mx om ni vill ha tyst, kallt och snålt! Tänk på att kortet är stort av en anledning. De har satt på en rejäl kylare som kommer hålla kortet kallt i låga ljudnivåer. Man borde prisa ATi för att de skickar kvalité istället för någon fjuttig liten fläkt som dör efter 6 månader.

Hmmm. Så en Intel Pentiu 4 Prescott presterar alltså bättre än t.ex. en Core 2 Duo för att den drar mer ström då?

Du ser, man kan faktiskt lyckas. Men eftersom vi konsumenter bara tackar och tar emot, så varför orka bry sig? Det går alltid sätta på en värre kylare och låta nätaggstillverkarna utveckla större nätagg. De flesta som köper sådana här kort betalar a) inte för kortet själva och b) inte för elen heller.

Visa signatur

Min dator äger mig. True story.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av piXtor
Så det man kan tolka som "energi som går till beräkning" per definition av Love_is_a_.45 är resten av den energi som skickades in i grafikkortet från att en viss process påbörjades till att den slutfördes, t ex rendera 10000 polygoner, man skulle kanske kunna kalla det grafikkortets verkningsgrad? Jag är också intresserad av denna siffra. Då skulle verkligen kunna jämföra hur effektiva kretsar nVIDIA vs ATi kör.

Mig veterligen så går det inte att tänka så efter som spänning är direkt proportionellt mot resistansen, och strömmen omvänt proportionell mot resistansen. I en dator med fasta spänningar styr resistansen strömmen så att säga.

Rätta mig någon om jag har fel för det är rätt mycket som snurrar just nu.

Men det ska nog stå effektförbrukning istället för "strömkonsumtion" i nyheten eftersom ni pratar effekt (watt).

EDIT: OMFG i övrigt.

Visa signatur

Citera mig för svar.
Arch Linux

Permalänk
Medlem

Frågan är nu bara... när jag köper nästa dator... om jag ska köpa grafikkort till datorn eller dator till grafikkortet...

Men oro er inte - detta är slutet på en evolutionscykel. Nästa steg blir kombinerad cpu och gpu. Intel har långt framskridna planer på en sådan lösning, även för entusiastmarknaden. Skulle gissa att dom har en sådan lösning på marknaden inom 2-3 år.

Permalänk
Medlem

Ackelind:

Nu är ju CPU:er fundementalt annorlunda, men om man bortser från det så sa jag inte att man inte kan effektivisera en arkitektur eller rentav skapa helt alternativa arkitekturer, men man kan inte bortse från det faktum att energibehovet kommer oundvikligen öka. Jag tror inte för den delen heller att ATi på något sätt sparar krut på att söka så effektiva lösningar som möjligt, eftersom det inte bara är konsumenten som tjänar på det utan även de själva. Speciellt med tanke på hur tät konkerrensen med nVIDIA är och samtidigt hur mycket de har att tjäna på deras nya gren: deras kommande FireStream-lösningar där effektiv energianväning är en nyckelfaktor till att lyckas.

Intel å andra sidan valde att gå Netburst-vägen så länge förmodligen för att de aldrig var riktigt hotade förrän på slutet, då inte ens ursäkten att de redan hade byggt upp så stark PR runt P4/netburst-namnet hjälpte. Core 2 Duo byggde sedan aldrig på en "revolutionerande ny design", den bygger ju på PIII-arkitekturen, fast bara "bredare" och snabbare så att säga.

Den här jämförelsen med intel och netburst är så annorlunda mot situationen med ATi vs nVIDIA så att det inte ens är lönt att diskutera det.

fog:

du har en kanske en poäng... men om man istället då skulle tänka sig en enhet som watt/10000 polygoner istället då? Då skulle man ju kunna jämföra hur "effektivt" kortet är. Ett jämförelse-index i princip

I övrigt:

Sedan är jag verkligen trött på den här "vi mot dem"-grejen. Företag är beroende av konsumenter och då konsumenter förlorar på en viss produkt, förlorar även företaget som distribuerar/tillverkar/utvecklar produkten-

ATi's nya kort är som den är för att marknaden kräver det och är den verkligen så mycket större än 8800:an i sitt detaljhandel-utförande?

Permalänk
Medlem

Bäst för AMD att den är jävligt bra annars blir det ett 8800 (eller 8900 ) kort för mig..

Permalänk
Avstängd

denna trend med att maxa kommer och går, kuken blir aldrig kortare.

snart kommer väl energimärkta datorer som med vitvaror, bang for the watt.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av piXtor

fog:
du har en kanske en poäng... men om man istället då skulle tänka sig en enhet som watt/10000 polygoner istället då? Då skulle man ju kunna jämföra hur "effektivt" kortet är. Ett jämförelse-index i princip

Varför krångla till det med just 10000 polygoner? Du kommer aldrig få en sån noggran mätning som ger ett vettigt värde på det skulle jag inte tro. Sen hänger det ju inte bara på beräkning av polygoner ..

Du kan ju istället jämföra 3Dmark06/genomsnittlig effektförbrukning under testet exempelvis, men det ger inte heller en bra uppfattning alla gånger. Du måste skapa specifika prestandatester utefter vad det är du vill ha reda på för beräkningskraft. Jag tror inte begreppet råstyrka existerar

(Jag vet inte om flyttalsoperationer är något som är en bra jämförelseenhet även för grafikkort?)

Visa signatur

Citera mig för svar.
Arch Linux

Permalänk
Medlem

äsch!.. jag bara spottade ut mig en siffra :). Men jag tänkte mig om man renderar en specifik scen med otroligt många detaljer och mäter hur mycket energi kortet förbrukar under tiden, så borde man få ett bra mätetal. Ju mer komplicerad scen dessto bättre eftersom differansen i kvoten kommer att växa ju längre man håller på antar jag.

Klart att olika kort är bra på olika saker :p, men om man tar och spottar ut så komplicerad grafik som ett kort möjligen kan rendera med realtid-metoder så borde ändå någon form av "råstyrka" visa sig

Flyttal tror jag inte är något bra sätt att mäta, eftersom det bara är en bit av hela "renderingskakan" så att säga ^^, man har ju bussar, minnen, shaders, filtreringar... och massa annat som varierar i styrka från kort till kort.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Triskelon1
lite design skillz hade inte skadat, hoppas de sätter nån rolig bild på den, såg ut som ett förlängt 9200SE men heatpipes o fläkt.

Kan ju vara för det är ett engineering sample... fan har folk slutat tänka?

Visa signatur

E-penis:
i9 9900k @ 5hz | Aorus Master Z390 | 2x16GB Corsair 3200 LPX | ASUS ROG STRIX GeForce RTX 3080 10GB | Phateks Evolv X | EVGA SuperNOVA G2 750W | Corsair H115i PRO | 6TB HDD | Asus MG279Q 27" | Asus Claymore Core | Logitech G403/G35 | Windows 10 Pro x64

Permalänk
Medlem

Vad drar 8800gtx i watt då?

Visa signatur

The what what in the what now?

Permalänk
Medlem

Väldigt vad alla är bekymrade om effektförbrukningen. När gick Sweclockers till att bli ett Mesclockers?

Visst skulle den kunna vara lägre men tekniken har inte kommit längre just nu, acceptera det.

Ett par hundra watt i effekt är förövrigt ingenting, en fis i rymden.

Permalänk
Medlem

Man måste ju klaga på någonting?

Permalänk
Medlem

fan tjejens platt-tång är ju på 2 500watt.. Hon plattar håret varje morgon, sju dagar i veckan... 20 minuter... Vilken miljöbov.!

Visa signatur

//John

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Swedish Chef
De drar ca. 527 watt... (ett ATI R600 inräknat då) Du kan räkna ut själv va saker drar här: http://www.extreme.outervision.com/psucalculator.jsp

He he, enligt den där så drar min Shuttle 365W och jag kör den på Shuttles 240W agg. Skojigt.

On topic; vad är längden respektive watten för r600 kontra gf8800gtx?

Visa signatur

Shuttle SN95G5v2 | Opteron 175 | G.SKILL 2GBZX 2-3-2-5 | Geforce 7800GS | Raptor 74Gb | SpinPoint F1 1TB | X-Fi Xtrem Gamer | Sennheiser HD-555 | ViewSonic VP191b

Min vattenkylda Shuttle