Nya monsterkort från ATI redan i juni

Permalänk
Medlem

Minnesbandbredden på kommande kort kommer verkligen inte bli någon flaskhals. Sen så tror jag att 9800GTX kommer vara snabbare än 4870, men och andra sidan mycket dyrare också. 4870X2 är det kort som kommer möta 9800GTX pris/prestanda mässigt. AMD väljer ju att köra på en modulär uppbyggnad istället för en enkel med en stor kraftfull grafikprocessor.

Gjort lite uträkningar också och 9800GTX har enligt nuvarande specifikationer minst 4 gånger så hög shaderprestanda som 8800Ultra. Dom har ungefär samma värde när det gäller ROP/s. När det gäller texturprestanda så sägs 9800GTX ha 64 eller 96 TMU's från G8x 64st, och i lite högre klockfrekvens och säkerligen något optimerade också.

Förstår inte varför AMD inte fördubblade antalet TMU's vid övergången till 55nm när dom tog fram Radeon 3xxx serien, det hade haft stor inverkan på prestanda. Varför R6xx lanserades med 16 TMU's är inget konsigt då designen med 320 streamprocessorer var bra, men grafikprocessorn hade blivit för stor med 32 TMU's och näst intill omöjlig att göra på 80nm.

Visa signatur

[ AMD Ryzen R9 5950X @ 5.25GHz // EK-Block @ custom loop, 2x420mm ][ MSI B550 Tomahawk ][ G.Skill Trident Z DDR3600 CL15 @ DDR3800 1:1 CL14-14-14-14-28-1T ][ AMD RX 5700XT ][ Corsair 750D // Corsair RM1000X ][ 512GB Samsung 960 M.2 SSD ][ Win10 PRO x64 ][ LG 34GN850 ]

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Gurrty
Varför inte köpa ett Hd 4870 som uppenbarligen drar 125W? Borde Ati skita i att släppa HD 4870 X2 bara för att kortet drar 250W?

För all del, skit i värme- och strömutvecklingstrenden och sätt så mycket skit som bara går på ett kort oavsett konsekvenserna. Det gynnar ju alla.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Halldin
För all del, skit i värme- och strömutvecklingstrenden och sätt så mycket skit som bara går på ett kort oavsett konsekvenserna. Det gynnar ju alla.

Ja, passar det inte köper man de svalare korten som erbjuds.

Permalänk
Medlem

Gnäll inte över effekt/värme, har ni inte något bättre att gnälla på "bara för att" så är det bara att ge fan i det. Varken 8800GTX eller Ultra (lika lite som 8800GT) är kända för att vara hysteriskt svala och att AMD skulle göra varma kort finns inget som helst underlag för utöver R600, som med god marginal är ute nu. Som Boris säger, passar det inte så finns det (väldigt många) andra att välja bland.

480 Stream-processorer på en krets är inte dåligt. Visserligen ingen avgörande faktor, men siffran ser mycket intressant ut, speciellt på X2:an som därmed packar in 960SP på ett kort, mycket trevligt.

Det känns inte som att Nvidia kommer ha mycket att kunna säga till om. 9800GX2 kommer vara deras flaggskepp, utan att vara ett särskilt intressant kort, då den är alldeles för dyr för att ens tänka på då den är byggd i ren desperation, som jag ser det. Inte för att AMD dominerar marknaden med 3870X2, men titeln innebär ju en del.

Man får la' inte göra annat än att hoppas att detta året blir ett av de bästa för AMD, åtminstonne sedan de köpte ATi, för alla mår bättre av en konkurenskraftig marknad, vilket blir extra viktigt på en marknad med bara två huvudaktörer.

Permalänk
Medlem

Om man ändå är beredd att köra i SLI/Crossfire i sin dator så är det kortet ingen nackdel när man ser på värme och elförbrukningen.

Skillnaden är att här ser man tydligare vad det skulle kosta driva två normala kort i SLI/Crossfire på samma dator. Något som många verkar glömma när man läser kommentarerna här om 250w.

Jag är dock inte intresserad att ha dubbla grejs kort. De vanliga är mer intressant för mig som inte oväsen och hög värme om det inte råkar vara iskallt hemma.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av -Boris-
Ja, passar det inte köper man de svalare korten som erbjuds.

Vilket bra argument, man ska alltså nöja sig med ett kort som är sämre än alla andra istället för att se till att driva utvecklingen i en annan riktning?

Här på forumet finns det väl små läger som tror jag angriper AMD nu och blir upprörda men det innefattar även nVidia och grafikkort i allmänhet. Typ dubbelmackan nVidia ska komma med.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Halldin
Vilket bra argument, man ska alltså nöja sig med ett kort som är sämre än alla andra istället för att se till att driva utvecklingen i en annan riktning?

Här på forumet finns det väl små läger som tror jag angriper AMD nu och blir upprörda men det innefattar även nVidia och grafikkort i allmänhet. Typ dubbelmackan nVidia ska komma med.

Men om man bara ska utveckla svala kort så skulle de se ut ungefär som nu, fast minus toppmodellerna, antingen skulle det vara färre shaderprocessorer eller lägre frekvenser. Antingen HD3870 i 400MHz eller ett HD3650.

Tillverkarna måste välja mellan prestanda och svala chip. De kan inte utveckla något som är bäst på båda. Varje gång de lyckas få ner värmeutvecklingen på ett chip så använder de den marginalen till fler shaderprocessorer eller högre frekvenser. Tycker du det är fel så köper du helt enkelt modellerna som har mindre av de båda. Tillverkarna ger oss bara möjlighet att välja.

Många vill ju ha svala kort som inte drar mer än 10-20W. Men de kräver fortfarande full prestanda. Det går inte ihop.

Permalänk
Medlem

Men nu tänker du ju utefter hur situationen är idag.
Att sänka frekvenserna och ta bort shaderprocessorer och dyl. är den enkla lösningen.
Hade dom verkligen gett sig fan på det så hade även dagens bestar kunnat få en kraftigt reducerad förbrukning.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Halldin
Vilket bra argument, man ska alltså nöja sig med ett kort som är sämre än alla andra istället för att se till att driva utvecklingen i en annan riktning?

Här på forumet finns det väl små läger som tror jag angriper AMD nu och blir upprörda men det innefattar även nVidia och grafikkort i allmänhet. Typ dubbelmackan nVidia ska komma med.

Som redan sagt, man köper det som finns. Det finns ett ordspråk, [i] "- Smakar det så kostar det"[/i], vilket innebär att det blir en krävande lösning för att uppnå den enorma prestanda som toppmodellerna kommer att ha, ungefär som en sportbil/dyr lyxbil. Både AMD och nVidia är nere på så liten transistorstorlek som möjligt för tillfället och bygger rätt bra arkitekturer bägge två med höga klockfrekvenser för att få ut så mycket som möjligt. Passar det inte, köp ett kort och sänk klockfrekvensen då.

Finns det folk som köper t.ex processorer avsedda för laptops för att dom drar lite ström, för att sen klocka skiten ur dom, så tror jag att folk skiter i övrigt också, bara det presterar därefter och inte överstiger överdrivna värden i dess orginalhastighet.

Sen är det nVidia's kort som drar mest ström, det är GX2 som har så mycket som problem med värmen. Dom tvingas att sänka klockfrekvensen på GX2 korten, vänta får du se. Både 8800GT och 8800GTS drar mer ström än vad HD38xx gör. 8800GTX och Ultra är inga strömsnåla kort heller. GT200 eller 9800GTX kommer att dra monstruösa mängder ström, och det är inget konstigt med en grafikprocessor som trots är 55nm, när den har 1.8 miljarder transistorer och asynkrona frekvenser om 2GHz i skrivande stund på stora delar av kärnan.

Visa signatur

[ AMD Ryzen R9 5950X @ 5.25GHz // EK-Block @ custom loop, 2x420mm ][ MSI B550 Tomahawk ][ G.Skill Trident Z DDR3600 CL15 @ DDR3800 1:1 CL14-14-14-14-28-1T ][ AMD RX 5700XT ][ Corsair 750D // Corsair RM1000X ][ 512GB Samsung 960 M.2 SSD ][ Win10 PRO x64 ][ LG 34GN850 ]

Permalänk
Citat:

Ursprungligen inskrivet av Halldin
Men nu tänker du ju utefter hur situationen är idag.
Att sänka frekvenserna och ta bort shaderprocessorer och dyl. är den enkla lösningen.
Hade dom verkligen gett sig fan på det så hade även dagens bestar kunnat få en kraftigt reducerad förbrukning.

Alltså vad är det du inte förstår ? Måste vara något av de dummaste kommentarer jag sett på länge. Låter som om nån miljöfanatiker skulle klagat på att de bilar som använder lite bensin inte presterar som ferrari eller lamborghini. Men inte ens miljöfanatikerna är så dumma att de inte förstår bättre än att man får välja mellan prestanda och energiförbrukning.

Utveklingen med prestanda per watt håller ju på hela tiden, lågnivå segmentet får lägre förbrukning och ungefär samma prestanda som toppkorten nån generation tidigare. I toppsegmentet används den nyvunna teknologin till att göra grafikkort som rymmer allt fler transistorer, presterar bättre, men fortfarande använder lika mycket ström.

Det finns inga genvägar, och man får helt enkelt välja om man vill ha prestanda eller strömsnålt.

Visa signatur

e6600@3.2GHz@1.35v + P5B deluxe + corsair 2gb pc6400 + HD4350 m.m.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Halldin
Vilket bra argument, man ska alltså nöja sig med ett kort som är sämre än alla andra istället för att se till att driva utvecklingen i en annan riktning?
...

Citat:

Ursprungligen inskrivet av Halldin
Men nu tänker du ju utefter hur situationen är idag.
Att sänka frekvenserna och ta bort shaderprocessorer och dyl. är den enkla lösningen.
Hade dom verkligen gett sig fan på det så hade även dagens bestar kunnat få en kraftigt reducerad förbrukning.

Är du full?

Vilken är den rätta riktningen? Höger?
Först menar du att man inte ska nöja sig med sämre kort (svaret på den retoriska frågan var väl 'Nej'?). Då går ju utvecklingen frammåt.

Om vi sedan sänker frekvenserna och tar bort shaderprocessorerna så går vi väl bakåt?

Visa signatur

I like my women how i like my coffee... In a plastic cup.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Halldin
Men nu tänker du ju utefter hur situationen är idag.
Att sänka frekvenserna och ta bort shaderprocessorer och dyl. är den enkla lösningen.
Hade dom verkligen gett sig fan på det så hade även dagens bestar kunnat få en kraftigt reducerad förbrukning.

Du begriper inte? De ger sig fan på att sänka det redan nu, för varje gång de lyckas så får de marginal till att stoppa i mer shaderprocessorer eller högre frekvens.
Men om du vill att de ska ge sig fan, men utan att utnyttja utrymmet de vinner så blir resultatet det samma som de svala modellerna idag.

Du kan inte få korten svala utan att minska prestandan.
Och skulle du få korten svala med bibehållen prestanda, så skulle korten dubbas som midend eller lowend och man skulle använda tekniken till att göra ett snabbare kort som är lite varmare och kalla det highend istället.

Så vill du ha det svala kortet så köper du det, och väljer bort modellen där man utnyttjade potentialen till att få mer prestanda fast med mer värme.
Du kan inte få båda.

Som någon sa, du kan inte begära att värsta Lamborghinin ska dra som en Citroën med 1.3 liter motor.

Permalänk

BAra jag som noterade felskrivningen?

"Radeon HD 4870 ska ha en minnesmängd om en gigabyte GDDR5 medan Radeon HD 4850 har 512 megabyte. Klockfrekvensenerna för Radeon HD 4870 ligger på 1050/2200 MHz medan Radeon HD 3850 stannar vid 850/1800 MHz."

Visa signatur

Stackars Albin
Citera eller skicka PM, övervakar inte.
Använd ordet "dem" med måtta eller smaka på mitt vrede.

Permalänk
Citat:

Ursprungligen inskrivet av 2good4you

Sen är det nVidia's kort som drar mest ström, det är GX2 som har så mycket som problem med värmen. Dom tvingas att sänka klockfrekvensen på GX2 korten, vänta får du se. Både 8800GT och 8800GTS drar mer ström än vad HD38xx gör. 8800GTX och Ultra är inga strömsnåla kort heller. GT200 eller 9800GTX kommer att dra monstruösa mängder ström, och det är inget konstigt med en grafikprocessor som trots är 55nm, när den har 1.8 miljarder transistorer och asynkrona frekvenser om 2GHz i skrivande stund på stora delar av kärnan.

Ja, 8800GT och GTS drar mer ström än HD3870, men sen presterar de korten bättre/mycket bättre än HD3870.

GTX/Ultra var allafall mycket mer strömsnålare och effektivare än sina konkurenter 2900-serien. Varför klaga på det? Du får det låta det som AMD's GPU skulle vara svalare och förbruka mindre ström.

Källa på ditt påstående om GX2?

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk
Avstängd

Ärligt, vem bryr sig om ett mesigt grafikkort drar 150w eller 250w? Det är knappast det som får miljöbägaren att rinna över. Stäng av en extra lampa eller duscha lite kortare istället.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av DataNusse
Ja, 8800GT och GTS drar mer ström än HD3870, men sen presterar de korten bättre/mycket bättre än HD3870.

GTX/Ultra var allafall mycket mer strömsnålare och effektivare än sina konkurenter 2900-serien. Varför klaga på det? Du får det låta det som AMD's GPU skulle vara svalare och förbruka mindre ström.

Källa på ditt påstående om GX2?

Det som förvånar är hur mycket du bryr dig över något som handlar över nVidia när det är negativt, men inte första gången, där du samtliga andra gånger blivit överbevisad. Hade du läst hade du förstått helheten.

1. Om du tittar på vem jag citerade så ser du kanske att prestanda var irrelevant.

2. 2900 serien är ersatt, det är inte 8800GTX/Ultra.

Visa signatur

[ AMD Ryzen R9 5950X @ 5.25GHz // EK-Block @ custom loop, 2x420mm ][ MSI B550 Tomahawk ][ G.Skill Trident Z DDR3600 CL15 @ DDR3800 1:1 CL14-14-14-14-28-1T ][ AMD RX 5700XT ][ Corsair 750D // Corsair RM1000X ][ 512GB Samsung 960 M.2 SSD ][ Win10 PRO x64 ][ LG 34GN850 ]

Permalänk
Citat:

Ursprungligen inskrivet av 2good4you
Det som förvånar är hur mycket du bryr dig över något som handlar över nVidia när det är negativt, men inte första gången, där du samtliga andra gånger blivit överbevisad. Hade du läst hade du förstått helheten.

1. Om du tittar på vem jag citerade så ser du kanske att prestanda var irrelevant.

2. 2900 serien är ersatt, det är inte 8800GTX/Ultra.

Korrektion, jag bryr mig när någon skriver något felaktigt.

8800GTX/Ultra är också ersatt.

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk
Medlem

Bra att ni missuppfattar ens inlägg. För det första är det inte miljön jag har i åtanke, och jag är ingen miljöaktivist i övrigt heller.

Att ha en dator som dubblar som element är dock inte kul alls, och då är min burk ändå 4 år gammal och med rätt blygsam utrustning.

Jag sa att "den enkla lösningen är att ta bort shaderprocessorer och sänka frekvenserna", det betyder ju såklart inte att man ska göra så, och det trodde jag var underförstått.
Varför inte utveckla nya strömsparningsfunktioner på mjukvarunivå?

Det inte är min sak att komma på nåt, men varför inte något program där man kan välja önskad prestanda i ett spel, säg 60FPS, och så justerar grafikkortet automatiskt klockfrekvens efter vad som krävs för stunden.
Det var bara ett löst exempel, det går säkert att hitta på jättebra saker om efterfrågan finns. Typ som vad AMD håller på med med sina Phenomprocessorer, för där finns i alla fall en större efterfrågan.

Saken är inte att jag begär att ett snabbt kort ska dra lika mycket som ett dåligt, redan där är ni fel ute, utan snarare att utvecklingen börjar eskalera lite och man snart kommer sitta med 1kW-nätagg och ha 30 grader i rummet konstant. Jag vill kunna ha bra prestanda utan den bieffekten, utan att det för den sakens skull offrar möjligheten att kunna välja ett bra grafikkort. Analogin är snarare en lamborghini som drar 10 liter milen eller en som drar 20 liter.
Och även low- och midendkortens förbrukningar ökar ju konstant, såklart.

Vem vet, snart kanske alla vettiga kort kommer vara dualcore/cpu (typ Core2Duo) och då sitter man redan lite i skiten.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Halldin
Analogin är snarare en lamborghini som drar 10 liter milen eller en som drar 20 liter.
Och även low- och midendkortens förbrukningar ökar ju konstant, såklart.

Vem vet, snart kanske alla vettiga kort kommer vara dualcore/cpu (typ Core2Duo) och då sitter man redan lite i skiten.

Den lamborghinin som drar 10 liter milen kommer då inte kunna prestera som den som drar 20.
Dessutom så har man redan nu bra strömsparfunktioner och man lägger mycket energi på dem med. Men så länge man är beredd att få mer värmeutveckling för att vara bäst så kommer de korten att finnas. Tillgång och efterfrågan. Och det finns en efterfrågan på kort som är bättre än andra även fast de drar mer ström.

Förövrigt så utvecklas just nu grafikkortsmarknaden till fler kärnor. Tidigare har man ju gjort multicores med flera hundra shaderprocessorer per chip. Men för stora chip är dyra att tillverka, svårare att få upp i frekvens och utvecklar mer värme. Så nu satsar man på flera chip för att på så sätt öka prestandan fast med mindre nackdelar. Det är billigare att tillverka två 200mm chip än ett 400mm chip. Det är lättare att utveckla 2 chip som går i 500MHz än 1 som går i 1000. Dessutom drar de mycket mindre ström och är mycket svalare.

Jämför med processorer. En processor som utvecklar 60W i 2GHz drar bara några få watt i 1GHz. En dualcore i 2GHz drar mycket mindre ström än en likadan singlecore i 4GHz.
Nu skalar ju inte processorer lika bra med antalet kärnor som grafikkort gör så jämförelsen är ju inte helt korrekt, men du förtstår vad jag menar.

SLI och Crossfire är därmed inte bara en ploj för entusiaster Det har i flera år varit en teknik under utveckling för att kunna tillverka multichipskort som skalar bra. Och det inte minst för den mindre värmeutvecklingen. Jag är inte förvånad om vi inom några år har 4 eller 8 mindre chip på ett kort.

Permalänk
Citat:

Ursprungligen inskrivet av Halldin

Jag sa att "den enkla lösningen är att ta bort shaderprocessorer och sänka frekvenserna", det betyder ju såklart inte att man ska göra så, och det trodde jag var underförstått.
Varför inte utveckla nya strömsparningsfunktioner på mjukvarunivå?

Det inte är min sak att komma på nåt, men varför inte något program där man kan välja önskad prestanda i ett spel, säg 60FPS, och så justerar grafikkortet automatiskt klockfrekvens efter vad som krävs för stunden.
Det var bara ett löst exempel, det går säkert att hitta på jättebra saker om efterfrågan finns. Typ som vad AMD håller på med med sina Phenomprocessorer, för där finns i alla fall en större efterfrågan.

Det finns redan strömsparfunktioner i mjukvara såsom 2D- och 3D-profiler.

Vad gäller att ställa in hur varmt ett kort ska gå är jäkligt svårt och jag tror cpun skulle ta mer beräkningskraft och orsaka mer värme än man tjänar på grafikkortet t.ex.

Vill man spara energi så kan man köpa ett värstingkort men aldrig spela i högsta upplösningar med alla effekter påslagna. Kortet går inte i 100% hela tiden. Så de teoretiska 250W (för 2st dual gpus) är under maxdrift när allt annat på datorn flaskhalsar.

Vill du få din egen dator sval så köp nya mid-end delar. Du behåller din nuvarande prestanda, kanske även får lite extra men värme och energi minskar.

Visa signatur

Belysningstekniker låter väl lagom flummigt?
signature your as this use backwards this read to enough dumb were you if

Permalänk
Hjälpsam

Ja 3800-serien fick väldigt fina strömsparfuntkioner.
Korten går svalt, snålt och tyst när dom inte behöver prestera.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

Så tröttsamt detta tjat och klagomål på strömkrävande grafikkort. Alla borde veta att strömsnåla produkter är inne, och att alla företag faktiskt jobbar hårt på att utveckla sådana. Men verkligheten är som den är. Det är ungefär som att gnälla över att en Volvo XC90 (en jättestor stadsjeep) inte drar 0,6 liter per mil.

Inte ens 250W för kommande HD 4870 X2 (om nu ryktena är sanna) är så himla mycket, särskilt med tanke på att det ju nuförtiden rekommenderas nätagg på 500W till höger och vänster på köprådsforumet.

Visa signatur

Memento mori...

Permalänk
Citat:

Ursprungligen inskrivet av banck
Vi säger att datorn är igång 8 timmar om dygnet i snitt på ett år
så blir förbrukningen 712 KWh. 700 kr för en enda elektronikpryl i hemmet är ganska mycket.

Så det kostar om man vill ligga på topp=).

borde de inte bli 300kr eftersom han räknade med 24/7 ?

24/8 = 3

Visa signatur

Stackars Albin
Citera eller skicka PM, övervakar inte.
Använd ordet "dem" med måtta eller smaka på mitt vrede.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av DataNusse
Korrektion, jag bryr mig när någon skriver något felaktigt.

8800GTX/Ultra är också ersatt.

Är inget felaktigt då mitt citat var ett fall att få den citerade att förstå. Nej GTS/Ultra är inte ersatta som High-End/Ultra High-End bara för att dom är EOL.

Visa signatur

[ AMD Ryzen R9 5950X @ 5.25GHz // EK-Block @ custom loop, 2x420mm ][ MSI B550 Tomahawk ][ G.Skill Trident Z DDR3600 CL15 @ DDR3800 1:1 CL14-14-14-14-28-1T ][ AMD RX 5700XT ][ Corsair 750D // Corsair RM1000X ][ 512GB Samsung 960 M.2 SSD ][ Win10 PRO x64 ][ LG 34GN850 ]

Permalänk
Hjälpsam

Att beräkna en årlig förbrukning för ett grafikkort utgående från dess toppeffekt, ger ett lika vettigt resultat, som att beräkna bensinförbrukning för en bil, med hjälp av dess förbrukning vid full gas.
Nej; man får gissa på timmar load och idle, tex. 2 timmar load och 6 timmar idle per dag.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Halldin
Bra att ni missuppfattar ens inlägg. För det första är det inte miljön jag har i åtanke, och jag är ingen miljöaktivist i övrigt heller.

Att ha en dator som dubblar som element är dock inte kul alls, och då är min burk ändå 4 år gammal och med rätt blygsam utrustning.

Jag sa att "den enkla lösningen är att ta bort shaderprocessorer och sänka frekvenserna", det betyder ju såklart inte att man ska göra så, och det trodde jag var underförstått.
Varför inte utveckla nya strömsparningsfunktioner på mjukvarunivå?

Det inte är min sak att komma på nåt, men varför inte något program där man kan välja önskad prestanda i ett spel, säg 60FPS, och så justerar grafikkortet automatiskt klockfrekvens efter vad som krävs för stunden.
Det var bara ett löst exempel, det går säkert att hitta på jättebra saker om efterfrågan finns. Typ som vad AMD håller på med med sina Phenomprocessorer, för där finns i alla fall en större efterfrågan.

Saken är inte att jag begär att ett snabbt kort ska dra lika mycket som ett dåligt, redan där är ni fel ute, utan snarare att utvecklingen börjar eskalera lite och man snart kommer sitta med 1kW-nätagg och ha 30 grader i rummet konstant. Jag vill kunna ha bra prestanda utan den bieffekten, utan att det för den sakens skull offrar möjligheten att kunna välja ett bra grafikkort. Analogin är snarare en lamborghini som drar 10 liter milen eller en som drar 20 liter.
Och även low- och midendkortens förbrukningar ökar ju konstant, såklart.

Vem vet, snart kanske alla vettiga kort kommer vara dualcore/cpu (typ Core2Duo) och då sitter man redan lite i skiten.

Tror du glömde nämna att du inte heller vill betala mer för denna teknik?
Inser du inte att det du säger inte är möjligt. Det strider mot fysiklagar.

Visa signatur

I like my women how i like my coffee... In a plastic cup.

Permalänk
Medlem

vad tros priset hamna på?

Visa signatur

CPU 1700@4GHZ | MB MSI x370 Gaming Pro Carbon | GPU AMD Vega 64 | RAM G.skill FlareX DDR4 @3466MHZ 16GB PSU Corsair AX1200i | SSD Samsung 960 EVO 512GB | | Monitor Acer Predator XZ321QU| Mouse Razer deathadder | Keyboard Corsair Gaming K70 RGB | Headset Sennheiser game one.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Jays_swe
vad tros priset hamna på?

http://www.nordichardware.se/nyhet,13804.html

Visa signatur

[ AMD Ryzen R9 5950X @ 5.25GHz // EK-Block @ custom loop, 2x420mm ][ MSI B550 Tomahawk ][ G.Skill Trident Z DDR3600 CL15 @ DDR3800 1:1 CL14-14-14-14-28-1T ][ AMD RX 5700XT ][ Corsair 750D // Corsair RM1000X ][ 512GB Samsung 960 M.2 SSD ][ Win10 PRO x64 ][ LG 34GN850 ]

Permalänk
Medlem

499$ är ju inget:D

Visa signatur

CPU 1700@4GHZ | MB MSI x370 Gaming Pro Carbon | GPU AMD Vega 64 | RAM G.skill FlareX DDR4 @3466MHZ 16GB PSU Corsair AX1200i | SSD Samsung 960 EVO 512GB | | Monitor Acer Predator XZ321QU| Mouse Razer deathadder | Keyboard Corsair Gaming K70 RGB | Headset Sennheiser game one.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Halldin
Bra att ni missuppfattar ens inlägg. För det första är det inte miljön jag har i åtanke, och jag är ingen miljöaktivist i övrigt heller.

Att ha en dator som dubblar som element är dock inte kul alls, och då är min burk ändå 4 år gammal och med rätt blygsam utrustning.

Jag sa att "den enkla lösningen är att ta bort shaderprocessorer och sänka frekvenserna", det betyder ju såklart inte att man ska göra så, och det trodde jag var underförstått.
Varför inte utveckla nya strömsparningsfunktioner på mjukvarunivå?

Det inte är min sak att komma på nåt, men varför inte något program där man kan välja önskad prestanda i ett spel, säg 60FPS, och så justerar grafikkortet automatiskt klockfrekvens efter vad som krävs för stunden.
Det var bara ett löst exempel, det går säkert att hitta på jättebra saker om efterfrågan finns. Typ som vad AMD håller på med med sina Phenomprocessorer, för där finns i alla fall en större efterfrågan.

Saken är inte att jag begär att ett snabbt kort ska dra lika mycket som ett dåligt, redan där är ni fel ute, utan snarare att utvecklingen börjar eskalera lite och man snart kommer sitta med 1kW-nätagg och ha 30 grader i rummet konstant. Jag vill kunna ha bra prestanda utan den bieffekten, utan att det för den sakens skull offrar möjligheten att kunna välja ett bra grafikkort. Analogin är snarare en lamborghini som drar 10 liter milen eller en som drar 20 liter.
Och även low- och midendkortens förbrukningar ökar ju konstant, såklart.

Vem vet, snart kanske alla vettiga kort kommer vara dualcore/cpu (typ Core2Duo) och då sitter man redan lite i skiten.

Lösningen för att få högsta möjliga FPS för stunden: Sänk inställningarna.
AMD sitter och pillrar med Dual-GPU kretsar. Vad menar du med Dualcore/cpu egentligen? CPU är processorn, det har inget med GPU:n att göra som i sig självt är oberoende av CPU:n (självklart är det bra att ha en processor om man skall ha en dator som går att använda), men det är en viktig skillnad mellan GPU och CPU.

Effekten på mellansegmentet ökar kanske gradvis, men bara marginellt om vi jämför med de förhållandevis stora prestandaskillnader vi ser från serie till serie. Men över lag ser vi en lägre förbrukning på samtliga segment - highest-end har alltid god förbrukning - att packa in bästa tänkbara prestanda för stunden och bevara låg arbetsförbrukning är nog lite väl.
AMD har redan inbyggd lösning för att dra ned effekten under inaktivitet, samt även under vissa spelförhållanden. PowerPlay, hette det så? Skit samma, som exempel äter en HD3870X2 bara 2-5W mer i idle än en 8800GTS 512MB, ser ju bra ut om man säger så.