Radeon "Fiji" enda nya grafikprocessorn i kommande 300-serien

Permalänk
Moderator
Testpilot
Skrivet av PowerNet:

Nej. Den är helt korrekt.
Ljuskällor har minskat sin energiförbrukning för samma ljusmängd med ca 88% (50W glödlampa vs 6W led lampa).
Samma utveckling har inte skett på grafikkortens front, där det är rätt små skillnader i ökning i prestanda medans energiåtgången oftast står stilla, eller till och med ökat under årens lopp.
Så där borde tillverkarna satsa mer, att minska energiförbrukningen med bibehållen prestanda, än att öka prestandan utan att minska energiåtgången.

Jämför man sedan grafikkort mot ex cpuer så har cpuerna haft en bättre utveckling på energiåtgånfen, där cpuer har många gånger mer prestanda mor äldre cpuer, men minskad energiåtgång.

Herre min skapare, det är ju som att diskutera med en infantil. När uppfanns glödlampan och när uppfanns LED-lampan? Hur i hela helvetet kan du påstå att utvecklingen på ljuskällor på något vis skulle ha varit snabbare än utvecklingen av grafikkort!?

Små skillnader i ökning av prestanda? Vafalls? Nu är det sannerligen dags att bilda dig. Läs nu vad som står nedan.

Effektåtgång

GTX 280 lanserad Juni , 2008, TDP = 236W.
GTX 770 lanserad Maj, 2013, TDP = 230W.

GTX 980 lanserad September, 2014, TDP = 165W.

Prestanda i Crysis 1920x1200 4xAA

GTX 280 = 19,4 FPS. 12,16 Watt/FPS
GTX 770 = 59,9 FPS. 3,84 Watt/FPS

GTX 980 = 84,2 FPS. 1,96Watt/FPS

Sluta nu yra om dina glödlampor, du har ju uppenbarligen inte en susning om vad du pratar om.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Skrivet av PowerNet:

Nej. Den är helt korrekt.
Ljuskällor har minskat sin energiförbrukning för samma ljusmängd med ca 88% (50W glödlampa vs 6W led lampa).
Samma utveckling har inte skett på grafikkortens front, där det är rätt små skillnader i ökning i prestanda medans energiåtgången oftast står stilla, eller till och med ökat under årens lopp.
Så där borde tillverkarna satsa mer, att minska energiförbrukningen med bibehållen prestanda, än att öka prestandan utan att minska energiåtgången.

Jämför man sedan grafikkort mot ex cpuer så har cpuerna haft en bättre utveckling på energiåtgånfen, där cpuer har många gånger mer prestanda mor äldre cpuer, men minskad energiåtgång.

Tog ju ett bra tag innan dom lyckades göra lika ljusstarka led som 60watt glödlampa.

Hur som dom har varje gen valt att släppa nya kort med runt 50%mer prestanda på toppkorten och det är inte lätt att samtidigt lyckas pressa ström förbrukningen.

Hur som vill man ha kort med lägre förbrukning väljer man inte toppkorten 280x och lägre funkar ju rätt bra för customgaming. Dessutom fokuserar båda tillverkarna på låg ström förbrukning vid låg belastning.

Men är inte som glödlampan , för både AMD och nvidia försöker bräcka varandra med toppkorten och då är watt inte viktigt på samma vis.

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Medlem
Skrivet av Friterad:

Det är väldigt olika, dock tycker jag att kvalitén på drivrutinerna är bättre överlag på Nvidia men speciellt är det programvaran (Catalyst, Nvidia kontrollpanel osv) som är den största skillnaden.

Har haft ett Nvidia kort som det varit problem med, det var ett 560, dock var det defekt och inte drivrutiner och fick det utbytt. Man vet aldrig, kan varit defekt kort du fick också om du nu inte testat det och redan vet vad problemet var dvs. Jag säger inte att dom ska satsa allt, det är inte att satsa allt om man kommer ut med i alla fall 2 eller 3 kort som faktiskt är nya, det behöver inte ens vara jätte stor skillnad. Dom kan ju försöka göra lite som Nvidia och ta det bästa kortet och bara göra en lite låst version av den. AMD fans blir besvikna gång på gång, jag är ingen marknadsexpert men mycket bättre kunde/kan dom göra tycker jag.

det är konstant snack om att amd skulle ha sämre drivrutiner och mjukvara. som någon som nyligen bytte från ett 680 till ett 290x så kan jag säga att jag märker ingen som helst skillnad när jag använder datorn, varken bättre eller sämre. ikonerna i aktivitetsfältet är nu röda istället för gröna och geforce experience som jag aldrig använde är nu gaming evolved som jag aldrig använder men det är väl det.

Permalänk
Avstängd
Skrivet av Dinoman:

Herre min skapare, det är ju som att diskutera med en infantil. När uppfanns glödlampan och när uppfanns LED-lampan? Hur i hela helvetet kan du påstå att utvecklingen på ljuskällor på något vis skulle ha varit snabbare än utvecklingen av grafikkort!?
Små skillnader i ökning av prestanda? Vafalls? Nu är det sannerligen dags att bilda dig. Läs nu vad som står nedan.
Effektåtgång
GTX 280 lanserad Juni , 2008, TDP = 236W.
GTX 770 lanserad Maj, 2013, TDP = 230W.
GTX 980 lanserad September, 2014, TDP = 165W.
Prestanda i Crysis 1920x1200 4xAA
GTX 280 = 19,4 FPS. 12,16 Watt/FPS
GTX 770 = 59,9 FPS. 3,84 Watt/FPS
GTX 980 = 84,2 FPS. 1,96Watt/FPS
Sluta nu yra om dina glödlampor, du har ju uppenbarligen inte en susning om vad du pratar om.

Det är inget yrande, grafikkorten har inte haft samma utveckling som ljuskällorna skulle jag säga, ljuskällorna ger stadigt lika (eller mer) ljusflöde för mindre energi, medans grafikkorten flaxar rätt mycket mellan olika generationer, ta ex 670 som har en lägre TDP än efterföljaren 770 som har en högre TDP, och nu 970 som har 145W TDP, så grafikkortens TDP varierar upp och ned med varje generation, där bör tillverkarna satsa mer på att ge bättre prestanda och sänka förbrukningen med varje generation, än att låta förbrukningen hoopa upp och ned nästan 100W mellan 2 generationer.
Men detta är ju ett område EU tittar på och ska reglera, hur mycket effekt de får dra etc så tillverkarna får lite fart och får ner energiförbrukningen.

Visa signatur

System: Corsair Obsidian 550D Midi Tower Svart || Corsair AX 850W PSU || Intel® Core i7-3770K Processor || ASUS P8P67-M || 2 x Intel® SSD 520 Series 180GB || Gigabyte GeForce GTX 670 2GB PhysX CUDA ||

Permalänk
Moderator
Testpilot
Skrivet av PowerNet:

Det är inget yrande, grafikkorten har inte haft samma utveckling som ljuskällorna skulle jag säga, ljuskällorna ger stadigt lika (eller mer) ljusflöde för mindre energi, medans grafikkorten flaxar rätt mycket mellan olika generationer, ta ex 670 som har en lägre TDP än efterföljaren 770 som har en högre TDP, och nu 970 som har 145W TDP, så grafikkortens TDP varierar upp och ned med varje generation, där bör tillverkarna satsa mer på att ge bättre prestanda och sänka förbrukningen med varje generation, än att låta förbrukningen hoopa upp och ned nästan 100W mellan 2 generationer.
Men detta är ju ett område EU tittar på och ska reglera, hur mycket effekt de får dra etc så tillverkarna får lite fart och får ner energiförbrukningen.

Nej, den traditionella glödlampan uppfanns för mer än hundra år sedan vid sekelskiftet 1800-1900-talet, LED-lampan uppfanns ~1960 och kom först i kommersiellt bruk ~1970. Så något förenklat så har effektiviteten i en ljuskälla förbättras ungefär tio gånger sitt ursprung på 70 år. Detta under förutsättning att ljusstyrkan är likvärdig!

Grafikkort har förbättrat sin energieffektivitet mer än fyrdubbelt på sex år.

Så;

10x förbättring under 70 års tid.

4,5x förbättring under 6 års tid.

Vilket teknik har haft den snabbaste utvecklingen när det gäller energieffektivitet?

Källa: http://energy.gov/articles/history-light-bulb
www.techpowerup.com

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem
Skrivet av versions:

det är konstant snack om att amd skulle ha sämre drivrutiner och mjukvara. som någon som nyligen bytte från ett 680 till ett 290x så kan jag säga att jag märker ingen som helst skillnad när jag använder datorn, varken bättre eller sämre. ikonerna i aktivitetsfältet är nu röda istället för gröna och geforce experience som jag aldrig använde är nu gaming evolved som jag aldrig använder men det är väl det.

Nej överlag är drivrutinerna idag inte så stora skillnader på när det gäller hur bra dom fungerar (kraschar, buggar m.m.) utan mest programvaran. Eftersom du inte använder detta så vet du ju inte och det påverkar inte dig, men jag använder det ibland eftersom det finns så mycket bra inställningar och sådant man kan göra, du kan ju få lite finare grafik till och med via dessa program, i alla fall med GE.

Permalänk
Medlem

nVidia fanboysen verkar ha glömt (alt kanske inte var födda för att veta) att AMDs 58x0 serie totalt dominerade nVidia.

Denna serie var dock inte optimerad för DX11 som inte hade börjat användas på allvar.

GTX480 var den första iterationen av nVidas nya DX11 generation.

79x0, 280(x) var AMDs första GCN.

AMD ligger en iteration efter. Ska bli spännande att se hur detta kort presterar och om AMD har satsat på DX12 prestanda direkt.

Visa signatur

Ryzen 9 5950X, 32GB 3600MHz CL16, SN850 500GB SN750 2TB, B550 ROG, 3090 24 GB
Har haft dessa GPUer: Tseng ET6000, Matrox M3D, 3DFX Voodoo 1-3, nVidia Riva 128, TNT, TNT2, Geforce 256 SDR+DDR, Geforce 2mx, 3, GT 8600m, GTX460 SLI, GTX580, GTX670 SLI, 1080 ti, 2080 ti, 3090 AMD Radeon 9200, 4850 CF, 6950@70, 6870 CF, 7850 CF, R9 390, R9 Nano, Vega 64, RX 6800 XT
Lista beg. priser GPUer ESD for dummies

Permalänk
Avstängd
Skrivet av Dinoman:

Nej, den traditionella glödlampan uppfanns för mer än hundra år sedan vid sekelskiftet 1800-1900-talet, LED-lampan uppfanns ~1960 och kom först i kommersiellt bruk ~1970. Så något förenklat så har effektiviteten i en ljuskälla förbättras ungefär tio gånger sitt ursprung på 70 år. Detta under förutsättning att ljusstyrkan är likvärdig!

Grafikkort har förbättrat sin energieffektivitet mer än fyrdubbelt på sex år.

Så;

10x förbättring under 70 års tid.

4,5x förbättring under 6 års tid.

Vilket teknik har haft den snabbaste utvecklingen när det gäller energieffektivitet?

Källa: http://energy.gov/articles/history-light-bulb
www.techpowerup.com

Du missade själv att första konsument LED ljuskällan kom kring 2008? Står på din egna länk.
Faktum kvarstår att tillverkarna av grafikkort är för dåliga att få ner energiåtgången, skulle vara mer intressant om de sänker energiåtgången än att bara satsa på höjd prestsnda som ingen har nytta av direkt nu för tiden när vi nått maxtaken i princip vad som kan nyttjas.
T.ex. Om de skulle ta GTX 970 och pressa ned till under 100W, och nästa generation under 50W då pratar vi intressanta saker, att höja prestandan är inte intressant längre.

Visa signatur

System: Corsair Obsidian 550D Midi Tower Svart || Corsair AX 850W PSU || Intel® Core i7-3770K Processor || ASUS P8P67-M || 2 x Intel® SSD 520 Series 180GB || Gigabyte GeForce GTX 670 2GB PhysX CUDA ||

Permalänk
Moderator
Testpilot
Skrivet av PowerNet:

Du missade själv att första konsument LED ljuskällan kom kring 2008? Står på din egna länk.
Faktum kvarstår att tillverkarna av grafikkort är för dåliga att få ner energiåtgången, skulle vara mer intressant om de sänker energiåtgången än att bara satsa på höjd prestsnda som ingen har nytta av direkt nu för tiden när vi nått maxtaken i princip vad som kan nyttjas.
T.ex. Om de skulle ta GTX 970 och pressa ned till under 100W, och nästa generation under 50W då pratar vi intressanta saker, att höja prestandan är inte intressant längre.

Och du missade "LED appears in consumer products", någonstans under sjuttiotalet men om vi ska gå på 2008 så är det alltså närmare hundra år som har gått vilket vidare cementerar min ståndpunkt.

Varsågod; här har du 65W GTX 750 Ti och eftersom du påstår att 3D-grafiken tydligen har nått sin gräns nu så bör ju den prestandan duga utmärkt för gentlemannen.

Don’t argue with idiots. They’ll drag you down to their level then beat you with experience. - unknown

Jag ställer mig frågan vad i hela friden du håller hus på ett sådant här entusiast forum?

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem
Skrivet av Friterad:

Nej överlag är drivrutinerna idag inte så stora skillnader på när det gäller hur bra dom fungerar (kraschar, buggar m.m.) utan mest programvaran. Eftersom du inte använder detta så vet du ju inte och det påverkar inte dig, men jag använder det ibland eftersom det finns så mycket bra inställningar och sådant man kan göra, du kan ju få lite finare grafik till och med via dessa program, i alla fall med GE.

Jag kanske kommer ihåg fel men man kan inte få bättre grafik med GeForce Experience, bara låta den optimera inställningar åt en om man inte vill det själv.

Du får gärna utveckla med vad du menar rent konkret med bra inställningar. DSR är väl smidigt om man vill ha det. Shadowplay verkade trevligt när man hade brottats färdigt med det för att få det att fungera, AMD verkar ha en liknande funktion men har inte testat den.

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av versions:

Jag kanske kommer ihåg fel men man kan inte få bättre grafik med GeForce Experience, bara låta den optimera inställningar åt en om man inte vill det själv.

Du får gärna utveckla med vad du menar rent konkret med bra inställningar. DSR är väl smidigt om man vill ha det. Shadowplay verkade trevligt när man hade brottats färdigt med det för att få det att fungera, AMD verkar ha en liknande funktion men har inte testat den.

Skickades från m.sweclockers.com

Man kan få bättre grafik, till exempel om ett äldre spel inte normalt har stöd för anti-aliasing kan man ändå aktivera detta via Nvidia kontrollpanelen

PS: Skrev först GE vilket var fel, det är mer för att optimera spel och har inte samma inställningar som kontrollpanelen, mitt fel.

Permalänk
Skrivet av Friterad:

Nej överlag är drivrutinerna idag inte så stora skillnader på när det gäller hur bra dom fungerar (kraschar, buggar m.m.) utan mest programvaran. Eftersom du inte använder detta så vet du ju inte och det påverkar inte dig, men jag använder det ibland eftersom det finns så mycket bra inställningar och sådant man kan göra, du kan ju få lite finare grafik till och med via dessa program, i alla fall med GE.

shadowplay bricka ju vissa grafikkort i början (vet inte om det var i beta då). Sweclokers har gått igenom just detta, när nvidia eller om det var AMD som ändrade grafikinställningarna (för att öka prestandan i standardläget), dom kom fram till att skillnaden var inte märkbar. Kör Nvidia nu och skillnaderna i inställningarna finns inte. Alltså Amd och Nvidia har samma inställningsmöjligheter för grafik, men Amd är lite enklare att ställa in (är lite rörigare menyer med rullist i nvidias). Men som sagt är liten skillnad på inställningarna.

Skrivet av PowerNet:

Du missade själv att första konsument LED ljuskällan kom kring 2008? Står på din egna länk.
Faktum kvarstår att tillverkarna av grafikkort är för dåliga att få ner energiåtgången, skulle vara mer intressant om de sänker energiåtgången än att bara satsa på höjd prestsnda som ingen har nytta av direkt nu för tiden när vi nått maxtaken i princip vad som kan nyttjas.
T.ex. Om de skulle ta GTX 970 och pressa ned till under 100W, och nästa generation under 50W då pratar vi intressanta saker, att höja prestandan är inte intressant längre.

Nu måste inte heller ljuskällan prestera grafik, utan bara ljus. Led var inte ljusstark från början heller, sitter ju i datorer från 80/90 tal med. I början så var Led väldigt ljussvaga 15 watt tror jag dom första som såldes (alltså motsvarade en 15 watt glödlampa). Så folk köpte ju vanliga glödlampor eller lågenergilampor (som inte är så nyttiga speciellt om dom går sönder).

Grafikkorten har utvecklas enormt från bara 2D grafik till 3D se bara första Crysis , var inget grafikkort som orkade ultra. Idag klarar grafikkort ultra i Crysis bättre, men är fortfarande väldigt tungt.

BF 3 gjorde ju en ny vändning i PC spels marknaden, kom rätt lägligt ihop med sandy bridge. Nästa steg är 4k och inget grafikkort klarar det med minst 60FPS med höga grafikinställningar.

Bara att gå på grafikkorten i lägre klasser för dig (för som sagt där pressar dom strömförbrukningen neråt), så kan vi andra köpa toppkorten.

Som sagt varje gen så tar grafikkorten mindre ström, speciellt i lägre klasser. Se bara 8800GT mot 5770 vilket presterar bäst och vilket drar mest ström?

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Avstängd
Skrivet av Dinoman:

Och du missade "LED appears in consumer products", någonstans under sjuttiotalet men om vi ska gå på 2008 så är det alltså närmare hundra år som har gått vilket vidare cementerar min ståndpunkt.
Varsågod; här har du 65W GTX 750 Ti och eftersom du påstår att 3D-grafiken tydligen har nått sin gräns nu så bör ju den prestandan duga utmärkt för gentlemannen.
Don’t argue with idiots. They’ll drag you down to their level then beat you with experience. - unknown
Jag ställer mig frågan vad i hela friden du håller hus på ett sådant här entusiast forum?

De är inte LED ljuskällor som ger ljus, de började hitta ut först kring 2008 som satt.
Och tycker du att du är en "idiot" som argumenterar så får du tycka det, inte mig emot att du själv kallar dig det :).
Forum slm forum, det här är ett allmänt forum för alla knom datorområdet, inte specifikt högsta segmentet.
Och GTX 750 är inte ett intressant kort i jämförelsen med GTX970 eller GTX980 så där är du helt ute och cycklar, om de skulle satsa på att få ner ett säg 970 eller 980 till under 100W till kommande 1070/1080 kort så skulle det vara intressant, istället för att de satsar på höjd prestanda som egentligen är rätt ointressant i dagens läge.
Grafikkorten idag kan i princip jämföras med cpu:er, där cpu:er sedan 3-5 år år inte gått frammåt så mycket i prestanda, då det är relativt små hopp mellan varje ny serie, och ser man till prestanda så räcker en äldre 4 kärnig cpu mycket väl idag, precis som den med största sannolikhet funka precis lika bra om ett par år, precis som cpuer så har grafikkorten nått en nivå där utvecklingen trappas av och där det inte finns något större behov av höjd prestanda, utan behovet är snarare att de ska få ner energiåtgången till kommande kort.

Visa signatur

System: Corsair Obsidian 550D Midi Tower Svart || Corsair AX 850W PSU || Intel® Core i7-3770K Processor || ASUS P8P67-M || 2 x Intel® SSD 520 Series 180GB || Gigabyte GeForce GTX 670 2GB PhysX CUDA ||

Permalänk
Medlem
Skrivet av Friterad:

Man kan få bättre grafik, till exempel om ett äldre spel inte normalt har stöd för anti-aliasing kan man ändå aktivera detta via Nvidia kontrollpanelen

PS: Skrev först GE vilket var fel, det är mer för att optimera spel och har inte samma inställningar som kontrollpanelen, mitt fel.

så här? har inte pillat med detta alls men visst verkar inställningen finnas.

Permalänk
Medlem
Skrivet av PowerNet:

Du missade själv att första konsument LED ljuskällan kom kring 2008? Står på din egna länk.
Faktum kvarstår att tillverkarna av grafikkort är för dåliga att få ner energiåtgången, skulle vara mer intressant om de sänker energiåtgången än att bara satsa på höjd prestsnda som ingen har nytta av direkt nu för tiden när vi nått maxtaken i princip vad som kan nyttjas.
T.ex. Om de skulle ta GTX 970 och pressa ned till under 100W, och nästa generation under 50W då pratar vi intressanta saker, att höja prestandan är inte intressant längre.

Du inser inte själv hur oärlig du är som handplockar? Kommersiellt gångbar LED var ett genombrott efter över 100 år av elektriskt ljus. Äntligen förbättrades effektiviteten, med 10 gånger, men den kan inte effektiviseras mycket mer framöver. Det är bara oärligt av dig att ringa in denna korta övergångsperiod och måla upp det som en hög takt när proceduren varit något som tagit decennier. Grafikkort blir bättre för varje generation, år ut och år in pågår detta.
Energiåtgången går ner hela tiden om du nöjer dig med att inte gå upp mycket i prestanda. Prestandan från ett GTX 280 kostar ingenting idag och drar inte mycket ström alls. Men om du envisas med att gå upp i prestanda varje år så är det klart att energiutvecklingen inte går ner. men inte envisas du med att köra med 60W LED bara för att du hade 60W glödlampa innan? Eller?

Beräkningskraften hos Fiji förutsatt 1GHz och 300W blir 12,5 gånger högre per watt än vad den var på motsvarande krets 2007. 12,5 gånger snabbare på 8 år. Räknar vi på 290X så är det 8,8 gånger mer prestanda per watt på 6,5 år. Du kan inte sitta om att effekten skenar medan prestandan nästan står still. Det är direkt falskt av dig.

Permalänk
Medlem
Skrivet av PowerNet:

De är inte LED ljuskällor som ger ljus, de började hitta ut först kring 2008 som satt.
Och tycker du att du är en "idiot" som argumenterar så får du tycka det, inte mig emot att du själv kallar dig det :).
Forum slm forum, det här är ett allmänt forum för alla knom datorområdet, inte specifikt högsta segmentet.
Och GTX 750 är inte ett intressant kort i jämförelsen med GTX970 eller GTX980 så där är du helt ute och cycklar, om de skulle satsa på att få ner ett säg 970 eller 980 till under 100W till kommande 1070/1080 kort så skulle det vara intressant, istället för att de satsar på höjd prestanda som egentligen är rätt ointressant i dagens läge.
Grafikkorten idag kan i princip jämföras med cpu:er, där cpu:er sedan 3-5 år år inte gått frammåt så mycket i prestanda, då det är relativt små hopp mellan varje ny serie, och ser man till prestanda så räcker en äldre 4 kärnig cpu mycket väl idag, precis som den med största sannolikhet funka precis lika bra om ett par år, precis som cpuer så har grafikkorten nått en nivå där utvecklingen trappas av och där det inte finns något större behov av höjd prestanda, utan behovet är snarare att de ska få ner energiåtgången till kommande kort.

Fast det är ren lögn att prestandan inte går framåt så mycket på GPU:er. Som sagt, runt 8-12,5 gånger prestandan på 6,5-8 år. Det är hög utvecklingstakt.

Och du misstar dig om du tror prestandajakt är allt. Det både nVidia och AMD jagar mest av allt är energieffektivitet, ju högre effektivitet ju snabbare blir toppkortet. Men om du alltid vill ha toppkortets prestanda med mellankortets förbrukning kommer du alltid bli besviken.

Tänk efter lite nu. Tänk om de nu gör så att GTX 1050 drar 100W men är lika snabbt som GTX 980, då kommer man med precis samma teknik kunna göra ett GTX 1080 på 300W som är 4 gånger så snabbt. Då kommer du vilja ha 1080-prestanda eller åtminstone i närheten, fast på 100W. Du kommer drömma om att 1150 ska vara lika snabbt på 100W osv. Annars hade du nöjt dig gladeligen med ett GTX 750Ti som är snabbare än toppkorten var för några år sedan. Eller för den delen med ett GTX 960.

Permalänk
Avstängd
Skrivet av Herr Kantarell:

nVidia fanboysen verkar ha glömt (alt kanske inte var födda för att veta) att AMDs 58x0 serie totalt dominerade nVidia.

Denna serie var dock inte optimerad för DX11 som inte hade börjat användas på allvar.

GTX480 var den första iterationen av nVidas nya DX11 generation.

79x0, 280(x) var AMDs första GCN.

AMD ligger en iteration efter. Ska bli spännande att se hur detta kort presterar och om AMD har satsat på DX12 prestanda direkt.

Vad är det de ska satsa på då eftersom DX12 är bakåtkompatibelt från Radeon HD 7000 och senare & Geforce GTX 400 och senare?

Visa signatur

The problem in society today: Smart phones, stupid people.

Permalänk
Moderator
Testpilot
Skrivet av Rajat:

Vad är det de ska satsa på då eftersom DX12 är bakåtkompatibelt från Radeon HD 7000 och senare & Geforce GTX 400 och senare?

Jag tror han menar att AMD's grafikkort som de har på marknaden nu är av samma generation som nVidias Kepler (700-serie) och att dom inte ännu har kommit med sin allra senaste generation såsom Nvidia har gjort med Maxwell.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem
Skrivet av Broken-arrow:

En led glödlampa som inte är defekt håller 10år och man får tag i en för runt 70/100kr slå ut det på tio år och hur länge håller glödtrådslampa? 1/2år om man har tur. Kostar väl runt 20/30kr för ett två pack.

Så är inga större kostnader. Är det kalt inne kolla om du har kallras eller kolla så elementen är hela och fungerar.

Bor man där elen kostar, men värmen är betald på hyran. Så vill man inte ha dyra lampor som drar onödigt med el.

Har glödlampor i farstun, dom har hållit i 7 år nu. Räknar med minst 7 år till innan dom går sönder....

Visa signatur

Engineer who prefer thinking out of the box and isn't fishing likes, fishing likes is like fishing proudness for those without ;-)
If U don't like it, bite the dust :D
--
I can Explain it to you, but I can't Understand it for you!

Permalänk
Medlem

Jag som jobbar med 3D professionellt öppnar popcornpåsen och lutar mig tillbaks en stund...

Permalänk
Master of Overkill
Skrivet av PowerNet:

De är inte LED ljuskällor som ger ljus, de började hitta ut först kring 2008 som satt.
Och tycker du att du är en "idiot" som argumenterar så får du tycka det, inte mig emot att du själv kallar dig det :).
Forum slm forum, det här är ett allmänt forum för alla knom datorområdet, inte specifikt högsta segmentet.
Och GTX 750 är inte ett intressant kort i jämförelsen med GTX970 eller GTX980 så där är du helt ute och cycklar, om de skulle satsa på att få ner ett säg 970 eller 980 till under 100W till kommande 1070/1080 kort så skulle det vara intressant, istället för att de satsar på höjd prestanda som egentligen är rätt ointressant i dagens läge.
Grafikkorten idag kan i princip jämföras med cpu:er, där cpu:er sedan 3-5 år år inte gått frammåt så mycket i prestanda, då det är relativt små hopp mellan varje ny serie, och ser man till prestanda så räcker en äldre 4 kärnig cpu mycket väl idag, precis som den med största sannolikhet funka precis lika bra om ett par år, precis som cpuer så har grafikkorten nått en nivå där utvecklingen trappas av och där det inte finns något större behov av höjd prestanda, utan behovet är snarare att de ska få ner energiåtgången till kommande kort.

Mm behov just de ja, och du talar för massan då eller?

Få ner energi får dom ju....
Men vill dom GÖRA stora chip så låt dom, bara köp inte skiten.

Det har hänt mycket på CPU sidan, det är stor skillnad på en överklockad 4690k och en 2500k.

Visa signatur

CASE Caselabs SMA8-A + TH10+PED + Louqe Ghost S1 CPU 9900k @5.3GHz (No AVX) 9800X @4.8GHz GPUs RTX 3090 FE RAM 4x16GB Corsair Dominator Platinum 3533MHz CL13 + 2x16GB Corsair Dominator Platinum RGB 3000MHz PSU EVGA T2 1600W + Corsair SFF 750W SSD 905p 480GB, 4x Samsung 970 Pro M.2 Headphones Audeze Maxwell + FOSTEX TR-X00 + Audeze LCD-2 + Moon Cable DAC/AMP Chord Mojo, Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard X299 EVGA DARK + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240

Permalänk
Avstängd
Skrivet av tvelander:

Mm behov just de ja, och du talar för massan då eller?

Få ner energi får dom ju....
Men vill dom GÖRA stora chip så låt dom, bara köp inte skiten.

Det har hänt mycket på CPU sidan, det är stor skillnad på en överklockad 4690k och en 2500k.

Hoppen i prestanda mellan 2 cpuer är rätt liten, de höjer frekvensen 100MHz och kallar det för en ny model.
Sedan så är det knappt 50% ökning på en 2500k vs 4790k i testerna, och det hörde inte till att jag sade att det mellan 2 cpu serier är liten ökning, men ser man det på tiden melan 2500k och 4790k så det är det knappa 50% skillnad, men då är det ändå strax över 3 års tid mellan de cpuerna.

Visa signatur

System: Corsair Obsidian 550D Midi Tower Svart || Corsair AX 850W PSU || Intel® Core i7-3770K Processor || ASUS P8P67-M || 2 x Intel® SSD 520 Series 180GB || Gigabyte GeForce GTX 670 2GB PhysX CUDA ||

Permalänk
Moderator
Testpilot
Skrivet av molsson:

Jag som jobbar med 3D professionellt öppnar popcornpåsen och lutar mig tillbaks en stund...

Kan ju vara skönt att veta för dig att ni har nått toppen nu så du kan sitta med den utrustningen du har för evigt.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem

Olikt molsson så känner jag tvärtom, vill kunna pressa ut mer detalj och slippa sitta och optimera lika mycket. Mer utveckling tack!