Inlägg

Inlägg som Livako har skrivit i forumet
Av Livako

Detta innebär ju att de kan lansera nästa gen ryzen q1 2025 med am6 utan att bryta sitt ord? Väldigt vagt formulerat.

Av Livako
Skrivet av medbor:

Du verkar ha rätt, jag kanske valde en dålig bild. Den stämde dock bra med min minnesbild därför kollade jag inte så noga

Så här ser en bild ut från TSMC själva:
https://www.digitaltrends.com/wp-content/uploads/2022/06/niitwZ4TY5ckKDEQMUnuwd.jpg?fit=720%2C720&p=1

Den är dock tvärt om på axlarna

Det ser inte ut som att effektiviteten ökar mycket just vid låg effekt, men en liten skillnad finns där, men jag kanske missförstår vad du sa?

15% mot 26% ökad prestanda vid samma effekt på de 2 olika effekt nivåerna är en relativt stor skillnad i min värld Det var hela budskapet jag ville få fram.

Av Livako
Skrivet av medbor:

https://images.anandtech.com/doci/17276/Power%20vs%20POV.png

Så här brukar graferna se ut när det kommer till prestanda mot effekt

Som ganska lätt ses är det ett väldigt ojämnt förhållande mellan effekt och prestanda och det krävs mycket mer effekt för att öka prestandan bara litegrann

Väljer man sina mätpunkter kan man lätt få skillnaden att verka större.

Ta till exempel prestandanivån 3650 poäng, som för den sämre kräver 40W, men den nya kräver bara 25W, bara 62.5% av effekten! Prestandan vid denna effekt har dock ’bara’ ökat med 24%

Tar vi istället nivån på 4275 så krävs det 80W men den nya kräver bara 35W, bara 43%! Samma här ungefär, prestandan vid 80W har ’bara’ ökat med 21%

Eller för den delen prestandanivåer på 5000 eller mer som inte ens fungerar med gamla chippet (kanske med överklockning?), alltså är nya ungefär oändligt mycket bättre!

Att jämföra vid samma effekt ger helt andra siffror

Det enda rimliga sättet jag sett sånt här mätas som jag gillar är att mäta total energiåtgång att utföra ett specifikt jobb, alltså göra samma jobb på två chip och mäta antal Joule = Watt*sekund, inte heller perfekt men mäter lite mer rättvist

Inga chip brukar låsas vid påhittade gränser som 6W, men om de skulle göra det med gamla chip så skulle de prestera långt mer effektivt än vid 65W också

Personligen skulle jag försöka hitta något bättre sätt att räkna, varje punkt på graferna kan ju ändras till att visa ’poäng per watt’ för att kanske göra jämförelsen lättare att smälta? Jag vet inte.

Men det är liknande som TSMC gör för nya noder: 50% mer effektiv vid samma prestanda eller 30% mer prestanda vid samma effekt. Sanningen är oftare kanske 15% upp i både effektivitet och prestanda om man ökar båda samtidigt

Alltså du har ju rätt men vad jämför du? den ena grafen är poäng i något test och den andra är klockan.

Hade det varit prestandan för 2 olika noder så hade de närmat sig varandra ju längre höger man går.

Om man ändrar detta till prestanda /watt istället för delay/volt så ser grafen mer ut som din fast de närmar sig varandra vid hög spänning vilket jag tycker är det relevanta!

Nya noder blir extremt mycket mer effektiva vid låg spänning och har sämre förbättringar vid hög. Därav så är jämförelsen 6W mot 65 W inte något att hänga i granen rent vetenskapligt då man förmodligen trycker på med högre spänning i 65 wattaren.

Ska man jämföra produkter så är det ju helt ok att jämföra dem vid samma prestanda, bara man inte tänker att tekniken i grunden blivit bättre i samma takt. Det viktigaste är ju att en produkt blivit bättre, drar den mindre vid samma prestanda så har produkten blivit bättre. Säger inget om tekniken dock.

Av Livako
Skrivet av Xinpei:

Det är ju nästan som det är billigare att producera 100-årig gammal teknologi i relation till relativt dyr ny teknologi. Detta med räkmacka är ironiskt roligt med tanke på vilken räkmacka oljeindustrin glidit på de senaste 60 åren.

Problemet är väl att en majoritet av skogen som finns i Sverige är lokaliserad i Norrland och klimatet dikterar vilken typ av skog som kan växa.

Samtidigt så importerar man in enorma mängder energi från Baltikum och Tyskland samt Polen som mestadels skapas genom kol och oljekraft. Sedan har ju Sverige Oljekraftverket i Karlshamn som går på högvarv etc. Oberoende så är ditt 2% något man kan ifrågasätta eftersom 27% av Sveriges energi kom från fossila bränslen 2020.

https://www.ekonomifakta.se/Fakta/elfakta/energianvandning/An...

Lite magstarkt att kalla någon lögnare när du själv kör med, vad som är bästa fall, cherrypickade siffror. Det är korrekt att Sverige exporterade energi... i PERIODER. Detta är det viktiga här... När Sverige behöver som mest energi (jan - mars) så måste man importera mängder av el för att kraftproduktionen helt enkelt inte klarar av att producera nog mycket el. Snittet av import under dessa månader är över 2500 GWh med februari som mest och då från kolkraftverk i Tyskland och Polen i majoritet.. I det fallet så hjälper det absolut ingen att man exporterar i t.ex. Juni när man i Februari har kraftig elbrist till den grad att samhället blir kraftigt lidande. Inte heller hjälper det klimatet att oljekraftverket i Karlshamn eller kolkraftverken i Tyskland får gå på högvarv för att Sveriges elproduktion helt enkelt inte orkar med vid hög belastning.

https://www.scb.se/hitta-statistik/statistik-efter-amne/energ...

Sverige har inte en enda dag i januari med netto import. Sämsta dagen exporterar vi netto 600MW i snitt och bästa dagen över 6000MW netto i snitt i januari.

Vi har till och med inte en enda dag i år med netto import. Vi exporterar varje dag mer än import.

Senaste gången vi hade netto import var i början-mitten av december då vi hade 3 dagar med netto import. Det var då Oskarshamn 3 var nere för reparation. Och priserna gick i taket.
Hatar att säga det men enda gången vi inte exporterar så är det för att ett kärnkraftverk måste stänga ner tillfälligt.

Vi exporterar de flesta dagar jan-mars mellan 3000 och 6000MW i snitt.

Din källa ger -2500 för import-export där export alltså måste vara en större siffra för att det ska bli ett negativt resultat. 600 import 3100 export exempelvis. Patetiskt att du anger netto export siffran som import hahaha.

Februari var blåsig värre med bland annat stormen otto och vi exporterade som fan då det också var varmare än vanligt i februari, motsatsen till vad du babblar om så gjorde vindkraften att vi kunde exportera enorma mängder el till Tyskland och Baltikum, inte tvärt om. Vi snittar export på 4500MW i februari vilket är högre än vårt snitt på hela året.

Hur som haver, ha en god dag.

Källa- kontrollrummet. -SMHI -din källa.

Av Livako
Skrivet av Roger W:

Om alla kort i ett visst segment är tydligt för högt prissatta för sin prestanda så behöver inget av korten få utmärkelse som jag ser det: Swec stämplar inte korten "minst sämst" utan att de faktiskt är bra produkter för sitt pris.

Vad räknas som högt prissatta för sitt segment?

3070 och 4070 har typ samma pris/prestanda idag då 3070 lagerrensas och har sänkts i pris.
4070 har dlss3, bättre energieffiktivitet osv.
3080 samma eller liknande pris/prestanda.

4070 har bäst pris/prestanda i 4000 serien.

Hela marknaden är kass, men ser inte hur 4070 sticker ut som dåligt prissatt, alla grafikkort kan ju inte anses för dyra, det blir ju subjektivt som fan?

Av Livako
Skrivet av Roger W:

Nej jag tror inte sweclockers recenserar och ger utmärkelser så snävt som du tror:
Tanken med en recension är rimligen att göra en jämförelse mot marknaden i stort i det här pris/prestanda-segmentet och inte bara inom 4070-serien!

Ok du har nog rätt men titeln är bokstavlien: bättre kylning till samma pengar.
Det är också en av motiveringarna till betyget som är ganska lätt att hitta. Det är den relevanta jämförelsen. Och bör ju starkt påverka betyget?

Ska man blanda in 3080, 3080ti, 3090, 6800xt och 6900xt så kommer inte en partnerkylare på 4070 ändra ekvationen om vilket kort som är rätt köp.
Så vi är tillbaka på ruta 1. 4070 FE vs 4070 partnerkort är det enda relevanta här.

4070 ligger i ett rimligt prisspann sett till alla andra kort i den nya generationen. Så bör inget kort få utmärkelser? Hela marknaden är dyr, inte detta specifika kortet.
Vi har en bättre version än FE av ett bra kort med samma pris som FE på en marknad som i sin helhet är dyr. Det är fortfarande en utmärkt produkt i min mening.

Av Livako
Skrivet av Hembrygd:

Om priset är irrelevant kan du få köpa ett till mig. Jag kan stå för frakten.

Kul du va då?

Priset på partnertillverkarens lösning i förhållande till FE är relevant och den är noll kr enligt recensionen. Har du bestämt dig för att köpa ett 4070 och ska välja mellan de tre 4070 korten i recensionen så ska jag gladeligen betala mellanskillnaden på 0kr.

Det finns en recension av 4070. Där är totalpriset relevant.

Nu recenseras partnermodeller av 4070. Det är en jävla skillnad. Nu fokuserar man på att jämföra olika 4070 och då är det helt enkelt där man får dra jämförelsen. Är denna kylare utmärkt? Ja. Är priset samma som den andra kylaren? Ja.
Gött då är det ett utmärkt val av 4070 att gå med den bättre kylaren för samma pris.

Av Livako
Skrivet av Dizzö:

Betyg "Utmärkt" igen...

Hur?!

Om priset hade varit 2000 kr mindre hade det kanske varit närmare utmärkt.

Fast detta är väll endå en recension av partnertillverkarnas produkter och inte en recension av nvidias priser på 4070?

Vi får ett bättre grafikkort än FE modelen till samma pris. Det är ett UTMÄRKT val att välja dessa över FE, nvidias prissättning på gpun är irrelevant här. Recension handlar om vilken version man ska välja om man av någon outgrundlig anledning fått för sig att köpa ett 4070.

Jag anser betyget vara korrekt om man faktiskt tänker efter och förstår vad som recenserades.

Av Livako
Skrivet av Kent:

Återkommande fråga, men testar man ex. i 4K är det grafikkortet och inte CPU:n som begränser. Dvs. man kommer inte se någon vidare prestandaskillnad iom. att många högpresterande cpu:s inte har något problem att mata ett grafikkort i 4K.

Då får jag bara poängtera snabbt att det är extremt viktig konsumentupplysning att visa var gränsen går. Alltså hur billigt kan man komma undan och ändå få samma prestanda som med dessa cpuerna som testades här.

Detta är extremt viktig information för konsumenten. Alltså det bör i alla fall poängteras att det finns i princip ingen rimlig anledning att köpa denna cpu för spel i upplösningar som man inte ens orkar testa för den är så overkill.

Alltså tänk va mycket folk som bara: fan den där är ju bäst den ska jag ha! Topklass o grejor! Och så kommer de hem med den till sin rigg och inser att de kunde köpt en 5 år gammal i5a och få samma prestanda i 4k. Tradigt. Pengar i sjön. Onödigt.

4k grafen har sin plats även om den är platt som en pankaka.

Av Livako
Skrivet av atego:

Min sambo jobbar som svenskalärare, nästan alla inlämningsuppgifter där hon ska testa svenska, är skrivet av chat GPT, därav har de fått sluta med precis alla inlämningsuppgifter och endast ha prov på plats vid borden. Detta då på högskolenivå.

Tekniken att betala en kompis för att skriva sin uppsats åt en har la funnits länge, att chatgtp är en bra kompis gör ju bara att något som länge varit ett problem fixas.
Betygsgrundande uppgifter bör utföras på plats.

Av Livako
Skrivet av Mithras:

Från den synvinkeln har du ju såklart helt rätt, och jag håller med dig helt där. Om 900W är vad den maximalt kan ta, vid maximal överklockning och optimala förhållanden, då är det en femma.

Frågan från början var ju varför vanligt folk är emot ett grafikkort med TDP 900W, vilket är något helt annat.

Självklart är det intressant att se var gränserna går och vad man kan uppnå om man överdriver allt till sin gräns, nu är dock insinuationerna att 900W är det som ska bli TDP på t.ex. en 4080Ti, och det är i den kontexten som vi diskuterar.

Fast låter 48 Gig Vram och 900w TDP som ersättaren till 3080ti. Snarare ett mer obskyrt kort än titan Z var… kostar detta kort samma som msrp för 3080ti så köper jag omedelbart. Bara att klocka ner så den drar vad man tycker är rimligt…. En varm sommardag kanske 300w räcker men på vintern så kanske man behöver ett extra värme element. Ännu en funktion, fantastiskt!

Av Livako
Skrivet av DavidtheDoom:

Att lyckas pressa slagspänningen från 0.75 till 0.7 med nya GAA-grindar är stort. Troligen är det en del av förklaringen till att det inte blir några fenomenala täthetsförbättringar.

En halvering i energiförbrukning är även det enormt, däremot lär ju peakprestandan kanske vara mindre imponenerande. Sällan alla processhörn sammanfaller, särskilt vid stora förändringar i halvledardesign.

Sedan är ju allt marknadsföringssiffror, så vi får väl vänta på faktiska produkter innan det går att säga något. Troligen är detta perfekt för t ex small-core kärnor som bara ska puttra på med låg energiförbrukning och måttlig prestanda.

Viktigt att tänka på är ju att skillnaden i spänning från avstängd till att halvledaren precis börjar leda är totalt ointressant för top produkter där man ändå fjäskar på med så mycket spänning som möjligt för att uppnå så hög klockfrekvens som möjligt. Vi hade behövt en graf över hur prestandan skallar med höjd spänning för att kunna göra några relevanta antaganden om verkliga produkter. Men absolut bra förbättringar vid best case som jag antar att siffrorna avser.

Av Livako
Skrivet av Mithras:

Nu vet jag inte vilka dessa "folk" är,

kan ju säga att jag som ägt 1080Ti, 2080Ti och nu 3080Ti kommer absolut inte köpa ett kort som trycker på 900W från fabrik.

Någon måtta får det vara och den gränsen går definitivt innan 900W, det tror jag de flesta är överens om.

Däremot tror jag inte heller att detta är ett kort som kommer bli 4080Ti eller ens ett 4090, låter snarare som ett enterprise Titan.

Smart money ligger på att 4080Ti kommer dra 350-500W

Kanske bara är jag som tycker överklockning är trevligt. All överklockning är dålig prestanda vinst för mycket effekt påslag. Framtidens kort kommer vara mer energieffektiva än dagens. Klockar man ner detta 900w kortet så det presterar som dagens top kort så skulle det vara mer energieffektivt. Men möjligheten att trycka på finns. Och om de testar att köra ett kort i 900w så kommer det vara yttersta överklockningsgränsen inte nödvändigtvis vad det kommer ha som standard effekt men va fan kanske är dåligt att de pressar prestandan mot topen vad vet jag?

Och som du säger detta kommer inte nå markaden i första taget så det är mer en fråga om vad man kan göra och om det är intressant vilket jag personligen tycker att det är men kul att åsikterna är delade!

Av Livako
Skrivet av Roger W:

Bortsett från benching och rekord så är det exemplet inte häftigt, utan mest bara ett slöseri. Nästan dubbla effekten för 15% prestanda?

All överklockning är väll orimligt energipåslag för medioker prestanda vinst. Det är så transistorer fungerar.
Så länge värmen kan ledas bort så ser jag en möjlighet att använda det till vardags och för mig är det i alla fall intressant men om överklockning inte är intressant så kanske swec ska börja testa undervolt på grafikkortstesterna istället för överklock?

Av Livako
Skrivet av Mithras:

Möjligen, men nu frågade du varför folk är pressimistiskt inställda till högre watt och jag svarade på den frågan

Absolut, det är klar ingen vill ha högre effekt om man inte kännar något på det men är ganska säker på att folk skulle tycka att det var häftigt om man kunde slänga på 300 watt extra strömförbrukning på ett 3090 och få 15 % extra prestanda. Man kan ju också sänka spänningen på de framtida korten. Det är ju inte så att de kommer bli mindre energieffektiva. Man kan ju see möjligheter istället för problem!

Av Livako
Skrivet av Mithras:

Vad ska man svara egentligen på frågan "varför inte dra 900W på ett grafikkort".......

1. Väldigt få människor sitter med (minst) ett 1200W-agg i sin PC
2. Väldigt få människor har råd och lust att köpa (minst) ett 1200W-agg till sin PC
3. Väldigt få människor har lust att bygga om hela sin PC-setup bara för att ackommodera värmen som bildas av en 900W-GPU
4. Väldigt få människor har lust att bygga om hela sin PC-setup bara för att ackommodera storleken en 900W-GPU kommer ta
5. Väldigt få människor har lust att eventuellt behöva möblera om hela rummet där PC'n sitter för att ackommodera värmen som bildas av den PC som har en 900W-GPU i full slag
6. Väldigt få människor har lust att se sin elkonsumption gå upp till de höjderna i tider där elen har slått rekordpriser

Finns säkert en jävla massa andra saker jag glömt, men dessa är väl de som dök upp först i mitt huvud. 900W betyder att man måste köpa ny PSU som kommer vara väldigt dyr, och troligtivis ett nytt chassi som kan ha rätt luftflöde samt plats för den 4-ports kylare som troligtivs hamnar på grafikkortet. Sen måste PC'n sitta någonstans bra där den inte värmer upp hela rummet till en bastu.

Nu ingår min el i avgiften till BRF, men finns nog andra stackars satar där ute som inte gillar att deras PC kommer dra över 1kW

Fast det är ju inte ett grafikkort som kommer passar dessa personer. Det kommer ju grafikkort med mindre prestanda och lägre energiförbrukning. Dessa kort som inte drar så mycket passar jättebra till folk som inte vill höra dessa anpassningar.

Om det är omöjligt att nå den prestandan dessa kort kan ge utan att höja effekten, är det då bättre att korten inte kommer alls? Allternativet är ju inte samma höga prestanda vid lägre effekt…..för der är omöjligt i nuläget. Det är svårt att förbättra nanoteknik för topprestanda!

Av Livako

Hur kan folk vara så negativa till mer prestanda? Hade man fått samma prestanda vid 200w så tro fan att vi hade sätt 200w kortet men nu krävdes det mer effekt för att pucha prestanda topen så varför inte???

Av Livako
Skrivet av Jacob:

Det du benämner som "chip" använder vi termen "kretsar" för på SweClockers. Det vi syftar på är substratet man fäster den färdiga kretsen på.

Listade ut det hela efter min kommentar, flera substrat att hålla koll på:) ABF var lite av en nyckel term här men i alla fall.

Lycka till i framtiden!

Av Livako

Substrat när man pratar chip är ju kisel wafers… som man etsar strukturer i som efter det är ett chip.
Är det kiselplattor ni påstår att det är brist på som ska göra att det lättar upp på marknaden till sommaren eller vad snackar ni om?

Av Livako
Skrivet av Iliyena:

Mitt resultat: 8/10.

En Hertz är en händelse per sekund, inte just skärmens uppdateringsfrekvens utan alltså skärmens uppdateringsfrekvens per sekund. Annars kan den frågan skapa en ny oreda där den försöker separera FPS och Hz utan att specificera att det fortfarnade är per sekund.

Nöjd med min gamla 60Hz skärm, inte lyckats se skillnad på 60 och 120Hz på telefonen eller en TV ännu så försök inte övertyga just mig, det enda jag upplevt var en mjukvarugrej på en gammal plasma som skapade en otäck overklig accelererad rörelse i en fotbollsmatch...

Mindes att jag läst en diskussion och en artikel länge sedan:
https://www.sweclockers.com/forum/trad/1038510-hur-manga-bild...
samt
https://www.voodoofilm.org/nyheter/ogat-3021

Jag nöjer mig tills jag märker något, har inte pengar att investera i de bra grejorna ändå

Nu är det ju ändå du som skapar oreda.

Hertz är enheten för frekvens!
Alltså också enheten för uppdateringsfrekvens.

Du skriver updateringsfrekvens per sekund vilket blir kaka på kaka, lite som att skriva längd per meter. Det blir ju jättefel!