Inlägg

Inlägg som houze har skrivit i forumet
Av houze
Skrivet av Wasp:

Själv så tycker jag att det ska få vara kvar. Det är ju absolut rena dumheter men samtidigt tycker jag folk ska få tro vad dom vill. Stupid will be stupid även om man försöker tysta dom.

Tyvärr så är det inte bara att folk tror på saker utan även handlar efter den tron vilket kan få enorma konsekvenser. Framförallt i tider som dessa är desinformation, fake news och konspirationsteorier extra farliga för folk har för mycket tid att tills sig av dessa.
Ett exempel är mannen som försökte krascha sjukhusskeppet Merci i Los Angeles med ett tåg (https://www.nytimes.com/2020/04/02/us/train-crash-los-angeles-coronavirus.html), hade han lyckats kunde hundratals sjukvårdspersonal och patienter blivit skadade eller värre och massor av intensivvårdsplatser blivit förstörda.

Så denna typ av censur behövs, finns individer som inte klarar av att hantera denna typ av information.

Av houze
Skrivet av Yoshman:

Skriver detta på en Surface Pro, den har en maximal effekt på 25 W trots sin TDP på 15 W. Ska kolla jobbdatorn, rätt säker att maximal effekt där är >25 W trots samma 15 W TDP. Maximal effekt är något datortillverkaren kan sätta själv (inom vissa gränser), det är upp till varje design att säkerställa att den klarar just den maxeffekt som konfigurerats.

Edit: latitude dator hade faktiskt "bara" 23 W som maxeffekt. Intressant nog verkar det gå att ändra (nog på egen risk), i all fall under Linux om man använder sig av något som kallas msr-tools och Intels CPU-manualer (vad som ska skrivas var skiljer sig mellan olika modeller(!!!) så man måste kolla rätt tabell, är MSR_RAPL_POWER_LIMIT man ska ändra).

25W är väl max design power för U-serien? Så din Latitude är nog dimensionerad att dra 23W under längre tid medans den kan gå upp till 35-45W under 10-20 sekunder boost, om jag fattat rätt så kan även U-processorn i Surface Pro dra över 40W under kortare tid men efter 10 sekunder går den snabbt ner till ~25W.
Surface Pro CPU power

Av houze
Skrivet av Nyhet:

För att få använda HS-serien måste tillverkare leva upp till vissa krav AMD satt. Ett av dessa är just profilen som ska vara under 20 millimeter, samtidigt som batteritiden ska vara "över 10 timmar" vid videouppspelning. Processorerna måste även paras ihop med strömsnåla grafikkort, som AMD:s egna eller Nvidias energioptimerade modeller med suffixet Max-Q.

Är verkligen nödvändigt med ett grafikkort? HS-serien borde fungera utmärkt i lättare workstation-laptops och mera grafik-prestanda är ju sällan nödvändigt för att kompilera kod, köra VMs eller liknande. Eller är HS-serien förbehållen gaming-laptops?

Av houze
Skrivet av Nyhet:

Därtill lämpar sig DDR5 även för att staplas i 3D-kretsar och för den nischade LRDIMM-marknaden

Vet inte om jag skulle kalla LRDIMM för nischad, tillverkas massiva mängder av dessa för att driva "molnet", brukar ju vara 0,5-2TB per server.

Av houze
Skrivet av sKRUVARN:

Fortfarande lite orolig för strömföbrukning. I gaming-laptop-kategorin så spelar det ju mindre roll, och absolut prestanda och effektiviteten under last ser riktigt bra ut! Men kollar man på notebookchecks test så skriver dom:

"Idling on desktop will consume anywhere between 30 W and 37 W to be far higher than initially anticipated. Even when on Power Saver at the lowest possible brightness setting with the integrated GPU active, consumption would be 30.8 W on average compared to just 17.6 W or 11.2 W on the larger Zephyrus M or Dell G7 17 7590, respectively. "

Man får väl hoppas att det delvis är Asus fel här, för detta har ju varit ett av AMDs större problem med deras mobila chip, att dom helt enkelt drar för mycket under lätt använding och i idle. För jag tror att rätt många som använder laptops pendlar mellan 0 och 40% last större delen av dagen. Jag hoppas nu när fler tester trillar in att vi får se någon model åt ultrabookhållet som faktiskt klarar en en arbetsdag utan att behöva ladda.

De siffrorna måste vara fel, med ett batteri på 76 Wh så skulle den bara räcka i 2h30m vid lite 30W effekt men deras tester visar idle på 5h42m vilket är ~13W. De måste skrivit fel, mätt fel eller kört laptopen på en annan power plan med nätadaptern i.

Av houze
Skrivet av Xake:

Min fråga är vems problem EU försöker lösa.
Har kollat runt lite, och hittar inget som tyder på att det skulle vara ett problem i Sverige med att nätet är överbelastat.
Se ex https://www.netnod.se/ix-stats/sums/Stockholm.html och du ser en topp på ungefär 200-400 gig mer än normalt. En topp. Resten är inte så mycket högre än vanligt. nl-ix ser inte helt olik ut heller.
Vad du ser är att trafiken under mitten av dagen ökat. Men som nät fungerar är det topparna man måste kunna hantera.

Vilka jag tror lider mest i Sverige är småspelarna som betalar peering per gig, och som är så små att den ökade datamängden kommer göra skillnad i deras marginaler och vill fortsätta kunna hålla nere sina priser. Oftast små spelare som inte direkt vill betala för direktpeering mot och cachelösningar för google, microsoft, netflix med mera.
Men å andra sidan är frågan om det är EU/Netflix sak att lösa att de inte har prisplaner som inte håller under nuvarande situation. Är det inte dessa tjänsteleverantörer som borde krypa till korset och erkänna för sina kunder att de inte kan leverera vad de lovat i datamängd och hastigheter?

Nummer två som lider är de monopolistiska tjänsteleverantörerna. Ni vet de som när du klockan 20 har dålig hastighet i sitt accessnät säger att det inte är ett problem, för du har inte dålig hastighet klockan 13, och kommer undan med det normalt sett eftersom de inte har några konkurrenter som ser det lönsamt att dra fram nät parallellt. Detta är oftast begränsningar i access-nätet (delen närmast kund).
Utifrån hur fiberutbyggnad och liknande fungerat i Sverige är dock inte detta ett problem förrän man kommer ut till riktigt otätbefolkade område. I öppna nät (som de flesta stadsnät är) så är det kontakt mellan tjänsteleverantör och stadsnätet som gör det svårt för det öppna nätet att inte kunna leverera den hastighet 24/7 som tjänsteleverantörens kund har. Med andra ord måste det finnas en buffer så hastigheten är godtagbar även klockan 20 på kvällen. Eller som i villafibernät byggt av Telia där ofta Bahnhof, Telenor eller andra får sätta upp switchar parallellt med telias i samma nod, koppla över kunder och det är konkurrens hela vägen ner på infrastrukturnivå.
Med andra ord inte så utbrett problem i Sverige längre som det var för 10 år sedan. Och fortfarande något där snarare leverantörerna borde krypa till korset och erkänna för sina kunder. Inget EU/Netflix borde lösa åt dem.

Så med andra ord: vilkas belastningsproblem är det EU vill att Netflix löser?

Snacka om skygglappar, du skriver Sverige flera gånger och länkar till en enskild knutpunkt i Sverige medans detta handlar om EU. T.ex. har DE-CIX slagit rekord i trafikmängd med 9.1 Tbps den senaste tiden.
Nu har jag inte koll på hur belastat olika delar av nätet inom EU är men vad denna EU-kommissionär försöker göra är att föregå eventuella problem genom att inleda en diskussion med Netflix hurvida de kan begränsa sina datamängder så mer verksamhetskritiskt datatrafik får utrymme.
Vad är viktigast, datatrafik för underhållning eller datatrafik för företag och personer som betalar skatt och konsumerar så att välfärd och företag fortfarande går runt?

Detta är långt från ett problem i Sverige och stora delar av EU men det är bra att någon kollar upp möjligheter om det skulle bli värre och förbereder för mer extrema scenarier och Netflix är en av de tyngre plattformarna så om de kan förbereda att minska sin trafik vid ett eventuellt kapacitetsproblem så är mycket bra.
Bör tilläggas att bara för att Netflix behöver begränsa sin trafik i någon del av EU så innebär det inte att de behöver göra det överallt, om t.ex. nätet i Spanien inte skulle orka med så kan Netflix sända där med 480p medans de fortsätter med normal trafik i Sverige och Frankrike.

Av houze

Svarade "Nej, men har haft" sen kom jag på lite efter jag svarat att jag har dubbla grafikkretsar men inte dubbla kort, ett GTX 1070 och Intel HD Graphics 4000 i min CPU så jag skulle kanske svarat "Ja".

Hade någonstans mellan 1999-2001 3 st grafikkort eftersom korten på den tiden enbart stödde en skärm och jag hade 17", 15" och 14" skärmar jag ville ha inkopplade, har för mig jag hade ett 3dFX Voodoo 3000 PCI, Matrox Millenium PCI och Cirrus Logic 5420 ISA, så jag svarade "Nej, men har haft"

Och nu trillade poletten ner att detta förmodligen gäller SLI/Crossfire vilket jag aldrig haft och jag borde kanske svarat "Aldrig provat"

Av houze
Skrivet av DaBone:

Ok, tänkte mer om det låg något i Sverige eller utomlands.. Om servrarna ligger utomlands, så kan det ju bli mer problematiskt, tänker jag.

Jag har inte varit runt så mycket i olika datacenter men har för mig att Netflix har servrar hos Interxion i Stockholm där ett 80-tal olika nätleverantörer har sin utrustning.

Edit: blandade ihop Interxion och Equinix (f.d. Telecity), Netflix har servrar hos Equinix i Stockholm på två hallar.
https://www.peeringdb.com/fac/156
https://www.peeringdb.com/fac/684

Du kan hitta mer info här: https://openconnect.netflix.com/en/peering/

Av houze
Skrivet av DaBone:

Var ligger Netflix:s servrar? Är de här i Sverige för oss svenskar eller i något annat land?

Netflix har servrar lite överallt, dels i co-location datacenter som är knutpunkter för många ISP:er så den kan koppla in sig direkt i ISP:erna stamnät, dels i datorhallar hos ISP:er och i egna hallar.

Av houze
Skrivet av Yoshman:

Misstänker precis som herr Eklöv att Alder Lake mer är en testplattform för tekniken. Att kombinera få "stora" kärnor med många små har poänger även för desktop, men det är i enheter som är kraftigt TDP-begränsade där de klart största fördelarna finns.

Väldigt mycket i UI är helt sekventiellt, d.v.s. det har noll skalning förbi en enda kärna. Samtidigt är lägsta möjliga latens av största vikt för UI, så man vill köra den logiken med snabbast möjliga enkeltrådprestanda.

Kikar man på utvecklingen hos ARM och specifikt Qualcomms systemkretsar baserade på Cortex A76 och senare ser hur detta kan nyttjas. En filosofiändring tog plats just med A76, man gick från att enbart prioritera lågt pris och perf/W till att designa långt mer komplexa kretsar (men de består fortfarande av väsentligt färre transistorer än motsvarande x86) som presterar i nivå med (och sedan Cortex A77 bättre än) Skylake/Zen2 per cykel.

Problemet med en sådan design är att det drar mer ström i absoluta tal, det är inte på något sätt rimligt att ha fyra-åtta sådana kärnor körandes i maximal frekvens inuti en telefon. I moderna high-end Snapdragon har man en Cortex A76/77 kärna som är optimerad för maximal frekvens. Det är kärnan som OS:et kommer lägga UI-jobben på. Sedan har man typiskt 1-3 A76/77 som är lägre klockade, mer optimerade för maximal perf/W och sedan finns fyra "små" kärnor som med fördel tar hand om alla bakgrundsjobb som musik, notifieringar etc. Detta ger både optimal responstid i UI samtidigt som bakgrundsjobb tar minimalt med ström (== minimalt med värmeutveckling).

Problemet med en strikt symmetrisk design när TDP är en väsentligt flaskhals syns bl.a. i AnandTechs test av Intels nya NUC Frost Canyon som har 6C/12T. Kör man Cinebench är Frost Canyon klart snabbare än föregångaren Bean Canyon med sina 4C/8T, men kikar man i stället på uppgifter som är mer typiska på bärbara och NUCs så är Bean Canyon väldigt ofta snabbare! Här blir det en nackdel att 6C/12T leder till att frekvensen, och därmed enkeltrådprestanda, straffas under last jämfört med 4C/8T.

Edit: Fördelen med en strikt symmetrisk design är enklare OS-design. För att riktigt utnyttja en asymmetrisk design optimalt bör applikationerna explicit ge information till OS:et om vilken typ av last en viss tråd är avsedd för. Det går att automatiskt klassificera OS-trådar, Linux gör redan det, men även om det är träffsäkert kan det aldrig blir 100%-igt.

Att köra samma lösning som Qualcomm nu har för Snapdragon är helt rätt för bärbara. Man "reserverar" utrymme för en eller max två kärnor att köra på hög frekvens oavsett last på andra kärnor. För de laster som skalar väl med kärnor har det alltid varit så att många enklare kärnor ger bättre perf/W jämfört med färre snabbare kärnor, så man låter då sådan laster primärt köra på "little" kärnorna.

Möjligen kan det finnas vinster även när TDP är på desktopnivå, men de är inte fullt lika uppenbara som för enheter med kraftigt begränsad kylning och/eller som går på batteri.

Är förmodligen för Intel vill fortsätta använda samma kisel för bärbart och stationärt, i en bärbar med 45W TDP så finns det anledningar att ha BIG.Little och när de små kärnorna ändå finns med på kislet så kan de lika gärna vara aktiverade på S-CPU:erna också.
Ungefär grafikdelen som inte är så flitigt använt på t.ex. gaming-datorer men man får med det på köpet för att Intel inte vill ha olika konstruktioner.

Av houze
Skrivet av Ratatosk:

Jag trodde att vi redan 2017 skulle få en en APU med HBM cache, hade tyvärr helt fel, väntar fortfarande.
Stora fördelar med deras modulbyggande.

Jag spekulerar att även detta inte har med HBM att göra, utan att stapla CPU:er. Tänkt dagens EPYC med 8 CPU-chiplets, så staplar man 2 eller 4 på höjden för att få 128 eller 256 kärnor.

Av houze
Skrivet av osgorth:

Värt att notera här är att de pratar om performance/watt, dvs inte om faktisk prestanda utan bara att det är betydligt mer effektivt än nuvarande generation. Det i sig är ju jättebra och välbehövligt med tanke på nya konsoller osv, men det säger ingenting om faktisk prestanda.

Jag ser flera i media som redan misstolkat dessa slides till att betyda "50% snabbare!!" och det vet vi ju ingenting om ännu.

Men ja, spännande med lite bra nyheter på en torr och trist marknad.

De har nog inte misstolkat att det rör sig om ~50% snabbare, de skulle givetvis kunna släppa nästa generation som presterar som dagens generation men drar mindre betydligt mindre ström men det känns osannolikt.

De kommer nog som vanligt att försöka få ut så bra prestanda som möjligt inom vettig strömbudget, så även nästa generations topp-kort kommer dra ~250W men prestera ~50% mer än dagens.

Tror inte de flesta kunderna skulle uppskatta om t.ex. 3080ti drar 150W men presterar som 2080ti.

Av houze

Byggde nuvarande dator 2012 när Intel Ivy Bridge och Nvidia Kepler släpptes och hade en DVD-RW i gamla datorn som fick följa med för den kunde vara bra att ha.
Har faktiskt haft lite nytta av den, men det är typ 1 gång om året så kunde lika gärna bara lånat en extern.

Av houze
Skrivet av Insanyrd:

Är detta Intels sista cpu serie på 14nm noden tro?

Nej, Rocket Lake kommer nästa år på 14nm men Comet Lake kan vara den sista serien baserad på Sky Lake om rykten kring Rocket Lake stämmer.

Av houze

Röstade 4 för det är det jag använder mest.
4 st i två datamaskiner jag använder oftast, Intel 3770k och Intel Xeon E3-1231v3.
6 st i AMD 1090t som är igång väldigt sällan.
4*8=32 med Intel Xeon E7-4820, används nästan aldrig.

Av houze
Skrivet av jan-banan:

Borde inte AMD vara perfekt för bärbara då de borde dra mindre ström pga tillverkningstekniken.

Droppen för intel skulle väl vara om Apple gick över till amd i sina bärbara dock kommer det nog aldrig hända innan Thunderbolt finns till AMD.

Skickades från m.sweclockers.com

Detta är för Q4 2019 och än så länge finns inga Zen 2-baserade 7nm mobila enheter på marknaden, antar de börjar dyka upp nu eftersom det var mycket sådant på CES 2020.
Äldre Zen+ var inte lika effektiv, ska bli spännande att se tester på mobila enheter med Ryzen 4000.

Är dock inte bara själva CPU-kärnorna som drar ström även om de är en viktig del, finns många komponenter i en bärbar dator och Intel har jobbat mycket med att förbättra allt som behövs i bärbara datorer för att få dem mer effektiva.

Av houze

Skiljer deras åsikter så mycket? Jag tolkar uttalandena som att båda är för regleringar inom detta område men Microsofts Brad Smith utvecklar det lite mera och vill ha mer genomtänkta och anpassade regleringar.
EU verkar vilja förbjuda detta helt medans Google och Microsoft vill ha det reglerat och det tycker jag är en stor skillnad.

Av houze
Skrivet av Teddis:

Är NUC fortfarande kvar på quad-cores?

Den med dedikerad GPU kan bli intressant att sätta lös som mobil videoredigeringsstation (lätt att packa med, helt enkelt) men quad-core är lite utav en dealbreaker. 28W TDP låter inte som mer än så.

EDIT: ser att NUC 10 hade hexacore så då kanske det finns hopp

Den information/rykten som finns om Tiger Lake säger att det enbart är Quad core. Blir rätt varmt i så små chassin om de skulle gå över 28W så det är nog inget man vill ha för tyngre saker men förmodligen utmärkt prestanda i litet format för mycket andra saker.

Av houze
Skrivet av Chromatic:

"You cant rush greatness!"

Fack off, 6 år är inte att rusha xD

5 månaders fördröjning är inte så mycket, kunde varit värre om titeln innehöll releasedatumet, visserligen bara 57 år tills dess men jag misstänker min syn och hörsel är kraftigt reducerad när man närmar sig 100 år.

Av houze
Skrivet av Sveklockarn:

Det var inte tal om direktverkande el, utan om samtliga idag som inte har ett hus som värms med en egen panna.

Även fjärrvärme använder kopiösa mängder elektricitet för att t.ex. driva cirkulationspumpar.
Direktverkande el möjligen. Allt från bergvärme till fjärrvärme och alla andra förekommande typer av uppvärmning i hushållen som inte är baserade på förbränning är baserade på just elektricitet. Fjärrvärmen drar naturligtvis mindre el hemma hos konsumenten i förhållande till värmen som erhålls, men man får även ta med energikostnaden för alla förluster på vägen samt driften av näten. Uppvärmning med el är inte alls någon dålig idé, tvärtom är det en långt effektivare överföring i många fall.
Biomassan tar sig fortfarande inte till värmeverket för egen maskin. Fjärrvärme kan vara OK som en överskottsprodukt från kraftproduktion med ånga.
Till kostnaden av att svåråtervunna sällsynta jordartsmetaller utarmas för att göra lysdioderna, men det är ju ett senare problem förstås...

Kopiösa mängder för cirkulationspumpar är väl ändå att ta i, energibortfallet går väl fortfarande att räkna på fingrarna. Bergvärme/jordvärme och även luftvärme kommer ju åtminstone upp i 4:1 (de senaste 10-15 åren är det väl 1:6 som gäller) i effektivitet så glödlampor är hur man än räknar (förutom kanske direktverkade el) är en energislukare som inte har någon plats i ett modernt samhälle.
Så länge det inte finns ett riktigt bra sätt att producera el så är eluppvärmining en dålig idé. Det finns dock enorma energi-tapp på värmekraftverk och liknande så det finns stora behov av forskning inom ämnet och framförallt mera anpassade och tekniskt kompitenta politiska beslut* (inkompetens i kommunala bolag upphör aldrig att förvåna).
* Arbetade för något decennium sedan på ett medelstort IT-bolag som behövde utöka sin serverpark så man bestämde sig för att bygga en ny serverhall, servrar behöver el och kyla, el fanns eftersom det alltid finns några gristrynen i väggen men kyla behöver lite mer saker så vi kollade med det kommunala energibolaget om de ville ha +200kW värme men de tyckte det var bättre att vi köpte +200kW kyla istället eftersom de börjat sälja fjärrkyla så det slutade med att vi pumpade ut all el-energi som våra servrar förbrukade som värme ut i luften och värmde möjligtvis förbipasserande flyttfågel och för att påskynda den globala uppvärmningen för det var billigare än att tillföra värme till staden. Ja, jag vet att värme från servrar håller sig inom en obrukbar temperatur men det hade ju inte varit jobbigt för energibolaget att lägga in det i sin returledning och få 200KW mindre att värma upp på matningen men så fungerar vinstdrivande kommunala bolag som bara vill sälja tjänster.

Det är givetvis ett allvarligt problem att t.ex. LED-belysning behöver vissa svårutvinna grundämnen, men i dagsläget är det mer allvarligt att man behöver i stora delar av världen gräva upp kolsänkor som varit inaktiva i hundratals miljoner år. Borde inte kräva så många års av forskning för att hitta sätt att återvinna rare-earth-metals eller få igenom politiska beslut om återvinning av dessa för tillverkare.