Chrome använder mer minne efter åtgärder mot Spectre

Permalänk
Medlem
Skrivet av anon159643:

Extremundantag från sverige befolkning på 10 miljoner, men inte extrem i sett till nördar. Min utrustning hemma är vanliga konsumentprylar som nästan varje korvkoisk har i lager. Det enda speciella är ram som just nu är svindyrt.

Men inom datorteknik från den kom till vanligt folk med vic20 och allt, så har det som för den stora skaran varit extremt, endast om några år efter varit det den stora skaran behöver för sitt dagliga arbete. Även om nu utvecklingen har stagnerat på senare år av flera orsaker som att våra datorer allt mer liknar tunna klienter.

Min poäng är att ni som tycker 64GB är mycket idag och ni jobbar inom IT, så kommer ni troligen arbeta i framtiden säg om 10år arbeta med liknande arbetsfiler som vi andra gör idag. Och ni kommer inte på något sätt tycka detta är extremt, men ni kommer än igen (historien upprepas) häpnas över varför vi andra då sitter med säg 500GB ram i våra desktops.
Precis så har utvecklingen inom persondatorer gått sedan 70 talet och jag antar den ej kommer ändras nu, även om som sagt cloudtjänster förflyttar ens systemresursbehov från sin dator i hemmet till någon server.

Njae. Det går än idag att köra 4GB RAM för enklare saker också. 8GB är väl minsta jag skulle tänka spela på iaf.
Även att redigera lite film/video gör jag lätt på 16GB. Det som ändrats är att man använder RAM extremt slarvigt och friskt av program och programmerare idag. Så saker man kunde köra på några 100MB förr, tar 1GB+ idag, för det ger 5% högre prestanda.

Så frågan blir då... är 5% mer prestanda värt all den extra RAM krav, eller ska du bara köpa en 5% snabbare CPU/Disk?

Det jag sett är precis som du beskriver, en extrem ökning från 4MB till ca 4GB. Så för mig vill jag minnas 4MB->16MB->128MB->384MB->512MB->1GB->2GB->4GB i mina datorer. Men när 4GB började bli lågt, och man satte in 8GB, var 10 år sedan. Så från tidigt 1990-tal till ca 2007, har vi gått 1000x ökning av RAM mängd. Men ca 10 år sedan stannade allt... på 10 år har behovet för de flesta av oss gått från 4-32GB i högsta fall, men normalt 8-16GB bara.

Självklart kommer VMs ändra allt detta, då du måste ha RAM nog för två maskiner i en. Men beviset på att 16GB RAM är mer än nog för en masknin finns i ditt eget svar tidigare i tråden:

Skrivet av anon159643:

Varje i min värld stor sqlserver ska minimum ha 16GB ram, 4st och det är 64GB ram enbart åt hemma. (sedan finns det extema databaser för den som jobbar med sånt)

När tom en SQL server klarar sig på 16GB RAM, så klarar sig en vanlig användare utan problem på samma...
Sitter på enkel jobb maskin just nu... med 8GB RAM. 3GB cache, 1GB+ ledigt... alltså ledigt som i bortkastade pengar-ledigt. Startar jag min lilla VM för kort hantering, och lite andra program så ja, då används även den sista GB dock... men 8GB är mer än nog för detta.

Så nej... 64GB är inte lite. Det är du som har blivit precis lika besatt som många andra tekniker på att allt ska köras i VMs och allt ska köras på en enda maskin. Om du kör 4 maskiner, på 64GB... kör du 4 maskiner med 16GB vardera.

Sen vet jag mycket väl att webbläsare som Chrome är extrema minnesslukare. Detta är varför jag slutade använda den, för några % prestanda för enorm minnesförbrukning är bara löjligt. Är som att köra 2,5l/mil i bränsleförbrukning för att komma fram 2 min snabbare i trafiken, dvs inte ekonomiskt på något sätt.

Skrivet av anon159643:

*edit*
För några år sedan var det exakt samma sak med bredband, vad tusan skulle någon med 10Mbit sa hur många som helst. Det enda de kunde komma på var illegal fildelning.
Nu idag, så finns det många svenssons som får 200Mbit genom sin fiber.

Och extremt få av dem behöver 250-500-1000. Få behöver ens 100Mbit.
Men du kan knappt ens köpa något under 100Mbit idag hos fiberleverantörer. Jag hade gärna velat ha en 10Mbit lösning från en med bra pris, så man kan ha som backup om huvudlinan går ner, men minsta jag kan köpa är 50Mbit, för samma pris som min 250Mbit hos primära leverantören kostar.

Så 100Mbit har blivit mer av en bottennivå då folk ska ha IP telefoni, bredband och kabel-TV via samma lina. 2 av dem sätter specifika och ganska kraftiga krav på att den 3:e inte maxar linan också, annars är de obrukbara. Dvs, tittar farsan på matchen, och morsan sitter och pratar i telefon, kan du glömma 100Mbit, då båda de andra prioriteras över för att öht fungera.

Så vad man gjort är hittat sätt att istället för att lägga en lina för telefoni, som... bara fungerar, även i strömavbrott i många timmar. Och en kabel för TV som kan ge dig 1000-tals kanaler om du kan använda all bandbredd, utan problem, har valt att trycka ihop dessa med bredbandet, för det är billigt sätt att få ut detta av en operatör som normalt inte hade verken telefoni eller kabel-TV.

Men du måste ändå fildela för att kunna använda själva "bredbandet" av denna bit, fullt ut mer än 10Mbit. För du kan både surfa, spela, chatta och se YT/Twitch utan problem med 10Mbit... samtidigt. Enda gången jag ens behöver mer är när man laddar ner spel... lagligt då, via tex steam. Då har man nytta av den extra bandbredden. Eller om man köra moln-sync/backup så klart... och i båda fall är det en form av fildelning, även om legal sådan.

Permalänk
Skrivet av Paddanx:

Njae. Det går än idag att köra 4GB RAM för enklare saker också. 8GB är väl minsta jag skulle tänka spela på iaf.
Även att redigera lite film/video gör jag lätt på 16GB. Det som ändrats är att man använder RAM extremt slarvigt och friskt av program och programmerare idag. Så saker man kunde köra på några 100MB förr, tar 1GB+ idag, för det ger 5% högre prestanda.

Så frågan blir då... är 5% mer prestanda värt all den extra RAM krav, eller ska du bara köpa en 5% snabbare CPU/Disk?

Det jag sett är precis som du beskriver, en extrem ökning från 4MB till ca 4GB. Så för mig vill jag minnas 4MB->16MB->128MB->384MB->512MB->1GB->2GB->4GB i mina datorer. Men när 4GB började bli lågt, och man satte in 8GB, var 10 år sedan. Så från tidigt 1990-tal till ca 2007, har vi gått 1000x ökning av RAM mängd. Men ca 10 år sedan stannade allt... på 10 år har behovet för de flesta av oss gått från 4-32GB i högsta fall, men normalt 8-16GB bara.

Självklart kommer VMs ändra allt detta, då du måste ha RAM nog för två maskiner i en. Men beviset på att 16GB RAM är mer än nog för en masknin finns i ditt eget svar tidigare i tråden:

När tom en SQL server klarar sig på 16GB RAM, så klarar sig en vanlig användare utan problem på samma...
Sitter på enkel jobb maskin just nu... med 8GB RAM. 3GB cache, 1GB+ ledigt... alltså ledigt som i bortkastade pengar-ledigt. Startar jag min lilla VM för kort hantering, och lite andra program så ja, då används även den sista GB dock... men 8GB är mer än nog för detta.

Så nej... 64GB är inte lite. Det är du som har blivit precis lika besatt som många andra tekniker på att allt ska köras i VMs och allt ska köras på en enda maskin. Om du kör 4 maskiner, på 64GB... kör du 4 maskiner med 16GB vardera.

Sen vet jag mycket väl att webbläsare som Chrome är extrema minnesslukare. Detta är varför jag slutade använda den, för några % prestanda för enorm minnesförbrukning är bara löjligt. Är som att köra 2,5l/mil i bränsleförbrukning för att komma fram 2 min snabbare i trafiken, dvs inte ekonomiskt på något sätt.

Och extremt få av dem behöver 250-500-1000. Få behöver ens 100Mbit.
Men du kan knappt ens köpa något under 100Mbit idag hos fiberleverantörer. Jag hade gärna velat ha en 10Mbit lösning från en med bra pris, så man kan ha som backup om huvudlinan går ner, men minsta jag kan köpa är 50Mbit, för samma pris som min 250Mbit hos primära leverantören kostar.

Så 100Mbit har blivit mer av en bottennivå då folk ska ha IP telefoni, bredband och kabel-TV via samma lina. 2 av dem sätter specifika och ganska kraftiga krav på att den 3:e inte maxar linan också, annars är de obrukbara. Dvs, tittar farsan på matchen, och morsan sitter och pratar i telefon, kan du glömma 100Mbit, då båda de andra prioriteras över för att öht fungera.

Så vad man gjort är hittat sätt att istället för att lägga en lina för telefoni, som... bara fungerar, även i strömavbrott i många timmar. Och en kabel för TV som kan ge dig 1000-tals kanaler om du kan använda all bandbredd, utan problem, har valt att trycka ihop dessa med bredbandet, för det är billigt sätt att få ut detta av en operatör som normalt inte hade verken telefoni eller kabel-TV.

Men du måste ändå fildela för att kunna använda själva "bredbandet" av denna bit, fullt ut mer än 10Mbit. För du kan både surfa, spela, chatta och se YT/Twitch utan problem med 10Mbit... samtidigt. Enda gången jag ens behöver mer är när man laddar ner spel... lagligt då, via tex steam. Då har man nytta av den extra bandbredden. Eller om man köra moln-sync/backup så klart... och i båda fall är det en form av fildelning, även om legal sådan.

Får man fråga vad för webbläsare du använder dig av?

Skickades från m.sweclockers.com

Visa signatur

1

Permalänk
Medlem
Skrivet av ClintBeastwood:

Jag använde Chrome tills jag testade den nya versionen av FF som kom ut och kommer nog inte gå tillbaka. Upplever den här läsaren mycket kvickare men jag vet inte om det bara är i mitt huvud eller om det är en skillnad som kan mätas. Men visst finns det såklart en drös där ute som fortfarande använder Chrome.
https://www.w3schools.com/BROWSERS/default.asp
http://gs.statcounter.com/

Googlade upp dom sidorna när jag läste ditt inlägg och fick en smärre chock hur få som använder FF och hur många som använder Chrome.

Firefox har varit betydligt bättre än chrome åtminstone ~ett år nu. När jag skrev uppsats med 30-40 flikar uppe under hela arbetet var Firefox betydligt bättre på att hantera det än chrome och detta var för ett år sedan ungefär. Arbetade på en billig laptop med 8gb ddr4 ram och en i5-7200u så kunde bli lite trögt med så många flikar emellanåt.

Visa signatur

[CPU: Intel i5-750 @ 2,6 ghz][MB: Gigabyte P55A-UD3][GFX: Phantom Geforce 670 GTX OC][RAM: Corsair XMS3 1600MHz 8GB][Chassi: Fractal Design r3] [HDD: 1TB Samsung Spinpoint F3][SSD: Crucial MX100 2.5" 7mm 256GB @ SATA 2][PSU: Corsair TX650W][CPU Kylning: Akasa Venom][OS: W7 64-bit][Skärm: BENQ 2412]

Permalänk
Medlem
Skrivet av Mats Myntsamlare:

Får man fråga vad för webbläsare du använder dig av?

Skickades från m.sweclockers.com

Jag körde opera på låg prestanda maskíner fram till de bytte motor (till chromes) och ibland palemoon/FF på andra. Numera kör jag på firefoxs webbläsare på nästan alla, då den nya motorn i den faktiskt är riktigt bra, utan att dra enorma mängder resurser.

Med det sagt operas var helt klart bästa på klena maskiner i låg resursanvändning.

@bsk! & @ClintBeastwood ofta är det om Chrome får brist på RAM, så segar den ner. FF Quantum är märkbart bättre på RAM hantering, även om så klart "fel" tillägg kan ändra mycket. Men det är inte ovanligt att default Chome äter 4-6+GB, medan jag har sällan sett min FF ta mer än 2GB, trots många dussin flikar uppe, skript och annons blockerare och nerladdnings hanterare mm.

Så är den snabbare? Nja... tror de är rätt lika. Men FF är utan tvekan mer effektiv, vilket om du inte har en bruteforce snabb dator, märks som snabbare.

Permalänk
Medlem
Skrivet av THB:

Använder folk fortfarande Chrome?

Skickades från m.sweclockers.com

Enda anledningen till att jag använder Chrome är för deras plugins. De är mycket lättare att programmera ett dit och sen finns det fler bra plugins till Chrome.

Däremot så allt jag surfar med normalt använder jag Firefox. Men för steam trading (CSGO) så måste jag ha Chrome.

Visa signatur

Min dator: Silent Base 600 | 1700X @ 3.9Ghz | MSI Gaming X 1080TI | RM750X | 512Gb M2 | 16Gb 3200mhz Ram | S34E790C @ 3440x1440
Tjejens dator: Define r4 | i5 3570k @ 4.2ghz | GTX Titan | 750w Supernova | 240gb SSD | 32gb ram
Citera/Tagga för svar!

Permalänk
Inaktiv

@THB: Sisådär 61,2% använder Chrome på desktop, vilket är överlägset störst på webbläsarmarknaden. Själv växlar man lite mellan Firefox och Epiphany.

Källa: Netmarketshare

Permalänk

Är det inte lite fel att program ska till att lösa problem som ligger i hårdvaran på vissa cpuer/arkitekturer etc?

Är väl lite som att bilen ska va byggas för att hantera dåliga vägar, istället för att bygga bra vägar som det är tänkt.

För vad händer sen när det här problemet försvinner om några generationer på bredare front?
Vissa grejer är nog saker som går att stänga av och på, men skulle tro det i många fall kräver justeringar i grunden som ger effekt även om du typ stänger av den, för är inte direkt att du har ett program, sen kan du typ trycka "gör det säkert", justeringar måste göras, ännu mer så om inte programmet är byggt väldigt modulärt.

Permalänk
Inaktiv
Skrivet av Zero Walker:

Är det inte lite fel att program ska till att lösa problem som ligger i hårdvaran på vissa cpuer/arkitekturer etc?

I och med att nästan all hårdvara sedan en väldigt lång tid tillbaka är sårbar så är det ett måste att anpassa mjukvara. Tyvärr lever vi inte i någon utopi, och detta är en nödvändig kompromiss.

Skrivet av Zero Walker:

För vad händer sen när det här problemet försvinner om några generationer på bredare front?
Vissa grejer är nog saker som går att stänga av och på, men skulle tro det i många fall kräver justeringar i grunden som ger effekt även om du typ stänger av den, för är inte direkt att du har ett program, sen kan du typ trycka "gör det säkert", justeringar måste göras, ännu mer så om inte programmet är byggt väldigt modulärt.

Vet inte hur det är med webbläsare, men i t.ex. Linux-kerneln är alla dessa typer av workarounds modulära och endast aktiva på hårdvara där de behövs. De är också enkla att ta bort i framtiden ifall behovet skulle försvinna, och vill du så kan du även idag välja att kompilera utan genom att skicka vissa flaggor till kompilatorn.

Permalänk

Imponerande om dom lyckas göra det helt modulärt i Linux, antar Windows har något liknande då man kan stänga av.
Känns lite skumt dock, för det skulle betyda att dom i princip lägger till något anrop som säger "kör den här extra grejen innan du fortsätter", vilket betyder att det finns ställen som är öppna för sådant.
Det kanske inte alls har någon negativ inverkan mot alternativet att inte ha något sånt dock,
om så är fallet har jag inget emot det alls.

Men tycker ändå det är fel väg, är inte så det verkar gå att äns lösa till 100% genom mjukvara, utan det är mer "det är bättre nu", och med tanke på hur extremt låg chansen är at man äns ska lyckas få ut någon vettig data även i test scenarion va ja förstår, känns det mer som att dom försöker trösta massan än att det faktiskt har någon verklig poäng xd.

Fast ändå bra då hårdvaru tillverkarna får stå sitt kast och får press på sig för att rätta till saker och ting:)