Inlägg

Inlägg som Cad_edis har skrivit i forumet
Av Cad_edis
Skrivet av medbor:

Precis, FHD på 14” är ju samma som 4K UHD på 28”, vilket ingen skulle klaga på

Stämmer inte riktigt. Vad något "motsvarar" beror helt på användarens avstånd till skärmen. Mobiltelefoner och bärbara datorer behöver således högre PPI, monitorer något lägre, och stora TV-apparater och projektorer ännu lägre.

Av Cad_edis
Skrivet av lillaankan_i_dammen:

Windows har problem med uppskakning och man får ett litet gränssnitt, fullhd är den vanligaste storleken även på 15,6". Och då pratar jag även om dyrare såna. Hade det ej funnits nackdelar med högre upplösning så självklart hade det varit bättre.
Så jag vill påstå att upplösning är en ren smaksak. På samma sätt som laptopens skärmstorlek är, att kalla endast 14" skärm för brist anser jag är fel.

Jag hade QHD+ skärm på min gamla bärbara 15" inköpt 2013, 4K på min nuvarande bärbara och 4K på mina fasta skärmar både på jobbet och hemma, och använder skalning på alla skärmar. Med senare versioner av Windows 10, och med program som är up to date så är skalning verkligen inte något problem längre. Upplever numera gamla lågupplösta skärmar som otroligt suddiga och tröttsamma för ögonen att sitta framför någon längre tid.

Av Cad_edis
Skrivet av Raza:

Super att du nämner det! Användare Perost här ovan var inne på det med att jag behöver se till att min nuvarande SATA-anslutna SSD inte delar samma bandbredd som min kommande PCIe-anslutna SSD. Bra att, likt du påpekar, se till att inte köpa för lite lagring nu för att sedan behöva komplettera med ytterligare en disk som potentiellt kan bråka om bandbredden.

Nja, om du läser manualen för ditt moderkort så framgår vad som gäller. Monterar du en M.2 NVMe disk i M2_1 porten så tappar du inga SATA portar alls. Monterar du den däremot i M2_2 porten så tappar du SATA5 och 6. Monterar du en M.2 SATA i M2_1 så tappar du SATA1 och om du monterar en SATA M.2 i M2_2 så tappar du SATA5 eftersom dessa då kopplas mot M.2 portarna istället. Detta beror på begränsningar hos Intel Z370-chipset.

Av Cad_edis
Skrivet av Toko:

Tack för tipset! Det är verkligen hopplöst bökigt när man ska spara ett Word-dokument.

Att det är bökigt beror på att ni inte använder det på det sätt som det är avsett att användas, dvs tillsammans med OneDrive privat, OneDrive för företag och SharePoint. Använder man det på avsett sätt så blir det väldigt mycket smidigare samtidigt som man får tillgång till dokumenten på alla enheter, versionshantering, delning av dokument och möjlighet för flera personer att redigera samma dokument samtidigt, spara automatiskt (kan kräva lite tillvänjning) och så vidare.

Ett bättre tips vore att sluta spara dokument lokalt.

Sedan en tid tillbaka så frågar också Windows om man vill "säkerhetskopiera" mapparna Dokument, Bilder och Skrivbord till OneDrive, och då går gratisutrymmet åt snabbt... så vi behöver nog inte oroa oss över att de inte skulle tjäna pengar på konsumenter. Man har helt enkelt bara anpassat hur man tjänar pengar.

Att man numera kan ladda ned Windows installationsmedia från deras hemsida utan att behöva ange licensnyckel, och dessutom installera och använda operativsystemet ganska obegränsat är ytterligare tecken på att man siktar på andra intäktskällor istället för att sälja Windows licenser till privatpersoner. Idag så kan man som företag ex. köpa till ytterligare säkerhetsfunktioner hos Defender om man vill, något som också börjar sträcka sig till andra operativsystem. Jag skulle inte bli förvånad om vi kommer få se liknande erbjudanden också till privatpersoner.

Av Cad_edis
Skrivet av Dahle86:

GPUn drar inte mer än 225W (iaf inte mer än marginellt) då dess strömbudget ligger där. (75W mobo + 150W 8-pin)
Sen lägger vi på CPU på 100W så ligger det på ca 325W och lite krafs. Så då har vi ett min värde på 350W.

Då effekten på ett nätagg är specat efter vad den kan ge är effektförluster ointressant för om den räcker till eller inte.
Enda skillnaden blir på din elräkning och även på denna är det försumbart.

Eftersom nätagg är effektivast runt 50% effektuttag tar vi 350W x 2 = 700W. Detta blir vårat maxvärde.

Eftersom jag antar att folk inte endast har sin dator till att köra stresstester utan faktiskt spelar/surfar/arbetar i Office. Så kommer effektuttaget inte ligga på maxvärdet särskilt ofta därför skulle jag säga att 550W-650W agg är det optimala.

Här tänker du fel. Vid max belastning så ska du alltid ligga över verkningsgradskurvans topp för att optimera verkningsgraden. Den högsta verkningsgraden för nätaggregatet bör inträffa någonstans mellan genomsnittlig strömförbrukning vid låg belastning på datorn och strömförbrukning vid maxlast, inte vid maxlast eller till och med mer än maxlast som i ditt räkneexempel.

Med en dator som drar maximalt 325W så kommer nätaggregat större än ca 450-500W enbart vara en suboptimering verkningsgradsmässigt eftersom nätaggregatet vid låg belastning aldrig kommer i närheten av sin maximala verkningsgrad runt 50% effektuttag.

Av Cad_edis

Vilka konton ser du listade om du kör netplwiz?

Av Cad_edis
Skrivet av DevilsDad:

Ja, alla rfid-taggar får en ström inducerad som får chipet att vakna och kunna identifiera sig. Razer har formodligen en väldigt strömsnål diod kopplad till samma strömkälla.

Samsung har länge haft mobilskal med dioder vilka strömförsörjs på liknande sätt.

Av Cad_edis

Uppgifter i folkbokföringen är allmän handling, så din identitet är redan fullt synlig utan att man behöver kapa några betalterminaler.

Kortnummer brukar vanligen stjälas via dataintrång och säljs sedan vidare.

Av Cad_edis

"Mobilladdare" är inget annat än switchade nätaggregat, precis som nätaggregatet till routern, switchen, tv'n, datorn eller allt annat som man vanligtvis har ständigt inkopplat. Det switchade nätaggregatet omvandlar växelström till likström, och när man kopplar in telefonen så är det telefonen som begär vilken spänning på likströmmen den vill ha. All reglering av laddningen sköts internt i telefonen.

All elektrisk utrustning som är inkopplad kan förstås överhetta om det blir fel på den, vilket i värsta fall kan orsaka brand. Men med tanke på hur många elektriska apparater vi idag har inkopplade, så är den risken inte särskilt stor.

Av Cad_edis
Skrivet av Aizu:

Den stora skillnaden är grafikkortet, där GeForce är ämnad för konsumenter och Quadro för professionellt bruk. https://www.youtube.com/watch?v=jT6YwF7NUSk

Större och tjockare datorer har bättre kylningsförmåga som ger högre prestanda, pga processorn får tillgång till
högre strömtillförsel som höjer frekvenserna. Ex:
(DELL 7530) i7-8750H, 2.20 GHz, 6-Core drar upp till 45 Watt. Spec.
(Blade Stealth) i7-1065G7, 1.30 GHz, 4-Core drar upp till 25 Watt. Spec.

Dells kompaktare 5550/5750 serie går dock också dem upp i 45W för processorn. Den större modellen är dock tillgänglig med grafikkort vassare än Quadro RTX 3000.

Skrivet av Andersson9:

Tack för ditt svar och en intressant video i sammanhanget. Ärligt talat så är CAD den minsta delen av min planerade använding och jag tvivlar på att den förhållandevis smala modelleringsprogramvara jag använder ändå har något support av nvidea.

Slutsatsen blir därför att jag skulle dra större nytta av gforce istället för att slänga pengar på quadrografik.
Tror inte heller att framedrops är ett problem då jag inte är i ett större behov av en laggfri upplevelse.

Tack för input återigen!

Dessvärre så kan prestandaskillnaden mellan Quadro och GeForce i värsta fall vara väldigt stor, det beror helt på vilken mjukvara det är du använder, och därtill så brukar det bara vara Quadro som mjukvaruleverantörerna ger support på. Detta bör man kolla upp med mjukvaruleverantören innan köp.

Av Cad_edis
Skrivet av Calle2003:

Mi Mix 2s har en keramisk baksida så betydligt mer premium än plast. Har också en Mi Mix 2s gav 3333 kr för den.

Även Samsung erbjöd en keramisk baksida till S10 i den dyraste versionen. Den var riktigt svårspräckt, tyvärr tog man bort det alternativet när S20 släpptes.

Av Cad_edis
Skrivet av Jonas79:

Han säger att dom köper in strömmen dyrare och att 350 Kw laddarna med strömmatningen är betydligt dyrare att bygga vs 50 Kw och jämför man mot 150 Kw är deras dubbelt så dyra att få på plats per enhet.

Så den höga kostnaden för att bygga deras infrastruktur så måste dom prissätta som dom gör för att få en förtjänst och att många uppskattar att kunna ladda snabbare och är beredd att betala dessa priser istället för att stå och vänta en längre tid.

Men det han totalt missar enligt mig är att dom fått enorma Eu stöd för att bygga denna infrastruktur och att märkena som köpt sig in på Ionity har bättre priser som Vw, Bmw, Mercedes, Ford, Kia & Hyundai men bara logiskt att dom som satsat eget kapital för utbyggnaden har bättre priser vs andra.

Sedan tror jag inte att någon som köper in så mycket mer ström vs en privatkonsument betalar mer för strömmen för är man en sådan stor viktig kund så får man bättre priser på strömmen.

Nej, några bättre priser på strömmen kan du knappast räkna med även om du är storkonsument, utan elpriset är ganska styrt av marknadspriset. Du kan köpa el på långa kontrakt till fast pris, men går då marknadspriset på el ned så betalar du då överpris istället.

Ska man därtill strömförsörja flera 350 kW laddare så talar vi om nätavgifter på en helt annan nivå än för hushåll med vanligtvis 11-24 kW.

Sedan är det ganska talande att biltillverkarna själva behöver satsa på detta, snarare än att oberoende kommersiella aktörer bygger dessa laddstationer. Dvs man betraktar detta som en kostnad som man behöver ta för att kunna sälja laddbara bilar, snarare än en möjlighet att tjäna pengar. Samma sak gäller Teslas Supercharger-nätverk.

Av Cad_edis

Det finns faktiskt fem modeller totalt att välja mellan. SATA med eller utan SED, SAS utan SED, med SED eller med SED-FIPS beroende på val av interface och om man vill ha diskkryptering eller ej.

https://www.seagate.com/www-content/datasheets/pdfs/exos-x16-...

Av Cad_edis
Skrivet av Klubba:

Kanske har blivit lite arbetsskadad då jag sällan kommer i kontakt med billigare konsumentmodeller, och att sen den löjligt billiga begagnade lilla ups (med kassa batterier) jag köpte till hemma-servern bara råkade vara av in-line typ så har jag antagit att det är normalt.

Gäller att kolla data innan man köper då som med mycket annat.

Detta är inte begränsat till billiga konsumentmodeller utan detsamma gäller även mer påkostade modeller i prisklasser upp till 10-20kkr. Ren sinus är också ovanligt då den utrustning som ska drivas i regel inte är beroende av ren sinus. Vissa modeller ger snarare fyrkantsvåg än sinus.

Som så mycket annat så har online respektive line-interactive sina respektive fördelar och nackdelar. APC har ett paper angående detta: https://download.schneider-electric.com/files?p_File_Name=JSI...

Citat:

At the high and low ends of the power spectrum there is little debate about the relative merits of these two topologies. Above 5000 VA, line-interactive has historically been impractical due to its larger size and greater cost. At the low end, below 750 VA, double-conversion on-line is rarely considered because other topologies (including line-interactive) are more practical for smaller loads.

Av Cad_edis
Skrivet av D.:

Intressant.
Ska i närtid plocka ihop två rejäla arbetsstationer.
En del applikationer kräver el föredrar Quadro, andra går bättre med Geforce. Inte alltid helt tydligt vad som blir lämpligast. Pris/prestanda är oftast betydligt bättre för Geforce, men Quadro har väl sina fördelar.
Lite roligare att plocka ihop företagsdatorer där priset inte är lika viktigt som för konsumenter.

Applikationer som kör DirectX brukar fungera ok med Geforce kort, med OpenGL så brukar det krävas Quadro-kort eftersom grafikkortstillverkarna brukar stänga av funktionalitet där med konsument-korten.

Av Cad_edis
Skrivet av Yoshman:

Ovanpå det tror jag det finns fördelar även runt batteri. Inte så mycket att man egentligen behöver mer än 8-10 timmars batteritid, utan jag tror att en orsak att dagens bärbara får sådan brutal degradering av batteritid med tiden är att Intel och AMD har pushat varandra till punkten där deras U-serie modeller har hjärndöd peak-effekt. Hjärndöd då den är så hög att jag misstänker att batterierna tar stryk av den.

Även med de effekterna så är det för de flesta laptopbatterier inte mer än 1C, vilket inte är några konstigheter.

Främsta orsaken till batteridegradering är snarare att de flesta bärbara idag är anslutna till nätström största delen av tiden och att alla datorer då laddar batterierna fulla och sedan håller dem vid max cellspänning. Jämför vi med andra användningsområden av litiumjon-batterier som exempelvis plug-in hybrider (tuffare miljö än rena batteribilar pga. fler urladdningscykler) eller satelliter (en urladdningscykel varje varv satelliten gör runt jorden) så behandlar man aldrig batterierna så. Man laddar i princip aldrig batterierna fullare än 80% av max, och urladdningen stoppar man i regel vid 30%. Detta då det finns två olika reaktioner som degraderar batterierna kraftigt vid höga respektive låga cellspänningar som man vill undvika. Eftersom alla tillverkare av bärbara datorer, telefoner och liknande vill vill erbjuda så lång batteritid som möjligt så utnyttjar man batterierna till max kapacitetsmässigt, ingen vill stoppa i ett dubbelt så stort batteri och använda halva kapaciteten för att batteriet ska överleva tio år och tusentals laddcykler.

Av Cad_edis
Skrivet av the squonk:

NU har du nog tänkt lite fel, om inte batteritid är ett problem så fungerar nuvarande laptops alldeles utmärkt och det är ingen mening med Arm på laptop.

Poängen är nya användningsområden när man får lång batteritid, inte att rulla på i samma spår som man alltid har gjort. Tänk utanför boxen. Som Apple säger att dom gör.

Nu är det ändå du som helt missar den huvudsakliga fördelen, att man med bibehållen strömförbrukning och kylbehov kan erbjuda mer prestanda, och med mindre kiselarea, troligen också till ett lägre pris.

Lösningar på problem som inte existerar har aldrig varit någon framgångsfaktor.

Av Cad_edis
Skrivet av the squonk:

Om det verkligen skall kallas bärbar så är batteritiden av största vikt, detta är intressant minst sagt, problemet är som vanligt mjukvarustödet. Vad kommer man att kunna köra på dessa? Det blir spännande att se vad som händer framöver!

Jag skulle snarare säga att batteritiden är ganska ointressant. Hur många har behov av en batteritid på flera dagar? De allra flesta brukar arbeta på en bärbar dator på jobbet, i skolan eller hemma där det finns tillgång till el. Klarar datorn en hel arbetsdag utan att behöva laddas så är detta helt och hållet tillräckligt. Bärbart är främst för att man lätt ska kunna ta med sig datorn mellan dessa platser.

Så vad man behöver fokusera på är att få fram en krets som kan slå Intel/AMD på fingrarna när det gäller prestanda, även vid emulering då ARM kommer att ha ett stort handikapp i form av all programvara som är skriven för x86. Är den också billigare så är det inte fel, framförallt för skolor och liknande.

Av Cad_edis
Skrivet av Ario_Nuke:

En anmälan kan man alltid göra. Vore kul att se om det kommer in ett större antal.

Dock lär det med största sannolikhet inte hända någonting.

Finns ju en hel uppsjö med rena "bluffprodukter" som sålts i flera decennier. Tvivlar på att det är olagligt.

Olagligt att i marknadsföringen hävda att en produkt minskar strålningen om den inte gör det. Marknadsföringslagen som är aktuell i detta fall.

Av Cad_edis

Många routrar brukar stödja 4G modem inkopplade via routerns USB port. Annars så kan man också använda en router med dubbla WAN utgångar och en 4G router med ethernet.