Inlägg

Inlägg som perost har skrivit i forumet
Av perost
Skrivet av Frekeb:

Innebär detta alltså att alla kablar över 15W eller vad det nu är automatiskt har stöd för PD? Är PPS också helt orelaterat till kabeln?

För över 60W krävs det som sagt kablar som är elektroniskt märkta med vad de klarar, men i övrigt så har kablarna ingen påverkan på PD eller PPS (som är en del av PD 3.0).

Av perost

När det gäller USB-PD så krävs det elektroniskt märkta kablar (d.v.s. kablar med ett chip i som säger vad de klarar) för att kunna ladda med mer än 60W, under 60W krävs inga speciella kablar. PD 1.0-3.0 klarar upp till 100W (5A 20V) och kräver kablar som är märkta att klara 5A för att tillåta mer än 3A, medan PD 3.1 klarar upp till 240W (5A 48V) och kräver kablar som är märkta att klara EPR för att tillåta mer än 20V.

Du kan med andra ord strunta i vilken version av PD det handlar om och bara kolla på hur många watt kablarna är specade för. Men likt allt som har med USB att göra så är det ett riktigt träsk.

Om jag skulle köpa en PD-kabel så skulle jag nog bara köpa t.ex. en Deltaco 100W. Jag har ingen erfarenhet av såna kablar men Deltaco brukar hålla vad de lovar och är relativt billiga, och mer än 100W känns osannolikt att man skulle behöva till en mobil.

Av perost

Den uppgraderade 645-modellen hade i Sweclockers test svårt att hänga med även med ett GTX 470, och ett 280X är väl i runda slängar dubbelt så snabbt.

Men det var i 1680x1050, kör man högre upplösning eller drar upp grafikinställningarna mer så får grafikkortet mer att göra. Så det är svårt att sätta någon gräns på när ett grafikkort blir "för bra", det beror även på hur man använder det. Fast att köpa ett för bra grafikkort är inte nödvändigtvis dålig heller ifall man t.ex. uppgraderar processorn senare.

Av perost
Skrivet av norrby89:

vanlig usb hubb med hdmi borde väll ändå fungera felfritt?
har denna till dotterns laptop då hon fick slut på usb
https://www.netonnet.se/art/dator-surfplatta/datortillbehor/u...

fungerar felfritt på hennes lenovo även att köra skärm via

Den fungerar endast om datorn har USB-C med DP alt mode, och har datorn det så är det nog bättre att bara köra med en enkel USB-C till DP-adapter istället för att ta en omväg via HDMI. Skärmarna har ju stöd för båda.

Av perost
Skrivet av Saltpans:

Stort tack för pushen, har ingen annan i närheten som byggt dator så blir lite extra nojig då. Lutar mot att bygga den själv. Är det någon särskilt jag behöver ha hemma för att bygga (förutom kit med skruvmejslar)? Hört att det kan vara bra att ha ESD-armband.

Sweclockers har en datorbyggarguide om du inte sett den redan, den är några år gammal nu men fortfarande aktuell skulle jag säga.

När det gäller annat så är det som du säger bra att använda ett ESD-armband. Det finns väldigt mycket felaktigheter om hur man använder såna på nätet, så vad som gäller är att du helt enkelt ansluter armbandet till en ledande del av chassit (d.v.s. omålad metall).

När du sen monterar saker så tar du ut komponenten ur ESD-påsen (givet att den levererades i en sådan förstås) och monterar den direkt, då utjämnas potentialen mellan dig och komponenten via påsen och mellan dig och chassit via armbandet. Komponenterna bör alltså ha kontakt med dig, chassit eller någon komponent monterad i chassit hela tiden. Om du behöver lägga undan någon komponent så lägg helst tillbaka den i påsen.

Av perost
Skrivet av Peterboxy:

Kör idag på en i5-9400F och 16GB 2666MHz

Då är det inte så konstigt att ni inte fick den integrerade grafiken att fungera, F-modellerna har nämligen ingen grafik. Om du köper en modell utan F i namnet så bör den integrerade grafiken fungera alldeles utmärkt för era behov, och är vad jag skulle rekommendera till en Linux-maskin som inte har några särskilda behov av grafikprestanda.

Av perost
Skrivet av Japanesen:

Undrar vad det är som gör att 16gb modellen är så pass mycket kraftfullare, måste vara mycket mer än bara minnesmängden som skiljer sig där...

16GB-modellen har 27% fler kärnor men aningen lägre klockfrekvens. Det är i själva verket större skillnad mellan 4080 16GB och 12GB än mellan 3090 Ti och 3080.

Av perost
Skrivet av AMD73:

Jo men det gröna laget är det så viktigt vara snabbaste på marknaden. Så att inte ha högre tp och högre
clock som det skulle ge är förvånade värre enligt mig då. Vara varma och mycket ström har inte hindrat dom
innan. Jag gissa AMD ligger bra till denna gen tack vare detta. Rena gissningen mer eller mindre.Om inte tror
jag dom gröna är överlägsna denna gen. Men det verkar mer otroligt tycket jag. Så AMD denna gen kanske.

450W som 4090 ligger på är ändå galet högt, det vara bara 3090 Ti som låg så högt förra generationen och det var ju onödigt högt klockat (30% högre strömförbrukning än 3090 men bara ~10% bättre prestanda). De kort vi sett i 4000-serien än så länge är också avsevärt högre klockade än något av Nvidias tidigare grafikkort, så att säga att de är lågt klockade är lite underligt. AMD kanske kommer klocka ännu högre, men de brukar ofta köra på högre klockfrekvenser.

Av perost
Skrivet av AMD73:

Lågt klockat och inte galet högt tp värde. Samtidigt visar AMD på hög klockat.Grönalaget kanske inte
blir snabbast? eftersom dom inte har högre tp och högre klock. Eller betyder det att dom inte behöver mer
en så för slå amd denna gen?

Hög klockfrekvens är inte nödvändigtvis något man eftersträvar på GPUer, eftersom strömförbrukningen stiger kraftigt vid högre frekvenser. Prestandaökningen för GPUer brukar istället främst drivas av ett ökande antal kärnor och bättre arkitekturer. Så det är inte säkert att det faktiskt är positivt att AMD siktar på hög klockfrekvens, men vi får väl se.

Av perost

I Arch Linux så kan det vara lite knepigt att få allt på samma språk, så jag kör en förvirrad blandning där vissa saker är på svenska och andra engelska (Firefox är tydligen på engelska nu, jag kunde ha svurit på att det var på svenska tidigare...). Det enda stället där jag faktiskt bryr mig är felmeddelanden från kompilatorn, där måste det vara engelska för att jag ska förstå vad de säger.

Av perost
Skrivet av Dashio:

Hur menar du? Att jag bara byter skärmupplösning? Ska jag inte behöva byta skärm för att det ska gälla?

Om du kan få ut 1080p@120Hz med dina nuvarande skärmar genom att bara byta upplösning så vet du ju att det fungerar om du skulle köpa nya 1080p-skärmar.

Av perost

@Bha™: G.Skill har livstidsgaranti på sina minnen, och trasiga minnen är ett relativt vanligt fel så det brukar inte vara något problem att få dem utbytta.

Av perost

Nackdelarna är alla minnen körs med samma inställningar, så du kanske blir tvungen att köra dem som t.ex. DDR4-3000 CL16 även om några av dem klarar högre hastighet (men det är även möjligt att 3000-minnen faktiskt klarar 3200).

Att köra fyra minnen belastar även minneskontrollern mer vilket kan göra det svårare att nå höga hastigheter, oavsett om de är av samma modell eller ej.

Nackdelen är alltså främst att det kanske blir svårt att få dem att lira i den hastighet man vill, men fungerar det så finns det ingen direkt nackdel med att blanda. Och det enda sättet att ta reda på om det fungerar är att helt enkelt testa.

Av perost

InstaBee är tydligen något slags affärssystem medan BudBox tillverkar odlingstält. Men andra kombinationer är nog ännu värre: InstaBud levererar marijana i Kanada medan BeeBox används för en massa olika saker som bikupor, mobilspel och ASRock NUC:er. Ett namn som inte redan är taget är InstaBudBoxBee

Av perost

3-pin och 4-pin använder olika styrmetoder för att reglera hastigheten, så du bör helt enkelt använda samma antal pinnar som grafikkortet har om du tänker ansluta fläktarna direkt till kortet.

Av perost

Jag hade några datorer med olika Pentium-processorer som jag "ärvde" i min ungdom, men den första Intel-processorn som jag själv köpte var en Core 2 Duo E6600 (originalet, inte den senare Pentium E6600). Under P4-eran körde jag AMD istället, så jag har faktiskt aldrig haft en Pentium i någon dator jag själv byggt/köpt.

Av perost
Skrivet av Networker:

Vald tidpunkt att nu på hösten med energikrisen, att införa funktionen kommer antagligen pausa Windows Update fram tills nästa vår? Speciellt i exempelvis Tyskland och Polen?

Det handlar bara om att välja tid på dagen när det är som mest "grön" el i nätet, inte om att pausa uppdateringar tills hela elnätet blir tillräckligt klimatvänligt.

Av perost
Skrivet av NyBB:

Det går ju utan några svårigheter casta genom chrome till TV:n så jag förstår inte varför det skall vara så svårt att kunna casta sin desktop då båda enheterna ligger på samma nätverk.

Miracast kör peer-to-peer-anslutning via WiFi, d.v.s. den går inte via ditt nätverk utan du måste ha en WiFi-enhet som kan ansluta direkt till TV:n.

Av perost

Det lär väl bara vara att du måste ansluta till TRE:s mobilnät här i Sverige för att förnya perioden, att använda en VPN kommer i så fall inte göra någon skillnad alls eftersom det inte ändrar vilket nät din mobil är ansluten till.

Tillägg: Det kan förresten vara bra att läsa villkoren också. Där står bland annat:

Citat:

För att ha rätt att använda 3Världen ska du ha din normala hemvist i Sverige eller åtminstone frekvent och i väsentlig omfattning befinna dig i Sverige. Tre kan begära att du skriftligen styrker detta genom ex. folkbokföringsintyg, skatteutdrag eller utbildningsbevis. Tre har rätt att debitera enligt ditt abonnemangs ordinarie prislista för din användning om Tre bedömer att ingivet underlag inte är tillräckligt.

Att missbruka abonnemanget kan alltså bli dyrt om du inte faktiskt kan styrka att du bor i Sverige.

Av perost

Ojordat uttag ska som sagt inte spela någon roll, jord i ett jordat uttag och jord i en nätaggs-kontakt är olika saker.