Inlägg

Inlägg som perost har skrivit i forumet
Av perost
Skrivet av Ingetledigtnamn:

Noctua-fläkten gjorde ett toppenjobb på min gamla 6700k men 12900k skiftar i temperatur mycket fortare så ena sekunden var fläktarna helt tysta och sedan gick de i fullt blås en kort stund för att sedan gå ner till helt tyst igen, fullt blås, tyst, osv. Det var bara för störande.

Fast det är inte kylarens fel, det är fläktstyrningen på moderkortet som är problemet då. Man får ställa in en bättre fläktkurva, och det brukar även finnas inställningar för hysteres så att den inte reagerar lika snabbt på ändringar.

Av perost
Skrivet av megaman01:

Går lite OT här men har kollat på denna PSU och sett att den har 2st nya 12pins till nya Grafikkort med, men dessa kopplas endast med 2st PCI-e 8pins i andra änden så dessa blir ju helt värdelösa med nya kort ändå?( 4090 kräver ju 4st PCI-e 8) Eller? Vad skiljer detta från ATX 3.0?

Det är inte 2 st PCIe 8-pin i andra änden, det är två kontakter som ser ut som PCIe men är i själva verket inte standardiserade kontakter. När det gäller modulära kablar så kan du alltså helt strunta i hur de ser ut i änden som kopplas in i nätagget, det är bara den andra änden som är standardiserad och spelar roll för dig.

När man pratar om att 4090 kräver 4 st. PCIe 8-pin så är det när man använder en 4xPCIe 8-pin till PCIe 12-pin-adapter, eftersom varje PCIe 8-pin bara är specad för 150W. Denna begränsning gäller inte för nätaggets egna kontakter, där är det vad tillverkaren säger som gäller.

Av perost

Har du testat att köra en sticka i slot 3? Om du kör 1+4 så använder du ju båda minneskanalerna, så det borde inte vara något strul med någon av kanalerna kan man tycka utan det kanske bara är slot 3 som är trasig på något sätt?

Av perost
Skrivet av Thomas:

Många olika källor, men ingen som jag litar på...

Det finns endast en källa vad jag kan hitta om man följer länkarna på alla sidor som bara länkar till varandra, vilket är denna video från Moore's Law Is Dead. Där nämns inte ens 4090 Ti utan det pratas om ett eventuellt Titan-kort, men efter att "nyhets"-sidorna kört viskleken i några steg så verkar det ha blivit till 4090 Ti istället.

Skrivet av Thomas:

Varför skulle det smälta PSUs? Alla seriösa PSUs testas noga i full effekt och i överbelastning, och de få fall något händer blir det ett väldigt rabalder (se Gigabyte-skandalen).
Verkar helt orimligt att kortet i sig skulle smälta också. De delar som alstrar mest värme har ju många temperatursensorer som används för att reglera effekten.

Ja, MLID påstår att kortet t.o.m. utlöste säkringar trots att det bara drog 600-700W, vilket är underligt även om man generöst antar att de menar nätaggets säkring. 600-700W är ju verkligen inget problem om man bara har ett rätt dimensionerat nätagg, det stora problemet borde snarare vara att kyla kortet. Så det låter bara som sensationalism som dessutom bara blir värre och värre ju längre bort från källan man kommer.

Av perost

Bara grafikkortet kostar ~6000 kr nytt, så 8500 kr skulle jag säga är ett väldigt bra pris. Den kommer definitivt duga till 1440p-spelande i flera år framåt.

Av perost
Skrivet av Skånefrippe:

Jag vet ej hur jag lägger in ett foto från datorn här i forumet.

Klicka på Skriv Svar-knappen så att du kommer till den fulla inläggsredigeraren, sen klickar du på Ladda upp bild-ikonen i verktygsfältet.

Av perost
Skrivet av mekanisten:

Låter detta som ett defekt/dåligt/trött grafikkort? Har fortfarande garanti på det så borde kunna ersätta det.

Ett trasigt grafikkort ger vanligtvis grafiska artefakter eller krascher, inte lagg. Det enda jag kan komma på som skulle kunna ge lagg är att själva PCIe-kontakten på grafikkortet är skadad så att det går ner på lägre hastighet (vilket du kan kolla med t.ex. GPU-Z där Bus Interface borde visa x16 när grafikkortet belastas).

Så att det skulle vara något hårdvarufel på grafikkortet som orsakar problemet ligger nog långt ner i listan över möjliga felkällor, mjukvaruproblem eller något annat hårdvaruproblem är långt mer sannolikt.

Av perost
Skrivet av AndersHBG:

Men där finns väl inte stöd till 64bit så man bör väl köpa en Intel, eller jag har fel?

Vad menar du? x86-64 är 64-bit. 32-bit emulering av x86 har funnits länge till Windows, medan 64-bit som sagt kom förra året.

Av perost

Det verkar vara lite förvirring här kring vilka kontakter det pratas om. Nätagget har 5 st. kontakter för att koppla in PCIe- eller EPS12V-kablar i, och dessa råkar ha 8 pinnar. Till nätagget följer det sedan med två 4+4 EPS12V-kablar och tre PCIe med två 6+2-kontakter på varje kabel (så totalt sex 6+2).

Så du borde kunna koppla in två av kontakterna på en av de tre PCIe-kablarna för att få fyra kontakter totalt. Belastningen på kablarna blir ojämn, men det spelar troligtvis ingen roll.

Av perost
Skrivet av Allexz:

Har MS släppt ett Arm OS med Arm applikationer än?.... lite tidigt att släppa hårdvaran annars...

Windows 11 för ARM har haft stöd för emulering av x86-64 sen förra året, och många av deras egna program finns native till ARM.

Av perost

Jag googlade lite och hittade Bellinis Bikini som låter som att det kanske är vad du letar efter?

Av perost

Inget av dem egentligen, frekvensen säger inte så mycket om hur snabb processorn faktiskt är (olika processorer utför olika mycket arbete per klockcykel). Microsoft verkar säga att systemkraven är en processor på minst 1,1 GHz eller med två kärnor, vilket i stort sett kan översättas till "en processor från de senaste ~20 åren".

Programmet har alltså inga stora krav egentligen, men sen varierar det förstås hur bra programmet faktiskt fungerar på hårdvaran.

Av perost
Skrivet av pine-orange:

Moms = mervärdesskatt
Sen har du kemikalieskatten också.

Kemikalieskatten gäller inte för lösa datorkomponenter, den gäller bara för produkter som hela datorer, skärmar, spelkonsoller, etc.

Av perost
Skrivet av sKRUVARN:

Det gör ju inte det hela bättre när det tar så lång tid med att implementera ARM-designer. Vad jag kan se så verkar denna kretsen fortfarande köra Cortex X1? Den lanserades väl för två år sedan, och dom har ju nu annonserat Cortex x3.

Qualcomm och flera andra har redan CPUer som använder X2, men då verkar det mest handla om mobilkretsar. Eftersom Qualcomm håller på att utveckla egna designer istället för att använda ARMs kärnor så kan det hända att de inte tyckte det var värt det att ta fram nya laptopkretsar baserade på ARMs designer.

Av perost
Skrivet av boibo:

det är ju kanske för att qualcomm inte designar stora kretsar som dom M1 som är i deras Macbooks. Deras marknad är portabla enheter som telefoner och i bästa fall surfplattor. Inte desktop/laptop-prestanda.

Qualcomm köpte upp Nuvia förra året, ett företag som grundades av före detta Apple-anställda som bl.a. låg bakom M1. Nu är det en del licensstrul mellan Qualcomm och ARM p.g.a. det, men Qualcomm har sagt att deras ARM-processorer ska kunna utmana Apple nästa år.

Det negativa är att Qualcomm i stort sett har monopol på marknaden för ARM-processorer till Windows-laptops, vilket förstås också var en anledning till att de var så emot Nvidias uppköp av ARM. Nu lär ARM inte ha några resurser att ta fram designer för hög prestanda som kan utmana Qualcomm, så det lär dröja innan någon annan ger sig in i den leken.

Av perost
Skrivet av Aeig:

Jag läste om det här: https://pcmonitors.info/reviews/gigabyte-m32u/#VRR_Variable_R...

"HDMI 2.1 includes integrated VRR (Variable Refresh Rate) capability which does not rely on Adaptive-Sync and can be used via ‘G-SYNC Compatible’ and the PS5 which doesn’t support Adaptive-Sync."

"HDMI 2.1 VRR - HDMI 2.1 includes Variable Refresh Rate (VRR) support as part of the specification. This is an integrated technology, which unlike FreeSync does not rely on VESA Adaptive-Sync to function. As such it can be used by devices such as the PS5 that don’t support Adaptive-Sync. It can also be leveraged via ‘G-SYNC Compatible Mode’ on compatible Nvidia GPUs. Based on our testing of ‘G-SYNC Compatible Mode’ using HDMI 2.1 VRR, the experience was very similar to the Adaptive-Sync experience under SDR and HDR."

Mvh

Enheterna i båda ändarna måste dock fortfarande ha stöd för VRR, det är inget som alla HDMI 2.1-enheter har stöd för. Så det är i stort sett samma som VESA Adaptive Sync, fast för HDMI istället för DisplayPort. Men vill man använda det så gäller det att man väljer rätt skärm, jag tror att det fortfarande är ganska sällsynt på datorskärmar.

Av perost
Skrivet av ZaInT:

...ni övervägde alltså toppklass...för 22000 spänn...för en GPU...som kommer att vara ännu dyrare då detta var FE...

Hänvisar till mitt tidigare inlägg gällande 4-serien med kontentan "och det är vi själva som orsakar problemet"; ta åt er som fan.

Ni kan åtminstonde komplettera med en "Bottennapp"-utmärkelse om det måste vara så verklighetsfrånkopplat, då blir det iallafall någon nyansering.

Sweclockers har haft sitt betygsystem i över 10 år nu, det kan knappast vara förvånande för någon här att 4090 skulle kunna få det betyget.

Av perost

Jag har hamnat runt 120-130 WPM när jag gjort något sånt där test, men det kan nog gå lite snabbare när jag bara skriver som vanligt och inte behöver läsa vad jag ska skriva också. Men till vardags skriver jag mest kod, och där är det sällan skrivhastigheten som begränsar.

Skrivet av oqvist:

Undrar dock om det någonsin kommer hända något stort och man ersätter qwerty med dvorak eller något effektivare? Jag har själv vart för lat för att orka lära mig dvorak dock men ni som testat hur mycket vinner ni?

Åsikterna om Dvorak går isär en del, vissa studier har inte funnit någon fördel för Dvorak medan andra har det och båda lägren kritiserar varandra. Men om du inte redan skriver i 200+ WPM så finns det troligtvis ingen anledning att gå över till Dvorak, utan det lär vara bättre att lägga den tiden på att förbättra din skrivhastighet med Qwerty istället.

Av perost
Skrivet av Svampungen:

En tanke som jag genast slås av och som stör mig lite:
Som många av alla här antagligen vet är det som att jämföra äpplen med päron när man pratar om samsungs 8nm med 7nm från tsmc och att ett hopp från 8nm samsung till 4 nm tsmc innebär någon slags linjär prestandaförbättring på 50%.

Hade kanske varit på sin plats att konvertera detta till faktiskt storlek på motsvarande bolags tillverkningsprocess i form av transistoror/mm2, alt. en prestandajämförelse (eftersom att prestanda/transistor/watt antagligen skiljer sig markant mellan de olika bolagens (benämningsmässigt) jämförbara storlekar 7/8nm).

Det vore nog bättre att bara använda processnamnen (TSMC N7 o.s.v.) istället och strunta i allt vad nanometer heter, i slutändan så säger ju antalet transistorer/mm² ändå inte så mycket. I det här fallet så spelar det ju t.ex. ingen roll vilket låtsasmått det är på transistorerna, det intressanta är att densiteten nästan tredubblats.

Av perost

RMx är som sagt lite bättre, men vad jag kan hitta så är det bara 2018-modellen av RM750x som finns i vitt (finns för 1190 kr hos Power). 2021-modellerna är bättre än 2018-modellerna, och kan kännas igen på det triangelmönstrade fläktgallret.

Om det hade varit RM750 2021 vs RM750x 2021 så hade RM750x varit det självklara valet om det inte var någon större skillnad i pris, men RM750 2021 vs RM750x 2018 vette sjutton. Men skillnaden är nog så liten att det egentligen inte spelar någon större roll, det är bra nätagg oavsett om ett av dem är lite bättre.