Inlägg

Inlägg som perost har skrivit i forumet
Av perost
Skrivet av Ryzer:

Konstig trådstart, klart dom kan. Alla seriösa butiker friskriver sig mot feltryck, fel prissättning etc.

Köper man något på nätet och får en bekräftelse på köpet så har man rätt enligt lag att köpa varan till det priset så länge som priset inte är uppenbart felaktigt (vilket förstås blir en tolkningsfråga). Det är inget en butik kan friskriva sig från, så såna friskrivningar fyller inget större syfte mer än att det kanske lurar kunder som inte känner till sina rättigheter.

Av perost
Skrivet av zixizaxo:

Ah jag fattar, men varför kostade detta 599? De fattar jag inte haha

Tillbehör är ofta dyra på de större elektronikbutikerna, det är lättare att ha hög marginal på dessa än dyrare prylar med större konkurrens. Köper man t.ex. en mobil för 10k så bryr sig många inte om ett skärmskydd kostar några hundralappar.

Av perost
Skrivet av Mörksuggan:

Vad händer om ett "AI-system som används i forskningssyfte är helt undantagna från lagstiftningen." Går från forskning till myndighet/ regering/ företag som "ta över/ köper" blir det restriktionerna i efterhand?

Det spelar ingen roll var AI-systemen kommer ifrån, lagstiftningen handlar om vad man får och inte får göra med dem. Så man får t.ex. utveckla en AI för social scoring om man vill, men att faktiskt använda den till det på riktigt är olagligt.

Av perost
Skrivet av Swedishchef_90:

CPUn kan ju dock bottleneckas av ram och ssd, sen att byta gpu och få högre upplösning/grafik borde lösa hans problem.
12ms cpu borde ju ge runt 130fps (vilket han nämner) alternativt kör han igång dlss och låter gpu hjälpa cpu med bottlenecken

12ms per bildruta ger ca 83 fps.

Av perost
Skrivet av sKRUVARN:

4K60, eller ja rättaresagt 2160p60, kräver i "standard" utförande 18Gpbs. Alltså okomprimmerat med full färginformation.

Nej, 4K@60Hz kräver ca 12,5 Gb/s. Du blandar nog ihop det med HDMI 2.0 som ligger på 18 Gb/s (14,4 Gb/s utan overhead). Se t.ex. Wikipedia.

Av perost
Skrivet av aaaaaaaaaa:

Många bra förslag. Googlade på 4k60 och de verkar kräva minst 12gbps, men samtidigt finns det 5gbps kablar som supportar 4k60. Missar jag något här?

5 Gbps o.s.v. är USB-bandbredden, men för bild används DP Alt Mode och kabeln fungerar då som en DisplayPort-kabel (med USB 2.0, eftersom DP inte använder USB 2.0-ledarna i kabeln). Kabeln jag länkade har t.ex. stöd för DP 1.2, vilket är tillräckligt för 4K@60Hz.

Av perost

Ja, Nördic har t.ex. denna kabel för 130 kr som ska klara 4K@60Hz (givet att din dator har stöd för DP Alt Mode förstås).

Av perost
Skrivet av Druid_john:

En tanke, jag har 20 pcie lanes tillgängliga för 11600 i5.

Jag har en nvme pcie 4.0 x4, grafikkortet x16 och ett gammalt ljudkort asus essence stx pcie 3.0 x1.

Jag tycker att bios borde sett mitt ljudkort och balanserat ut alla lanes till x8, x4 och x1 (eller x4) men detta händer inte. Det kan ju vara nån konflikt där med för många banor och kunde jag få till x8 pcie 4.0 på rtx 3070 kortet så kanske det blir bättre.

Ska testa och flytta runt ljudkortet ikväll och se vad som händer i bios. Mycket spännande.

Riktigt så fungerar det inte. CPUns PCIe-banor går till x16-porten samt en av M.2-portarna och delas inte med något annat, övriga portar går via B560-styrkretsen som har 12 st PCIe 3.0-banor (men är begränsad till motsvarande PCIe 3.0 x4 för kommunikationen med CPUn).

Av perost
Skrivet av GuessWho:

Imponerande ändå att en Ryzen 7000 serie AM5 processor är mer effektiv än Ada Lovelace (för detta ändamål).
Annars brukar ju RTX 4000 serien ha bra prestanda för saker som kan köras på grafikkort och förbättrad energieffektivitet, prestanda per watt jämfört med både de tidigare Ampere korten (RTX 3000) samt AMDs RX 6000 och 7000 serier.

Så lite imponerande ändå... bra jobbat AMD.

Sen hur vettigt det är med krypto osv ... är en egen konversation.

Men från rent prestanda perspektiv så är det bra jobbat av AMD med deras Ryzen

Det verkar dock inte handla så mycket om hur effektiv hårdvaran är i det här fallet, utan grejen verkar vara att Qubic bara kan brytas på CPU för tillfället. Vad jag kan hitta i alla fall, det är en så liten kryptovaluta och ett så generiskt namn att det är svårt att hitta information men deras egen dokumentation nämner bara CPU.

Notera alltså att det inte är CPU vs GPU för att bryta Qubic som jämförs i artikeln, utan olika valutor för CPU och GPU. D.v.s. det är för tillfället mer lönsamt att bryta Qubic med CPU än att bryta någon annan valuta med GPU, och arbetet som utförs har ju inget samband med valutornas värde.

Av perost
Skrivet av yolof:

Ah som jag trodde då.

Om jag klipper bort den biten då kommer inte kylaren passa?

<Uppladdad bildlänk>

Ingen aning, det beror väl på om övriga dimensioner är rätt. Kollar man på hur originalfästena ser ut så är designen lite annorlunda men formen över lag samma. Men du behöver även en passande backplate för att fästa fästena i moderkortet också.

Av perost
Skrivet av yolof:

Nu vill jag skruva på den högra röda delen på moderkortet. Men "bracketsen" (den svarta plastbiten oven) fick jag aldrig med när jag köpte datorn ny. Men de passar inte perfekt.

Ja, du behöver som du är inne på originalfästena som satt på moderkortet. Jag antar att den tidigare kylaren inte använde dem, men den som byggde datorn borde ha skickat med dem eftersom de kan vara rätt viktiga att ha. Om du är helt säker på att du inte fick med några såna så kan du alltid kontakta butiken du köpte datorn från och se om de har några över de kan skicka till dig.

Av perost
Skrivet av Druid_john:

Konstigt också för går jag in på reddit så blir det streck och flimmer över hela skärmen men dessa lägger sig sen efter 5 min när jag stänger fönstret...

Ja, det är ju definitivt inte normalt. Testa att ta en skärmdump när det händer och se om problemet syns på skärmdumpen. Om skärmdumpen ser normal ut så är det troligtvis skärmen det är fel på, men syns felet även på skärmdumpen så är det troligtvis datorn.

Av perost
Skrivet av moyozuz539:

Orginal kabeln som medföljer är bara 2x8 pin pcie och den ska klara ett rtx 4090 :/

Kontakterna som går in i nätagget är inte PCIe. De kanske ser ut som såna och kan t.o.m. använda samma typ av kontakt, men kontakterna på nätagget följer ingen standard utan det är bara den andra änden av kablarna som gör det (därför det är så viktigt att använda kablar gjorda för nätagget).

Hur många kontakter du kopplar in kabeln med i nätagget har med andra ord inget att göra med hur många PCIe-kontakter som behövs för PCIe->12VHPWR-adaptern.

Av perost
Skrivet av waimea:

Finns det någon nyare CPU som passar till mitt moderkort?

Moderkortet har även stöd för 3000-serien (se supportsidan), men att uppgradera från 2600K till en 3770K skulle bara ge dig ~10% mer prestanda.

Av perost
Skrivet av veis:

Kommer det att funka med en sån kabel på endast 2 k och 3440x1440 resolutionen med thunderbolt 4 till DP?

Menar du om det kommer fungera även med lägre upplösning? I så fall ja, kabeln har ingen aning om vilken upplösning som används utan överför bara data, och lägre upplösning = mindre data att överföra.

Av perost

4K@144Hz kräver DP 2.0, men det är osannolikt att varken din dator eller skärm har stöd för det. Mer troligt är att de båda har DP 1.4 och använder DSC-komprimering för att uppnå 4K@144Hz.

Så vad du behöver då är en kabel/adapter som klarar HBR3 (32,4 Gb/s), vilket motsvarar DP8K-certifiering. Icke certifierade kablar marknadsförs oftast bara som DP 1.4 och fungerar oftast också men med större osäkerhet om de håller vad de lovar.

Av perost
Skrivet av Nioreh83:

Fast nu är det väl precis sånt som BARA kommer visas. Tidigare har de fortfarande trackat vad du gillar och rekommenderat utifrån det.

Nej, nu visas ingenting som standard. För att se rekommenderade klipp så måste man dels slå på den inställningen och godkänna cookies etc, och dels titta på någon video. Man kan fortfarande se populära videor genom att bara välja det i menyn till höger som vanligt, om man nu av någon outgrundlig anledning skulle sakna det.

Av perost
Skrivet av Thomas:

Med definitionen att path tracing skickar strålar från kameran, och traditionell från ljuskällor?
Används den "traditionella" överhuvudtaget isåfall? Typ 99%+ av arbetet måste ju vara bortkastat.

Inte riktigt, strålar kan skickar i båda riktningarna med båda metoderna, och t.ex. bidirectional path tracing utnyttjar det för att hantera vissa fenomen på ett effektivt sätt. Men det är två olika metoder som är bra på olika saker, och det är inte helt ovanligt att man t.o.m. kombinerar ray tracing och path tracing för att få det bästa av båda.

Av perost
Skrivet av Luminous:

Jag testade Portal RTX på mitt "nya" 6950 XT och tänkte att "det går väl att få en 20 fps så man kan spela lite i alla fall"?

Quake 2 med RTX flöt ju inte jättebra, kanske 5-15 fps.
Portal RTX ska vi inte ens snacka...

Men det är pathtracing om jag förstår rätt, så spel som inte gör pathtracing kan ändå flyta spelbart.

Portal RTX är inte så krävande för att det använder just path tracing utan för att det enbart använder path tracing. D.v.s. det är inte som de flesta andra spel som använder en kombination av klassisk rasterisering och ray och/eller path tracing för specifika effekter, utan allt du ser i spelet (förutom 2D-element som GUI) är ett resultat av path tracing.

Men annars är path tracing en variant av traditionell ray tracing, och vilken metod som är bäst beror på ändamålet. Att path tracing används i spel som Portal RTX beror på att det i själva verket är effektivare än traditionell ray tracing i det sammanhanget.

Av perost
Skrivet av Dinkefing:

Vad är Metas och Googles och Microsoft huvudområden enligt dig? Är det AI-kretsar? Jag tror aldrig de kommer hinna ikapp NVIDIA. Jag tror inte de har den kompetensen där. Kanske lite vag jämförelse men se Googles satsning på deras mobila CPU-krets Tensor. Det har inte lyckats särskilt bra. Snarare en flopp. Google är bra på reklam, Meta sociala medier det är deras fokusområden.

Det är väl lite det han tar upp i videon när han nämner att de har många kunder som gärna skulle utveckla sina egna kretsar, men att Nvidia har en stor fördel i deras flexibla hårdvara och framförallt mjukvara. Det är relativt enkelt att utveckla kretsar för specifika beräkningar, men beräkningarna man vill göra förändras hela tiden så det blir inte nödvändigtvis billigare i längden även om hårdvaran skulle vara billig.

Skrivet av Dinkefing:

NVIDIA ska aldrig släppa garden. Jag skulle säga att deras största konkurrent är AMD just nu med deras MI300 modeller.

Jag tror all konkurrens kommer stärka NVIDIA och göra beräkningskorten än mer relevanta. Alla vinner dessutom på det.

Ja, AMD har ju lite samma fördelar som Nvidia i att hårdvaran är väldigt flexibel och kan användas till så mycket annat än bara t.ex. specifika AI-ändamål. Men AMD har legat som avlägsen tvåa i 15+ år nu, och jag tror inte det kommer förändras nämnvärt inom den överskådliga framtiden. Om någon ska kunna utmana Nvidia på riktigt så tror jag nog mer på "nykomlingen" Intel som verkar satsa lite hårdare på ett brett hårdvaru- och mjukvarustöd, men de har en tuff väg framför sig.