Inlägg

Inlägg som TobbeH94 har skrivit i forumet
Av TobbeH94
Skrivet av Swedishchef_90:

Jag har msi Pro A, de har haft 13th gen bios sedan juli, samt stabila bios (i skillnad från Gigabyte)

Min har varit oerhört stabil hittills.

Av TobbeH94
Skrivet av Calle2003:

Kan man flasha den utan CPU?

Yes, den har Q-flash plus. Gjorde så själv behövs bara ström och ett usb med BIOS på.

Av TobbeH94

Byggde ny burk idag, nästan ny iaf, med följande moderkort. https://www.netonnet.se/art/datorkomponenter/moderkort/intel-... sjukt enkelt att flasha. Har alla funktioner en kan behöva och massvis av M2-platser till ett riktigt bra pris!

Av TobbeH94
Skrivet av DST:

många verkar glömma av hur det var förr i tiden när det gällde DIY system byggande, man uppgraderade oftast det som behövdes uppgradera, sen försökte man/många spara så mycket pengar som möjligt men ändå få så bra prestanda som möjligt. Nu blir folk arga om nån köper nån värsting pryl till sin dator om inte andra prylarna inte är värsting prylar oxå... lixom wth... han kanske inte behöver super duper allt som kostar flis för hans ändamål. funkar det så funkar det, funkar det inte så funkar det inte.

folk på swec börjar bli avg joe:iserade verkar det som.

Vi pratar om ett kort som levererar över 100 FPS i typ alla spel i 4k. Med DLSS har man över 100 fps i alla spel även med RT (vilket är betydligt mer CPU-krävande än normal rasterering). Om man har en CPU som inte kan leverera över 100 FPS blir det således en märklig uppgradering.

Av TobbeH94
Skrivet av Kolsvart Katt:

Vad har en 12900k med en 7700x att göra? Om en 13700K är en 12900K med högre klockfrekvenser lär den bli det mest energislukande vi sett? : )
Jag tror det är vettigare att se 13700k som en utveckling av 12700k. Ändock:
Fler kärnor och högre frekvenser == ökad strömbudget. (125W/190W -> 125W/253W för 12700k-> 13700k)

Nej du nämnde inte el direkt men man måste ta hela paketet i beaktning. Inkl att det garanterat inte kommer någon mer gen cpuer till LGA1700, precis som det garanterat kommer flera till AM5. Huruvida det spelar roll är upp till gemene man men du uttrycker dig som att det du skriver är objektiv sanning och jag säger mest Se hela bilden och Vänta på recensioner innan du Förkunnar

Mitt första påstående handlade om pris vs prestanda och vilka som var bäst i produktivitet i mellanklassen. Allt det var objektiv fakta.

Av TobbeH94
Skrivet av Kolsvart Katt:

"Så svårt är det inte":

1. Självklart är det bäst att dra slutsatser genom en leverantörs presentationsmaterial snarare än recensioner
2. Solklart är det klokast att generalisera samtidigt, alla älskar sweeping statements
3. Uppenbarligen är det klokt att inte nämna ökad klockfrekvens och ökad förväntad strömbudget
4. Följ upp svepande svartvit slutsats dragen via leverantörs presentationsmaterial med detaljer som inte tar upp exemplet jag gav och nämn inte skillnader i pris
5. Det är en död plattform efter det här, vilken förutom en ADL-ägare borde vara intresserad?

Du framstår mest som en fanboy. Raptor lake är Alder lake med högre klockfrekvenser och fler energieffektiva kärnor. 7700x drar jämt med 12900k i spel men är sämre i produktivitet. 13700k är en 12900k med högre klockfrekvenser. När det gäller plattformen så köper inte jag ett löfte utan det som finns här och nu.

Av TobbeH94
Skrivet av Kolsvart Katt:

Men snälla nån, du har Intels slides att gå på hittills, som jmf med Am3.
Eftersom 7950x är distinkt bättre än allt ADL på produktivitet så kan vi kanske vänta på jämförande recensioner innan vi förkunnar walkover? Du låter som en typisk kommentar på Videocardz

Fast nu får du allt skärpa dig lite. Självklart kommer 13700k vara rejält mycket snabbare i produktivitet än 7700x, den har 8 fler kärnor och ungefär samma IPC. 13600kr kommer vara rejält mycket snabbare än 7600x då den har (hör och häpna) fler kärnor men ungefär samma IPC på de starka kärnorna. Enkelt att förstå.

Av TobbeH94
Skrivet av pytonOrm:

blir o sälja min Asus Maximus Hero z690 + min 12900K nu då eller så behåller jag båda

Om det är OG-modellen med AVX512 så kan du sälja till mig.

Av TobbeH94

Så Intel släpper mer prisvärda processorer (fler kärnor vid varje given prispunkt) än AMD, på en billigare plattform med överlägsen prestanda i produktivitet för de lägre prispunkterna. Hade någon sagt det för ett par år sedan hade jag aldrig trott de...

Av TobbeH94

Den som vill sälja en og 12900k med stöd för AVX512 kan göra så till mig. Kan betala 45-5000kr.

Av TobbeH94
Skrivet av talonmas:

Njae, om en sak kostade 1000 för ett år sedan och det fortfarande kostar 1000 idag även fast vi har inflation, då kan det betraktas som billigare. Det "borde" gjorts en prisjustering uppåt motsvarande inflationen så avsaknad av denna är då en rabatt

Förstår hur du tänker, men inflationen just nu är ju inte konsumtionsdriven utan driven av höga energipriser samt priser på basvaror och om grafikkortsindustrin nu inte påverkas av dessa höga energipriser i samma grad som ex. annan produktionsindustri så finns det så att säga inget egenvärde i att prisjustera för inflationen. Hushållens ekonomi är svagare pga. inflationen och lyxvaror brukar då behöva stanna av i prisstegring eller prisjusteras ned för att skapa efterfrågan.

Av TobbeH94

Man kan ju helt klart konstatera, genom att läsa tråden, att Nvidia lyckats. De som önskar topprestanda kommer att köpa RTX 4090. De som är mer prismedvetna kommer att fortsätta köpa RTX 3000-serien (vilket är vad Nvidia vill). Nvidia räknar troligen inte med att sälja några RTX 4080 12gb och om de gör det så kommer de skratta hela vägen till banken då priserna på det kortet och 16gb-kortet kommer att dumpas så snart lagret på 3000-serien är slut och AMD släppt RDNA 3. Om man vill göra en markering mot nNvidia så gör man bäst i att inte alls köpa nytt, dvs. köpa begagnat.

Av TobbeH94
Skrivet av chksix:

Tror du har rätt. Ska man tro läckorna, beakta dollarkursen och lägga på moms så tippar jag på mellan 23-25k. Det kommer inte jag betala för ett grafikkort igen.

Av TobbeH94

Är sugen på att köpa 12900k, men skulle vilja ha loss den för typ 5500kr. Är trött på att försöka köpa CPU:er vid lanseringar. Brukar bara innebära problem så som dyra moderkort, buggiga UEFI och dåligt med tillgång.

Av TobbeH94
Skrivet av spacedebree:

Jag hänger inte med i denna hets av saftigare grafikkort.

Okej. Spelar ni mkt i 4K? På stor skärm då eller? Över 30" ? Jag fattar inte riktigt...vad man har dessa kort till. Jag spelar i 1440P och MS Flight Simulator 2022. Ligger erunt 50-60 fps på en 144hz skärm (30 fps satt) Det funkar ju hur bra som helst med mitt RTX 3060 Ti (stock) och min AMD 5600X. Visst, det hackar på marken men det är nog mer en bugg. Jag...hänger inte riktigt med. Visst, jag kan köpa dessa prylar med (så där är inte någon bitter begränsning), men det hade varit kul att höra vad ni spelar och i vilken upplösning, fps osv? Det är ju fantastiska kort (speciell syskonen till mitt kort och uppåt), men ja...mitt behov är lite...ja, nada. Just nu. Men visst - hade jag köpt idag så hade jag köpt en 3070Ti (för samma pris kanske). Men behovet är egentligen ickebefintligt. Möjligen att jag vill gå från 16Gb till 32. Thats it. Vet folk som än diag sitter på ett 2070 och är nöjda, eller t o m ett GTX 1080. Men men... Men det hade varit kul att höra vad ni spelar, eller vad ni gör.

Ditt inlägg är skrivet på ett sätt som får dig att framstå som en virrig och konfunderad människa.

Jag har en 32^-skärm som kör 4K 144hz. Uppskattar personligen RTX något enormt i spelen som stödjer det och ser därför oerhört mycket fram emot 4000-serien. CPU kan jag uppgradera var fjärde generation (bryr mig inte om att nå norr om 80-fps) men när det gäller grafikkraft vill jag kunna ha allt ögongodis.

Man kan såklart spela en massa spel också på integrerad grafik, men för mig är det grafiska en stor del av upplevelsen.

Av TobbeH94

Skärmbilderna i den här artikeln är sannerligen de fulaste bilderna jag någonsin sett från det här spelet. Bifogar en bild jag tog av PS5-versionen av Miles Morales...

Av TobbeH94
Skrivet av Networker:

Finns ju folk som köper 3090Ti till en i3/i5, så tycker nog det vore en både bra och nyttig idé att testa GPU på flera tiers än den så säga "maximala" CPUn.

Kanske kan jämföras med att testa regummerade däck dedikerade för bilar i klassen "Nissan Micra" så skruvar man ju sällan på däcken på en Ferrari Testarossa, utan testar just småbilsdäcken på en småbil.

Är det så fruktansvärt intressant "konsumentupplysning" hur ett lågbudgetkort kan "prestera max" på en 12900KS?
Är svaret på sådant test relevant, förutom i någon knepig teori?

-Givetvis testar man "lågbudgetkort" till den marknaden/den "tier" av CPU de är avsedda för.
Alltså testa GPU för den tilltänkta "kundgruppen", för den av Nvidia eller AMD tilltänkta hårdvarutiern.

Man kan ju givetvis med en olåst CPU, som exempelvis 12900KS emulera på ett ungefär hur ett grafikkort presterar i olika "tiers", genom att stänga av kärnor och sänka klockfrekvens etc.

Det är i princip lika dumt att köpa en för svag GPU för en "för stark" CPU som det är att slänga pengar på dyr GPU men kör budget-CPU.

Möjligen har jag fattat allt fel under alla år, har ändå kvar något i bakskallen om att testerna ska få fram vad som är bästa "bang för bucken". Inte hur varje kort kan maximalt prestera under orimliga "bästa" förhållanden. För det är ointressant. Som att testa barnskor på en vuxen, eller tvärt om.

Tech Deals inspirerade mig en del. Intressant att veta hur GPU presterar i olika SKU.

Problemet är att alltför många inte förstår sig på hur relationen mellan GPU och CPU fungerar. Det är absolut mest adekvat att testa hur en mid-end GPU presterar med en processor i toppklass för att nå så ren GPU-prestanda som möjligt. När Swec testar CPU:er så testas de med high-end grafikkort för att få så ren CPU-prestanda som möjligt. Det du som konsument sedan kan göra är att jämföra prestandan mellan CPU och GPU-tester för att se till att du hamnar i en sweetspot.

Av TobbeH94
Skrivet av Hazelberg:

Tog RAM-minnena från en annan dator och stoppade i.

Enligt CPU-Z körs de i Dual channel och 3000 MHz, XMP på i BIOS. Får minst lika dåliga resultat med dessa, 9-10 GB/s enligt benchen vilket motsvarar 0:e percentilen i prestanda...

Eftersom det inte verkar vara RAM-minnena det är fel på funderar jag på om det kan vara moderkortet, eller helt enkelt benchmarken som är fel. Skulle någon kunna testa och se vad de får för värden på RAM i Userbench?

Meningslös bencharmk. Bencha ett spel eller liknande och se om du får ut prestanda motsvarande vad din GPU ska leverera. Om inte så finns det skäl att felsöka, som det är nu känns det mer som en ren sifferexercis.

Av TobbeH94
Nytt bud: 5 200 kr 5200kr plus frakt
Gå till annonsen för att lägga ett bud.
Av TobbeH94

Förstår inte vad jag ska med Ray-tracing till på min mobiltelefon. Att spela på mobilen äter bara en massa batteri som jag behöver till att kunna ta emot samtal, läsa SMS och skicka mejl.