Muskampen 2025: Segraren korad!

Inlägg

Inlägg som birdman har skrivit i forumet
Av birdman

Verkar som att Asus har gjort bort sig gällande 1.0.0.4 versionen.
Testade på min CH8, kunde inte boota med högre MCLK än 3466Mhz.

Flashade tillbaka till 1.0.0.3 med FlashBack.
Inväntar fix innan jag uppdaterar.
Lite tråkigt med tanke på att den skulle komma med 150 fix, som tex snabbare POST, vilket jag märkte skillnad på under den korta perioden som jag testade.

Av birdman

Någon som kör med 1004 på ASUS-korten?
Många som klagar på att de inte kan köra deras RAM högre än 3200Mhz efter uppdateringen.
Någon här som kan bekräfta?

Av birdman
Skrivet av backfeed:

Eftersom 3950X kontinuerligt försenats så blir jag inte förvånad om de inte kommer förrän 2020. Inte förvånad, men rejält less.

Problemet är väl förstås yields, då båda chiplets i en 3950X måste hålla hög kvalité (alla 8 kärnor per chiplet måste förstås fungera, sen måste de kunna klockas högt men inte med för mycket strömläckage), och de allra bästa chipletsen vill de nog hellre ploppa in i en cpu som de kan ta mer betalt för (som Threadripper).

AMD har problem överlag när det gäller tillgången på samtliga produktgrupper, då AMD har valt att lägga alla sina ägg i "TSMC 7nm-korgen".

Deras 7nm produkter säljer som smör i solsken och TSMC har svårt att hänga med att spotta ut i samma takt.
De vill nog inte lansera 3950X med bara 1000 ex globalt, sen blir det inte heller lättare att de måste binna de rätt så hårt för att få till 3950X:an.

Av birdman

Det kommer att blir enorm skillnad i CPU-prestanda på kommande konsolerna.
DF uppskattar att det kan bli så mycket som 5-6 gånger det som finns på de nuvarande konsolerna.

Sjukt häftigt också att se 16 trådar som standard/minimum om ett par år.

Av birdman
Skrivet av Swedish Berserk:

Att dom fortfarande ökar på datacenter divisionen med tanke på hur stark Epyc står sig där är intressant. Krävs kanske mer av AMD för att nå deras mål på 10% marknadsandelar där.

Ja, det verkar som att total dominans på samtliga håll är inte nog.
Undra varför...

Av birdman

Ja, jag kan också tycka att det är klurigt och att det är bra att spelutvecklarna får mer.
Dock så är det inte alltid spelutvecklarna får pengarna, utan att det försvinner någonstans på vägen dit då det är spelutgivaren som styr det.

Om alla butiker erbjöd samma funktioner, vara lika pålitliga vad gäller service och villkor, fine, men i detta fallet så har jag tolkat det som att det är helt olika beroende på var man köper spelen hos.

Av personlig erfarenhet så undviker jag Windows Store som pesten men vad ska man om tex. Rockstar skulle välja att släppa DDR2 exklusivt där.
Ska man tjuta av glädje att Rockstar får mer kling i kassan och själv lida igenom allt som Windows Store att erbjuda?

Varken spelutvecklarna eller butikerna bestämmer priset.
Det är spelutgivaren som råkar även vara den som skriver avtal med Epic Store på att sälja exklusivt där.
Spelutgivaren låser sin produkt till en butik utan att spendera en sekund på om butiken i fråga lever upp till branschstandarden.
Allt handlar om maximera intäkterna sen så hamnar allt bad PR på butiken, istället för de riktiga bovarna - spelutgivaren.

Av birdman

Man får ofta höra detta - "det är bra för konkurrens", problemet är dock att detta är inte bra för konsumenterna.

Priserna på nya spel är redan spikade och vi som konsument tjänar inget på att köpa nysläppta spel från Epic Store.

De som tjänar på detta är spelutvecklarna men på bekostnad av deras konsumenter, att vi måste dela upp våra spelbibliotek på x antal butiker, där många inte håller standarden som har satts av Steam.

Om spelutvecklare X väljer att släppa sitt kommande spel exklusivt på Epic Store, där det är, säg 15% billigare än Steam, fine, men när det är samma pris, varför skulle jag vilja köpa det hos Epic Store?

Av birdman
Skrivet av ClintBeastwood:

Det står så i artikeln men den är uppenbart gjord av Nvidia. Svart och grönt är "deras" färger.

Jo, det var ju rätt så mycket som är tydligt nu, som att alla andra kolumner listar också endast nVidia kort.

Är på jobbet, kollade lite snabbt och såg just den kolumnen sen reagerade jag bara på det.

Av birdman
Skrivet av ClintBeastwood:

Den enda bilden är väl direkt från Nvidia?

Whops... My bad.
Trodde det var från COD-utvecklaren.

Av birdman

Lite underligt att de väljer att inte lista ett Radeon alternativ för "High Competitive, 1080p 144hz".
Som om AMD inte har något som presterar i nivå med 1080/2070 Super, eller kan driva ett spel i upp till 144 fps, oavsett inställningar med en i7 8700K / R7 1800X...

nVidia finansierat marknadsföring...

Av birdman
Skrivet av Hellscreame:

Undrar vad Tech-Jesus kommer säga om detta.

Känns verkligen desperat av Intel på en nivå man inte sett tidigare

Du menar som när de överklockade en 28-kärnig Xeon processor (med extreme kylning) bara för att kunna säga vi har visst en HEDT-processor som kan möta TR 2000-serien.

Eller kanske när de sa Ryzen är skräp för att AMD har bara limmat ihop sina processorer.

Eller kanske när de betalade Principled Technologies för att ljuga om hur mycket bättre deras processorer var jämfört med Ryzen?

Nej, detta är bara ett av många avsnitt av Intels FUD-kampanj mot AMD.

Av birdman

Kan rekommendera https://www.highflow.nl då det har ett stort sortiment samt ofta bättre pris på EK-produkter.

Av birdman
Skrivet av Kablash:

Nu pratar jag inte om prestanda utan utseendet på referenskorten.

Det är tydligt att nVidia har försökt att designa ett kort med "coolt" utseende, snarare att försöka få till det mest optimal designen för kylningen.
AIB-kort borde vara att föredra just för kylningens skull och för att göra det tydligt för nVidia att det de är inte OK att vara så giriga att de vill tom. konkurrera ut sina egna partner.

nVidia har tyvärr historia av att göra sig ovän med sina partner.

Om det går tillräckligt bra för FE-korten så ska man inte bli förvånad om nVidia skulle välja att låsa ut ASUS/GIGABYTE/MSI och istället sälja sina kort exklusivt hos de själva, bara för att tjäna extra mycket på varje kort som säljs.

Av birdman

Geekbench 4:

3900X
CCD0 4400Mhz
CCD1 4500Mhz
1,425V

Inga problem för spel.

https://i.imgur.com/Z0QtU7q.png

Av birdman
Skrivet av ClintBeastwood:

Det är ett helvete att sitta och klippa och klistra på mobilen men svarar på det sista så får du ett längre svar när jag sitter vid en dator. Crytek körde det alltså i 1080p, 30fps och i blogginlägget spånar han att det med rtx kunnat köra i 4k. Om du tänker hur mycket mer krävande 4k är än 1080p så kanske det ger dig en idé hur mycket den där "gimicken" i rtx-korten gör. Är det fortfarande helt okej när du tänker på hur raytracing dödar prestanda i spel på kort med dedikerad hårdvara?

Vi kanske borde flytta ut den här diskussionen i en annan tråd?

Skickades från m.sweclockers.com

Saken är att tekniken, både på hårdvara och mjukvara stadiet, är väldigt omogen.
Så länge raytracing inte har det breda stödet i spel, så spelar det inte roll om en 2060 kan köra en tech-demo i 8k 144 fps.

Att AMD skulle faila idag säger ingenting om framtidens raytrace-krig, när raytracing är lika vanlig som DX12.
Det är inte en diskussion värt att ha 2019 men ville endast poängtera att det är inte rätt att tvinga på ofärdig produkt på konsumenter.
Om två år vet vi förhoppningsvis mer för att kunna dra bättre slutsatser men för tillfället så är tekniken omogen och inte redo.

Skrivet av Flygplanet:

Ok, så nu då. För det är redan verklighet i Metro, BFV och Tomb Raider med ett 2080.

Dagens spel fuskar väldigt mycket med raytracing.
De använder inte global raytracing, utan endast för vissa objekt bara för att kunna få det något spelbar.

Enligt nedan test så får RTX 2080, 39 fps snitt och så lågt som 27 fps.
Detta med ett grafikkort som kostar 7000 SEK som lägst.
Inte riktigt vad jag skulle kalla redo för mainstream...

Av birdman
Skrivet av ClintBeastwood:

Jag har inte ställt mig på varken din eller hans sida i om AMD ä ettr bättre köp eller om Nvidia är det. Däremot har jag rättat dig på dina rena faktafel som, av någon anledning, ingen annan gör utan bara gillar dina inlägg.

Och fungerade hur bra som helst? Nja..
https://m.sweclockers.com/nyhet/27488-crytek-forklarar-ray-tr...

Skickades från m.sweclockers.com

Vilka faktafel syftar du på, bara så jag förstår vad det är jag anklagas för?

"AMD/nVidia har själva sagt att det dröjer minst ett par år till innan man har nytta av raytracing i grafikkorten."

AMD/nVidia: första spelet som kräver raytracing kommer (optimistisk gissning?) år 2023 (om 4 år).
Min tolkning: raytracing kommer inte att vara relevant förrän om ett par (2) år i framtiden, för att senare år 2023, på allvar, börja etablera sig i spelindustrin.
Var detta fel tolkning?
Visst, kanske dåligt uttryckt men ej en grov feltolkning som du kanske vill få det till.

Att DX12 används i 9/10 spel?

Detta var inget som jag skrev som fakta, utan du antog att det var det jag menade.
Jag sa att han nämner inte DX12, som AMD har bättre stöd för än nVidia.

Han ville påpeka att man ska inte köpa AMD för att AMD har dålig stöd för OpenGL (irrelevant för 9/10 gamer).
Samt att han ignorera att AMD har en fördel i DX12, framtidens grundpelare, för inklusive DXR, just för att han är oärlig.

Edit: Missade denna:
"Och fungerade hur bra som helst? Nja.."

Det jag menade var att tekniken funkar hur bra som helst, även på ett AMD kort utan RTX-cores eller ens officiell stöd.
Resultatet är ju det samma som på RTX-korten.
Låga FPS även på 1080p, tecken på att tekniken är inte redo för att tvinga på konsumenterna.

Som att släppa en flygande bil för marknaden men den kan bara lyfta från marken med max en person på 20kg.
Nej, tack.
Återkom när korten kan uppnå minst 60 FPS i 1440p, sen kan ni kräva pengar från kunderna.

Av birdman
Skrivet av ClintBeastwood:

Det har inte Nvidia sagt alls. Nvidia sa att det första spelet som kräver hårdvara för raytracing kommer 2023. Sprider du trams eller minns du bara fel?
https://m.sweclockers.com/nyhet/27944-nvidia-ar-2023-slapps-d...

Du själv drog upp DX12 tidigare som en fördel, finns det i 9/10 spel?

Nej, det stämmer att de sa att de gissar att första spelet som kräver hårdvara för raytracing kommer 2023.
Dåligt uttryckt av mig.

Jag menade att raytracing är inget för 2019 och inte heller för 2020.
2023 är om 4 år och det är OM just det första spelet skulle kräva det är din favoritspel OCH att de gissar rätt på året.

Varför betala extra för att bli en beta-testare för en teknik för flera år i framtiden?
Om någon väljer att spendera extra och har inget emot att vara beta-testare "för att driva utvecklingen", fine, do it, men man ska inte gå in på forum år 2019 och säga "AMD är skräp för att de har inte raytracing" och lura de med mindre plånbok att de borde "spendera extra för att AMD är en poor mans GPU".

Att AMD inte släppt en GPU med specifik hårdvarastöd för DXR så betyder det inte att du inte kan få raytracing på Radeon.
CryTek visade en DXR tech-demo med en Radeon Vega 56 som funkar hur bra som helst och detta helt utan "RTX cores" och annat trams nVidia hypar upp/tvingar på marknaden, för att sälja kort, precis som G-Sync/FreeSync.

DX12 är något som har funnits i flera år och stödet är betydligt bredare än raytracing.
Samtidigt så är det inte lika tufft för utvecklarna att stödja detta.
Som du säkert känner till så utvecklas i princip alla multi-platform spel på X1/PS4 och sedan portas till PC.
X2/PS4 kommer att sätta standarden med DX12/Vulkan(aka AMDs Mantle) redan nästa år, vilket kommer att öka stödet enormt, långt innan raytracing etablerat sig.

Av birdman
Skrivet av Icte:

Har pratats lite om negativ VCORE offset och dess fördelar/nackdelar, men inget om positiv VCORE offset. Förmodligen då boost fortfarande krånglar för vissa.

Är dock lite nyfiken på hur dessa CPU:er skulle reagera med en positiv VCORE offset om man har väldigt bra kylning. Kommer de då att överskrida max frekvenserna, om temperaturen inte sätter stopp?

Positiv offset är helt meningslöst.
vCore är hög nog som den är och en ökning skulle leda till att den snabbare når sin max-temp gräns, vilket kommer leda till throttling ännu tidigare.

Det hade varit intressant att testa Auto inställningar på extremkylning, för att helt ta bort temp begränsningen, för att se hur mycket den egentligen kan klocka själv.

Av birdman
Skrivet av Boredbynoobs:

Nej dem failar eftersom dem helt enkelt saknar dessa funktioner och opengl, det är ännu värre än att "faila" i dem

Varför köpa grafikkort som saknar funktioner 2019? För att spara 500kr och hoppas på FineWine i detta prestandasegment haha?

Den enda funktionen Radeon saknar är raytracing men det är knappast så att det är en industristandard som finns i 9 av 10 spel.
Det hela är ju ett skämt och det är patetiskt att ens försöka att försvara RTX.

Var finns Geforce motsvarighet till Chill, Anti-Lag eller en uppskalning funktion utan vaselineffekt på skärmen?
Alltså funktioner som du använder varje dag till alla spel som finns ute redan idag.
Inga RTX för år 2023 eller Gimpworks vars enda syfte är att förstöra för alla icke Geforce ägare?

Skrivet av ClintBeastwood:

Är det inte AMD som valt att inte supporta DXR (blanda inte ihop med RTX) än?

Skickades från m.sweclockers.com

Jo, det stämmer.
Jag blandade väl ihop de men samtidigt så är raytracing flera år för tidig.
AMD/nVidia har själva sagt att det dröjer minst ett par år till innan man har nytta av raytracing i grafikkorten.
Det finns knappt spel som stödjer det för tillfället och idag så drogs stödet bort från en av de.

RTX är ju en gimmick just nu för att kunna sälja fler kort.

Av birdman
Skrivet av Boredbynoobs:

Oroa dig inte dem failar även grovt i spel som använder physx och raytracing. Och som jag tidigare nämnde så är aldrig prioriterade av utvecklare i princip så det blir krasst "poor mans GPU-choice" i slutändan.

Jaha, så AMD är skräp för att de failar i nVidias Physx och nVidias raytracing.
Kan det ha något att göra med att det är slutna system som nVidia inte vill att AMD ska använda överhuvudtaget?