Trädvy Permalänk
Avstängd
Plats
Malmö
Registrerad
Dec 2004
Skrivet av clappen:

Sista gången jag rör en AMD tillverkad hårdvara är 280x. Urusel kylning och extremvärme. Dessutom relativt kass för spel när jag köpte den. Drivrutinerna är så vidrigt dåliga och kommer så sällan att jag ALDRIG kan rekommendera någon att röra AMD.

Att du ens drar in konsoller i denna diskussion visar att du ligger minst 10 år efter i teknikens värld. Konsoller är URUSLA spelmaskiner. Otippat att AMD är dom som kör maskinerna haha.

*** raderat ***

Men du, tiderna förändras, AMD is teh shit nu

Skrivet av waverider:

Måste säga att jag inte förstår hur folk kan vara så imponerade av Ryzens prestanda? Själv är jag besviken på Ryzen, man har läst om all hype och förväntat sig likvärdig prestanda med Intels motsvarigheter. AMD hade ju t.ex. hävdat att 1800X skulle hålla jämna steg med 6900K, men enligt Sweclockers test så vinner 6900K i många fler benchmarks än vad 1800X gör, framförallt om man räknar in spel. Nu är visserligen en 6900K ung. dubbelt så dyr som en 1800X, men likvärdiga i prestanda är de ju inte.

Och även 7700K vinner fler tester än vad 1700 gör, till samma pris, och ändå så verkar det som om så många är så otroligt imponerade av 1700. Jag förstår inte varför? Givetvis är det bra med konkurrens, men som sagt, varför är så många imponerade av Ryzen?

Då är det fel på förväntningarna. Det fanns inte på kartan att AMD skulle kunna bräcka Intel över hela brädet. Att de ändå kom så nära som de gjorde är oerhört imponerande. De erbjuder ju faktiskt något som inte Intel gör.

Skrivet av Cameltotem:

Det är inte Sweclockers jag skrattar åt det jag menar är alla blev helt plötsligt 3D artister över natten.

Kan tänka mig att majoriteten här är gamers och är ute efter spelprestanda och inte arbetsprestanda. Nu är jag programmerare själv och de flesta andra är säkert det med men inte riktigt samma sak

Jag funderar i samma bana, fast i annat spår, nämligen att alla plötsligt blivit 1337 gamers på Sweclockers. Så minns jag inte att det varit förut, vill minnas det varit blandad kompott.

Räkna ut hur kraftigt nätaggregat du behöver på OuterVision Power Supply Calculator. 500W räcker för de allra flesta vanliga system. Seasonic är bäst. ;) – Elektrostatisk urladdning är ett verkligt problem.
"People who are serious about software should make their own hardware" – Alan Kay
Bojkotta maffian

Trädvy Permalänk
Medlem
Plats
Göteborg
Registrerad
Okt 2003
Skrivet av Ratatosk:

Prestanda

R7 1700

i7 7700k

Relevans för de flesta

Enkeltrådat

Bra

Mycket bra

Större, om man spelar i 720p

Flertrådat

Mycket bra

Bra

Mindre, om man bara använder ett program i taget.

Bara för att ett test körs i 720p för att VISA SKILLNADEN mellan CPU:er betyder det inte att man själv behöver köra i den upplösningen. Lika lite som att man sitter och kör Blender eller lirar Cinebench hela dagarna. - Dock så flaskar Ryzen ur redan i 1080p som är en relevant upplösning. En upplösning som många 144Hz-skärmar har.. men det kanske inte spelar så stor roll? 60Hz är tillräckligt eller?

En relevant skillnad alltså, om man nu står i det valet och kvalet. Men vad är det då alla hemanvändare gör med sina kraftpaket, om det inte är att spela. Kan du inte ge exempel på vilket trade-off du gör. Vad dina multitrådade sysslor är som inte en i7 klarar av? Försök att inte ljuga ihop för mkt bara.

7700K, Z270H, 1080Ti, 830, AX850, PG279Q, Vive

Trädvy Permalänk
Medlem
Plats
127.0.0.1
Registrerad
Jan 2007
Skrivet av waverider:

Måste säga att jag inte förstår hur folk kan vara så imponerade av Ryzens prestanda? Själv är jag besviken på Ryzen, man har läst om all hype och förväntat sig likvärdig prestanda med Intels motsvarigheter. AMD hade ju t.ex. hävdat att 1800X skulle hålla jämna steg med 6900K, men enligt Sweclockers test så vinner 6900K i många fler benchmarks än vad 1800X gör, framförallt om man räknar in spel. Nu är visserligen en 6900K ung. dubbelt så dyr som en 1800X, men likvärdiga i prestanda är de ju inte.

Och även 7700K vinner fler tester än vad 1700 gör, till samma pris, och ändå så verkar det som om så många är så otroligt imponerade av 1700. Jag förstår inte varför? Givetvis är det bra med konkurrens, men som sagt, varför är så många imponerade av Ryzen?

Hur kan man bli besviken när Ryzen överträffade förväntningarna? Det enda som är lite av en besvikelse är att dom inte klockar lite bättre även om det inte är så konstigt när det är en helt ny arkitektur på en ny tillverkningsprocess då det tar tid för den att mogna.

AMD har inte hävdat mer än dom prestandatester som uppvisades där den gör sig mycket bra mot 6900K. Det är en ny arkitektur som sagt, så många, läs MÅNGA program är inte optimerade ännu, alternativt identifierar Ryzen på ett felaktigt sätt som gör att den inte presterar så bra som den kan. Du kanske också borde läsa fler tester då en många recensenter använder några utav spelen som inte låter Ryzen använda sin kapacitet ännu. Visar exempel på det nedan.. Med det sagt, gör och se skillnad på hårdvaran och mjukvaran. Microsoft är på gång med mindre optimeringar och spelutvecklarna jobbar hårt med Ryzen nu.

Där ser du betydligt fler spel testade, och ändå är inte allt optimalt där. 7700K kapacitet används till fullo nu, medans Ryzen har en hel del kapacitet till framtida spel och samtidigt mosar sitt motstånd i multitasking och produktiva applikationer/rendering/encoding osv.

Samma plattform tillåter folk också att slippa byta moderkort när uppföljaren Ryzen 2 kommer.

Skrivet av Yoshman:

Lätta först, Linux. Kolla i källkoden så ser du att det finns överhuvudtaget ingenting där som på något sätt tar hänsyn till att det finns två CCX i Ryzen. Finns inte heller någon kod i Linux som på något sätt bryr sig om cache-topologin när det kommer till hur trådar schemaläggs. Det man tar hänsyn till är NUMA-zoner, d.v.s. om vissa kärnor har olika kostnad att nå olika delar av RAM.

Ibland hoppar du över saker som skrivs eller läser dom fel. Jag skrev att CPUID APIC flaggar om CCX strukturen. Det ser man i en patch här:
https://lkml.org/lkml/2015/11/3/634

+ core_complex_id = (apicid & ((1 << c->x86_coreid_bits) - 1)) >> 3; + per_cpu(cpu_llc_id, cpu) = (socket_id << 3) | core_complex_id;

Numera ser patchen ut såhär för att identifiera korrekt:

https://git.kernel.org/pub/scm/linux/kernel/git/torvalds/linu...

if (cpuid_edx(0x80000006)) { if (c->x86 == 0x17) { /* * LLC is at the core complex level. * Core complex id is ApicId[3]. */ per_cpu(cpu_llc_id, cpu) = c->apicid >> 3; } else { /* LLC is at the node level. */ per_cpu(cpu_llc_id, cpu) = node_id; } }

Oavsett vad så vet man att designen är den bästa kompromiss som AMD kunde gjort för att få arkitekturen att passa in i alla segment, men det ser jag inte som en svaghet. Jag skrev också ett inlägg i diskussionstråden för Ryzen att Sysinternals Coreinfo rapporterade felaktiga data. Det tillsammans med upptäckten att trådar som kastar runt på Zen fick mig inklusive många att tro att schemaläggaren i Windows var boven i dramat, speciellt när Win7 samtidigt visade betydligt högre draw calls och fps, en siffra som många gånger låg väldigt nära samma siffra som att kasta runt trådar mellan 2 CCX.

Problemen visade sig vara fler, alltifrån power plans, till HPET, bios, recensenter som körde för lågt klockade minnen och spel som inte identifierar Ryzen korrekt. PC-per snackade om att utöka funktionaliteten hos schemaläggaren i sin del.2, och jag är inte den enda som tänker i dom banorna även om den i sig inte gör något fel idag. Det är fullt möjligt, men bäst hade vart om applikationen styr assignationen.

Citat:

Vad Linux tar hänsyn till är SMT. Specifikt hanteras Ryzen som Intels Core, "gamla" Atom och i princip alla CPUer med SMT. Bulldozer-arkitekturen hanteras däremot separat, där väljer Linux att lasta båda trådarna i en modul innan nästa modul tas i anspråk, med SMT lastar man först en tråd per kärna så länge det finns kärnor som är "idle".

Win 8 patchen ändrade dock detta för att köra 2 trådar i en modul. Win10 gör samma sak.

Citat:

Att OS-trådar hoppar mellan CPU-trådar är dels inte vad som orsakar det du är ute efter, det är heller inte ett problem i praktiken då Windows skyfflar runt saker med en frekvens som inte alls är så hög att den har en relevant påverkan på prestanda.

Nej, återigen är det inget problem så länge dom gör det inom samma CCX vilket var hela poängen, och leksaksexperimentet fungerar bevisligen.

Citat:

Att OS-trådar hoppar runt på Windows och inte gör det på Linux beror på att de är optimerade för olika fall, båda designvalen har fördelar och nackdelar. Windows prioriterar svarstid över "throughput", framförallt för interaktiva applikationer (d.v.s. den applikation som har input-fokus). Linux specialbehandlar ingen process och där prioriteras "throughput" mer än svarstid.

Ett praktiskt exempel på ovan är: om tråd A postar en semaphore så tråd B nu bli körklar, ska tråd A eller tråd B fortsätta köra på aktuell CPU-tråd? Det är något som studerats väldigt ingående och finns inget svar som alltid är bäst, beror på en rad faktorer bl.a. om man vill optimera för CPU-throughput, I/O-throughput, svarstid etc.

En applikation som t.ex. jobbar mot en in-memory databas som är relativt stor lär köra snabbare om två samtida trådar ligger på separata CCX. Men det stora problemet är detta: anta att man håller saker inom CCX, hur ska man då schemalägga moderna spel som i princip alltid utnyttjar fler än fyra OS-trådar?

Så visst går det att vinna 20 % i ett leksaksexempel som ovan, men det skulle ändå inte lösa "riktiga" applikationer. Än mindre lösa fall när flera multitrådade applikationer kör samtidigt.

Visst beror det på tillämpning/segment, och det är därför jag tror att förbättringar finns för respektive sådant. Vi snackar om 1 CPU för desktop/WS bruk och inte HPC kluster.

Citat:

Och om det nu är ett problem, för AMDs del skulle det vara överlägset enklast att peka på att problemet ligger i Windows. Det skulle betyda att man kan fixa ett ställa och problemet är över. Nu erkänner man i stället att designen man valt är lurig att hantera generellt, lösningen blir att till viss del specialhantera designen i varje applikation. Det är ett budskap jag tvivlar någon vill ge innan det är absolut klarlagt att det är enda vägen framåt.

Det är ju ett problem när 20% prestanda går väck och man vet hur man kan lösa det. Ny arkitektur=optimeringar kommer till mjukvaran. Det blir intressant att se kommande tid.

Skrivet av Paddanx:

Det verkade inte vettig att göra så dock, men de måste ha satans med defekta chip då.

Ryzen är liten och därmed billig att tillverka för AMD. Det hade blivit betydligt dyrare att göra tape-out på 2 olika designer av samma arkitektur och kasta alla defekta die's istället för att göra som nu, där man tar vara på dom som inte klarar binningen för octa cores och inaktiverar kärnor och säljer dom som fullt fungerande hex och quadcores

[ AMD Ryzen 1700 @ 4.2GHz EK-Block // custom loop, 2 x 420mm radiatorer ][ ASUS X370 ROG Crosshair 6 Hero ][ G.Skill Trident Z DDR3600 CL15 @ DDR3333 CL12-12-12-12-28-1T ][ AMD RX Vega 64 EK-block @ 1764MHz core / 1175MHz HBM2 ][ Corsair 750D // Corsair RM1000X ][ 512GB Samsung 960 M.2 SSD ][ Win10 PRO x64 ][ Acer XG270HU ]

Trädvy Permalänk
Medlem
Plats
Malmö
Registrerad
Maj 2014
Skrivet av Enigma:

Ryzen är liten och därmed billig att tillverka för AMD. Det hade blivit betydligt dyrare att göra tape-out på 2 olika designer av samma arkitektur och kasta alla defekta die's istället för att göra som nu, där man tar vara på dom som inte klarar binningen för octa cores och inaktiverar kärnor och säljer dom som fullt fungerande hex och quadcores

Kanske det, men jag hade som sagt hellre sett en single CCX Quad, och tom betalt mer för den. (kanske bara jag, vad vet jag)

Men vi får se vad som sker. De måste ju fixa denna CCX till CCX på något vettigt sätt oavsett och gör de det så bör det bli bra oavsett.

Trädvy Permalänk
Datavetare
Plats
Stockholm
Registrerad
Jun 2011
Skrivet av Enigma:

Ibland hoppar du över saker som skrivs eller läser dom fel. Jag skrev att CPUID APIC flaggar om CCX strukturen. Det ser man i en patch här:
https://lkml.org/lkml/2015/11/3/634

+ core_complex_id = (apicid & ((1 << c->x86_coreid_bits) - 1)) >> 3; + per_cpu(cpu_llc_id, cpu) = (socket_id << 3) | core_complex_id;

Numera ser patchen ut såhär för att identifiera korrekt:

https://git.kernel.org/pub/scm/linux/kernel/git/torvalds/linu...

if (cpuid_edx(0x80000006)) { if (c->x86 == 0x17) { /* * LLC is at the core complex level. * Core complex id is ApicId[3]. */ per_cpu(cpu_llc_id, cpu) = c->apicid >> 3; } else { /* LLC is at the node level. */ per_cpu(cpu_llc_id, cpu) = node_id; } }

Förstår du vad syftet koden ovan har?

Den kommer inte på något sätt att påverka hur schemaläggaren fungerar, vad den används till är information till applikationer kring topologin för cache. Motsvarande vad Windows ger via GetLogicalProcessorInformation.

I Linux fall hittar man detta under /sys/devices/system/cpu/cpuN/ specifikt cache information ligger sedan i underkatalogen cache/indexL där det finns ett "indexL" för varje cache nivå L. Patchen ovan ser till att noden cache/index3/shared_cpu_map visar korrekt information på Zen, d.v.s. att L3 delas av fyra kärnor i ett CCX.

Enda kodförändring som är Zen-specifikt och påverkar hur schemaläggaren fungerar är detta

if (c->x86 >= 0x17) { c->cpu_core_id = ebx & 0xff; if (smp_num_siblings > 1) c->x86_max_cores /= smp_num_siblings; }

och kikar man i kiden för Intel HyperThreading ser man att raden där c->x86_max_cores delas med antal "siblings" finns även där. D.v.s. ACPI rapporterar i båda fallen alla CPU-trådar som "riktiga" kärnor, om SMT/HT är påslaget måste man alltså kompensera för det.

Skrivet av Enigma:

Oavsett vad så vet man att designen är den bästa kompromiss som AMD kunde gjort för att få arkitekturen att passa in i alla segment, men det ser jag inte som en svaghet. Jag skrev också ett inlägg i diskussionstråden för Ryzen att Sysinternals Coreinfo rapporterade felaktiga data. Det tillsammans med upptäckten att trådar som kastar runt på Zen fick mig inklusive många att tro att schemaläggaren i Windows var boven i dramat, speciellt när Win7 samtidigt visade betydligt högre draw calls och fps, en siffra som många gånger låg väldigt nära samma siffra som att kasta runt trådar mellan 2 CCX.

Problemen visade sig vara fler, alltifrån power plans, till HPET, bios, recensenter som körde för lågt klockade minnen och spel som inte identifierar Ryzen korrekt. PC-per snackade om att utöka funktionaliteten hos schemaläggaren i sin del.2, och jag är inte den enda som tänker i dom banorna även om den i sig inte gör något fel idag. Det är fullt möjligt, men bäst hade vart om applikationen styr assignationen.

Win 8 patchen ändrade dock detta för att köra 2 trådar i en modul. Win10 gör samma sak.

"Spel som inte identifierar Ryzen korrekt", vad betyder ens det? Spel bryr sig i >99,99 % i fallen inte om vilken CPU-modell man använder, den stora fördelen med moderna x86 CPUer är att de är väldigt okänsliga för lågnivå optimeringar då det handlar om out-of-order designer med väldigt stort djup.

Skrivet av Enigma:

Nej, återigen är det inget problem så länge dom gör det inom samma CCX vilket var hela poängen, och leksaksexperimentet fungerar bevisligen.

Hur ska man hålla t.ex. ett spel inom en CCX, spel använder fler än fyra trådar? Vidare så schemalägger både Windows och Linux OS-trådar helt utan att ta hänsyn till vilken process de tillhör, så är omöjligt (idag) att ha en policy som håller en applikation inom en CCX och om totala antalet aktiva OS-trådar går över fyra är det kört.

D.v.s. det är inte praktiskt vettigt att försöka väga in det faktum att varje CCX har separat L3$ i schemaläggningsbeslut som tas av OSet. Applikationer har däremot möjlighet att utnyttja detta, blir dock mäkta förvånad om någon kommer lägga de resurser som behövs för att göra en sådan optimering.

Huvudanledningen att Ryzen hamnar efter i spel är ändå inte CCX, det är att Zen är väsentligt svagare än Intels aktuella modeller när det kommer till hantering av skalära heltal. Det är något som ingen optimering i världen kommer kunna fixa.

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Trädvy Permalänk
Medlem
Plats
Death Star
Registrerad
Dec 2004

När kommer 1440p och 4k benchmarks?
Enligt andra benchmarks på nätet (går att googla enkelt) ligger ryzen i par med sina konkurrenter.

Trodde sweclockers medlemmar var pro-gamers som bara brydde sig om 1440p och upp som är den nya normen?
1080p är ju för noobs 😁

Skickades från m.sweclockers.com

Lightsaber - Black armour - and balls!

Trädvy Permalänk
Medlem
Registrerad
Dec 2013
Skrivet av kotz:

När kommer 1440p och 4k benchmarks?
Enligt andra benchmarks på nätet (går att googla enkelt) ligger ryzen i par med sina konkurrenter.

Trodde sweclockers medlemmar var pro-gamers som bara brydde sig om 1440p och upp som är den nya normen?
1080p är ju för noobs 😁

Skickades från m.sweclockers.com

Nope, det är tydligen höga frekvenser och få kärnor som ska premieras i testerna.

AMD RYZEN 7 2700X @ 4,3GHz - ASUS ROG X470-F STRIX - 16GB DDR4 @ 3200MHz - SAMSUNG 960 EVO 250GB - SAMSUNG 850 PRO 1TB - GAINWARD GTX 1080 PHOENIX GS 8GB @ 2100MHz/10800MHz - SAMSUNG C27HG70QQ 144Hz

Trädvy Permalänk
Hedersmedlem
Plats
Malmö
Registrerad
Apr 2007
Skrivet av kotz:

När kommer 1440p och 4k benchmarks?
Enligt andra benchmarks på nätet (går att googla enkelt) ligger ryzen i par med sina konkurrenter.

Trodde sweclockers medlemmar var pro-gamers som bara brydde sig om 1440p och upp som är den nya normen?
1080p är ju för noobs 😁

Skickades från m.sweclockers.com

Nä men här tycker jag du blandar ihop grejer.
Tester i höga upplösningar ger tråkiga grafer där alla maxpresterar och grafikkorten blir den begränsande faktorn. However, informationen i dessa är ändå av relevans för det är ju så man vill att fördelningen ska se ut i datorn. Man önskar vanligen att processorn inte ska vara flaskhalsen så det blir en bra verifiering att det är grafikkorten som begränsar i högre upplösningar.
Men det blir väl inte riktigt rätt att ifrågasätta de lägre upplösningarna. De har massa relevant information också.

🖥 → Ryzen 5 2600 • Sapphire Nitro R9 390 • 16GB DDR4 • MSI B450I Gaming Plus AC (mITX)
💻 → SurfacePro 3 [i5 • 4GB ddr3 • keybaord + pen]
🖱 → Corsair m65 white / ⌨ → pok3r nordic white
📱 → Oneplus6
🎧 → Sennheiser momentum wireless & Logitech g930

Trädvy Permalänk
Medlem
Registrerad
Jul 2011
Skrivet av kotz:

När kommer 1440p och 4k benchmarks?
Enligt andra benchmarks på nätet (går att googla enkelt) ligger ryzen i par med sina konkurrenter.

Trodde sweclockers medlemmar var pro-gamers som bara brydde sig om 1440p och upp som är den nya normen?
1080p är ju för noobs 😁

Skickades från m.sweclockers.com

Det är inget grafikkortstest. Är man "Pro-gamer" så är hög fps ännu viktigare så det du försöker göra en poäng av blir ännu mer fel.

sweclockers prestandaindex

Efter 10 kommer 11.

Trädvy Permalänk
Medlem
Registrerad
Dec 2013
Skrivet av Söderbäck:

Nä men här tycker jag du blandar ihop grejer.
Tester i höga upplösningar ger tråkiga grafer där alla maxpresterar och grafikkorten blir den begränsande faktorn. However, informationen i dessa är ändå av relevans för det är ju så man vill att fördelningen ska se ut i datorn. Man önskar vanligen att processorn inte ska vara flaskhalsen så det blir en bra verifiering att det är grafikkorten som begränsar i högre upplösningar.
Men det blir väl inte riktigt rätt att ifrågasätta de lägre upplösningarna. De har massa relevant information också.

Skrivet av ClintBeastwood:

Det är inget grafikkortstest. Är man "Pro-gamer" så är hög fps ännu viktigare så det du försöker göra en poäng av blir ännu mer fel.

Det ena behöver inte utesluta det andra.

Huruvida processorn behöver mata på ordentligt eller inte även i högre upplösningar beror helt och hållet på vilket spel man pratar om. Det är inget fel i sig att testa i 720p eller 1080p, men i mitt tycke bör man även ha med 1440p samt 4K eftersom det är de upplösningarna som det kommer att satsas på framöver.

AMD RYZEN 7 2700X @ 4,3GHz - ASUS ROG X470-F STRIX - 16GB DDR4 @ 3200MHz - SAMSUNG 960 EVO 250GB - SAMSUNG 850 PRO 1TB - GAINWARD GTX 1080 PHOENIX GS 8GB @ 2100MHz/10800MHz - SAMSUNG C27HG70QQ 144Hz

Trädvy Permalänk
Hedersmedlem
Plats
Malmö
Registrerad
Apr 2007
Skrivet av Stoff3th3m4n:

Det ena behöver inte utesluta det andra.

Huruvida processorn behöver mata på ordentligt eller inte även i högre upplösningar beror helt och hållet på vilket spel man pratar om. Det är inget fel i sig att testa i 720p eller 1080p, men i mitt tycke bör man även ha med 1440p samt 4K eftersom det är de upplösningarna som det kommer att satsas på i framtiden.

Ja det var precis det jag ville få fram med mitt inlägg också ;).

🖥 → Ryzen 5 2600 • Sapphire Nitro R9 390 • 16GB DDR4 • MSI B450I Gaming Plus AC (mITX)
💻 → SurfacePro 3 [i5 • 4GB ddr3 • keybaord + pen]
🖱 → Corsair m65 white / ⌨ → pok3r nordic white
📱 → Oneplus6
🎧 → Sennheiser momentum wireless & Logitech g930

Trädvy Permalänk
Medlem
Registrerad
Dec 2013
Skrivet av Söderbäck:

Ja det var precis det jag ville få fram med mitt inlägg också ;).

Då är vi överens

AMD RYZEN 7 2700X @ 4,3GHz - ASUS ROG X470-F STRIX - 16GB DDR4 @ 3200MHz - SAMSUNG 960 EVO 250GB - SAMSUNG 850 PRO 1TB - GAINWARD GTX 1080 PHOENIX GS 8GB @ 2100MHz/10800MHz - SAMSUNG C27HG70QQ 144Hz

Trädvy Permalänk
Medlem
Plats
Sundsvall
Registrerad
Sep 2009

Tror ändå att dessa MAD processorer med GTX 1080Ti en eller SLI med bra minnen hyfsat mycket moderkort HDD/SSD så tror jag att spelare ändå har det bra med kapacitet dessutom är de billigare än intel där man måste vara hög lönad för att ha råd med deras CPU´N som 7700K 6950K
det är ju sjuka priser inom dator industrin idag.
Inte fan bygger man en super burk för 17K närmare 40K.
Men som sagt AMD tror jag har hittat hyfsat rätt med Ryzen CPu´n man ska inte stirra sig blind på tester har jag lärt mig i alla fall, se på min lilla laptop en ROG med GTX880M inte alls den kraftfuillaste med tanke på 1080SLi, 980SLi men denna laptop klarar av de spel jag spelar som är ARMA 3 TW War Hammer, COH2, TW rome II, D3,Wow mfl men som sagt allt hänger vaäl på vilka krav man har ska spelen rulla i 60FPS i 3480x2160 med ultra/extreme så visst då kanske Ryzen inte är rätt men då kostar nog en sån rigg 40-60K beroende på minnen mängden minne HDD/SSD mm.

det är min tanke om en AMD rigg trots att de inte toppar testerna, det kanske kommer nu när de fått lite självförtroende?
Med vänlig hälsning
Petri
"ASUS ROG I7 4700Q 8GB ram(ska ökas på) GTX 880M"

[MSI GE70 2OE-014NE]

Trädvy Permalänk
Medlem
Registrerad
Nov 2013

Den höga överklockningsförmågan beror snarare på att AMD själva har strypt frekvensen och att vi nu kan få tillgång till den ursprungliga med en överklockning

Trädvy Permalänk
Medlem
Plats
Sundsvall
Registrerad
Okt 2003
Skrivet av gluon:

Lite besviken att Ryzen inte når ända ner till 40w i idle, för det är ju där man spenderar mest tid.

Beror på vilken energi/prestandainställning man använder.
Recensenten beskriver inte vilken inställning som använts i testet, annat än nedan:

Skrivet av Jacob:

Vi kör med Core Parking av vid prestandatester, ...

Misstänker att samma inställning användes vid effektmätningarna?

Skrivet av Yoshman:

Inte ens AMD jämför R7 1700 mot E-serien, de jämför den med i7-7700K.

Jag tycker att jämförelsen mellan R7 1700 och i7-7700K är nästan lika haltande som att jämföra en traktor med en supersportbil. Båda kostar visserligen ungefär lika mycket och har lika många hästkrafter, men det finns även vissa väsentliga skillnader...

Skrivet av Enigma:

... Jag har hållt på med både ATI och nvidia kort sedan Riva128 och ATI Rage PRO. Konstigt att jag aldrig har haft några större problem med någon av tillverkarens drivrutiner. ...

Jag har varit aktiv nästan lika länge och har upplevt problem endast med ATI/AMD.
Först var det runt år 2000 då ATIs drivisar inte hade stöd för "fog tables", en D3D-funktion som nästan aldrig använts av någon men var kritisk för grafiken i mitt dåvarande favoritspel.
När jag på senare tid använt grafikkort från AMD (RD 5570 och senare R9 280) har jag stört mig på att AMD hela tiden försöker få mig att installera beta-drivisar. Nvidia ger möjligheten att bara påminna när det kommer nya WHQL-certifierade drivisar, vilket jag föredrar.

För övrigt anser jag att MS FlightSim X borde vara standard som ett av benchmarkprogrammen.

Trädvy Permalänk
Medlem
Plats
Göteborg
Registrerad
Jan 2008
Skrivet av clappen:

Sista gången jag rör en AMD tillverkad hårdvara är 280x. Urusel kylning och extremvärme. Dessutom relativt kass för spel när jag köpte den. Drivrutinerna är så vidrigt dåliga och kommer så sällan att jag ALDRIG kan rekommendera någon att röra AMD.

Att du ens drar in konsoller i denna diskussion visar att du ligger minst 10 år efter i teknikens värld. Konsoller är URUSLA spelmaskiner. Otippat att AMD är dom som kör maskinerna haha.

*** raderat ***

Jaså?
Bästa GPUn jag köpt för 2200:- nånsin. Går något varm och drar en del ström men presterar väldigt bra.
Drivrutinerna är bara att installera och köra, tror jag bytte 4-5 ggr under tiden jag hade kortet, kanske ett par gånger för mycket, men hade inga problem att installera eller uppgradera, allt bara funkade.
Bra OpenCL-prestanda också, och väldigt bra till hashcat, dubbelt så snabb som GTX 780 och en bra bit snabbare än Titan.

GCN var en riktigt lyckad arkitektur, så AMD tog rätt beslut när de köpte ATi.
Nu handlar ju denna tråden iofs. om Ryzen som är en AMD-CPU, vilket har sådär mycket att göra med grafikkortsdrivrutiner.

|[●▪▪●]| i5-6600k@4,4GHz >-< GB-Z170X-GM3 >-< 16GB DDR4 >-< MSI GTX 1070 >-< BX100 250GB SSD>--
--< Be Quiet! Pure Rock >-< FD Define R4 >-< Seasonic F.+ 650W >-< Acer XF270HUA >-< AOC Q2778VQE |[●▪▪●]|

Trädvy Permalänk
Medlem
Registrerad
Jan 2013
Skrivet av waverider:

Måste säga att jag inte förstår hur folk kan vara så imponerade av Ryzens prestanda? Själv är jag besviken på Ryzen, man har läst om all hype och förväntat sig likvärdig prestanda med Intels motsvarigheter. AMD hade ju t.ex. hävdat att 1800X skulle hålla jämna steg med 6900K, men enligt Sweclockers test så vinner 6900K i många fler benchmarks än vad 1800X gör, framförallt om man räknar in spel. Nu är visserligen en 6900K ung. dubbelt så dyr som en 1800X, men likvärdiga i prestanda är de ju inte.

Och även 7700K vinner fler tester än vad 1700 gör, till samma pris, och ändå så verkar det som om så många är så otroligt imponerade av 1700. Jag förstår inte varför? Givetvis är det bra med konkurrens, men som sagt, varför är så många imponerade av Ryzen?

Kolla denna video så förstår man att vissa är väldigt glada över Ryzen processorerna!

Annars är det ju bara att kolla på Multithreded prestandan, 8c/16t till en Tredje Del av priset av en i7 6900k, överklocka Ryzen 7 1700 till 4 GHz och du får bra mycket bättre prestanda än en i7 6900k stock som kostar ca 12K, därmed får du nästan en komplett dator till samma pris som en 6900k, förutom grafikkortet, så man kan ju inte annat änn glädjas av detta, iaf dom som har annan prioritet änn bara spel, med sin dator.

Tycker denna CPU är klockren set till pris/prestanda, bästa 8c/16t på marknaden just nu och väldigt energieffektiv.

Trädvy Permalänk
Medlem
Registrerad
Aug 2016
Skrivet av Enigma:

Kanon gällande Core Parking, för jag fick ett lite osäkert svar från Jonas tidigare. Hade vart intressant om ni ville göra ett liknande test som uppvisas i dom Youtubelänkar som jag postade för att styra processer. Dom 7-8 första trådarna borde per automatik på Ryzen assigneras till CCX0 om allt hade varit rätt, och utöver dessa till CCX1

Hur beter sig din ryzen med process lasso och vad har du för inställningar?

Trädvy Permalänk
Avstängd
Plats
Umeå
Registrerad
Feb 2009
Skrivet av AmdX2:

Intel kanske är en sponsor varpå man väljer att skriva så

Njae. Orsaken är att de utgår från max boost utan att tänka på att det också är överklockning per definition. Deras utgångspunkt är lite udda måste jag säga men så länge som de är konsekvent så har jag inte så mycket att påpeka.

||NZXT H440 Black/Red||Intel i5 2500k @ 4,2GHz ||Noctua NH-D14 ||GA-Z77X-UD3H ||8 gb Corsair Vengeance 1600mhz DDR3 ||MSI GeForce GTX 970 ||OCZ Agility 3 120GB SSD ||Samsung Spinpoint F3 1TB ||Corsair HX750W||
Software is like sex, it's better when it's free. - Linus Torvalds

Trädvy Permalänk
Medlem
Plats
Halland
Registrerad
Jul 2007

@Tumnus: Det var menat som ett skämt

[i7 6700k @4500|Asus Z170 Pro Gaming|Corsair Vengeance DDR4 3200MHz XMP |EVGA GQ 1000W Hybrid Modular 80+|Crossfire 290x|Windows 10 Pro Swe|Aoc 28-4K|SSD Samsung 850 evo 250 Gb|

Trädvy Permalänk
Medlem
Plats
Luleå
Registrerad
Apr 2008
Skrivet av Ratatosk:

Är du medveten om att de mäter på hela systemet utan skärm?
40W är alltså vad CPU, moderkort, grafikkort och diskar drar tillsammans.

Tack för din fråga. Ja, det är jag väl medveten om. Det är därför jag nämnde att den onödiga förbrukningen kan bero på moderkortet också. När man testar detta så mäter man vid väggen eftersom det är lättast när man jämför Intel och AMD eller olika CPU-modeller. Man kan i stort sett ha samma komponenter förutom moderkortet. Jag bygger alltid datorer efter ett grönt och energieffektivt tänkande, och är personligen jättekräsen just när det gäller idle, där varje watt är ett "slöseri", och för många som inte spelar hela tiden är det där vi spenderar mest tid.

Med det sagt så tror jag att det finns potential att effektivisera förbrukningen, antingen via firmware eller OS drivrutiner (antalet kärnor ska inte vara ett stort hinder idag). Det finns inte så många tester med B350-korten ännu. Det kan hända att dom är bättre i detta avseende.

Trädvy Permalänk
Hjälpsam
Plats
Karlskoga
Registrerad
Jan 2007
Skrivet av gluon:

Tack för din fråga. Ja, det är jag väl medveten om. Det är därför jag nämnde att den onödiga förbrukningen kan bero på moderkortet också. När man testar detta så mäter man vid väggen eftersom det är lättast när man jämför Intel och AMD eller olika CPU-modeller. Man kan i stort sett ha samma komponenter förutom moderkortet. Jag bygger alltid datorer efter ett grönt och energieffektivt tänkande, och är personligen jättekräsen just när det gäller idle, där varje watt är ett "slöseri", och för många som inte spelar hela tiden är det där vi spenderar mest tid.

Med det sagt så tror jag att det finns potential att effektivisera förbrukningen, antingen via firmware eller OS drivrutiner (antalet kärnor ska inte vara ett stort hinder idag). Det finns inte så många tester med B350-korten ännu. Det kan hända att dom är bättre i detta avseende.

Vet inte om du sett detta?
Detta att alla åtta kärnor sällan används i spel, gör Ryzen ganska effektsnål i just spel.

https://www.techpowerup.com/reviews/AMD/Ryzen_7_1800X/

AMD Ryzen 7 1700 | Vega RX 64 | https://valid.x86.fr/fgqnte | Stockkylaren | Bitfenix Whisper M 750W | Corsair 600T Graphite vit.
AMD FX8350 | Polaris RX 460 4 GB | https://valid.x86.fr/0q5pkm | Cooler Master V 700W | 32 GB ECC-Minnen.
HTPC | https://valid.x86.fr/ez1zxw |

Trädvy Permalänk
Medlem
Registrerad
Jul 2011
Skrivet av Ratatosk:

Vet inte om du sett detta?
Detta att alla åtta kärnor sällan används i spel, gör Ryzen ganska effektsnål i just spel.
https://tpucdn.com/reviews/AMD/Ryzen_7_1800X/images/power_gaming.png
https://www.techpowerup.com/reviews/AMD/Ryzen_7_1800X/

Han menade att han inte spelade ofta.

sweclockers prestandaindex

Efter 10 kommer 11.

Trädvy Permalänk
Medlem
Plats
Death Star
Registrerad
Dec 2004
Skrivet av Jonathanknet:

@emilakered @JonasT
Hur görs testerna? Har ni igång massa saker o kollar om det har någon inverkan på prestandan?
T ex, har ni igång något torrentprogram, spotify, skype? teamspeak? flera webbläsarfönster? steam? origin? discord?

Kan ni inte ta o göra ett test även med streaming och kolla på kvaliten o om spelet ni kör fortfarande är smooth under streaming med shadowplay, relive och obs?
Även ta o kolla skillnaden i kvalité och prestanda med x264 software rendering, qsync etc.
Vad jag har sett från ett fåtal videos så verkar det t ex som att 7700k har problem med stutter när man streamar såvida man inte använder qsync men då tappar man kvalité.

Komigen nu. Testa det så jag får en bra bild utav vilket som presterar bäst

Finns på nätet. Googla..... Och det ser bra ut. Oroa dig inte 🤗

Skickades från m.sweclockers.com

Lightsaber - Black armour - and balls!

Trädvy Permalänk
Medlem
Registrerad
Jan 2014

Synd att överklockningspotential är begränsad annars 8 av 10

Trädvy Permalänk
Medlem
Plats
Stockholm
Registrerad
Dec 2001

Känns som en extremt prisvärd CPU för editering och i princip allt annat än spelande. Även om den utan problem går att spela på, så känns det vettigare att köpa en 7600K som kostar 1000kr mindre och presterar bättre i spel, speciellt om man överklockar den då den går att skrämma upp i 5ghz.

|ASUS Z170-A||6700K@4.6Ghz||Corsair H50 Scythe GT 1450RPM PnP||16GB Crucial DDR4 2133Mhz@2800Mhz||Gigabyte GTX 970||850EVO 500GB||Corsair HX 1050W||Fractal Design - Define R2 Black Pearl|Citera för svar
Fotoblogg: PlanetStockholm

Trädvy Permalänk
Medlem
Registrerad
Feb 2013
Skrivet av Ratatosk:

3,5 GHz kanske?
#16721951
Kör själv med den oklockat, fungerar fint och tyst.

3,8 var inga problem med vcore på 1,3. Spire funkar utmärkt och är tyst vid normal användning. 😊
Mycket nöjd med 1700an än så länge.