Testresultat: AMD FX-8150 med KB2592546 – uppdaterad schemaläggare i Windows 7

Permalänk
Hjälpsam

Tack för det snabba testet, även om det var ganska nedslående i Metro.
Tur i oturen att det inte är den skarpa patchen, vi får se hur den funkar i början av nästa år.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Skrivet av voleyro:

+1

Den var bra!

Permalänk
Medlem

Kanske vore värt att testa uppdateringen någon enstaka gång innan man släpper ut den till massorna?

Visa signatur

Define R4 | Asus z97-Pro Gamer| 4790K ~ 4.6Ghz | Gainward 1080 Phoenix | Corsair Vengeance 2x8GB 1600MHz | Phanteks PH-TC14PE | EVGA SuperNova G2 750W | Samsung 850 Evo 256gb

Permalänk
Medlem
Skrivet av Oggyoc:

Jag får det till 2/3 Bulldozer på en SB?

MD Bulldozer 8C 32nm 8 1.2B* 315mm2
Intel Sandy Bridge 4C 32nm 4 995M 216mm2

315/216 = 1.46 SB per Bulldozer eller 2.92 SB per 2 Bulldozer. Om AMD är ute efter att tjäna pengar så är Bulldozer i nuvarande skepnad en katastrof på desktop och server. En phenom 2 X6 i 32 nm borde ha blivit runt 180-200 mm2 i 32 nm med ungefär likvärdig prestanda i det mesta.

Det tråkiga med AMD är inte bara att de är oförmögna att tjäna pengar och konstruera nya processorer utan även att de är oförmögna att leverera sina produkter i kvantitet. Att tillverka yteffektiva processorer - som inte nödvändigtvis behöver vara snabbare än Intels erbjudanden, det räcker om de är tillräckligt nära - skulle vara ett första steg mot lönsamhet. Då åtgärdar man nämligen vinstmarginal + förmåga att leverera. Det ger inkomst och vinst, som man sen använder till att anställa skickligt folk, som förbättar ens processorer och konstruerar nya produkter.

Permalänk
Medlem
Skrivet av Zotamedu:

Som sagt, om man inte orkar göra några ordentliga analyser så borde åtminstone intervallet redovisas så man kan se hur säkra siffrorna är. Börjar intervallen överlappa för två olika scenarion kan man ju då räkna med att de är samma eller så nära varandra att det i praktiken inte är intressant, såvida man inte kör till exempel ett T-test och visar att det faktiskt är skillnad.

Intervall är antagligen bättre än standardavvikelse i detta fallet, om man vill ha ett spridningsmått på så få värden. Men det blir ändå svårt att tolka då du inte vet vad spridningen beror på i det enskilda fallet, tänker jag, särskilt utan att ha standardiserat hur många gånger man kör varje test. Om man jämför 2 olika testprogram på 2 sorters hårdvara 3-5ggr och bara en av de totala körningarna drabbas av "otur" av något slag, då kommer intervallen i ena testet kanske att överlappa men inte i andra, utan att det har något med testprogrammen eller hårdvaran att göra. Därför tycker jag att det är bättre att strunta i de avvikande värdena och testa tills man har några som konvergerar kring ett typiskt värde (sen kan man räkna medel och ev spridningsmått på de mätpunkterna, men då har vi ännu färre).

Jag tycker absolut att det är bra som regel att påpeka redan i testresultatet när skillnader kan antas vara inom felmarginalen, som Swec lade till i artikeln när det påpekades här i tråden, men jag menar att kvalificerade gissningar funkar bättre för detta än statistiska metoder när man har få datapunkter. Samlar man mer data så blir ju statistik mer intressant, såklart, men då kommer ju tidsaspekten in.

Visa signatur

Här hade jag en historik sen 1990-talet, men den blev tillslut för lång. Aktiva maskiner 2022-framåt:
Work/Play/Everythingstation: AMD Epyc 7443p, Pop OS host, Win10 + Linux guests (KVM/Qemu)
Work/Play nr 2: AMD Phenom II 1090t, Debian + Win 10 (dual boot)
Server x3: Epyc 7252 (TrueNAS Core), Atom 2550 (FreeBSD, backup), Opteron 6140 (Ubuntu, off prem backup)
Retrohörna under uppbyggnad: Dual Pentium Pro 200MHz, Pentium P54C 90MHz, Gravis Ultrasound MAX

Permalänk
Entusiast
Skrivet av Oegat:

Intervall är antagligen bättre än standardavvikelse i detta fallet, om man vill ha ett spridningsmått på så få värden. Men det blir ändå svårt att tolka då du inte vet vad spridningen beror på i det enskilda fallet, tänker jag, särskilt utan att ha standardiserat hur många gånger man kör varje test. Om man jämför 2 olika testprogram på 2 sorters hårdvara 3-5ggr och bara en av de totala körningarna drabbas av "otur" av något slag, då kommer intervallen i ena testet kanske att överlappa men inte i andra, utan att det har något med testprogrammen eller hårdvaran att göra. Därför tycker jag att det är bättre att strunta i de avvikande värdena och testa tills man har några som konvergerar kring ett typiskt värde (sen kan man räkna medel och ev spridningsmått på de mätpunkterna, men då har vi ännu färre).

Jag tycker absolut att det är bra som regel att påpeka redan i testresultatet när skillnader kan antas vara inom felmarginalen, som Swec lade till i artikeln när det påpekades här i tråden, men jag menar att kvalificerade gissningar funkar bättre för detta än statistiska metoder när man har få datapunkter. Samlar man mer data så blir ju statistik mer intressant, såklart, men då kommer ju tidsaspekten in.

Fast denna otur drabbar ju medelvärden också fast utan standardavvikelser eller intervall vet vi inte hur mycket det påverkar. Om en standardavvikelse på 3 mätvärden är opålitlig så är ju medelvärdet lika opålitligt eftersom även det färgas av "otur".

Problemet med att köra konvergerande är att det kommer ta ännu längre tid. Jag körde tio omgångar och fick stor spridning på alla. Hela problemet är ju att de inte har tid att köra massa körningar så att stokastiska avvikelser från medelvärdet tar ut varandra. Alltså behövs någon sorts mått på hur bra mätningarna faktiskt är.

Intressant är för övrigt att det i min bok i analytisk kemi står att man ofta bara har tre till fem mätserier att utgå från och sedan följer ett helt kapitel med statistiska metoder för att avgöra hur säkra mätvärdena är. Så tydligen är det inom kemin tillräckligt med tre till fem mätvärden.

Problemet är ju att det ytterst sällan uttryckligen påpekas hur säkra värdena är eller när det är obetydlig skillnad.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24