Permalänk
Medlem
Skrivet av Yoshman:

Den på /r/AMD har då med 100 % säkerhet fel.

RAM hastigheten är irrelevant för Prime Numbers då "working-set" får plats i L3$.

Givet skalningen med kärnor (p värde på >= 90%) så är det också uteslutet att Physics testet har ett "working-set" som inte till väldigt nära 100 % får plats i L2$.

Jag missförstår säkert vad det är siffrorna säger i det här testet av en Sandy Bridge, men min tolkning, givet vad du säger ovan, är att working set av någon anledning är större än L3$ resp L2$. Och givet vad vi vet om minnet i det testet verkar det ju finnas en viss prestanda att hämta.

Permalänk
Medlem

Intel NIC kommer kanske till AM4.

EDIT:

Hela albumet hittar ni här: https://imgur.com/a/ZY66z

Visa signatur

| ASUS ROG Crosshari VIII Dark Hero | AMD Ryzen 5950X | Noctua D15 Chromax | G.Skill TridentZ Royal Gold 32GB DDR4 @ 3600Mhz CL14 | PowerColor Radeon RX 9070 XT 16GB Reaper | 2x WD SN850 1TB @RAID 0 + 2x Samsung 860 EVO 1TB @RAID 0 | Corsair HX 1000W | Corsair Obsidian 1000D | LG 34GN850 |

Monitor Audio Platinum PL100 II + Marantz Cinema 60
Klipsch R-115SW
Sennheiser HD650

Permalänk
Entusiast

@GarfieldPower: Det här snacket om Intel NIC's har jag inte riktigt förstått, är det helt enkelt etablerat att Intel gör de bästa nätverkskorten helt plötsligt? Har de någon gudomlig QoS eller vad är det frågan om?
Gigabit som gigabit känner jag men upplys mig gärna

Visa signatur

Den digitala högborgen: [Fractal Design Meshify C] ≈ [Corsair RM850x] ≈ [GeForce RTX 3080] ≈ [AMD Ryzen 7 7800X3D ≈ [Noctua NH-U14S] ≈ [G.Skill Flare X5 32GB@6GHz/CL30] ≈ [MSI MAG B650 TOMAHAWK] ≈ [Kingston Fury Renegade 2 TB] ≈

Permalänk
Avstängd
Skrivet av Sisyfos:

@GarfieldPower: Det här snacket om Intel NIC's har jag inte riktigt förstått, är det helt enkelt etablerat att Intel gör de bästa nätverkskorten helt plötsligt? Har de någon gudomlig QoS eller vad är det frågan om?
Gigabit som gigabit känner jag men upplys mig gärna

Ja, Intel är de överlägset bästa på nätverkskort (och har i princip alltid varit).

Prestanda, drivrutinsstöd, driftsäkerhet. Ja, tror knappt det finns något dom är sämre på än konkurrenterna.

Visa signatur

R7 3700X | X570 Aorus Master | 32GB | EVGA 1080 Ti FTW3 | Noctua NH-D15S | FD Meshify C Copper
R7 1700 | X370 Gaming-ITX | 16GB | RX Vega 64 LE | Noctua U12S | Node 304
2 x HPE ProLiant Microserver Gen 8 | 1265L V2 | 16GB | 20TB

Permalänk
Medlem

@Sisyfos:

tror det sträcker sig till den tiden då man kunde köpa billiga 100kr nätverkskort från realtek. Visst de funkade men intel verkade ha mer kvalitativa produkter som inte gav ojämn prestanda.

Intel för många betyder kvalitet helt enkelt.

Visa signatur

12700k@/7200c34@7800/msi z790 itx

Permalänk
Avstängd
Skrivet av DST:

@Uzanar:

tror det sträcker sig till den tiden då man kunde köpa billiga 100kr nätverkskort från realtek. Visst de funkade men intel verkade ha mer kvalitativa produkter som inte gav ojämn prestanda.

Intel för många betyder kvalitet helt enkelt.

Det räcker med att behöva jobba på servrar med Broadcoms Netextreme-kort för att spy lite i halsen.
Ärligt talat, när det gäller nätverkskort är det Intel som gäller. Inget annat.

Visa signatur

R7 3700X | X570 Aorus Master | 32GB | EVGA 1080 Ti FTW3 | Noctua NH-D15S | FD Meshify C Copper
R7 1700 | X370 Gaming-ITX | 16GB | RX Vega 64 LE | Noctua U12S | Node 304
2 x HPE ProLiant Microserver Gen 8 | 1265L V2 | 16GB | 20TB

Permalänk
Medlem
Skrivet av Sisyfos:

@GarfieldPower: Det här snacket om Intel NIC's har jag inte riktigt förstått, är det helt enkelt etablerat att Intel gör de bästa nätverkskorten helt plötsligt? Har de någon gudomlig QoS eller vad är det frågan om?
Gigabit som gigabit känner jag men upplys mig gärna

Som flera har påpekat, Intel ger bra prestanda men framförallt superb stabilitet.

Asus kortet verkar använda någon budget version. :/

Citat:

This is a low end Intel NIC however. Not sure why ASUS is using this over the I219-V that they use for Z170/Z270 boards.

You typically don't see i211-AT in boards unless it's a secondary NIC.

Visa signatur

| ASUS ROG Crosshari VIII Dark Hero | AMD Ryzen 5950X | Noctua D15 Chromax | G.Skill TridentZ Royal Gold 32GB DDR4 @ 3600Mhz CL14 | PowerColor Radeon RX 9070 XT 16GB Reaper | 2x WD SN850 1TB @RAID 0 + 2x Samsung 860 EVO 1TB @RAID 0 | Corsair HX 1000W | Corsair Obsidian 1000D | LG 34GN850 |

Monitor Audio Platinum PL100 II + Marantz Cinema 60
Klipsch R-115SW
Sennheiser HD650

Permalänk
Medlem

Jag vägrade bli upphypad för ryzen för att inte känna de ja kände efter rx releasen men.. fan jag e nog hypad nu 😁

Permalänk
Avstängd
Skrivet av GarfieldPower:

Som flera har påpekat, Intel ger bra prestanda men framförallt superb stabilitet.

Asus kortet verkar använda någon budget version. :/

Det är inte så enkelt att Intel bara vill skeppa det med deras egna chipset?
Eller i andra former av mer slutna system?

Visa signatur

R7 3700X | X570 Aorus Master | 32GB | EVGA 1080 Ti FTW3 | Noctua NH-D15S | FD Meshify C Copper
R7 1700 | X370 Gaming-ITX | 16GB | RX Vega 64 LE | Noctua U12S | Node 304
2 x HPE ProLiant Microserver Gen 8 | 1265L V2 | 16GB | 20TB

Permalänk
Medlem

Jag undrar om AMD gjort ngn bra drivare för Vega än. Jag ser framför mig en Capcaincindemo i Prey (optimerat för Vega) med ett Vega och en välkyld Ryzen mot en i7-6900k med ett Titan kort. Och jag skulle gärna se en hel hög extra FPS på AMD-riggen😁

Permalänk
Entusiast
Skrivet av SeF.Typh00n:

Ja, Intel är de överlägset bästa på nätverkskort (och har i princip alltid varit).

Prestanda, drivrutinsstöd, driftsäkerhet. Ja, tror knappt det finns något dom är sämre på än konkurrenterna.

Skrivet av DST:

@Uzanar:

tror det sträcker sig till den tiden då man kunde köpa billiga 100kr nätverkskort från realtek. Visst de funkade men intel verkade ha mer kvalitativa produkter som inte gav ojämn prestanda.

Intel för många betyder kvalitet helt enkelt.

Skrivet av SeF.Typh00n:

Det räcker med att behöva jobba på servrar med Broadcoms Netextreme-kort för att spy lite i halsen.
Ärligt talat, när det gäller nätverkskort är det Intel som gäller. Inget annat.

Skrivet av GarfieldPower:

Som flera har påpekat, Intel ger bra prestanda men framförallt superb stabilitet.

Asus kortet verkar använda någon budget version. :/

Okej, kören har helt klart talat!
Tänkte påpeka att mitt interna har fungerat helt utan problem i 5 år nu... och så såg jag att det var just ett Intel, ett Intel 82579V. Så det kanske ligger något i det, jag har helt enkelt inte fått uppleva vad det kan betyda att inte ha ett

Visa signatur

Den digitala högborgen: [Fractal Design Meshify C] ≈ [Corsair RM850x] ≈ [GeForce RTX 3080] ≈ [AMD Ryzen 7 7800X3D ≈ [Noctua NH-U14S] ≈ [G.Skill Flare X5 32GB@6GHz/CL30] ≈ [MSI MAG B650 TOMAHAWK] ≈ [Kingston Fury Renegade 2 TB] ≈

Permalänk
Medlem
Skrivet av Gruarn:

Jag undrar om AMD gjort ngn bra drivare för Vega än. Jag ser framför mig en Capcaincindemo i Prey (optimerat för Vega) med ett Vega och en välkyld Ryzen mot en i7-6900k med ett Titan kort. Och jag skulle gärna se en hel hög extra FPS på AMD-riggen😁

According to our sources, about 80% of AMD's driver team is working hard on the driver VEGA , the next highly anticipated uArch GCN. This means that AMD wants to offer right from Day One a stable and fast product.

This strategy, which began with Fiji and continued with Polaris, is bearing fruit. Now the AMD video cards are often considered superior to that NVIDIA from the point of view of the driver support, and AMD wants to maintain this level of quality even with VEGA.
http://www.bitsandchips.it/9-hardware/8050-circa-l-80-del-tem...

Permalänk
Hjälpsam

För hemmabruk duger Realtek mycket bra.

Visa signatur

AMD Ryzen 7 5700X | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/51gntq | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/gwcxfs
HTPC | https://valid.x86.fr/gqtxws |

Permalänk
Medlem
Skrivet av SeF.Typh00n:

Det är inte så enkelt att Intel bara vill skeppa det med deras egna chipset?
Eller i andra former av mer slutna system?

Nja, Intel körde förut Realtek för konsumenter och deras egna för servrar. Tror det var när SB släpptes som deras NIC blev standard.
Vet att min Nehalem körde Realtek och min SB-E kör Intel (X58 vs X79).

Visa signatur

| ASUS ROG Crosshari VIII Dark Hero | AMD Ryzen 5950X | Noctua D15 Chromax | G.Skill TridentZ Royal Gold 32GB DDR4 @ 3600Mhz CL14 | PowerColor Radeon RX 9070 XT 16GB Reaper | 2x WD SN850 1TB @RAID 0 + 2x Samsung 860 EVO 1TB @RAID 0 | Corsair HX 1000W | Corsair Obsidian 1000D | LG 34GN850 |

Monitor Audio Platinum PL100 II + Marantz Cinema 60
Klipsch R-115SW
Sennheiser HD650

Permalänk
Medlem

Som Ratatosk säger så duger Realtek utmärkt för hemmabruk, jag har I-219V i min Skylake-rigg och ett generiskt Realtek i min Devils Canyon-rigg och jag kan inte säga att jag har märkt någon enda skillnad. Båda bottnar min gigabit-uppkoppling så snabbare behövs inte och Realtek-nicen har ALDRIG kraschat.

Visa signatur

9950X3D X870E HERO 96/6400c30/2200 RTX5090 Gaming OC || 7950X B650 Gaming Plus WIFI 32/6000c30 RTX5080 TUF OC(450w) UBUNTU || 12900KF Z690 Tomahawk WIFI 64/3600c16 Gear1 RTX4080 Ventus 3X OC(400W) || 5900X(B2) B550-F 32/3800c18 RTX3080 TUF OC V2 || 5800X3D CH VIII EXT. 32/3800c18 RTX3080 Gaming OC || 3700X X570 HERO 32/3000c16 RTX3070 FTW3 Ultra || Thinkpad P16s G2 PRO7840U 32/6400

Permalänk
Medlem

@SeF.Typh00n:

Skulle väl inte vilja säga att Intel "I princip alltid" gjort bäst NIC.
På 80-90-talet var det Novell med sitt NE2000 som satt "Golden Standard" för nätverkskort inom budgetsegmentet och 3Com med sina kort som var kungen i de högre segmenten från typ 70-talet till slutet av 90-talet/början av 00-talet (3com var ju synonymt med Ethernet då uppfinnaren av ethernet grundade 3com). AMD hade sina PCNet som också var riktigt bra. Intel däremot syntes inte på kartan ö.h.t.
NE2000 puttades ner från budgettronen av Realteks RTL8139 som från mitten av 90-talet och långt in i första halvan av 00-talet var synonymt med "bra" billiga nätverkskort, även då var det 3Com som gjorde riktigt bra nätverkskort i högre prissegment.

Intel började dyka upp som _ordentlig_ Ethernet-konkurrent på ett vis först de senaste 15 åren eller så, vill minnas att första Intel-NIC:en jag ö.h.t. kom i kontakt med var Intel Pro/100, och det var någon gång runt 2001 kanske, innan det existerade knappt intel på NIC-marknaden (Intel 8255x förvisso, men det var knappast ett bra kort, vilket jag inte riktigt vil kalla Pro/100 för heller).

Så i Ethernets typ 40-åriga historia har intels nätverkskort varit rejält prominenta endast kanske 15 år och tagit en ordentlig tron först efter att 3Com köptes av HP.
Noteras ska att Intel varit med och drivit Ethernet-utvecklingen sedan start, men då i samarbete med 3Com, så när 3Com försvann från marknaden började såklart intel försöka själv.

Förlåt mig, men "I princip aldrig" låter fel för någon som mig som hade mitt första ethernet-baserade nätverk _HEMMA_ för över 20 år sen

Visa signatur

Kör väl en klassisk signatur:
9900K @ 5GHz/128GB 3200MHz DDR4/3x1TB NVME/6800XT på Aorus Z390 Elite
Samsung C34F791, Svive 34C801, Xiaomi 34", Logitech MX Master 3 + G512...
Behöver för jobb, ej gamer.

Permalänk
Inaktiv

@bogg:
Skön nostalgitripp. Känner igen några av prylarna du nämner
Vi får dock komma ihåg att många här på SweC var nog inte ens födda på den tiden du skriver om

Permalänk
Medlem

@bogg: Det som Intel var bra på när de kom, vad jag minns, var att de körde nätverkstrafiken i hårdvara medans konkurrenterna i de lägre prissegmenten skötte det mesta i mjukvara som kördes på värdprocessorn. Detta hade betydelse då eftersom processorerna inte var så kraftfulla på den tiden, satte man i ett Intel-NIC så blev hela datorn lite snabbare.

Den saken är inget som skulle ha någon större betydelse idag.

Visa signatur

9950X3D X870E HERO 96/6400c30/2200 RTX5090 Gaming OC || 7950X B650 Gaming Plus WIFI 32/6000c30 RTX5080 TUF OC(450w) UBUNTU || 12900KF Z690 Tomahawk WIFI 64/3600c16 Gear1 RTX4080 Ventus 3X OC(400W) || 5900X(B2) B550-F 32/3800c18 RTX3080 TUF OC V2 || 5800X3D CH VIII EXT. 32/3800c18 RTX3080 Gaming OC || 3700X X570 HERO 32/3000c16 RTX3070 FTW3 Ultra || Thinkpad P16s G2 PRO7840U 32/6400

Permalänk
Medlem

Redan på CES var det bilder på AM4 mobos med intel NIC, på ett stog det till och med intel med stor logga på IO täckplasten

Visa signatur

| nVidia RTX3090FE | R9 5800X3D | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 12TB nvme, 2TB sata SSD | RM1000x | Creative X4 | Antec C8 | Alienware aw3821dw | >Antec C8 Custom Loop< |

Permalänk
Avstängd
Skrivet av GarfieldPower:

Nja, Intel körde förut Realtek för konsumenter och deras egna för servrar. Tror det var när SB släpptes som deras NIC blev standard.
Vet att min Nehalem körde Realtek och min SB-E kör Intel (X58 vs X79).

Det var helt beroende på vilken budget man hade.

Våra gamla Dell servrar (R710 exempelvis) med Nahelem kör alla Broadcom-adaptrar.

Skrivet av bogg:

@SeF.Typh00n:

Intel började dyka upp som _ordentlig_ Ethernet-konkurrent på ett vis först de senaste 15 åren eller så, vill minnas att första Intel-NIC:en jag ö.h.t. kom i kontakt med var Intel Pro/100, och det var någon gång runt 2001 kanske, innan det existerade knappt intel på NIC-marknaden (Intel 8255x förvisso, men det var knappast ett bra kort, vilket jag inte riktigt vil kalla Pro/100 för heller).

Så i Ethernets typ 40-åriga historia har intels nätverkskort varit rejält prominenta endast kanske 15 år och tagit en ordentlig tron först efter att 3Com köptes av HP.
Noteras ska att Intel varit med och drivit Ethernet-utvecklingen sedan start, men då i samarbete med 3Com, så när 3Com försvann från marknaden började såklart intel försöka själv.

Förlåt mig, men "I princip aldrig" låter fel för någon som mig som hade mitt första ethernet-baserade nätverk _HEMMA_ för över 20 år sen

Med tanke på att dom är så pass mycket bättre nu och har varit inom den närmsta aktuella tidsperioden känns valet ganska givet att köra Intel. Det är fortfarande så att alla andra alla alterantiv de senaste 10 åren om inte längre har varit sämre. Jag har haft min beskärda huvudvärk av Broadcom och Realtek i yrket i äldre servrar och det vill jag inte syssla med frivilligt. Realtek är klart bättre än Broadcom, men har aldrig haft ett problem med Intels NICs.

Visa signatur

R7 3700X | X570 Aorus Master | 32GB | EVGA 1080 Ti FTW3 | Noctua NH-D15S | FD Meshify C Copper
R7 1700 | X370 Gaming-ITX | 16GB | RX Vega 64 LE | Noctua U12S | Node 304
2 x HPE ProLiant Microserver Gen 8 | 1265L V2 | 16GB | 20TB

Permalänk
Avstängd
Skrivet av the squonk:

Som Ratatosk säger så duger Realtek utmärkt för hemmabruk, jag har I-219V i min Skylake-rigg och ett generiskt Realtek i min Devils Canyon-rigg och jag kan inte säga att jag har märkt någon enda skillnad. Båda bottnar min gigabit-uppkoppling så snabbare behövs inte och Realtek-nicen har ALDRIG kraschat.

Hemmabruk är fel term. Gör du inget annat än att spela eller surfa på webben går nog det mesta bra.

Är du nätverkare, hemmalabbar eller annat relaterat så duger inget annat.

Visa signatur

R7 3700X | X570 Aorus Master | 32GB | EVGA 1080 Ti FTW3 | Noctua NH-D15S | FD Meshify C Copper
R7 1700 | X370 Gaming-ITX | 16GB | RX Vega 64 LE | Noctua U12S | Node 304
2 x HPE ProLiant Microserver Gen 8 | 1265L V2 | 16GB | 20TB

Permalänk
Medlem
Skrivet av SeF.Typh00n:

Det var helt beroende på vilken budget man hade.

Våra gamla Dell servrar (R710 exempelvis) med Nahelem kör alla Broadcom-adaptrar.

Med tanke på att dom är så pass mycket bättre nu och har varit inom den närmsta aktuella tidsperioden känns valet ganska givet att köra Intel. Det är fortfarande så att alla andra alla alterantiv de senaste 10 åren om inte längre har varit sämre. Jag har haft min beskärda huvudvärk av Broadcom och Realtek i yrket i äldre servrar och det vill jag inte syssla med frivilligt. Realtek är klart bättre än Broadcom, men har aldrig haft ett problem med Intels NICs.

Absolut. Intel is "the shit".
Reagerade bara på "i princip alltid"

Skickades från m.sweclockers.com

Visa signatur

Kör väl en klassisk signatur:
9900K @ 5GHz/128GB 3200MHz DDR4/3x1TB NVME/6800XT på Aorus Z390 Elite
Samsung C34F791, Svive 34C801, Xiaomi 34", Logitech MX Master 3 + G512...
Behöver för jobb, ej gamer.

Permalänk
Medlem
Skrivet av GarfieldPower:

Intel NIC kommer kanske till AM4.

https://i.imgur.com/dWHpMg8.png

EDIT:

Hela albumet hittar ni här: https://imgur.com/a/ZY66z

Vilken skönhet. Inte lika mycket RGB som andra moderkort. Det där lilla kan jag acceptera

Visa signatur

Coca Cola missbrukare Förbjuden dryck för mig pga diabetes
AMD älskare
Katt älskare

Permalänk
Avstängd
Skrivet av bogg:

Absolut. Intel is "the shit".
Reagerade bara på "i princip alltid"

Skickades från m.sweclockers.com

Skulle lagt till en asterix med hur lång tid jag varit i branchen

Visa signatur

R7 3700X | X570 Aorus Master | 32GB | EVGA 1080 Ti FTW3 | Noctua NH-D15S | FD Meshify C Copper
R7 1700 | X370 Gaming-ITX | 16GB | RX Vega 64 LE | Noctua U12S | Node 304
2 x HPE ProLiant Microserver Gen 8 | 1265L V2 | 16GB | 20TB

Permalänk
Medlem
Skrivet av yrfhar:

@TurboFreak68: Vore ju en kioskvältare om AMD släppte sin Ryzen 8 Core/16 Thread CPU för ungefär samma pris som en I7 4 Core/8 Thread om man även räknar in moderkort. Okej, önsketänkande men varför inte? Ryzen 6 Core för samma pris känns för mig lite som: ash, kan ju lika gärna fortsätta med Intel (om det inte i tester visar sig överglänsa en I7 4 Core).

Om man skall tro det som visats just nu verkar det bli en kioskvältare..

Visa signatur

Rʏᴢᴇɴ 5800X3D / Tᴀɪᴄʜɪ X570 / 64Gʙ DDR4/ RX 6950XT Mᴇʀᴄʜ 319

Permalänk
Medlem

Tittade igenom kampanjmaterialet och såg på en slide att det som tidigare har varit känt som "Turbo Core" (Thuban/Phenom II) med förbestämd/fixerad uppklock på aktiva kärnor (upp till 3st?) har vidareutvecklats till något AI-liknande i Ryzen. "XFR" (Extended Frequency Range) är tydligen en funktion i CPU:n som ska putta på rejält och på samtliga aktiva kärnor(?) för användare som samtidigt har vad som i materialet beskrivs som entusiastkylning, eftersom CPU:n tar i beräkning värme i chassiet, stabil voltmatning(?), och liknande, när den överklockar sig automagiskt.

Är det någon kunnig som har läst om detta och kan vidareutveckla något om det?

Visa signatur

Citera för svar :)

Permalänk
Medlem

Här kommer två långa mestadels (men inte bara) OT-inlägg om statistik, som kopplar tillbaka till diskussionen vi haft tidigare i tråden om att modellera Ryzens prestanda statistiskt. Jag gör två inlägg för att dela upp resonemanget i subtopics. Det finns två take-home messages:

1.
Det är visserligen ett problem när vi inte kan uppskatta hur tillförlitliga våra resultat är mha p-värden (som är ett uttryck för sannolikheten att få ett resultat även om det i verkligheten inte finns något att upptäcka, dvs att vårt fynd är en "falsk positiv"). Men jag tycker inte att det är ett stort problem i detta fall, och jag tycker att de metoder som är mindre känsliga för detta ofta har andra nackdelar. Mer om det i nästa inlägg. Grundproblemet är att de mest utvecklade statistiska testerna antar att data är normalfördelat, något som är vanligt i naturen men ovanligt i tekniska system som processorer. Detta gör att de p-värden vi får av regressionsmodeller inte är så pålitliga. Å andra sidan så är tekniska system rätt så förutsägbara när det gäller dos-respons, alltså hur mycket tex clock och beräkningsprestanda samvarierar. Ofta kan sambanden beskrivas med rätt så enkla matematiska uttryck inom rimliga intervall. Koefficienterna för de olika prediktorerna är därför väldigt tolkbara. En annan viktig notering är att vi jobbar med a) parametrar som är ingenjörsmässigt bestämda, tex frekvens som styrs av en klocka, b) utfallsmått som redan är resultatet av tester designade för att minska osäkerhet, prestandatester. Det är lätt att glömma när man tittar på en vektor med siffror, men de FPS-resultat vi har är ju medelvärden av ganska långa förutsägbara körningar av specifika spel under specifika förutsättningar, designade för att ge just tillförlitliga resultat. Det finns alltså redan en robust brusreduktion inbyggd i testerna, oavsett om vi tittar på medel-FPS eller lägsta 5%en FPS. Därför har vi samtidigt en lyx vad gäller förutsägbarhet som en naturvetare knappast kan drömma om. Det stora problemet är istället ett annat:

2.
Det vi normalt frågar när vi gör en hypotesprövning är om det resultat vi har kan generaliseras till andra jämförbara fall. Det är hypotesprövningens koppling till modelleringen - om vi klarar hypotesprövningen (modellen och våra prediktorer är signifikanta) så vågar vi generalisera vårt resultat till en ny processor. Men vi kan strikt sett bara generalisera till processorer som inte är mer annorlunda från de processorer vi byggt modellen på, än dessa är från varandra, på alla tänkbara parametrar (tyvärr inte bara de vi lyckats mäta). På statistikspråk: vi kan bara generalisera till den population som vårt sampel (de processorer vi faktiskt valt ut) kommer från. Där har vi ett problem om vi ska modellera Ryzen, då denna som bekant är en helt ny arkitektur, och alltså kan sägas tillhöra en ny population. Detta är egentligen okontroversiellt och välkänt - men det jag vill lyfta fram är att när vi diskuterar signifikanta och icke-signifikanta prediktorer så diskuterar vi möjligheten att generalisera, och den möjligheten har redan stora begränsningar i att vi inte vet vad vi generaliserar till. Att blanda in Bulldozer tror jag inte heller hjälper här, då den arkitekturen är ännu mer annorlunda. Detta är alltså ett problem som inte kan avhjälpas med tex icke-parametriska metoder, då dessa bara handlar om att reducera risken att enstaka cases (processorer) gör modellen instabil.

Dessa är antaganden som föregår mycket av diskussionen om linjära vs icke-linjära, parametriska vs icke-parametriska, metoder. Vad gäller hypotestester så tror jag att vi är lost oavsett väg - jag tror att vi har mycket mer ut av att titta på faktiska bidraget av olika prediktorer (tex GHz och antal hårdvarutrådar) och försöka uppskatta hur mycket den motsvarande bidrag kan avvika i Ryzens fall, baserat på vad vi vet om arkitekturen och common sense. Ovanstående är dock mindre kritik mot @Yoshman s modell än mot min tidigare. Yoshman utgår enbart från intelprocessorer, även om processorbasen är smal så tror jag att det är bättre än att bjuda in ännu fler obekanta mha andra arkitekturer. Sedan beskriver han syftet som att modellera skalning mellan olika Ryzen baserat på hur (så långt vi kan gissa) liknande intelprocessorer skalar gentemot varandra. Det är en enklare och mer lovande frågeställning, som tar bort en hel del av den bias som kan introduceras bara utifrån att Ryzen är något annat än Core. Först några kommentarer och svar på Yoshmans frågor:

Skrivet av Yoshman:

Kraven om man gör linjärregression är:

Det ska vara linjära samband mellan storheterna. Tror vi kan vara rätt överens om att det är rätt linjär respons på frekvens.

Just detta krav gör att man inte kan använda kärnor direkt, det fungerar bara för saker som skalar perfekt med CPU-kärnor vilket inte är fallet för spel. Amdahls lag sätter en övre gräns för skalningen, tyvärr är "p" värdet rätt svårt att veta men en logaritmering av antal kärnor ger i alla fall en betydligt rakare linje när det plottas mot FPS.

Så här ser jag inte alls hur icke-linjär regression skulle hjälpa då det är ett linjärt beroende mellan FPS och frekvens samt FPS och logaritmen av antal CPU-kärnor (stämmer rätt bra om amdahls "p" värde inte är nära 0 eller 1).

Övriga parametrar är dummys, så finns bara två nivåer. Är som sagt riktigt rudis på statistik, men ser inte hur en icke-linjär regression skulle hjälpa då. Rent linjäralgebraiskt betyder "linearitet" här att det alltid är samma boost av att lägga till eDRAM, samma boost av att lägga till SMT, etc. Det antagandet lär vara en rätt bra abstraktion av verkligheten.

Om en enkel transformation, typ logaritm eller 1/x, får sambandet att bli linjärt så är det överlägset ickelinjära metoder, törs jag nästan påstå utan att vara bevandrad i så många av dem. Det är naturligtvis också en fråga vad man är ute efter, men vi är här ute efter att modellera just linjära eller i varje fall tolkbara samband, och då är minsta kvadratanpassning att föredra. Dummyvariabler är som du skriver alltid linjärt relaterade till Y då de bara har två värden, men inte sällan kommer de till som en lösning på icke-linearitet. Att välja en cutoff och dela upp en variabel i hög och låg kan vara ett sätt att göra hopplösa variabler användbara.

Citat:

Nästa krav är att värdena ska vara normalfördelade. Det är absolut en viss osäkerhet både i FPS och CPU-frekvens, har använt max turbo när alla kärnor är aktiva och den verkliga frekvensen kommer i praktiken pendla både över och under detta värde (fast inom ett väldigt smalt område).

Kan man inte se antal kärnor som ett värde med mätfel noll? I det läge kvittar det ju om det är normalfördelat eller ej då det alltid blir samma värde.

Det allra viktigaste antagandet för en linjär regression är att residualerna, dvs skillnaden mellan de predicerade värdena och de verkliga, blir normalfördelade. Normalt är det inga problem med kontinuerliga prediktorer eller utfallsmått som inte är normalfördelade, så länge residualerna är det. I din beräkning i inlägg #16661090 kan man se under "residuals" att Min - Max och 1Q - 3Q båda ligger hyfsat nära noll. Ser residualerna ok ut så är oftast modellen ok, både ur ett modelleringsperspektiv och ett statistiskt perspektiv. Det är det bästa quick-and-dirty sättet att kolla, sen kan man vara ganska lugn med övriga antaganden.

Mätfel är inte jätterelevant här, det fel som spelar roll statistiskt är okända tredjevariabler som stör sambanden. Modellen skiljer inte på mätfel i en prediktor och felvarians i hur just denna prediktor relaterar till utfallet givet interaktion med en massa andra parametrar (egenskaper hos just den processorn eller speltestet) som vi kanske inte har mätt. Det finns säkerligen modeller som tar hänsyn till enskilda variablers mätfel givet att mätfelets fördelning är känd, men det är inget som jag känner till konkreta exempel på. Du har en poäng i att just sådant som turbolägen för in ett delvis känt mätfel, vars storlek dessutom interagerar med antal belastade kärnor. Så det går kanske att justera GHz-värdet för detta mha någon smart algoritm, det hade varit lite intressant att titta på just i detta fallet.

Citat:

Sista antagandet är att de ska vara ungefär samma nivå på variansen hos de oberoende variablerna. Det stämmer inte, men å andra sidan är det rätt litet absolut fel i alla oberoende variabler här.

Nja, det du beskriver känner jag inte till, tänker du på det som kallas "homogenity of variances"? Det har att göra med variansen i en prediktor ska vara ungefär densamma oberoende av nivå på utfallsmåttet, alltså att molnet i en scatterplot mellan en prediktor och Y inte ska vara skevt. Detta krav bryter man ganska ofta mot, jag tror att det bara stör hypotestesterna, inte modellprediktionen. Jag tror inte att det finns något problem relaterat till att olika prediktorer har olika varians, så länge de har varians tillräckligt mycket större än 0. Nu pratar vi alltså om mellanindividvarians (variansen av de olika klockfrekvenserna för de olika processorerna) snarare än mätfelsvarians. Det senare är inget som modelleras specifikt som sagt, all felvarians klumpas ihop i modellen. Men mätfelen i dessa fall är som du skriver antagligen försumbara.

Citat:

Ett sätt att testa sin modell är ju att titta på värdet av "R-square", än mer på "adjusted R-square" och kanske mest på "predicted R-square". Dessa är 95 %, 94 % samt 90 % vilket pekar på att modellen beskriver data väldigt väl och de två sista visar att det inte är en effekt av att modellen har allt för många oberoende variabler. Eller det också en tankevurpa?

Dessa är ju mått på hur långt ifrån en perfekt modell (där prediktionen alltid stämmer dvs residualerna är 0) vi befinner oss. Adj-R2 justerar för det faktum att även om vi lägger till en prediktor som bara är brus så kommer R2 att gå upp i alla fall, då det alltid finns någon del av bruset som hjälper prediktionen. Adj-R2 går upp bara om prediktorn faktiskt tillför något (prediktorn behöver inte bli signifikant i t-testet för detta). Predicted R2 är nytt för mig men verkar ha ett annat syfte, att upptäcka overfitting. Det är när modellen generaliserar dåligt till nya fall, pga att den plockar upp även irrelevanta egenskaper som kanske just i dessa processorer bara korrelerar med relevanta egenskaper, men inte i de processorer vi vill generalisera till. Den risken är självfallet högre i små dataset, och här har vi bara ett ändligt antal processorer som är jämförbara. Få cases är, som @sAAb skriver, ett problem. Det kopplar till det andra problemet jag tog upp, att vi just nu använder modellerna för att generalisera till en helt ny typ av processor, nämligen Ryzen.

Citat:

Om vi nu antar att Ryzen får en IPC motsvarande Haswell/Broadwell är ju de mest intressanta datapunkterna hur steget från Haswell/Broadwell, steget mellan 4,6 och 8 kärnor samt effekt SMT påverkar spel (eDRAM är mest för att i7-5775C inte ska bli en sådan outlier). Men finns självklart massor med osäkerhet ändå, både i modellen och hur bra approximation Haswell/Broadwell IPC är för Zen (tror själv fortfarande Ryzen kommer ligga närmare Ivy vid heltalstunga laster, andra är redan säkra på att det blir Skylake IPC).

Jag tror att detta är rimligaste approachen att förutsäga Ryzens prestanda, att modellera utifrån de processorer vi känner till som är liknande på flest parametrar. Därför håller jag med om att enbart intelprocessorer är en bättre bas än att blanda in Bulldozer et al. Men här är overfitting också ett problem, eftersom Ryzen strikt sett inte kommer från samma population som de processorer vi utgår från. Det kommer att finnas systematiska skillnader mellan Ryzen och dessa Intelproppar, och ju fler parametrar i modellen som på ett ännu okänt sätt skiljer sig mellan intel och Ryzen, desto fler parametrar kan göra att vår prediktion slår fel för Ryzen. Så det kan visa sig att den bästa modellen kanske snarare är en minimal modell som bara har med log(cores) och clock.

Skrivet av Yoshman:

Du får tänka på att jag ser detta från perspektivet av vad mina antaganden betyder ur ett linjäralgebra-perspektiv, kan mycket väl göra vurpor i statistikdomänen.

Min modell ser ju ut så här

FPS = a * FREQ + b * log(CORES) + f1 * HAS_EDRAM + f2 * IS_SKYLAKE + f3 * HAS_SMT + g1 * IS_BF1 + g2 * IS_TOTAL_WAR_WARHAMMER + g3 * IS_FALLOUT_4

a är responsen mot frekvens och frekvens är en variabel som har flera värden, b är respons mot antal kärnor (logaritmen av antal kärnor).

Övriga ser jag så här: de är egenskaper som endera är falsk (bidraget noll) eller sant. För fN är responsen hur mycket det påverkar FPS i genomsnitt.

För gN ser jag det i stället så här: jag antar att responsen från övriga relativt sett är ungefär densamma oavsett speltitel. Till skillnad från fN där alla N kan vara sann/falsk för en viss mätpunkt kan bara exakt en eller noll (för Witcher 3) av gN vara sann.

Värdet på gN blir då rent matematiskt antal FPS som detta spel i genomsnitt ligger över (värdet positivt) eller under (värdet negativt) Witcher 3 (d.v.s. parallellförskjutning av den linje som beskrivs av övriga variabler). Vinsten är då att jag får fyra mätpunkter för varje CPU-modell (en per speltitel) i stället för en enda -> förhoppningsvis en mer stabil modell.

Mätvärden kommer från 1280x720 testerna här.

Har med 7700K, 6700K, 6900K, 6950X, 5775C, 4790K, 7600K och 6600K.

Ok, då gör du som jag trodde! Jag vet inte, detta kan vara rimligt även statistiskt. Vad som är best practices är ganska fältspecifikt. Problemet som uppstår när man har flera mätvärden från samma analysenhet (i detta fall CPUmodell) är att hantera det faktum att varje CPUs värden på ett test sannolikt korrelerar med samma CPUs värden på ett annat test. Men som du beskriver det, och jag håller med matematiskt, så låter det som att din modell hanterar detta. Senaste trenden i natur- och samhällsvetenskaper angående detta är det som kallas mixed-effects-modeller (paketen nlme eller lme4 i R). Men jag är inte säker på att dessa tillför något mer i detta fallet jämfört med din metod.

Citat:

Steget från två till fyra kärnor är i min modell större än steget från fyra till åtta, detta då log(4)/log(2) = 2,0 medan log(8)/log(4) = 1,5. D.v.s. steget från två till fyra är 2,0 / 1,5 ger 33 % högre boost än steget från fyra till åtta. Det är också vad som är fallet i praktiken (d.v.s. det är avtagande effekt av att dubbla antal kärnor ju fler man går från). Det stämmer också med vad Amdahls lag säger.

Men stämmer detta verkligen, skulle inte en linjär modell (utan log) göra så att steget från 2 till 4 är lika stort som steget från 4 till 6? Jag trodde det var poängen, att logaritmeringen gör att vi får veta responsen i FPS på varje fördubbling av prediktorn snarare än vid varje konstant ökning. Det kan dock vara jag som är för trött eller för matematiskt okunnig här.

Visa signatur

Här hade jag en historik sen 1990-talet, men den blev tillslut för lång. Aktiva maskiner 2022-framåt:
Work/Play/Everythingstation: AMD Epyc 7443p, Pop OS host, Win10 + Linux guests (KVM/Qemu)
Work/Play nr 2: AMD Phenom II 1090t, Debian + Win 10 (dual boot)
Server x3: Epyc 7252 (TrueNAS Core), Atom 2550 (FreeBSD, backup), Opteron 6140 (Ubuntu, off prem backup)
Retrohörna under uppbyggnad: Dual Pentium Pro 200MHz, Pentium P54C 90MHz, Gravis Ultrasound MAX

Permalänk
Medlem

Del 2.
Här är mer om varför jag tycker att robusta icke-parametriska metoder ofta är mindre informativa än linjära regressionsmodeller.

Skrivet av sAAb:

"Regressionsmodeller är känsliga mot sådana outliers, och utan den får vi ganska annorlunda värden."

Därför är de femtielva varianterna av robust regression i (gratis) R (eller svindyra moduler i SPSS eller S á 30 000 Kr eller något i den stilen) ett överlägset verktyg i många sammanhang. Robusta metoder ger tusan i "outliers". Medelvärdet är sjukt känsligt. Medianen är så robust att man kan ha upp till 49,99 % felaktiga data utan påverkas.

Traditionell regression är lika känsligt som medelvärdet; två diagram från http://fedc.wiwi.hu-berlin.de/xplore/tutorials/xaghtmlnode11....

(min fetstil ovan)

Exakt, det är den känsligheten vi vill åt. Utvecklar längre ner

Citat:

Först, minsta kvadratmetoden.

http://fedc.wiwi.hu-berlin.de/xplore/tutorials/xaghtmlimg269.gif

Kör man en av de icke-parametriska metoderna så blir det mer rimligt.

http://fedc.wiwi.hu-berlin.de/xplore/tutorials/xaghtmlimg286.gif

Hur tydligt kan det bli?!

Problemet är att om man har tröskelvärden ... så kan dessa ignoreras. Men, är man medveten om det så går det "säkert att fixa".

Jag förstår inte riktigt den sista bilden. Jag ser en vanlig regressionslinje som helt enkelt bortser från de avvikande värdena. Vad är skillnaden mot att ta bort outliers och köra parametriskt? Ok att jag inte känner till metoden, men jag fattar inte riktigt vad som händer där...

Skrivet av sAAb:

Kraven på normalfördeling gäller de parametriska metoderna. De parametriska metoderna fungerar bra i några fall; i verkligheten sannolikt färre än en tredjedel av alla publicerade analyser... Ok, mindre än hälften. Ofta beror det på att man inte gjort en styrke-test innan studien; en power analysis. Fråga Astra Zeneca som förlorade tio miljarder på tre dagar när det kom ut att de hade "fumlat lite", fyra år tidigare; det obehagliga är att signifikansvärden faktiskt saknar relevans, statistisk validitet om man inte har rätt power, styrka på sin studie.

Icke-parametriska har sämre power, men, de kräver inte normalfördelning och fungerar mycket bättre på i princip alla dataset med färre än ett dussin observationer och har man fler än ett, två dussin så är de icke-parametriska i princip jämbördiga med parametriska metoder, men utan kravet på normalfördeling. Fint va!

Min kommentar om Yoshmans värden var väl mest att med parametriska metoder på data med hög varians är det svårt att vara säker.

Obs: det intressanta är kvoten mellan varians i utfallet som har med prediktorn att göra, och varians som inte har det. Är den kvoten låg så har vi hög osäkerhet (och får höga p-värden).

Fast du blandar nog ihop två olika saker här, hypotestestning och att uppskatta magnitud på samband. Icke-parametriska metoder är bra till att hypotestesta i fallet när data är skev, just för att de tar mindre hänsyn till numeriska avstånd och låter därför inte outliers påverka lika mycket. Som du säger har de sämre power vid små dataset men har i princip likvärdig power som metoder som antar normalfördelning, på större dataset. Men power handlar bara om chansen att hitta samband som är statistiskt signifikanta, dvs tillräckligt osannolika för inte troligt ha uppmätts även om det inte fanns något samband ute i verkligheten. Högre power betyder att chansen är större att ett samband som faktiskt finns (ute i världen) blir signifikant i data, givet en viss typ av hypotestest.

Men här är vi framför allt intresserade av att veta hur mycket en viss faktor påverkar FPS, så att vi kan avgöra hur stor skillnad ett byte mellan två processorer ger, och det är något annat. Ta exemplet med A6-7400K, som hade 55 fps i Alien Ressurection medan alla andra processorer låg mellan 99 och ca 180. Jag tog bort den och modellen blev acceptabel från ett parametriskt perspektiv (snygga residualer). En quick-and-dirty icke-parametrisk väg att lösa samma problem (som faktiskt används) vore att rangordna processorerna efter dess FPS, göra detsamma med eventuella misbehaving prediktorer, och sedan köra en vanlig regression. För stackars A6-7400K innebär det att vi struntar i att den ligger 45fps bakom den som kommer näst sist, och håller bara reda på att den kommer sist ("jaja, det var inte så farligt, nån måste ju komma sist"). Problemet är bara att då kommer koefficienterna bara att berätta för oss hur många processorer i "ordningen" som vi kliver uppåt vid en viss förändring i tex GHz. Har vi rangordnat klockfrekvenserna också vet vi ännu mindre utifrån koefficienten. Vi slipper att lilla A6-6800K drar ner vår modell, men vi missar de numeriska FPS-skillnader som vi faktiskt vill ha. Därför är det oftast bättre att transformera allt, eller ta bort / rent av justera outliers (ok att ändra data om man vet varför och berättar om det vid evt rapportering), och köra parametrisk statistik. Detta eftersom vi är intresserade av just magnituden på sambandet, vi vill kunna säga hur många FPS en GHz eller en till kärna gör.

Nu känner jag inte till alla icke-parametriska metoder, det finns säkert de som förstör mindre information än den i mitt exempel ovan. Men de som jag känner till gör den här typen av justeringar, oftast handlar det om att göra om numeriska skalor till ordningar, vilket alltså är att explicit bortse från magnitudskillnader. Så oftast förlorar man mycket mindre på att hantera bångstyriga skalor och outliers separat jämfört med att hantera allt som om det hade en annan skalnivå, utifrån ett modelleringsperspektiv. Det förekommer också att man gör en icke-parametrisk analys för att verifiera att vårt parametriska hypotestest faktiskt är pålitligt och inte ger falska positiva pga någon outlier. Men då är det bara för hypotestestets skull, inte för att vi är särskilt intresserade att själva modellprediktionen. Men jag är absolut intresserad av att se resultatet om du testar någon sådan modell på dessa data, jag kan underskatta dess potential att säga något intressant om olika processorfeatures betydelse.

Bottom line är att påståendet att "icke-parametriska metoder är likvärdiga vid stora N" bara handlar om statistisk power, inte om möjligheten att modellera hur en ny processor skulle bete sig. Det senare är icke-parametriska relativt metoder dåliga på, de svarar normalt bara på frågan "bör jag byta från processor A till processor B", men inte "hur mycket tjänar jag på att byta från A till B".

(Inser att det sista låter som att linjär regression är någon slags universalmetod för att välja processor. Det är det såklart inte, tvärtom är det en ganska dålig metod, men fullt i klass med flera av spekulationerna vi ägnar oss åt i en tråd som denna i brist på hårda data. Sen är jag inte fullt så statistikkonservativ som det kanske låter här, tex. PLS-regression tror jag hade varit intressant att testa med dessa data.)

Visa signatur

Här hade jag en historik sen 1990-talet, men den blev tillslut för lång. Aktiva maskiner 2022-framåt:
Work/Play/Everythingstation: AMD Epyc 7443p, Pop OS host, Win10 + Linux guests (KVM/Qemu)
Work/Play nr 2: AMD Phenom II 1090t, Debian + Win 10 (dual boot)
Server x3: Epyc 7252 (TrueNAS Core), Atom 2550 (FreeBSD, backup), Opteron 6140 (Ubuntu, off prem backup)
Retrohörna under uppbyggnad: Dual Pentium Pro 200MHz, Pentium P54C 90MHz, Gravis Ultrasound MAX

Permalänk
Medlem
Skrivet av Oegat:

Del 2.
Här är mer om varför jag tycker att robusta icke-parametriska metoder ofta är mindre informativa än linjära regressionsmodeller.

(min fetstil ovan)

Exakt, det är den känsligheten vi vill åt. Utvecklar längre ner

Jag förstår inte riktigt den sista bilden. Jag ser en vanlig regressionslinje som helt enkelt bortser från de avvikande värdena. Vad är skillnaden mot att ta bort outliers och köra parametriskt? Ok att jag inte känner till metoden, men jag fattar inte riktigt vad som händer där...

Obs: det intressanta är kvoten mellan varians i utfallet som har med prediktorn att göra, och varians som inte har det. Är den kvoten låg så har vi hög osäkerhet (och får höga p-värden).

Fast du blandar nog ihop två olika saker här, hypotestestning och att uppskatta magnitud på samband. Icke-parametriska metoder är bra till att hypotestesta i fallet när data är skev, just för att de tar mindre hänsyn till numeriska avstånd och låter därför inte outliers påverka lika mycket. Som du säger har de sämre power vid små dataset men har i princip likvärdig power som metoder som antar normalfördelning, på större dataset. Men power handlar bara om chansen att hitta samband som är statistiskt signifikanta, dvs tillräckligt osannolika för inte troligt ha uppmätts även om det inte fanns något samband ute i verkligheten. Högre power betyder att chansen är större att ett samband som faktiskt finns (ute i världen) blir signifikant i data, givet en viss typ av hypotestest.

Men här är vi framför allt intresserade av att veta hur mycket en viss faktor påverkar FPS, så att vi kan avgöra hur stor skillnad ett byte mellan två processorer ger, och det är något annat. Ta exemplet med A6-7400K, som hade 55 fps i Alien Ressurection medan alla andra processorer låg mellan 99 och ca 180. Jag tog bort den och modellen blev acceptabel från ett parametriskt perspektiv (snygga residualer). En quick-and-dirty icke-parametrisk väg att lösa samma problem (som faktiskt används) vore att rangordna processorerna efter dess FPS, göra detsamma med eventuella misbehaving prediktorer, och sedan köra en vanlig regression. För stackars A6-7400K innebär det att vi struntar i att den ligger 45fps bakom den som kommer näst sist, och håller bara reda på att den kommer sist ("jaja, det var inte så farligt, nån måste ju komma sist"). Problemet är bara att då kommer koefficienterna bara att berätta för oss hur många processorer i "ordningen" som vi kliver uppåt vid en viss förändring i tex GHz. Har vi rangordnat klockfrekvenserna också vet vi ännu mindre utifrån koefficienten. Vi slipper att lilla A6-6800K drar ner vår modell, men vi missar de numeriska FPS-skillnader som vi faktiskt vill ha. Därför är det oftast bättre att transformera allt, eller ta bort / rent av justera outliers (ok att ändra data om man vet varför och berättar om det vid evt rapportering), och köra parametrisk statistik. Detta eftersom vi är intresserade av just magnituden på sambandet, vi vill kunna säga hur många FPS en GHz eller en till kärna gör.

Nu känner jag inte till alla icke-parametriska metoder, det finns säkert de som förstör mindre information än den i mitt exempel ovan. Men de som jag känner till gör den här typen av justeringar, oftast handlar det om att göra om numeriska skalor till ordningar, vilket alltså är att explicit bortse från magnitudskillnader. Så oftast förlorar man mycket mindre på att hantera bångstyriga skalor och outliers separat jämfört med att hantera allt som om det hade en annan skalnivå, utifrån ett modelleringsperspektiv. Det förekommer också att man gör en icke-parametrisk analys för att verifiera att vårt parametriska hypotestest faktiskt är pålitligt och inte ger falska positiva pga någon outlier. Men då är det bara för hypotestestets skull, inte för att vi är särskilt intresserade att själva modellprediktionen. Men jag är absolut intresserad av att se resultatet om du testar någon sådan modell på dessa data, jag kan underskatta dess potential att säga något intressant om olika processorfeatures betydelse.

Bottom line är att påståendet att "icke-parametriska metoder är likvärdiga vid stora N" bara handlar om statistisk power, inte om möjligheten att modellera hur en ny processor skulle bete sig. Det senare är icke-parametriska relativt metoder dåliga på, de svarar normalt bara på frågan "bör jag byta från processor A till processor B", men inte "hur mycket tjänar jag på att byta från A till B".

(Inser att det sista låter som att linjär regression är någon slags universalmetod för att välja processor. Det är det såklart inte, tvärtom är det en ganska dålig metod, men fullt i klass med flera av spekulationerna vi ägnar oss åt i en tråd som denna i brist på hårda data. Sen är jag inte fullt så statistikkonservativ som det kanske låter här, tex. PLS-regression tror jag hade varit intressant att testa med dessa data.)

Helt snabbt. Icke-parametriska metoder kan också beakta magnituder. De är inte enbart rang-baserade.

Mer i helgen då jag hoppas få tid.

Förövrigt, hur stor risk är det att Ryzen säljer slut första dagen och/eller genom förhandsbeställningar!

Börjar få kalla fötter av att vara serös och vänta in tester... Brrrrr.

Skickades från m.sweclockers.com

Visa signatur

| Fractal Design Define R5| Asrock X399 Fatal1ty| Threadripper 1950X| Noctua NH-U14S TR4-SP3| Corsair Vengeance LPX 8x16GB 3200 C16| be quiet! Straight Power 11 Platinum 1000W| ASUS RTX 3080 10GB Strix| LG OLED 4k 42" C2| Debian Sid| KDE 5.x|

Permalänk
Medlem

@sAAb:
Psst... världen går inte under fastän de säljer slut första dagen, enligt vad jag har läst så kommer Amd sälja dessa processorer under en lång tid framöver (År). så fastän du inte hinner med på första dagen, var bara lugn det kommer fler processorer i lager. #Sarkasm

Visa signatur

Hårdvaru och mjukvaru intresserad