Varför tvåkärnig processor fortfarande är aktuella!

Permalänk
Medlem
Skrivet av xfade:

Finns ju ingen vettig person som kör med två 980TI och en två kärning CPU dock.

Det är två vanliga 980. Varför det fortfarande är relevant förklarar jag nedan.

Skrivet av AMD-Hippie:

Det är därför jag tog upp hur bra det skulle vara med en benchmark som bygger på verklig användning. Jag tog nyligen och körde en uppackning av tre rar-filer på en gigabyte var dels på min fyrkärniga Celeron J1900 @ 2GHz, dels på min tvåkärniga G3258 @ 4 GHz. Min G3258 klarade av den uppgiften 3-4 gånger snabbare. Vilket påminner mig om en datorlärare som påpeka att två kärnor kan samarbeta för att utföra ett jobb som är lika bra som ännu fler kärnor. Man får inte glömma att G3258 Har en enkärnig kraft som kan konkurrera med processorer i tretusenkronorklassen.

Nu gör du ett stort misstag och antar att alla processorer kan göra lika mycket per klock cykel. En j1900 är baserad på atom, alltså är den otroligt seg i jämförelse även vid samma frekvens. Den är däremot extremt strömsnål. Det du gör just är känt som MHz myten.

Packade du upp arkiven samtidigt eller en och en? Var det tre filer i ett arkiv? Jag är rätt säker att RAR uppackning är singel trådat, vet även att det ofta stryps utav lagringsmediets hastighet. Sedan är komprimering någonting som skalar otroligt dåligt över flera trådar så länge man inte ställt in alla parametrar perfekt. Dekomprimering skalar oftast inte alls eller extremt lite.

Skrivet av AMD-Hippie:

Med "seriös" användning menar jag all möjlig datoranvändning. Ordbehandling, bildskapande, filmskapande, musikskapande och spel. Bara för att den inte klarar av att rendera en video lika fort som t.ex. en åttakärnig processor betyder inte att man ska slänga ut den genom fönstret. Men ska man å andra sidan specialisera sig på filmredigering skulle jag nog investerat i en processor med fler kärnor. Men tvåkärnig är fortfarande ett bra alternativ för en all-round workstation dator.

Låt oss gå igenom dina exempel.

  • Ordbehandling - Kräver knappt CPU kraft, i dem få situationerna det gör det så skalar det väldigt väl oftast. Finns en anledning varför ordbehandlings programmen var bland dem första till datorer.

  • Bildskapande - Har du någonsin hållit på med tyngre fotoredigering/skapande så kan jag direkt säga att en två kärnig processor inte är det minsta rolig då. När jag testade så var den två kärniga jag använde till och med fyr trådad, men det gick ändå otroligt långsamt. Bild redigerings program skalar ofta väldigt väl över flera kärnor, beroende på vilka funktioner du använder. Gör du pixel art så har processorerna varit starka nog sedan 90 talet för det...

  • Filmskapande(/Videoredigering) - Skalar extremt väl med fler kärnor. Har du någonsin renderat en film så förstår du mycket snabbt varför du absolut inte vill ha en två kärnig processor. Två kärnor är inte vettigt här, någonting du bör veta om du någonsin sysslat med det seriöst.

  • Musikskapande - Inte så krävande oftast men när det väl är krävande så gynnas flertrådat. Just FL Studio som du nämner har faktiskt väldigt bra skalning så länge du använder programmet rätt. I situationer du inte har problem med 2 kärnor så är din musik helt enkelt inte så CPU krävande. För seriöst musikskapande så kommer en G3258 definitivt strypa.

Självklart fungerar alla laster på en två kärnig processor men det betyder inte att det är lönsamt. Det fungerar ju till och med på en singel kärnig 100MHz processor. Måste användaren sitta flera gånger så lång tid och vänta på någonting att bearbetas så går man back för att man inte köpte en bättre processor. Seriöst användande går under min kategorisering som professionellt, alltså lönsamt arbete. Då tid är pengar kan man spara stora mängder på att faktiskt köpa den bättre processorn och på så vis spara tio tusentals kronor.

Skrivet av AMD-Hippie:

Med "verkligt", som jag också skrev, menade jag ett användande av datorns resurser som liknar verkligt användande av en levande människa.

Då en två kärnig processor inte är realistiskt brukbart för mig så blir det väldigt intressant.
Säger du att jag och flera andra inte är en verkliga levande människor? Det är ett väldigt intressant påstående. (Skynet föredrar flerkärnade processorer, besöker ofta sweclockers när den går in i vilo läge. )

Skrivet av AMD-Hippie:

När du skriver "Går loopens innehåll att köra parallellt" så säger det sig själv att datorprocesser som kan köras parallellt givetvis går att fördela på flera kärnor. Men programmet är ofta beroende av booleanvärden (sant eller falskt-värden), loopar och switchar för att kunna genomföra en kommande handling. Skulle ett enda fel uppstå i koden kan hela programmet krascha.

Enligt dig så fungerar alltså inte grafikkort. Grafikkort kör ju tusentals trådar parallellt för att utföra sina uppgifter. Grafikkorts singeltråds prestanda är fruktansvärd men den har så många "kärnor" att den presterar flera gånger om mycket bättre än en CPU i total beräkningskraft.

Jag förstår inte ditt resonemang med att det skulle uppstå fel för att man fördelar uppgifterna. Antingen har man i en sådan situation defekt hårdvara eller inkompetent utvecklare. Alla laster går inte att tråda, men väldigt många går. T.ex. saker som måste vara rekursiva är meningslösa att tråda. Pratar vi "normala" fel som t.ex. strålnings inverkan på RAM minnen så är risken till och med större att det blir fel med längre exekverings tid.

Jag har programmerat väldigt många program som har kunnat skala antingen väl eller extremt väl över flera kärnor. Kan direkt säga att det inte är några problem, speciellt i java som gör det så lätt med sin standard klasser. Det är svårare men inte problematiskt.

Tror du fortfarande inte på vad jag säger så rekommenderar jag att du läser någonting alls om trådning innan du börjar kasta ut påståenden inom områden du uppenbarligen inte vet något om. Jag säger det igen; bara för att du inte vet hur man gör någonting betyder det inte att det inte går.

Skrivet av AMD-Hippie:

Angående ditt diagram över GTA V med 2560x1440 upplösning, detaljer på "high" och 2x MSAA. Skulle jag köra det spelet med dessa inställningar skulle jag nog också vilja investera i en processor med lite mer juice! Men spelet flyter på fint med en överklockad G3258 och GTX 750 Ti, se här: https://youtu.be/x1Z-tsC_4ng

CPU kraven påverkas inte utav:

  • Upplösning

  • MSAA (AA överhuvudtaget)

  • Textur kvalité

  • Modell kvalité

Dessa ovan belastar praktiskt taget enbart grafikkortet. (Om man bortser från laddnings processen.) Dessa laster går därför att tag bort som en del utav inverkan på resultatet då grafikkorten uppenbarligen är inte problemet.

Kan börja min förklaring med att citera Sweclockers redaktionen:

Skrivet av Sweclockers:

Nämnvärt är att vid två kärnor utan Hyperthreading beter sig spelet mycket märkligt. Resurser laddas inte alltid in korrekt, kamerarörelser blir ibland fel och texturer blinkar. Spelet mår kort och gott inget vidare, utan verkar med de aktuella inställningarna behöva fler trådar för att rulla som det ska.

Nu ska jag förklara varför 2 kärnor inte är trevligt i GTA V.
Den inställningen som kräver CPU prestanda i GTA V är framför allt population density, population variety och distance scaling. (Ej säker på dem två senare men den första är jag helt säker på.) Saker personen i videon du har skickat har slängt i golvet.
Resultatet utav detta är att spelet blir extremt folk fattigt och inlevelsen skadas allvarligt. Det blir helt enkelt inte alls en "bra" upplevelse utan är snarare en nöd lösning för folk som inte kan driva mer. Sedan ligger han oftast under 40FPS, troligen pga grafikkortet. Videon visar därav inte hur mycket mer processorn klarar bortsett från minst ~35 FPS i dem, ur ett CPU perspektiv, dåliga inställningarna. Dem flesta PC spelarna säger idag att 35 FPS inte är acceptabelt och många säger att 60 inte ens är det.

Helt enkelt, videon du skickade visar bara ytterligare att upplevelsen skadas med en två kärnig processor och att G3258, även i 4.4GHz, inte alls klarar GTA V med en bra upplevelse.

Rättade grammatik, tog bort upprepning, tog bort svengelska :P
Visa signatur

Citera eller @philipborg om du vill att jag ska läsa dina svar.

Permalänk
Medlem
Skrivet av AMD-Hippie:

@Friterad:
Jag läser programmering (java) och programmet läser in koden i turordning. Tripp, trapp, trull alltså! Ett program består av en mängd loopar och switchar som alla måste gå klart/passeras innan programmet läser in nästa del av sin kod. Inläsningen av kod är alltså väldigt linjär.

Men för film och 3d-rendering kan de ganska enkelt fördela programmet till olika kärnor. Ta Cinebench R15 son fördelar renderingsuppgiften av små avgränsade bildrutor till de olika kärnorna. När en kärna har färdigrenderat sin ruta säger programmet till kärnan att börja med en ny ruta osv. Ganska "enkelt" att programmera detta kan jag tänka mig (enkelt om man är bra på programmering och vet hur man skriver kod för att fördela en arbetsuppgift på flera CPU-kärnor). Jag vet också av erfarenhet (när en av mina G3258-kärnor la av) att Cinebench R15 kan fördela renderingen en enskild ruta till flera kärnor. Så det programmet är välskrivet! Här tar Linus från LinusTechTips och renderar Cinebench R15 med 36 kärnor, 72 trådar, https://youtu.be/25FfiS9JWD8?t=10m17s . Som ni säkert kan tänka er så så går det odrägligt långsamt ;-p

Skrivet av AMD-Hippie:

@snajk Skulle vara givande om du kunde berika mig och de andra på detta forum med lite konkreta exempel på hur ett program kan läsa in data EFTER loopar och switchar (för att påskynda hur snabbt programmet går)?

Göra lösningar som använder flera trådar blir allt enklare nu för tiden, själv sitter jag mycket med c# och deras nya stöd i .NET 4.5 har förenklat detta oehört med följande.

Parallel Programming in the .NET Framework
Asynchronous Programming with Async and Await (C# and Visual Basic)

Följande delar är väldigt tekniskt men förenklat blir det följande.
Istället för att en loop är sekventiell kan den vara parallell och fördela arbetet i flera tasks där dessa tasks kan köra både köras på en eller flera kärnor. En kärnor kan även få mer en än task för att öka belastningen på den kärnan.

Istället för att ett metod anrop sker sekventiellt så kan detta ske asynkront. Då skapar en tasks up som kan köra på en annan kärna medans humorprogrammet fortsätter. Flera asynkrona anrop kan göras samtidigt. Du kan även välja att vänta in dessa anrop innan du går vidare.

Båda dessa delar har relativt låg ingångströskel och kan snabba upp program ohört. Vet att vi hade problem med att en metod som hade en loop i sig tog över 20 sekunder. Vi gjorde om loopen till en parallell loop och exekveringstiden gick ner till 3 sekunder och vi fick samma resultat. Detta pga att vi spred belastningen över flera kärnor samt belastade samtliga kärnor mer.

Permalänk
Medlem

@AMD-Hippie
Kolla på detta så kanske du förstår någonting åtminstone rörande parallellism.

Visa signatur

Citera eller @philipborg om du vill att jag ska läsa dina svar.

Permalänk
Festpilot 2020, Antiallo
Skrivet av AMD-Hippie:

@Friterad:
Jag läser programmering (java) och programmet läser in koden i turordning. Tripp, trapp, trull alltså! Ett program består av en mängd loopar och switchar som alla måste gå klart/passeras innan programmet läser in nästa del av sin kod. Inläsningen av kod är alltså väldigt linjär.

Java är ett operativsystems oberoende språk, det betyder att det finns dependencies i koden. Till att börja pseudo-kompilerar man koden till ett mellanting av maskinkod och faktiskt kod som man arbetar i.

Sedan kör man en virtuelbox på datorn som skall köra java-programmet, detta introducerar första beroendet, den virtuella maskinen skall tilldelas alla adresser där koden ligger.

Sedan skall koden realtidskomplieras för vilket operativsystem du sitter på. I detta skedde introducerar man en stor stoppkloss då mycket av loop-arna och koden blir beroende av allt som kompileras innan och efter. Att hålla på med detta på två kärnor är mer eller mindre omöjligt för vanlig java-kod.

Vill man kan man säkert tvinga kompilering över flera kärnor men då kommer stora latenser mellan kärnor och även minne uppstå.

Skrivet av Tenkai Star:

Har haft flera program i jobbet där det var bättre med kärnor är fyra nästan lika snabba. Vissa sorter av simuleringar är i stort sett omöjliga att parallellisera. Även om de försöker skilja på simuleringsalgoritmer på en kärna och övrigt på en annan kärna åtminstone.

FPGA Back annotated simulering om någon är intresserad är ett exempel.

FPGA är självklart mycket svårt att parallellisera, oftast går det men du har som sagt samma problem här som i exemplet ovan att minneslatensera är värre än hastigheten på arbetet som utförs när det är uppdelat mellan kärnor.

Skrivet av AMD-Hippie:

Om du nu håller på med C++ så borde du veta att program bygger på en dominoeffekt. Du borde veta att skulle programmet göra ett enda fel så kan det förstöra hela programmet. Det är därför viktigt att programmet kör all kod stegvis. I många fall kan ett program inte ta ställning till en uträkning längre fram om inte en loop gått klart eller en switch valts, som alltså påverkar hur programmet kommer agera längre fram. Det ät inte bara "skoluppgifter eller liknande extremt simpla konstruktioner", det är vad som gäller för alla program i världen.

Ytterligare ett exempel som faller på samma sak som ditt tidigare, det är en mycket simpel algoritm som har beroenden. Du betalar mer i tid om du skall lägga det på en annan kärna och då får du ingen snabbare upplevelse med en flerkärnig processoe.

Att det gäller för alla program? Knappast, det handlar om att man skall programmera för flera individuella trådar och även inte ha beroenden mellan uppgifterna som utförs.
Kan för övrigt påpeka att en 2-kärnig processor aldrig skulle duga för mig, har en 3258 AE och den är fruktansvärt långsam i det jag gör.
Excel jobbar jag en del med, det är ett program som äter alla processorkärnor du slänger på det.

Skrivet av AMD-Hippie:

Det är därför jag tog upp hur bra det skulle vara med en benchmark som bygger på verklig användning. Jag tog nyligen och körde en uppackning av tre rar-filer på en gigabyte var dels på min fyrkärniga Celeron J1900 @ 2GHz, dels på min tvåkärniga G3258 @ 4 GHz. Min G3258 klarade av den uppgiften 3-4 gånger snabbare. Vilket påminner mig om en datorlärare som påpeka att två kärnor kan samarbeta för att utföra ett jobb som är lika bra som ännu fler kärnor. Man får inte glömma att G3258 Har en enkärnig kraft som kan konkurrera med processorer i tretusenkronorklassen.

Fast detta har inget med antalet processorkärnor att göra, det har med att G3258 har en högre faktiskt beräkningskraft då det är en Big-core arkitektur och inte en small-core arkitetkur.

Jag misstänker att du bara programmerat simpla saker och inte gett dig in på flertråds-programmering?

Visa signatur

 | PM:a Moderatorerna | Kontaktformuläret | Geeks Discord |
Testpilot, Skribent, Moderator & Geeks Gaming Huvudadmin

Permalänk
Medlem

Jag använder bland annat FLstudio. Jag kör med ett 40 tal pluggar, allt från Större syntar till mindre reverb m.m.

Ett 40 tal mp3 samples m.m i mina färdiga projekt och med ASIO drivarna satt på lägsta möjliga latency Så gick inte cpu användningen i taket men ljudet clippade/distade vilket är ett tecken på att cpun inte orkar.

Med en i5a hade jag inte dom problemen längre.

Mao, nej en Pentium i 3.2GHz orkade alltså inte.

Sen vet jag själv att syntarna jag använder (3dje part) inte är dom mest prestanda orienterade syntarna där finns. men Dom låter bra vilket är det jag är ute efter )

Visa signatur

Jag har ingen dator att visa upp här nere längre, men jag har en fräsig formel 1 bil i Lego!

Permalänk
Medlem

Ja, nu skulle jag verkligen behövt en multicore processor - för att hantera alla inlägg som genererats i denna tråd!

För ni som haft verkliga livsupplevelser när det gäller prestanda - ni ska veta att jag respekterar och tror på era upplevelser!

Jag var själv på väg att köpa en åttakärnig AMD FX-processor för en tid sedan men fick upp ögonen för att musikprogrammet jag skulle använda - FL Studio - helt enkelt inte höll måttet när det kom till att dela uppgifter på flera kärnor. T.ex så la programmet alla uppgifter för ett FX-spår på en enda kärna. Jag gjorde lite tester där jag fyllde ett FX-spår med några krävande plugin. En enda kärna gick i taket medan de andra tre var inaktiva och programmet kraschade. Således kom jag fram till att enskilt kraftiga kärnor är bäst - och detta har G3258, även om den bara har två. Och för MIG fungerar FL Studio underbart med G3258 @ 4,0 GHz.

Som jag sa i mitt inledande inlägg på denna tråd så kommer jag göra mig av med G3258 om 3-4 år och kommer då skaffa mig en processor med mer kärnor - eftersom jag bedömer att programmen kommer vara bättre anpassade för det då.

Till alla som har skolat mig om programmering, JAVA och hur man skriver kod för flera kärnor... TACK! Jag ska gå igenom det och få lite mer "kött på benen".

Permalänk
Medlem
Skrivet av stigw:

Bra och tänkvärt inlägg. Tack!

Tack för att du uppskattade det!

Permalänk
Festpilot 2020, Antiallo

@AMD-Hippie: Du har helt rätt i att få starka kärnor är bättre än många svaga kärnor i de flesta fall. Speciellt när man pratar responsiva program, då behöver man ha kärnor som är snabba och starka så att interrupt-drivrutinerna inte tar upp en väsentlig del av tiden man switchar och utför nya kommandon.

Visa signatur

 | PM:a Moderatorerna | Kontaktformuläret | Geeks Discord |
Testpilot, Skribent, Moderator & Geeks Gaming Huvudadmin

Permalänk
Medlem
Skrivet av AMD-Hippie:

Jag var själv på väg att köpa en åttakärnig AMD FX-processor för en tid sedan men fick upp ögonen för att musikprogrammet jag skulle använda - FL Studio - helt enkelt inte höll måttet när det kom till att dela uppgifter på flera kärnor. T.ex så la programmet alla uppgifter för ett FX-spår på en enda kärna. Jag gjorde lite tester där jag fyllde ett FX-spår med några krävande plugin. En enda kärna gick i taket medan de andra tre var inaktiva och programmet kraschade. Således kom jag fram till att enskilt kraftiga kärnor är bäst - och detta har G3258, även om den bara har två. Och för MIG fungerar FL Studio underbart med G3258 @ 4,0 GHz.

Jag är inte musiker men jag känner en som är. Det normala är väl att man fördelar allting över olika spår? Rätt säker att varje spår får en egen CPU tråd och där ser multikärnade CPU'er stor vinst. Man försöker därav att dela upp det så att inte ett enda spår överbelastas. Musikern jag känner brukar ha 8-15 aktiva spår om jag minns rätt. Där ser han en rätt så jämn belastning över hans 6 CPU kärnor. (Han kör en FX6300)

Skrivet av AMD-Hippie:

Till alla som har skolat mig om programmering, JAVA och hur man skriver kod för flera kärnor... TACK! Jag ska gå igenom det och få lite mer "kött på benen".

Rätt attityd! Ursäkta om jag lät lite hård, om du läser min signatur så kanske du ser varför. "Kan låta oavsiktligt aggressiv." Har en fruktansvärd ovana att låta arg även när jag egentligen inte är det, tyvärr appliceras även det i tal.

Har du några frågor så svarar vi på SC gärna

Visa signatur

Citera eller @philipborg om du vill att jag ska läsa dina svar.

Permalänk
Avstängd
Skrivet av AMD-Hippie:

Om du nu håller på med C++ så borde du veta att program bygger på en dominoeffekt.

Inte C++ utan C#.

Citat:

Du borde veta att skulle programmet göra ett enda fel så kan det förstöra hela programmet. Det är därför viktigt att programmet kör all kod stegvis. I många fall kan ett program inte ta ställning till en uträkning längre fram om inte en loop gått klart eller en switch valts, som alltså påverkar hur programmet kommer agera längre fram. Det ät inte bara "skoluppgifter eller liknande extremt simpla konstruktioner", det är vad som gäller för alla program i världen.

Tja, det beror förstås på hur man ser det. En simpel applikation, typ som ett java-program i skolan där programmet ligger i en Main-metod och man har några enstaka klasser att ta hänsyn till, fungerar förstås så. Men ett avancerat program med exempelvis hundratals klasser, funktionsanrop eller så gör saker parallellt.

Citat:

Ta denna bild på en algoritm, som på ett tydligt sätt visar hur en dator arbetar på ett linjärt sätt. Här förkommer också booleaner (sant eller falskt värden) som också är avgörande för om ett program ska fungera, utöver loopar och switchar.

Jo, ett extremt simpelt program som det kan förstås vara helt linjärt. Men tänk om du har något hundratal samtidiga användare till det programmet, ska alla vänta på alla andra hela tiden så hade det inte fungerat så istället kör man det multitrådat och inte i strikt turordning.

Skrivet av AMD-Hippie:

Jag vet inte vilken DAW (Digital Audio Workstation) som du använder, men med FL Studio fungerar G3258 utmärkt. Jag kan t.ex. spela upp denna sång, https://youtu.be/g_9lqUUUY7U, med så där 20-30% CPU-ansträngning och denna sång, https://youtu.be/VhB2S_NWhOA, med 30-50% ansträngning (men då är det en vansinnigt krävande sång). Och detta med processorgenererad ASIO för ljud och inte ett externt ljudkort som bär den bördan!

Spela upp midi-strömmar och någon enstaka (och lågupplöst) ljudström är inte så krävande. Försök mixa något mer verklighetstroget, typ 24 kanaler audio i normal studiokvalitet (24bit 96kHz exempelvis), så kommer du att ångra ditt beslut att snåla på processorn.

Citat:

Så ditt prat om att processorn endast klarar "lättare pluggar" och "en FX kanal" bör tas med EN nypa salt.

Men det beror väldigt mycket på vad man gör som sagt.

Skrivet av AMD-Hippie:

Det har gått upp för mig efter att ha läst multikärnförespråkarna på denna tråd att problemet inte i första hand verkar vara bristen på kärnor utan problem med en massa överflödsprogram som kör i bakgrunden.

Det är inte riktigt så enkelt heller. Väldigt många program idag är multitrådade, även vanliga hemanvändarprogram som webbläsare och Office-paket, och då skalar de bra på flera kärnor. Samtidigt, har man inga problem idag utan är helt nöjd med prestandan och allt funkar för det man behöver så är det förstås ingen mening i att köpa dyrare saker.

Citat:

Jag är en sådan som avskyr att onödiga program körs i bakgrunden och brukar nitiskt håla borta onödiga program, antigen genom att starta aktivitetshanteraren och stänga av aktiviteter manuellt eller genom att kolla vilka ikoner som finns i fliken för aktiva program.

Det är dock lätt att ställa till med mycket problem om man är inne och stänger av processer och aktiviteter utan att fullt ut veta vad de gör. Men absolut har du en poäng, man kan förbättra sin prestanda genom att stänga av onödiga bakgrundsprocesser och så, men man också skapa instabilitet eller ännu värre problem. Windows är också ganska bra på att inte köra tunga bakgrundsgrejer när datorn är belastad så det är sällan man hjälper så mycket i alla fall.

Citat:

Sedan brukar jag titt som tätt sudda ut program jag inte använt på ett tag och inte planerar använda. När jag fått igång för många webbfönster brukar jag resolut stänger ner allt ihop och börja om från början, för att frigöra minne och processorkraft. OCH, det borde alla förstå, att planerar man använda datorn till något systemkrävande så stänger man ner alla onödiga bakgrundsaktiviteter först. Bästa sättet att rensa i röran är helt enkelt installera om Windows och ha sina favoritprogram på en USB 3.0 sticka. Då går ominstallation fort och man får precis det man vill ha.

Att springa och köpa en ny processor med fler kärnor för att man inte kan hålla koll på datorns resursanvändning tycker jag är.. hem.. ONÖDIGT!

Tja så kan man förstås se det också. Men om du tänker lite på vad det kostar i tid att hålla på att stänga massa processer och än mer att installera om Windows titt som tätt så är det inte så dyrt att köpa en riktig fyrkärnig processor med HT osv. och slippa allt det.

Man måste göra tidskalkylen och fundera kring hur man värderar sin tid liksom. Det låter på dig som om du installerar om Windows ganska ofta, men om vi räknar lågt och säger en gång i månaden. Och så tänker vi oss en timpeng på 100 efter skatt om du hade jobbat istället, och att det tar en timme att installera, allt detta är ganska lågt räknat men i alla fall. Då blir det ju 1200 per år som du hade kunnat dra in istället för att sitta med ominstallationer och det är ganska exakt skillnaden från en 3258 och en i5-K. Så bara genom att slippa tolv installationer så hade du gått plus minus noll på att köpa en bättre processor. Räknar du med tiden du lägger på att stänga av processer och så, och tiden du faktiskt tjänar på att processorn gör vissa saker snabbare (det är inte mycket men över tid så kan det bli en del ändå) så kanske den dyrare ser ganska mycket bättre ut liksom. På köpet får du bättre spelprestanda och så.

Permalänk
Medlem

G3258 dog direkt för mig när jag provade GTA 5 och fick en smak av framtiden. FPSen ligger fint över 60 fps, men små-hacket var oacceptabelt, och det finns ingen fix för det. Spelet vägrar helt enkelt lira med 2 kärnor. Tyvärr.

Permalänk
Medlem

@AMD-Hippie: Intressant läsning!

Blir ju så trött på smart-asses som tycker de är fyndiga med en-ords kommentarer (finns visst minst 31 stycken än så länge).

Visa signatur

Ny dator: Acer Predator Orion 5000 (RTX 3080)
[ I7 3770K @ 4.6Ghz | Asus 980 Ti 6GB | 16GB | Asus P8Z77-V PRO | Samsung 830 128GB | Corsair H100 | Cooler Master HAF X | Corsair AX 850W | Samsung DVD±RW ] [ Sony AF9 65" | Sony WF-1000XM3 | HTC Vive | Huawei P40 Pro | PS4 Pro | PS3 Slim | PS2 chippad | PS Vita | DS Lite | SNES Mini ]

Permalänk
Medlem

Jag vill förtydliga något om det inte framgick. En två kärnig processor kan mycket väl duga för någon utan problem, just G3258 är även väldigt prisvärd. Det enda jag störde mig på var påståendet som i princip sa att två kärniga duger för allt och alla och benchmark är bland de få programmen som kan utnyttja fler.

EDIT:

Skrivet av xpanterx:

Blir ju så trött på smart-asses som tycker de är fyndiga med en-ords kommentarer (finns visst minst 31 stycken än så länge).

Kan du förtydliga vad du menar? Syftar du på oss som har åsikter om det som skrivs så tycker jag din kommentar inte är så bra. Alla påståenden, speciellt dem som är på publika forum, är öppna för kritik. Just ts var ju inte helt säker på hur trådning fungerar och i vilken utbredd det används, därav angav vissa felaktigheter. Är det då fel att konstatera dessa och ge korrekt information så att inte dålig eller ensidig information sprids utan granskning? Sedan förklarade jag t.ex. varför man inte kan ha en benchmark som mäter "verklig" prestanda, en av sakerna TS efterfrågade. Är även det "smart-ass"?

Ursäkta, men att kalla folk "smart-ass" för att dem granskar och ger kritik på en texter/påståenden är vad jag kallar trångsynt. Jag antar att om TS inte ville ha respons på sina tankar så skulle han inte publicerat dem här.

Detta antar att jag tolkade det du sa rätt, vilket kanske inte alls är fallet.

Visa signatur

Citera eller @philipborg om du vill att jag ska läsa dina svar.

Permalänk
Medlem

Digitalfoundry har en bra jämförelse i ett spel som verkar gilla 4 trådar:

En P3258@4.5GHz vs en i3-4130@3.4GHz.
Spola till 1:12 för att se riktiga skillnader.

i3 har visserligen andra fördelar förutom HT mot en Pentium.
Så att hävda att 2 kärnor/trådar räcker är kanske lite och ta i.
Men visst, spelet fungerar ju med en pentium

Permalänk
Avstängd
Skrivet av philipborg:

[li]Ordbehandling - Kräver knappt CPU kraft, i dem få situationerna det gör det så skalar det väldigt väl oftast. Finns en anledning varför ordbehandlings programmen var bland dem första till datorer.[/li]

Anledningen är att skrivmaskiner jämförelsevis är galet opraktiska och att ett simpelt men funktionellt ordbehandlingsprogram är lätt att utveckla. Har föga att göra med skalbarhet.

Skickades från m.sweclockers.com

Visa signatur

///M4

Permalänk
Medlem
Skrivet av hoski:

Anledningen är att skrivmaskiner jämförelsevis är galet opraktiska och att ett simpelt men funktionellt ordbehandlingsprogram är lätt att utveckla. Har föga att göra med skalbarhet.

Skickades från m.sweclockers.com

Det jag menade var att ett ordbehandlings program inte är särskilt CPU krävande. Kanske inte var tydlig nog med det, syftade inte att dem var tidiga pga sin skalbarhet.

Visa signatur

Citera eller @philipborg om du vill att jag ska läsa dina svar.

Permalänk
Medlem
Skrivet av philipborg:

Jag vill förtydliga något om det inte framgick. En två kärnig processor kan mycket väl duga för någon utan problem, just G3258 är även väldigt prisvärd. Det enda jag störde mig på var påståendet som i princip sa att två kärniga duger för allt och alla och benchmark är bland de få programmen som kan utnyttja fler.

EDIT:
Kan du förtydliga vad du menar? Syftar du på oss som har åsikter om det som skrivs så tycker jag din kommentar inte är så bra. Alla påståenden, speciellt dem som är på publika forum, är öppna för kritik. Just ts var ju inte helt säker på hur trådning fungerar och i vilken utbredd det används, därav angav vissa felaktigheter. Är det då fel att konstatera dessa och ge korrekt information så att inte dålig eller ensidig information sprids utan granskning? Sedan förklarade jag t.ex. varför man inte kan ha en benchmark som mäter "verklig" prestanda, en av sakerna TS efterfrågade. Är även det "smart-ass"?

Ursäkta, men att kalla folk "smart-ass" för att dem granskar och ger kritik på en texter/påståenden är vad jag kallar trångsynt. Jag antar att om TS inte ville ha respons på sina tankar så skulle han inte publicerat dem här.

Detta antar att jag tolkade det du sa rätt, vilket kanske inte alls är fallet.

Jag minns inte att jag sa att "benchmark är bland de få programmen som kan utnyttja fler", jag sa att de är de program som är "ABSOLUT BÄST" på att utnyttja flera kärnor. Jag välkomnar verkligen att fler, ja alla, program ska kunna fördela många små uppgifter på många kärnor med stor precision. Och jag tror ju som jag sa i mitt första inlägg att det också kommer bli så tillslut.

Men idag är det inte så, i alla fall inte som jag märkt. Ta en så basal sak som Windows update. Den tar och installerar uppdatering 1, sedan 2, sedan 3 osv. Windowsuppdateringar går supersnabbt på min överklockade G3258. Jag noterade även när Linus på LinusTechTips skulle starta programmet CPU Z med en 32 kärnig (med hyperthreading) Xeon så gick det LÅNGSAMT jämfört hur fort det går för mig att starta programmet med min G3258.

Och jag måste verkligen säga att när folk pratar om att G3258 inte klarar av alla uppgifter och sedan hänvisar till speltest med grafikkort för fjorton gånger priset av en G3258 eller andra enorma skillnader så säger det sig själv att G3258 inte kan hänga med alltid. Den gyllene regeln är att köpa datorkomponenter som matchar varann i kraft, pris och färg .

Permalänk
Medlem
Skrivet av AMD-Hippie:

Jag minns inte att jag sa att "benchmark är bland de få programmen som kan utnyttja fler", jag sa att de är de program som är "ABSOLUT BÄST" på att utnyttja flera kärnor. Jag välkomnar verkligen att fler, ja alla, program ska kunna fördela många små uppgifter på många kärnor med stor precision. Och jag tror ju som jag sa i mitt första inlägg att det också kommer bli så tillslut.

Men idag är det inte så, i alla fall inte som jag märkt. Ta en så basal sak som Windows update. Den tar och installerar uppdatering 1, sedan 2, sedan 3 osv. Windowsuppdateringar går supersnabbt på min överklockade G3258. Jag noterade även när Linus på LinusTechTips skulle starta programmet CPU Z med en 32 kärnig (med hyperthreading) Xeon så gick det LÅNGSAMT jämfört hur fort det går för mig att starta programmet med min G3258.

Och jag måste verkligen säga att när folk pratar om att G3258 inte klarar av alla uppgifter och sedan hänvisar till speltest med grafikkort för fjorton gånger priset av en G3258 eller andra enorma skillnader så säger det sig själv att G3258 inte kan hänga med alltid. Den gyllene regeln är att köpa datorkomponenter som matchar varann i kraft, pris och färg .

Deras Xeon är ju mycket lägre klockad så den har mycket längre singeltrådspestanda än en överklockad G3258. Sedan kanske den datorn inte hade SSD medan du kanske har en. Folk köper nog inte en ny processor bara för att starta CPU-Z om och om igen.

G3258 kommer att flaska betydligt svagare kort i Witcher 3 i städer också.

Visa signatur

De köper en bil. Säljaren säljer bilen till dem. Var är du? Vart ska du? Varifrån kom du?

Permalänk
Medlem
Skrivet av Tino:

Göra lösningar som använder flera trådar blir allt enklare nu för tiden, själv sitter jag mycket med c# och deras nya stöd i .NET 4.5 har förenklat detta oehört med följande.

Parallel Programming in the .NET Framework
Asynchronous Programming with Async and Await (C# and Visual Basic)

Följande delar är väldigt tekniskt men förenklat blir det följande.
Istället för att en loop är sekventiell kan den vara parallell och fördela arbetet i flera tasks där dessa tasks kan köra både köras på en eller flera kärnor. En kärnor kan även få mer en än task för att öka belastningen på den kärnan.

Istället för att ett metod anrop sker sekventiellt så kan detta ske asynkront. Då skapar en tasks up som kan köra på en annan kärna medans humorprogrammet fortsätter. Flera asynkrona anrop kan göras samtidigt. Du kan även välja att vänta in dessa anrop innan du går vidare.

Båda dessa delar har relativt låg ingångströskel och kan snabba upp program ohört. Vet att vi hade problem med att en metod som hade en loop i sig tog över 20 sekunder. Vi gjorde om loopen till en parallell loop och exekveringstiden gick ner till 3 sekunder och vi fick samma resultat. Detta pga att vi spred belastningen över flera kärnor samt belastade samtliga kärnor mer.

Tack för informationen! Jag kan omgående se hur det skulle fungera. När du säger att ni skapade en parallell loop hur gjorde ni den fördelningen? Gjorde ni det genom att öka belastningen på en enda kärna? Om ni la det på flera kärnor, hur många kärnor la ni det på? Skulle vara spännande att veta vad som krävs för att få ner tiden från 20 sekunder till 3.

Permalänk
Medlem
Skrivet av ArcticFire:

Deras Xeon är ju mycket lägre klockad så den har mycket längre singeltrådspestanda än en överklockad G3258. Sedan kanske den datorn inte hade SSD medan du kanske har en. Folk köper nog inte en ny processor bara för att starta CPU-Z om och om igen.

G3258 kommer att flaska betydligt svagare kort i Witcher 3 i städer också.

Men nu nämnde jag just det med starttiden för att påpeka att alla program/programsekvenser inte är optimerade för flera kärnor. Och jag har faktiskt ingen SSD.. Större chans att Linus har det!

Vi får se hur Witcher 3 går för mig när jag jag köper det senare... om jag bara får situationen löst med mitt grafikkort (ett GTX 750) som brusar som en älv!

Permalänk
Medlem
Skrivet av ArcticFire:

Deras Xeon är ju mycket lägre klockad så den har mycket längre singeltrådspestanda än en överklockad G3258....

Hittade videon jag talade om: https://youtu.be/xt62JyJo1iU
Jag hade dock fel, det var inte en 32 thread processor utan 36.

Vill ni se starttiden för CPU Z hittar ni den här https://youtu.be/xt62JyJo1iU?t=11m

Permalänk
Medlem
Skrivet av AMD-Hippie:

Tack för informationen! Jag kan omgående se hur det skulle fungera. När du säger att ni skapade en parallell loop hur gjorde ni den fördelningen? Gjorde ni det genom att öka belastningen på en enda kärna? Om ni la det på flera kärnor, hur många kärnor la ni det på? Skulle vara spännande vad som krävs för att få ner tiden från 20 sekunder till 3.

Vi gick från

foreach(var item in items) { //DoWork heavy with item }

Till

Parallel.ForEach(items, item => { //DoWork heavy with item });

.Net löser resten själv genom att fördela iterationen (task) över flera kärnor.

Permalänk
Medlem

Bara jag som får flashbacks till den där polaren vi alla haft som höll på att ta körkort och konstant pladdrade vägregler trots att han inte lärt sig att hitta dragläget än?

Visa signatur

i7 8700k – Scythe Mugen 5 Rev.B-kylare // Galax RTX 3080 SG // 16GB G.Skill DDR4 3200 // Corsair RM750i // Phanteks Eclipse P400 TG

Permalänk
Medlem
Skrivet av AMD-Hippie:

Jag byggde nyligen en dator och använde mig av Pentium G3258, en tvåkärnig processor. Även om jag ska använda den till musikproduktion med mera skrämde den mig inte med sina "endast" två kärnor. Två kärnor är nämligen fortfarande helt OK för seriöst datoranvändande.

En av orsakerna till detta är att en dator i regel styrs av en människa vid sitt utförande av arbetsuppgifter. I många fall behöver datorn en instruktion från användaren och utför en tidsbegränsad uppgift, kanske bara på någon sekund, och vill sedan ha mer instruktioner. I dessa fall säger det sig själv att en tvåkärnig processor klarar av detta bra.

Även när program är "gjorda" för att dela arbetsuppgifter mellan olika kärnor, så har jag märkt att de ofta inte håller måttet. Det är beklämmande att se en kärna bära all arbetsbörda och resten kärnor stå nästan still med endast små kraftryck här och där. Dagens "flerkärniga" program är i många fall inte kapabla att effektivt dela en arbetsuppgift på många kärnor. I detta sammanhang vill jag nämna Far Cry 4 som inte ville starta om man hade två kärnor men när någon hackade detta så visade det sig att det gick bra att spela spelet på en G3258. De bara narrades med att man måste ha fler kärnor för att klara av spelet (skulle vara intressant att se arbetsfördelning mellan t.ex. 4 kärnor för det spelet).

Men det finns undantag! En sorts programkategori som tyvärr är absolut bäst på att utnyttja datorns alla kärnor är de otaliga benchmarks som används för att visa på flerkärniga processorers "överlägsenhet". Den programmeraren skulle vara ett ljushuvud (OBS! jag använder här "ljushuvud" i positiv bemärkelse och inte i sarkastisk/negativ bemärkelse) som skapar en benchmark som simulerar VERKLIGT användande av dator. Ingen människa kan hinna ge en dator de tusentals instruktioner som benchmarks ger på någon minut. Under en sådan processorpress och med välskriven kod för multitasking är det uppenbart att processorer med många kärnor går segrande ur leken.

Den tvåkärniga processorns svaghet, som jag ser det, är när en datorn ska genomföra en långdragen och repetitiv process som kräver många men "små" handlingar. Ett utmärkt fall är att rendera filmer, där datorn en längre stund ska skriva ut tusentals enskilda bilder. Är programmeringen bra, så att alla kärnor utnyttjas på bästa sätt, så är givetvis denna arbetsuppgift bäst lämpad för en processor med så många kärnor som möjligt. För musikproduktion, där kravet på kraft för vissa processer kan vara omfattande, är inte fler och därmed svagare kärnor alltid bättre. Om en kärna inte har tillräcklig kraft kanske den står försvarslös mot en krävande synth, om musikprogrammet inte kan dela upp samma ljudeffekt på flera kärnor. Min erfarenhet är musikprogrammen ännu inte är bra på detta vilket kan bero på att många av dagens musikprogram har sin rötter i en enkärnig era och programmerarna inte har hunnit med att skriva om koden på bästa sätt.

Men situationen kommer förändra sig. Eftersom det idag är regel att en processor har minst 4 kärnor är det uppenbart att programmerare i högre grad kommer göra program/spel som effektivt fördelar arbetsuppgifter på kärnorna. Jag bedömer att denna "förvandling" är så gått som fullbordad om 3-4 år och då kommer det vara dags att kassera min G3258.

Dold text

Japp, tjejen kör med en 2-kärnig Intel Core i3 3220 3.3 GHz med hyper threading. Hon lirar world of warcraft, the sims mm med fullgott flyt.

Visa signatur

Ryzen 5 1600, Gigabyte 1070, MSI B350M MORTAR, Crucial 16GB, Samsung EVO 500GB, Define Mini C, Corsair RM550x (╯°□°)╯​︵ ┻━┻

Permalänk
Medlem
Skrivet av AMD-Hippie:

Jag minns inte att jag sa att "benchmark är bland de få programmen som kan utnyttja fler", jag sa att de är de program som är "ABSOLUT BÄST" på att utnyttja flera kärnor.

Var väldigt lätt att tolka det som om du påstod att benchmarks är ett utav dem få sorters programmen som kan effektivt utnyttja flera kärnor.

Skrivet av AMD-Hippie:

Även när program är "gjorda" för att dela arbetsuppgifter mellan olika kärnor, så har jag märkt att de ofta inte håller måttet. Det är beklämmande att se en kärna bära all arbetsbörda och resten kärnor stå nästan still med endast små kraftryck här och där. Dagens "flerkärniga" program är i många fall inte kapabla att effektivt dela en arbetsuppgift på många kärnor.

Men det finns undantag! En sorts programkategori som tyvärr är absolut bäst på att utnyttja datorns alla kärnor är de otaliga benchmarks som används för att visa på flerkärniga processorers "överlägsenhet".

Skrivet av AMD-Hippie:

Jag välkomnar verkligen att fler, ja alla, program ska kunna fördela många små uppgifter på många kärnor med stor precision. Och jag tror ju som jag sa i mitt första inlägg att det också kommer bli så tillslut.

Det var inte det jag syftade på. Jag menade hur man kan dela upp program i olika trådar, alltså själva processen.

Skrivet av AMD-Hippie:

Men idag är det inte så, i alla fall inte som jag märkt. Ta en så basal sak som Windows update. Den tar och installerar uppdatering 1, sedan 2, sedan 3 osv. Windowsuppdateringar går supersnabbt på min överklockade G3258.

Att den gör det sekventiellt är rätt viktigt då det finns risk annars att uppdateringar krockar. Sedan kan ju själva uppdaterings programmet göra flera saker samtidigt utan att vi vet det. Oftast är det däremot lagringsmediet som är flaskhalsen för uppdateringar och där kan till och med flera kall förvärra situationen, beroende på lagrings typ. Men det är nog inte i Windows uppdateringarna man vill ha CPU kraft.

Skrivet av AMD-Hippie:

Jag noterade även när Linus på LinusTechTips skulle starta programmet CPU Z med en 32 kärnig (med hyperthreading) Xeon så gick det LÅNGSAMT jämfört hur fort det går för mig att starta programmet med min G3258.

Jag ser inte riktigt varför CPU-Z är relevant i detta men det finns två anledningar till att det troligen startade snabbare.
Din G3258 har högre singel tråds prestanda, speciellt om det var någon lågklockad XEON. Xeon är trots allt för server drift eller trådade applikationer som skalar extremt väl. Man köper inte t.ex. en E5 2699 v3 för ~48kkr och sedan använder den för singeltråds program. CPU-Z måste även samla in massor information, kan mycket väl tänka mig att det är avsevärt mycket mer information på Haswell-EP än vanliga Haswell.

Skrivet av AMD-Hippie:

Och jag måste verkligen säga att när folk pratar om att G3258 inte klarar av alla uppgifter och sedan hänvisar till speltest med grafikkort för fjorton gånger priset av en G3258 eller andra enorma skillnader så säger det sig själv att G3258 inte kan hänga med alltid. Den gyllene regeln är att köpa datorkomponenter som matchar varann i kraft, pris och färg .

Det finns en anledning varför alla CPU tester görs med den kraftfullaste GPU konfigurationen tillgänglig med minimal multiGPU konfiguration. När du testar CPU's så vill du tag bort grafiken som flaskhals i bästa möjliga mån. Det visar då en situation där CPU'n får sträcka på benen så mycket den klarar. Processorn kommer ju inte prestera sämre för att den matchas med kraftfulla grafikkort, snarare motsatsen. Då är det minimal tid den behöver vänta på renderingen. Den nuvarande standarden är ju att testa allting med ett Titan X eller två. Klarar CPU'n inte att ge acceptabel framerate då så kommer den garanterat inte göra det när den matchas med någonting sämre. Det är inte bara hur mycket man kan vinna som är intressant att titta på utan även nivåerna det lägger sig på. Kollar du t.ex. på Witcher 3 videon som @Svensktiger skickade så klarar den inte av att pressa så många FPS i genomsnitt, men det kanske är acceptabelt beroende på individ. Kollar du däremot på renderingstiderna i högre nedersta hörnet så är det kaos. Desto rakare linje desto mindre hack. G3258 och till viss del även 4130 ser ju ut som sågtänderna på en motorsåg.

Anledningen till att man inte går och köper 5960x och GT 210 i en spelmaskin är för att man vill ha ett balanserat system med minimala flaskhalsar. När man testar komponenter så vill man ju att komponenten man testar är flaskhalsen, så man faktiskt ser hur mycket den klarar av i en perfekt situation.

Visa signatur

Citera eller @philipborg om du vill att jag ska läsa dina svar.

Permalänk
Inaktiv

Att välja rätt dator komponenter skiljer sig inte från något annat där det väljer att välja rätt produkt för ens behov. Har man en väldigt låg budget för ett visst datorsystem och eller omständigheterna är speciella så kan en tvåkärnig cpu idag vara bästa valet.

Allt prat om att program inte utnyttjar fler kärnor så kör folk allt fler program och till och med operativsystem samtligt på samma dator. Om man då har ett program som maxar alla 4 cores, ja då har man inga lediga cores för annat. Vid vanligt bruk professionell användning, så tycker jag att runt 4st lediga cores som inte används är god marginal att ha, då man ibland ska göra lite mer på datorn än vanligt och vill ha lediga resurser för detta. (Jag har själv 48 cores på min jobbmaskin fördelat på 2 hostar)

Jag tycker dock folk generellt väljer bra komponenter emot vad de behöver, jag har aldrig någonsin här på sweclockers sett någon med en idiotist val utan någon har påpekat detta.
Det enda problemet är att vissa elkejdor marknadsför sina maskiner fel och att vissa märkesdatorer finns med både kass cpu och gpu, men av någon anledning så har de både minnen som är anpassat för en bättre grejer. Där min misstanke är att lura kunderna och tro att det är värstinggrejer som de har köpt.

Permalänk
Medlem
Skrivet av Tino:

Vi gick från

foreach(var item in items) { //DoWork heavy with item }

Till

Parallel.ForEach(items, item => { //DoWork heavy with item });

.Net löser resten själv genom att fördela iterationen (task) över flera kärnor.

Jag läser java men det finns likheter. "Parallel" är uppenbarligen en klass och "ForEach" klassens funktion - troligen. Jätteskoj att se att man kan använda sig av klasser för detta. Det kommer definitivt öka användningen av multiprocessing i framtida program.

Permalänk
Medlem

@philipborg:

"Att den gör det sekventiellt är rätt viktigt då det finns risk annars att uppdateringar krockar."

ROFL!!!!
I rest my case

Permalänk
Medlem
Skrivet av AMD-Hippie:

Jag läser java men det finns likheter. "Parallel" är uppenbarligen en klass och "ForEach" klassens funktion - troligen. Jätteskoj att se att man kan använda sig av klasser för detta. Det kommer definitivt öka användningen av multiprocessing i framtida program.

japp, korrekt uppfattat.

Permalänk
Medlem

en 2 kärnig funkar säkert ok om man bara spelar och inte bryr sig jättemycket och så.

däremot om man kör lite tyngre saker ibland och / eller har flera skärmar vill man ofta ha lite mer igång.

jag har en sjuhelvetes grejer igång, skulle aldrig klara mig på en 2 kärnig

nu var det mindre igång änn vanligt också, "idle"

Visa signatur

5800x3d | 4080 | 4x8 3600 | Strix X570-F