Permalänk
Medlem
Skrivet av Booyahkascha:

MEN HELVETE VAD BRA! Kul att grafikkorts tillverkarna bara slänger in en helvetes massa hertz och gb bara för att lura oss som inte är mer än "lite halvt" insatta!

Wow, man blir ledsen av att folk skriver sådana här korkade saker utan att i princip inte kunna något. Ju högre frekvens, desto bättre blir den processorn. Dock så finns det ju processorer som är bättre per klockcykel, men de presterar också bättre ju högre frekvens de har. CPUer har legat runt 3 GHz länge, men de nya processorerna på 3 GHz är mycket bättre än någon gammal Pentium 4 på 3 GHz.

Sen så spelar minne roll också (såklart). Men om du har ett spel som bara behöver 1 GB VRAM så är 2 GB onödigt. Samma med RAM, behöver du bara 4 GB så är inte 999999 GB bättre. Men direkt när du behöver mer minne än vad du har så kommer det gå extremt mycket segare.

Permalänk
Skrivet av _MmattiasS_:

Eller helt enkelt skriva "jag ska bygga en dator för x kr, vad ska jag köpa", och så sätter någon ihop ett bra paket åt dig

Låter ju sjukt mycket lättare ja, då får jag inte lika mycket kunskap om det hela dock.

Skickades från m.sweclockers.com

Permalänk
Skrivet av hejkk:

Wow, man blir ledsen av att folk skriver sådana här korkade saker utan att i princip inte kunna något. Ju högre frekvens, desto bättre blir den processorn. Dock så finns det ju processorer som är bättre per klockcykel, men de presterar också bättre ju högre frekvens de har. CPUer har legat runt 3 GHz länge, men de nya processorerna på 3 GHz är mycket bättre än någon gammal Pentium 4 på 3 GHz.

Sen så spelar minne roll också (såklart). Men om du har ett spel som bara behöver 1 GB VRAM så är 2 GB onödigt. Samma med RAM, behöver du bara 4 GB så är inte 999999 GB bättre. Men direkt när du behöver mer minne än vad du har så kommer det gå extremt mycket segare.

Har ju fått det förklarat för mig nu och börjat greppa det lite, men skulle du kunna förklara lite om klocknings cyklerna så hade jag uppskattat det. Dessutom har du ju också varit ny till det hela en gång i tiden.

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av Booyahkascha:

Har ju fått det förklarat för mig nu och börjat greppa det lite, men skulle du kunna förklara lite om klocknings cyklerna så hade jag uppskattat det. Dessutom har du ju också varit ny till det hela en gång i tiden.

Skickades från m.sweclockers.com

http://en.wikipedia.org/wiki/Instructions_per_cycle

En processors klockcykel kan vara mer effektiv än någon annan processors klockcykel.

Permalänk
Skrivet av hejkk:

http://en.wikipedia.org/wiki/Instructions_per_cycle

En processors klockcykel kan vara mer effektiv än någon annan processors klockcykel.

Hmm ja känns inte lika luddigt nu. Jag saknar dock ett pros/cons i den wiki artiklen. Skulle du kunna förklara varför det ibland är önskvärt att ha en snabb cykel vid låg frekvens, kontra tvärt om.

Skickades från m.sweclockers.com

Permalänk
Medlem

När det gäller minne är det också mer än bara mängden som spelar roll, hastigheten på det betyder också en del och hur många bitar minnesbussen är på har en ännu större effekt. Generellt är det bättre med 256 bitar än 128. Så om du måste välja mellan 1 GB 256 bitar och 128 bitar samt 3 GB så vinner det förstnämnda.

Visa signatur

Ryzen 7 7700
Gigabyte B650 Eagle ax
2x16 GB RAM
Sapphire Radeon RX 7800 XT PULSE

Permalänk
Medlem
Skrivet av Booyahkascha:

Hmm ja känns inte lika luddigt nu. Jag saknar dock ett pros/cons i den wiki artiklen. Skulle du kunna förklara varför det ibland är önskvärt att ha en snabb cykel vid låg frekvens, kontra tvärt om.

Skickades från m.sweclockers.com

En processor som är mer effektiv behöver inte lika mycket ström som en processor med högre frekvens men mindre effektiva cykler. Att den är mer effektiv för med sig fördelar som längre livslängd, lägre strömförbrukning och säkert några andra saker som jag inte kommer på just nu. En nackdel skulle kunna vara att man behöver lägga ned tid på att utveckla arkitekturer, men det lönar sig ändå i slutet (vilket man också har sett:p).

Permalänk
Skrivet av Booyahkascha:

Hmm ja känns inte lika luddigt nu. Jag saknar dock ett pros/cons i den wiki artiklen. Skulle du kunna förklara varför det ibland är önskvärt att ha en snabb cykel vid låg frekvens, kontra tvärt om.

Skickades från m.sweclockers.com

Om vi kollar historiskt på det så ser vi att processorer med låg IPC och hög klockfrekvens (Pentium 4, Bulldozer) ofta drar mer ström (vilket medför högre värmeutveckling) än processorer med hög IPC och lägre klockfrekvens (Sandy Bridge). Det finns för och nackdelar med de båda men oftast brukar de med högst IPC vara de som är bäst (A64>P4, SB>BD). Men egentligen handlar allt om att göra så mycket som möjligt på en så kort tid som möjligt och det finns olika sätt att uppnå det, just gpu:er (grafikprocessorer) skiljer sig extremt mycket mellan tillverkare och modeller men det gör även vanliga CPU:er därför är det svårt om inte nästan omöjligt att jämföra modeller från olika tillverkar utan tester, det är mycket som skiljer t.ex. shaders, typ av minnen, optimeringa (både på mjukvaro nivå och i aritekturen), minnesbandbredd, osv.

Tänk lite som om du skulle jämföra processorer, du kan inte bara gå på Hz för det är annat som skiljer. Om du skulle jämföra en Pentium 4, Core 2 Duo, (SB) i3, i5, i7 som alla var klockade till 3.2GHz så skulle ju inte alla presterat lika då det är mycket som skiljer arkitekturerna åt och även modellerna inom samma arkitekturen, exempel på dessa saker är IPC, cache-minne, instruktionssätt, antal kärnor, hyper-threading. Som med allting, ju mer man lär sig ju mer förstår man hur lite man egentligen kan.

Visa signatur

[i7 2600k @ 5GHz| NH-D14, fläktar utbyta mot ljudlösa 120mm SySS 800| Asus P8P67| HD6870 DirectCU| Corsair 4x8GB (32GB) 1600MHz DDR3| Moddat Corsair 550VX | Mac Pro / G5 Chassi| 2x120GB raid0 Intel 520 sys+ 2x3TB slask & home (riktig lagring på 12TB ZRAID NAS som även home backuppas/rsyncas till) ] - Helt ljudlös om man inte lägger örat intill chassit
[ MacBook Pro Retina 13 | 16GB ram | 256GB PCIe SSD | OS X(main), Arch ]

Permalänk
Skrivet av -=|ZetaXtreme|=-:

Om vi kollar historiskt på det så ser vi att processorer med låg IPC och hög klockfrekvens (Pentium 4, Bulldozer) ofta drar mer ström (vilket medför högre värmeutveckling) än processorer med hög IPC och lägre klockfrekvens (Sandy Bridge). Det finns för och nackdelar med de båda men oftast brukar de med högst IPC vara de som är bäst (A64>P4, SB>BD). Men egentligen handlar allt om att göra så mycket som möjligt på en så kort tid som möjligt och det finns olika sätt att uppnå det, just gpu:er (grafikprocessorer) skiljer sig extremt mycket mellan tillverkare och modeller men det gör även vanliga CPU:er därför är det svårt om inte nästan omöjligt att jämföra modeller från olika tillverkar utan tester, det är mycket som skiljer t.ex. shaders, typ av minnen, optimeringa (både på mjukvaro nivå och i aritekturen), minnesbandbredd, osv.

Tänk lite som om du skulle jämföra processorer, du kan inte bara gå på Hz för det är annat som skiljer. Om du skulle jämföra en Pentium 4, Core 2 Duo, (SB) i3, i5, i7 som alla var klockade till 3.2GHz så skulle ju inte alla presterat lika då det är mycket som skiljer arkitekturerna åt och även modellerna inom samma arkitekturen, exempel på dessa saker är IPC, cache-minne, instruktionssätt, antal kärnor, hyper-threading. Som med allting, ju mer man lär sig ju mer förstår man hur lite man egentligen kan.

Så man kan jämföra det med en vanlig processor då? T.e.x en processor på sex kärnor är snabbare än en på fyra trots att båda har samma klockningshastighet per kärna, eller jag har kanske fel nu? (igen) ^^

Permalänk
Medlem
Skrivet av Booyahkascha:

Så man kan jämföra det med en vanlig processor då? T.e.x en processor på sex kärnor är snabbare än en på fyra trots att båda har samma klockningshastighet per kärna, eller jag har kanske fel nu? (igen) ^^

Ja, men inte all mjukvara nyttjar alla kärnor.

Permalänk
Skrivet av hejkk:

Ja, men inte all mjukvara nyttjar alla kärnor.

Kom att tänka på en sak nu när vi kom in på mjukvara. Vad är skillnaden på Windows 7 Professional 64-bitar och Windows 7 Ultimate 64-bitar?
Som följdfråga på det du egentligen menar med din kommentar (vad jag gissar, är ju inte tankeläsare ^^) Vad ska man ha för Operativsystem på sin dator om man vill kunna utnyttja en 6-kärning processor till max? (eller det är annan mjukvara du menar?) =D

Permalänk
Medlem

Här har du en wall of text som eventuellt är bildande

En processor är endast stabil om en klockpuls klarar av att få ALLA transistorer i kedjan att ändra tillstånd korrekt innan nästa puls skall komma. Det tar tid för en klockpuls att gå från platsen där den skapas till den nått hela vägen ut till alla transistorer i rätt ordning.
Du kan alltså inte klocka hur mycket som helst.

För att klocka upp den mer har du två val:
1. Använd en teknik där varje transistor är mindre. Leder till att färdvägen från start till slut är kortare. Alltså kan du ha högre klockfrekvens.
2. Istället för att göra alla beräkningar på en gång, dela upp beräkningen i flera steg där varje steg kräver färre transistorer.
Här kan du dra en parallell till bilindustrin. Om du har en montör som skall montera på alla hjulen kanske det tar 2 minuter att få det gjort (överdriver lite). Då kan du inte bygga med än 30 bilar per timme. Men om du har 4 bilarbetare som tar 30s per hjul istället så gör alla mindre jobb på varje bil och du kan nu bygga 120 bilar per timme, dvs högre klockfrekvens
Inte exakt samma sak, men analogin funkar finfint.

Det finns ett STORT problem med hela biten kring att göra mindre per steg. Det tråkiga i processorer som har för många steg i sin pipeline (motsvarighet till många arbetsmoment i bilfabriken) är att om programmet inte är specialskrivet för processorn så kan man väldigt ofta göra en massa i onödan innan man inser att man skulle göra nåt annat. Om koden har hopp i sig (väldigt ofta med spel eftersom spelaren kan göra massa olika saker när som helst) så kanske det tar 4-5 operationer innan processorn inser att den skulle hoppa. Slöseri med tid... Pentium 4 gick från 5 (pentium 3) till 20 steg i sin pipeline. Den kunde klocka som tusan, men var inte alls lika effektiv per klockpuls efersom den behövde 4 (eller 5, minns inte nu) innan den insåg att den behövde hoppa till ny plats i RAM, medan pentium 3 endast behövde 2. Direkt obra!

Så hur kan man annars göra då?
En variant till 2:an om du vill få gjort mer per tidsenhet utan att minska ner arbetsbelastningen per moment (höja klockpulsen) är att ha en parallell produktionslina. Då kan två bilar byggas parallellt och du kan höja byggtakten.
NVIDIA kör med fler CUDA-kärnor i med komplexa kretsar och AMD har fler GCN-kärnor i mer avancerade GPU:er. Dvs. de kan göra mer per klockcykel. Samma sak med Intels och AMDs flerkärniga processorer.

Nackdelen med denna approach är att man kanske inte alltid kan göra fler saker parallellt. Det funkar ofta bra i grafik och om man har en process för att t.ex. beräkna vädersystem och en annan för att beräkna AI i ett spel. Finns en gräns dock.

Andra knep som används i processorer är att ha flera enheter av typen som är långsam.

Exempel:
Division är långsammare än beräkning än addition. Om man misstänker att användader av din processor behöver göra mycket divisioner så gör du så att du stoppar in 2 eller fler divisionsenheter per additionsenhet. Så om ett spel vill räkna en division, sen en addition och sen en division så hade du behövde köra dem i precis den ordningen om du bara hade en ALU (= beräkningsenhet), men om du har tre så kan den första hålla på med divisionen medan processorn sätter igång med additionen direkt så den är klar när divisionen är det. Sparar lite tid innan totalresultatet är klart.

Summa summarum:
Man kan INTE bara titta på klockfrekvens för att avgöra prestanda. Det är MYCKET viktigare om hur smart uppbyggd processorn är och hur pass välbalanserad den är för just det du vill använda den till.

Angående videoram och RAM.
Om en Bild tar 2GB videominne så måste hella grafikresten ha hela bilden tillgänglig för att behandla den.
Om du har två grafikprocessorer så måste de ha 2GB VAR. Annars kan de inte jobba med bilden. De kan alltså inte hämta bildinformation från samma videominne?
Varför inte?
Jo därför att de jobbar med olika frames och därför är det två helt olika bilder som sparas.

En förklaring.
Om du skall rendera 4 bilder med en GPU så blir det såhär:
frame 1 - GPU1
frame 2 - GPU1
frame 3 - GPU1
frame 4 - GPU1

Om du har två GPU:er (grafikkort) blir det såhär:
frame 1 - GPU1
frame 2 - GPU2
frame 3 - GPU1
frame 4 - GPU2
Vilken tror du är snabbare? Om båda GPU:er är precis lika snabba så tar det fyra tidsenheter i fallet med ett kort men två tidsenheter i fallet med två kort. Riktigt exakt så blir det inte, men nästan nuförtiden.
Som du ser ovan i fallet med två kort så kommer GPU1 använda sitt RAM till att spara frame 1 och ersätta den med frame 3. GPU2 kommer däremot spara frame 2 och sedan frame 4. Du får prestandaökning men på bekostnad av att du behöver mer minne för att nå den höga prestandan.

Vad är micro-stuttering?
GPU1 beräknar och skickar ut sin frame så fort som den bara kan.
GPU2 gör det också.
Det sker ingen synkning mellan dem för att kolla om båda scenerna är lika komplexa. Till exempel kan frame 1 vara en helt vit skärm pga en atombombsexplosion i scenen medan frame 2 är en komplex scen där du börjar se igen (dvs lägger ettt alpha-blendande lager ovan på en komplett scen). Frame2 är mer komplex och det tar längre tid att rita upp den.
Frame3 kanske är mindre komplex igen.
Det innebär att det kanske är en milisekund mellan frame 1 och frame 2 medan det kanske är en hel sekund mellan frame 2 och frame 3. Alla program kommer ändå visa c:a 2fps men du som spelar upplever 1fps eftersom frame 2 faktiskt tog en hel sekund att rita upp. Det blir extra ila om du tänker dig 60 frames där det tog 0.01s att rita 59 frames men den sista tog 0.99s. Du som spelar upplever den där massiva fördröjningen på nästan en sekund, men programmet som räknar frames per sekund tycker "Kanon, du fick 60 frames denna sekunden så du har nu 60fps".

Så två kort är lurigt och siffrorna man får skall tas med en REJÄL nypa salt.

Jag har inte hängt med på senare år så vet inte om man kan dedikera ett kort per skärm och synka dem. I så fall är det en mycket god idé att köra ett kort per skärm så man sparar videominne (varje kort behöver bara rita en skärm istället för 3) och ökar prestanda (varje kort beräknar bara en skärms bild och inte alla tre) samtidigt som man slipper microstuttering (det långsammaste kortet bestämmer när alla tre skall skicka ut sin bild på var sin skärm). Så hade jag velat ha det. Inget marknadsföringstrix.

Visa signatur

Silverstone FT-02 Silver | Seasonic Platinum 1200W | Ryzen 9 5900X | MSI X570 Tomahawk | G.Skill Trident Z Neo RGB 32GB @ 3600/16/16/16/36 | ASUS TUF 3080 OC V2 | 1TB SSD WD SN850 | Noctua NH-D14 | Win 11 Professional | QPad MK-95 Pro | Logitech G903 | Acer X34P | Asus Xonar Essence STX | Beyerdynamic A1 | QPad QH-1339 | Beyerdynamic T1 | Fanatec CSWv2 + CSP | Thrustmaster Warthog | MFG Crosswind v3 | Xbox 360 | Xbox One | PS3 | PS4 | PS VITA | Nintendo Switch

Permalänk
Medlem
Skrivet av Booyahkascha:

Kom att tänka på en sak nu när vi kom in på mjukvara. Vad är skillnaden på Windows 7 Professional 64-bitar och Windows 7 Ultimate 64-bitar?
Som följdfråga på det du egentligen menar med din kommentar (vad jag gissar, är ju inte tankeläsare ^^) Vad ska man ha för Operativsystem på sin dator om man vill kunna utnyttja en 6-kärning processor till max? (eller det är annan mjukvara du menar?) =D

Det är ingen sådan skillnad på de olika W7, det enda är några små onödiga extrafunktioner. Jag kör med Professional 64-bitar och det är bra. Det jag menar med mjukvara är t.ex. att de flesta spel stödjer inte mer än 4 kärnor, och de som gör det är inte alltid så optimiserade.

Permalänk
Medlem
Skrivet av Ykalon:

När det gäller minne är det också mer än bara mängden som spelar roll, hastigheten på det betyder också en del och hur många bitar minnesbussen är på har en ännu större effekt. Generellt är det bättre med 256 bitar än 128. Så om du måste välja mellan 1 GB 256 bitar och 128 bitar samt 3 GB så vinner det förstnämnda.

Bara ett förtydligande för TS ifall det var luddigt.
Bredden på minnesbussen talar om hur många bitar som läses in per klockcykel. 256 bitar är alltså dubbelt så snabbt som 128bitar på samma klockfrekvens för minnes.
Om du kör med riktigt hög upplösning så tar det mycket minne. För att snabbt kunna behandla informationen kan du antingen höja bussens bredd eller klocka upp minnet.
Högre klockfrekvens leder ofta till högre värmeutveckling, risk för ostabilitet osv osv. Bredare buss leder till mer kost. Så det är en balansfråga.

Ett alternativ är att läsa på båda sidor klockflanken. Du kan läsa när pulsen går från 1 till 0 och när den går från 0 till 1. Om jag minns rätt är det precis vad DDR-minnen gör. Därför ser du ofta en viss klockfrekvens för ram-minnet på ett grafikkort och en annan inom parentes. Den första är klockfrekvensen i sig, den andra är motsvarigheten ifall minnet hade klockat/lästs endast en gång per klockcykel.

Det är inte lätt detta och om du inte tänkt lära dig hemskt många detaljer kring hur elektroniken fungerar så är det bästa du kan göra att läsa tester för att se. I slutändan spelar det ingen roll om hur bra du kan detaljerna då tillverkarna ändå döljer det allra viktigaste, dvs grundarkitekturen. Hur många specar man än läser på en viss processor kan man inte avgöra vilken som är snabbast så vida du inte jämför komponenter med samma grundakrkitektur. T.ex. två processorer ur Sandy Bridge-arkitekturen.

Visa signatur

Silverstone FT-02 Silver | Seasonic Platinum 1200W | Ryzen 9 5900X | MSI X570 Tomahawk | G.Skill Trident Z Neo RGB 32GB @ 3600/16/16/16/36 | ASUS TUF 3080 OC V2 | 1TB SSD WD SN850 | Noctua NH-D14 | Win 11 Professional | QPad MK-95 Pro | Logitech G903 | Acer X34P | Asus Xonar Essence STX | Beyerdynamic A1 | QPad QH-1339 | Beyerdynamic T1 | Fanatec CSWv2 + CSP | Thrustmaster Warthog | MFG Crosswind v3 | Xbox 360 | Xbox One | PS3 | PS4 | PS VITA | Nintendo Switch

Permalänk
Medlem
Skrivet av Booyahkascha:

Så man kan jämföra det med en vanlig processor då? T.e.x en processor på sex kärnor är snabbare än en på fyra trots att båda har samma klockningshastighet per kärna, eller jag har kanske fel nu? (igen) ^^

Du har redan fått svar på denna, men tänkte bara förtydliga. Det finns nästa inga spel som utnyttjar fler än fyra kärnor. Bild och video-redigeringsprogram gör det. Om du ska bygga en speldator är svaret nej. En processor med 6 kärnor är inte snabbare då två kärnor bara står där och inte gör nåt i spel idag. Tyvärr. Speltillverkarna vill inte missa marknadsandelar så vågar inte göra spel som utnyttjar 6 kärnor. Då ökar risken att många inte köper dem då spelet kräver mer än deras dator kan leverera. Löjligt resonemang men tyvärr fungerar marknaden väldigt mycket åt det hållet.

Personligen har jag gärna sett att avancerade omgivningseffekter som inte påverkar grundspelet men höjer inlevelsekänslan fick tugga på i kärna 5 och 6. En PhysX-motsvarighet skulle till exempel kunna snurra i kärna 6 om man inte har Nvidia-kort men har 6 kärnor i sin processor. Nu är det väl så att det är typiskt den typen av saker som hamnari kärna 3 och 4, men man kan ju alltid inbilla sig att det skulle kunna vara ännu fräckare om man använde alla kärnor!

Visa signatur

Silverstone FT-02 Silver | Seasonic Platinum 1200W | Ryzen 9 5900X | MSI X570 Tomahawk | G.Skill Trident Z Neo RGB 32GB @ 3600/16/16/16/36 | ASUS TUF 3080 OC V2 | 1TB SSD WD SN850 | Noctua NH-D14 | Win 11 Professional | QPad MK-95 Pro | Logitech G903 | Acer X34P | Asus Xonar Essence STX | Beyerdynamic A1 | QPad QH-1339 | Beyerdynamic T1 | Fanatec CSWv2 + CSP | Thrustmaster Warthog | MFG Crosswind v3 | Xbox 360 | Xbox One | PS3 | PS4 | PS VITA | Nintendo Switch

Permalänk
Skrivet av Youjimbo:

Här har du en wall of text som eventuellt är bildande

En processor är endast stabil om en klockpuls klarar av att få ALLA transistorer i kedjan att ändra tillstånd korrekt innan nästa puls skall komma. Det tar tid för en klockpuls att gå från platsen där den skapas till den nått hela vägen ut till alla transistorer i rätt ordning.
Du kan alltså inte klocka hur mycket som helst.

För att klocka upp den mer har du två val:
1. Använd en teknik där varje transistor är mindre. Leder till att färdvägen från start till slut är kortare. Alltså kan du ha högre klockfrekvens.
2. Istället för att göra alla beräkningar på en gång, dela upp beräkningen i flera steg där varje steg kräver färre transistorer.
Här kan du dra en parallell till bilindustrin. Om du har en montör som skall montera på alla hjulen kanske det tar 2 minuter att få det gjort (överdriver lite). Då kan du inte bygga med än 30 bilar per timme. Men om du har 4 bilarbetare som tar 30s per hjul istället så gör alla mindre jobb på varje bil och du kan nu bygga 120 bilar per timme, dvs högre klockfrekvens
Inte exakt samma sak, men analogin funkar finfint.

Det finns ett STORT problem med hela biten kring att göra mindre per steg. Det tråkiga i processorer som har för många steg i sin pipeline (motsvarighet till många arbetsmoment i bilfabriken) är att om programmet inte är specialskrivet för processorn så kan man väldigt ofta göra en massa i onödan innan man inser att man skulle göra nåt annat. Om koden har hopp i sig (väldigt ofta med spel eftersom spelaren kan göra massa olika saker när som helst) så kanske det tar 4-5 operationer innan processorn inser att den skulle hoppa. Slöseri med tid... Pentium 4 gick från 5 (pentium 3) till 20 steg i sin pipeline. Den kunde klocka som tusan, men var inte alls lika effektiv per klockpuls efersom den behövde 4 (eller 5, minns inte nu) innan den insåg att den behövde hoppa till ny plats i RAM, medan pentium 3 endast behövde 2. Direkt obra!

Så hur kan man annars göra då?
En variant till 2:an om du vill få gjort mer per tidsenhet utan att minska ner arbetsbelastningen per moment (höja klockpulsen) är att ha en parallell produktionslina. Då kan två bilar byggas parallellt och du kan höja byggtakten.
NVIDIA kör med fler CUDA-kärnor i med komplexa kretsar och AMD har fler GCN-kärnor i mer avancerade GPU:er. Dvs. de kan göra mer per klockcykel. Samma sak med Intels och AMDs flerkärniga processorer.

Nackdelen med denna approach är att man kanske inte alltid kan göra fler saker parallellt. Det funkar ofta bra i grafik och om man har en process för att t.ex. beräkna vädersystem och en annan för att beräkna AI i ett spel. Finns en gräns dock.

Andra knep som används i processorer är att ha flera enheter av typen som är långsam.

Exempel:
Division är långsammare än beräkning än addition. Om man misstänker att användader av din processor behöver göra mycket divisioner så gör du så att du stoppar in 2 eller fler divisionsenheter per additionsenhet. Så om ett spel vill räkna en division, sen en addition och sen en division så hade du behövde köra dem i precis den ordningen om du bara hade en ALU (= beräkningsenhet), men om du har tre så kan den första hålla på med divisionen medan processorn sätter igång med additionen direkt så den är klar när divisionen är det. Sparar lite tid innan totalresultatet är klart.

Summa summarum:
Man kan INTE bara titta på klockfrekvens för att avgöra prestanda. Det är MYCKET viktigare om hur smart uppbyggd processorn är och hur pass välbalanserad den är för just det du vill använda den till.

Angående videoram och RAM.
Om en Bild tar 2GB videominne så måste hella grafikresten ha hela bilden tillgänglig för att behandla den.
Om du har två grafikprocessorer så måste de ha 2GB VAR. Annars kan de inte jobba med bilden. De kan alltså inte hämta bildinformation från samma videominne?
Varför inte?
Jo därför att de jobbar med olika frames och därför är det två helt olika bilder som sparas.

En förklaring.
Om du skall rendera 4 bilder med en GPU så blir det såhär:
frame 1 - GPU1
frame 2 - GPU1
frame 3 - GPU1
frame 4 - GPU1

Om du har två GPU:er (grafikkort) blir det såhär:
frame 1 - GPU1
frame 2 - GPU2
frame 3 - GPU1
frame 4 - GPU2
Vilken tror du är snabbare? Om båda GPU:er är precis lika snabba så tar det fyra tidsenheter i fallet med ett kort men två tidsenheter i fallet med två kort. Riktigt exakt så blir det inte, men nästan nuförtiden.
Som du ser ovan i fallet med två kort så kommer GPU1 använda sitt RAM till att spara frame 1 och ersätta den med frame 3. GPU2 kommer däremot spara frame 2 och sedan frame 4. Du får prestandaökning men på bekostnad av att du behöver mer minne för att nå den höga prestandan.

Vad är micro-stuttering?
GPU1 beräknar och skickar ut sin frame så fort som den bara kan.
GPU2 gör det också.
Det sker ingen synkning mellan dem för att kolla om båda scenerna är lika komplexa. Till exempel kan frame 1 vara en helt vit skärm pga en atombombsexplosion i scenen medan frame 2 är en komplex scen där du börjar se igen (dvs lägger ettt alpha-blendande lager ovan på en komplett scen). Frame2 är mer komplex och det tar längre tid att rita upp den.
Frame3 kanske är mindre komplex igen.
Det innebär att det kanske är en milisekund mellan frame 1 och frame 2 medan det kanske är en hel sekund mellan frame 2 och frame 3. Alla program kommer ändå visa c:a 2fps men du som spelar upplever 1fps eftersom frame 2 faktiskt tog en hel sekund att rita upp. Det blir extra ila om du tänker dig 60 frames där det tog 0.01s att rita 59 frames men den sista tog 0.99s. Du som spelar upplever den där massiva fördröjningen på nästan en sekund, men programmet som räknar frames per sekund tycker "Kanon, du fick 60 frames denna sekunden så du har nu 60fps".

Så två kort är lurigt och siffrorna man får skall tas med en REJÄL nypa salt.

Jag har inte hängt med på senare år så vet inte om man kan dedikera ett kort per skärm och synka dem. I så fall är det en mycket god idé att köra ett kort per skärm så man sparar videominne (varje kort behöver bara rita en skärm istället för 3) och ökar prestanda (varje kort beräknar bara en skärms bild och inte alla tre) samtidigt som man slipper microstuttering (det långsammaste kortet bestämmer när alla tre skall skicka ut sin bild på var sin skärm). Så hade jag velat ha det. Inget marknadsföringstrix.

Ok fattar typ lite av det du skrev, men om vi nu antar att jag har två kort på två skärmar, en per skärm. så är det samma sak som att ha ett kort på en skärm. Typ, men ändå inte. Så om man kör +2 kort på en skärm så kan man alltså få über hög FPS på ett spel. Förutsatt att man har en processor som håller måttet.

Permalänk
Medlem
Skrivet av Ykalon:

När det gäller minne är det också mer än bara mängden som spelar roll, hastigheten på det betyder också en del och hur många bitar minnesbussen är på har en ännu större effekt. Generellt är det bättre med 256 bitar än 128. Så om du måste välja mellan 1 GB 256 bitar och 128 bitar samt 3 GB så vinner det förstnämnda.

Mja, men när vi pratar bussbredden så är det istället den faktiska minneshastigheten som är relevant. Ett exempel är ju tidigare generationers toppkort från nvidia och amd; Samma bandbredd, men nvidia har kört bredare buss och långsammare minne medans amd har gjort tvärt om.

Visa signatur

Intel Core i9 9900K@ 5,2Ghz (Noctua NH-D15) | Asus ROG Maximus Xi Hero Z390 | Corsair Vengeance 16GB DDR4 2666Mhz | MSI GeForce RTX 3080 10GB GAMING X TRIO | EVGA Supernova G2 750W |

Permalänk
Medlem
Skrivet av Booyahkascha:

Ok fattar typ lite av det du skrev, men om vi nu antar att jag har två kort på två skärmar, en per skärm. så är det samma sak som att ha ett kort på en skärm. Typ, men ändå inte. Så om man kör +2 kort på en skärm så kan man alltså få über hög FPS på ett spel. Förutsatt att man har en processor som håller måttet.

Om du har två kort på en skärm så får du hög FPS ja. Men läs det där med microstuttering extra noga. Fler FPS innebär inte nödvändigtvis bättre flyt.

Extra förklaring kring micro-stuttering:
Om du får en ny frame vid dessa tidpunkter så har du 16fps. Siffrorna är sekunder från start och varje frame kommer varannan sekund.
0, 2, 4, 6, 8, 10, 12, 14, 16, 18, 20, 22, 24, 26, 28, 30.
Om du har ett grafikkort med 31fps brukar det se ut såhär och du får betydligt bättre flyt:
0 ,1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, 20, 21, 22, 23, 24, 25, 26, 27, 28, 29, 30.
Exakt 1 sekund mellan varje frame.
Om du har två kort skulle du kunna få 32fps enligt följande mönster.
0, 0.001, 1, 1.001, 2, 2.001 osv
Eftersom ögat inte är snabbt nog att se skillnaden mellan en frame som kommer vid sekund 0 och 0.001 (skiljer en mikrosekund) så kommer ditt öga tycke "det var 16fps".
Datorn däremot som är snabb som attans och ser alla frames säger glatt "du fick 31fps".

TYVÄRR (och detta är en hint till sweclockers och alla andra!!) så har testare aldrig (undantag tomshardware EN gång) med denna typ av data i sina tester. Så när de skriver antal frames per sekund så skriver de vad datorn sade och inte var ögat sade.

Vad man borde gjort är att skriva fps enligt datorn, men också konsistens mellan frames. Alltså variation i tidsintevrallet mellan frames för att avgöra stabilitet av framerate. Gäller både med ett och flera kort. Hur kul är det att ha flera miljoner framer per sekund i 0.01s för att ha 1fps i 0.99s? Man ser ju bara två frames ändå så i praktien har man 2fps men datorn tycker nåt helt annat.

Visa signatur

Silverstone FT-02 Silver | Seasonic Platinum 1200W | Ryzen 9 5900X | MSI X570 Tomahawk | G.Skill Trident Z Neo RGB 32GB @ 3600/16/16/16/36 | ASUS TUF 3080 OC V2 | 1TB SSD WD SN850 | Noctua NH-D14 | Win 11 Professional | QPad MK-95 Pro | Logitech G903 | Acer X34P | Asus Xonar Essence STX | Beyerdynamic A1 | QPad QH-1339 | Beyerdynamic T1 | Fanatec CSWv2 + CSP | Thrustmaster Warthog | MFG Crosswind v3 | Xbox 360 | Xbox One | PS3 | PS4 | PS VITA | Nintendo Switch

Permalänk
Medlem
Skrivet av Saodie:

Mja, men när vi pratar bussbredden så är det istället den faktiska minneshastigheten som är relevant. Ett exempel är ju tidigare generationers toppkort från nvidia och amd; Samma bandbredd, men nvidia har kört bredare buss och långsammare minne medans amd har gjort tvärt om.

Exakt. Klockfrekvens, typ av minne (antal triggningar per klockpuls) och klockfrekvens gemensamt talar om hur snabbt minnet är. En faktor i sig talar inte om nåt.

Analogi till bilar. Om en bil snurrar sina hjul 1 varv per minut och en annan bil snurrar sitt hjul 2 varv per minut. Vilken är snabbare? Det kan du inte veta, eftersom du måste veta storleken på hjulet också.

Så man kan inte isolera en parameter och tro att man har koll på helheten.

Visa signatur

Silverstone FT-02 Silver | Seasonic Platinum 1200W | Ryzen 9 5900X | MSI X570 Tomahawk | G.Skill Trident Z Neo RGB 32GB @ 3600/16/16/16/36 | ASUS TUF 3080 OC V2 | 1TB SSD WD SN850 | Noctua NH-D14 | Win 11 Professional | QPad MK-95 Pro | Logitech G903 | Acer X34P | Asus Xonar Essence STX | Beyerdynamic A1 | QPad QH-1339 | Beyerdynamic T1 | Fanatec CSWv2 + CSP | Thrustmaster Warthog | MFG Crosswind v3 | Xbox 360 | Xbox One | PS3 | PS4 | PS VITA | Nintendo Switch

Permalänk
Skrivet av Youjimbo:

Om du har två kort på en skärm så får du hög FPS ja. Men läs det där med microstuttering extra noga. Fler FPS innebär inte nödvändigtvis bättre flyt.

Extra förklaring kring micro-stuttering:
Om du får en ny frame vid dessa tidpunkter så har du 16fps. Siffrorna är sekunder från start och varje frame kommer varannan sekund.
0, 2, 4, 6, 8, 10, 12, 14, 16, 18, 20, 22, 24, 26, 28, 30.
Om du har ett grafikkort med 31fps brukar det se ut såhär och du får betydligt bättre flyt:
0 ,1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, 20, 21, 22, 23, 24, 25, 26, 27, 28, 29, 30.
Exakt 1 sekund mellan varje frame.
Om du har två kort skulle du kunna få 32fps enligt följande mönster.
0, 0.001, 1, 1.001, 2, 2.001 osv
Eftersom ögat inte är snabbt nog att se skillnaden mellan en frame som kommer vid sekund 0 och 0.001 (skiljer en mikrosekund) så kommer ditt öga tycke "det var 16fps".
Datorn däremot som är snabb som attans och ser alla frames säger glatt "du fick 31fps".

TYVÄRR (och detta är en hint till sweclockers och alla andra!!) så har testare aldrig (undantag tomshardware EN gång) med denna typ av data i sina tester. Så när de skriver antal frames per sekund så skriver de vad datorn sade och inte var ögat sade.

Vad man borde gjort är att skriva fps enligt datorn, men också konsistens mellan frames. Alltså variation i tidsintevrallet mellan frames för att avgöra stabilitet av framerate. Gäller både med ett och flera kort. Hur kul är det att ha flera miljoner framer per sekund i 0.01s för att ha 1fps i 0.99s? Man ser ju bara två frames ändå så i praktien har man 2fps men datorn tycker nåt helt annat.

Nu tappade du mig lite. På denna beskrivning så känns det som att du menar att det kommer en ny bild per sekund, detta kan ju inte stämma säg "ettusenett" högt för dig själv så har du ca en sekund där, om det skulle komma en ny bild varje gång du hann säga "ettusenett" så blir det mer ett bildspel än en rörlig bild.

Permalänk
Medlem
Skrivet av Booyahkascha:

Nu tappade du mig lite. På denna beskrivning så känns det som att du menar att det kommer en ny bild per sekund, detta kan ju inte stämma säg "ettusenett" högt för dig själv så har du ca en sekund där, om det skulle komma en ny bild varje gång du hann säga "ettusenett" så blir det mer ett bildspel än en rörlig bild.

Om du har 1fps så har du en bild per sekund.
Och du har rätt, jag skrev lite väl fel där. =P (börjar bli mossig i skallen tydligen...)
Såhär ska det vara för 11fps givetvis:
0, 0.1, 0.2, 0.3, 0.4, 0.5, 0.6, 0.7, 0.8, 0.9, 1

22fps:
0, 0.05, 0.1, 0.15, 0.2, 0.25 osv

22fps med två kort i värsta fallet:
0, 0.000001, 0.1, 0.1000001, 0.2, 0.200000001

osv. Ögat ser samma mönster som 11fps. Datorn däremot rapporterar 22fps i senare fallet. Hoppas det blev lite tydligare

Visa signatur

Silverstone FT-02 Silver | Seasonic Platinum 1200W | Ryzen 9 5900X | MSI X570 Tomahawk | G.Skill Trident Z Neo RGB 32GB @ 3600/16/16/16/36 | ASUS TUF 3080 OC V2 | 1TB SSD WD SN850 | Noctua NH-D14 | Win 11 Professional | QPad MK-95 Pro | Logitech G903 | Acer X34P | Asus Xonar Essence STX | Beyerdynamic A1 | QPad QH-1339 | Beyerdynamic T1 | Fanatec CSWv2 + CSP | Thrustmaster Warthog | MFG Crosswind v3 | Xbox 360 | Xbox One | PS3 | PS4 | PS VITA | Nintendo Switch

Permalänk
Skrivet av Youjimbo:

Om du har 1fps så har du en bild per sekund.
Och du har rätt, jag skrev lite väl fel där. =P (börjar bli mossig i skallen tydligen...)
Såhär ska det vara för 11fps givetvis:
0, 0.1, 0.2, 0.3, 0.4, 0.5, 0.6, 0.7, 0.8, 0.9, 1

22fps:
0, 0.05, 0.1, 0.15, 0.2, 0.25 osv

22fps med två kort i värsta fallet:
0, 0.000001, 0.1, 0.1000001, 0.2, 0.200000001

osv. Ögat ser samma mönster som 11fps. Datorn däremot rapporterar 22fps i senare fallet. Hoppas det blev lite tydligare

Ahh då är jag med. Så om det vill sig riktigt illa med två grafikkort så kan du få riktigt dålig FPS. Iaf i den mån att ögat inte ser i ljusets hastighet.

Permalänk
Medlem

Förresten. En gång i tiden när 3Dfx introducerade SLI så var det att varje kort renderade varannan rad om jag minns rätt. Det var lite som att man tog en skärm på 800x600 och varje kort räknade på 300x400 istället. Det fick hälften så mycket att göra. Sedan slog man ihop de två bilderna och fick ut 800x600.
Då fick man ut dubbla prestandan minus lite hantering för att splitta bilden och sedan slå ihop den igen.

Så funkar det inte idag. Den förlusten jag nämnde är större än tekniken som används idag och då vill tillverkarna inte använda sig av den. Ser inte lika bra ut då alla testare ute på webben pratar om hur bra "scaleing" är på korten. AMD lovordas för fantastisk scaling men att de gör det på bekostnad av micro stuttering är det ingen som säger. Alltså kör de på som vanligt och får finfina siffror att använda sig av i marknadsföringen.

At köra med den gamla varianten kanske inte ens fungerar så bra idag med alla avancerade funktioner. Vet inte faktiskt. Inte hängt med på några år. Var några år sedan jag blev less på allt med datorer och köpte mig en konsol och en mac istället =P

Visa signatur

Silverstone FT-02 Silver | Seasonic Platinum 1200W | Ryzen 9 5900X | MSI X570 Tomahawk | G.Skill Trident Z Neo RGB 32GB @ 3600/16/16/16/36 | ASUS TUF 3080 OC V2 | 1TB SSD WD SN850 | Noctua NH-D14 | Win 11 Professional | QPad MK-95 Pro | Logitech G903 | Acer X34P | Asus Xonar Essence STX | Beyerdynamic A1 | QPad QH-1339 | Beyerdynamic T1 | Fanatec CSWv2 + CSP | Thrustmaster Warthog | MFG Crosswind v3 | Xbox 360 | Xbox One | PS3 | PS4 | PS VITA | Nintendo Switch

Permalänk
Medlem
Skrivet av Booyahkascha:

Ahh då är jag med. Så om det vill sig riktigt illa med två grafikkort så kan du få riktigt dålig FPS. Iaf i den mån att ögat inte ser i ljusets hastighet.

Exakt. Om du har otur får du inte ett smack bättre upplevelse än med ett kort. Blir aldrig sämre än med ett kort. Oftast hamnar det lite mittemellan. Tomshardware gjorde en studie på detta och sweclockers håller på med en nu som blivit försenad. Antagligen har de märkt en del saker som de inte vill rapportera förrän de är 100% säkra på det. Saker är att de kan ha kommit fram till att allt detta med Crossfire och SLI bara är marknadsföringsskräp som man bör undvika som pesten.
Lite kaxigt att skriva det om man inte har riktigt fast data på det då man riskerar att få stämningar pga utbliven försäljning från AMD och Nvidia eller nåt sånt. Kan bli ramaskri.

Så om jag var du skulle jag undvika dubbla kort om jag kan såvida jag inte kör dem på flera skärmar. Som sagt, jag har inte följt med i alla detaljer de senaste åren.

Ska du bygga en dator så följ tipsen som skrivits tidigare. Dvs.
1. Bestäm en budget.
2. Läs tester för komponenter som ryms inom din budget.
3. Bygg ihop ett exempel och posta här på forumet. Folk är extremt hjälpsamma och du kommer få feedback.
4. Ta inspiration från all feedback du fått och köp nåt som påminner om det som rekommenderats.

Se till att vara noga med att skriva exakt vad datorn skall användas till när du postar på forumet. Är det bara spel som gäller så skall du idag ha en i5-processor till exempel. Mest spelprestanda för pengarna. Skall du hålla på med videoredigering eller bildredigering så är en i7 bättre lämpad. Bara några exempel. Budget och användningsområde avgör.
Kom också ihåg att skriva om hur viktigt det är att datorn är tyst. Kan avgöra en del komponentval.

Visa signatur

Silverstone FT-02 Silver | Seasonic Platinum 1200W | Ryzen 9 5900X | MSI X570 Tomahawk | G.Skill Trident Z Neo RGB 32GB @ 3600/16/16/16/36 | ASUS TUF 3080 OC V2 | 1TB SSD WD SN850 | Noctua NH-D14 | Win 11 Professional | QPad MK-95 Pro | Logitech G903 | Acer X34P | Asus Xonar Essence STX | Beyerdynamic A1 | QPad QH-1339 | Beyerdynamic T1 | Fanatec CSWv2 + CSP | Thrustmaster Warthog | MFG Crosswind v3 | Xbox 360 | Xbox One | PS3 | PS4 | PS VITA | Nintendo Switch

Permalänk
Skrivet av Youjimbo:

Förresten. En gång i tiden när 3Dfx introducerade SLI så var det att varje kort renderade varannan rad om jag minns rätt. Det var lite som att man tog en skärm på 800x600 och varje kort räknade på 300x400 istället. Det fick hälften så mycket att göra. Sedan slog man ihop de två bilderna och fick ut 800x600.
Då fick man ut dubbla prestandan minus lite hantering för att splitta bilden och sedan slå ihop den igen.

Så funkar det inte idag. Den förlusten jag nämnde är större än tekniken som används idag och då vill tillverkarna inte använda sig av den. Ser inte lika bra ut då alla testare ute på webben pratar om hur bra "scaleing" är på korten. AMD lovordas för fantastisk scaling men att de gör det på bekostnad av micro stuttering är det ingen som säger. Alltså kör de på som vanligt och får finfina siffror att använda sig av i marknadsföringen.

At köra med den gamla varianten kanske inte ens fungerar så bra idag med alla avancerade funktioner. Vet inte faktiskt. Inte hängt med på några år. Var några år sedan jag blev less på allt med datorer och köpte mig en konsol och en mac istället =P

Aha ok. För mig är det nog tvärtom körde en helvetes massa konsol innan men nu har det blivit mer och mer pc, nu är det tom på den nivån att jag vill bygga egen. Är trött på överdrivet dyra "märkes datorer" som man ändå måste byta ut. Hur funkar det med gaming till Mac då, eller du kör allt på konsol då?

Permalänk
Medlem
Skrivet av Booyahkascha:

Aha ok. För mig är det nog tvärtom körde en helvetes massa konsol innan men nu har det blivit mer och mer pc, nu är det tom på den nivån att jag vill bygga egen. Är trött på överdrivet dyra "märkes datorer" som man ändå måste byta ut. Hur funkar det med gaming till Mac då, eller du kör allt på konsol då?

Var lite mer intresserad förr och byggde min senaste burk 2002 har jag för mig. Sen lacka jag ur på underhåll, uppgraderingar osv osv så gick över efter några års meckande med min gamla datorn.
Kört PS3 och Xbox för spel medan Mac:en har använts för annat, inte spel.

Fått upp tekniksuget nu på sistone så är inne på att bygga en ny burk igen. Läser en del här på forumet för att komma ikapp. Behöver se vad som hänt senaste åren så jag vet vad jag ska ha i min kommande burk. Så blir en del pluggande för min del

Edit: Har mest spelat Poxnora på min mac, men tar en paus från det nu. Blir inte att jag tittar på så många matcher eller spelar för den delen. Kommer väl tillbaka till det i sommar igen. Brukar bli så

Visa signatur

Silverstone FT-02 Silver | Seasonic Platinum 1200W | Ryzen 9 5900X | MSI X570 Tomahawk | G.Skill Trident Z Neo RGB 32GB @ 3600/16/16/16/36 | ASUS TUF 3080 OC V2 | 1TB SSD WD SN850 | Noctua NH-D14 | Win 11 Professional | QPad MK-95 Pro | Logitech G903 | Acer X34P | Asus Xonar Essence STX | Beyerdynamic A1 | QPad QH-1339 | Beyerdynamic T1 | Fanatec CSWv2 + CSP | Thrustmaster Warthog | MFG Crosswind v3 | Xbox 360 | Xbox One | PS3 | PS4 | PS VITA | Nintendo Switch

Permalänk

aaa i see what you did there Booyahkascha

Permalänk
Skrivet av Youjimbo:

Så blir en del pluggande för min del
)

Samma här som jag sagt tidigare i tråden så blir det en dator efter sommaren/slutet av den. Den jag har nu räcker till det jag kör nu, kan dock bara köra Crysis 2 på lägsta och en massa andra spel som den egentligen inte "orkar". Det lilla jag är ledig i sommar ska förhoppningsvis gå till att sola bada och umgås med kompisar. Så jag resonerar att det är lämpligast i så. =D

(JÄVLIGT OT JAG VET!)

Permalänk
Medlem
Skrivet av Booyahkascha:

Ahh då är jag med. Så om det vill sig riktigt illa med två grafikkort så kan du få riktigt dålig FPS. Iaf i den mån att ögat inte ser i ljusets hastighet.

Detta handlar i första hand inte om att ögat inte hinner med utan att skärmen uppdateras 60 gånger i sekunden, och det är exakt lika lång tid mellan dem! skapar grafikkortet 3 nya bilder innan skärmen hunnit byta bild kommer ju endast en av dem visas, sen kanske det dröjer tillräckligt länge tills nästa för att skärmen ska tvingas visa samma bild 3 gånger på rad. detta är ju extrema exempel och det var även det föregånde skrev, men min poäng är bara att det är skärmen som begränsar mer än ögat.

Permalänk

Kom på att jag inte svarat er på era inlägg angående kärnor. Jag och två kompisar lägger upp videor när vi spelar på youtube (Dvs lite "let´s play" serier). Därför är jag i behov av många kärnor för det är sjukt krävande på processorn att rendra HD-videor.