AMD FX-serien trillar ned i pris, ännu inga processorer i butik

Permalänk
Medlem

FX-8120 under 1400 SEK så kanske jag funderar på det, så länge 2500K ligger inom samma prisklass har Bulldozer ingen chans

Visa signatur

Ryzen 1700 | ASRock X370 Gaming K4 | 16 GB G.Skill Flare X | Corsair AX 750W | Noctua NH-D15 | Samsung EVO 960 | Fractal Design Define C

Permalänk
Medlem
Skrivet av klk:

Nope, bäst processor för spel är fortfarande phenom 955 då den är billigast och ger samma prestanda

i3 2100 är både bättre och framtidssäker (tm), AM3(+) är en död sockel.

http://www.anandtech.com/show/4083/the-sandy-bridge-review-in...
http://www.bit-tech.net/hardware/cpus/2011/07/01/intel-core-i...

Visa signatur

Main Core i9-9900k | NH-D15 | ROG STRIX Z390-F | 16GB DDR4 3200 MHz LPX | STRIX 2080 Ti GAMING OC | Samsung 970 EVO 1TB + Toshiba XG5 256GB | RM650X | R5 Blackout
HTPC/Barndator: Core i5-8400 | ASUS PRIME B360M-A | 16GB DDR4 2666 MHz | STRIX GTX 1070 OC | 2 x Toshiba XG5 256GB
Extradator: Core i7 870 | ASRock H55M-LE | 8GB 1600 MHz | Intel 320 120GB | HD6950 2GB | VX 550W

Permalänk
Medlem

"Vid belastning drar flaggskeppet FX-8150 cirka 80 W mer än Intels Core i7 2600K"
överklockar man båda processorerna så är det nog inte längre tal om några 80watt längre?!

Visa signatur

Gilla min Guide till sweclockers tävlingen! :D : #12510535

Min Sweclockers-låt som aldrig deltog i Jultävlingen. Enjoy! https://www.youtube.com/watch?feature=player_embedded&v=g7gof...

Permalänk
Medlem
Skrivet av mfm:

i3 2100 är både bättre och framtidssäker (tm), AM3(+) är en död sockel.

En tvåkärning med hyperthreading menar du? Vilka program är den framtidssäker för

Permalänk
Medlem

Man får hoppas att TSMC får kontraktet på Piledriver och börjar göra dem snabbt som satan eller att GF fixar till sin production.

Visa signatur

Arch - Makepkg, not war -||- Gigabyte X570 Aorus Master -||- GSkill 64GiB DDR4 14-14-15-35-1T 3600Mhz -||- AMD 5900x-||- Gigabyte RX6900XT -||- 2x Adata XPG sx8200 Pro 1TB -||- EVGA G2 750W -||- Corsair 570x -||- O2+ODAC-||- Sennheiser HD-650 -|| Boycott EA,2K,Activision,Ubisoft,WB,EGS
Arch Linux, one hell of a distribution.

Permalänk
Hjälpsam
Skrivet av Chris_Kadaver:

"Vid belastning drar flaggskeppet FX-8150 cirka 80 W mer än Intels Core i7 2600K"
överklockar man båda processorerna så är det nog inte längre tal om några 80watt längre?!

Varför överklocka? prestandan räcker mer än väl.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av klk:

En tvåkärning med hyperthreading menar du? Vilka program är den framtidssäker för

Läs testerna.

Visa signatur

Main Core i9-9900k | NH-D15 | ROG STRIX Z390-F | 16GB DDR4 3200 MHz LPX | STRIX 2080 Ti GAMING OC | Samsung 970 EVO 1TB + Toshiba XG5 256GB | RM650X | R5 Blackout
HTPC/Barndator: Core i5-8400 | ASUS PRIME B360M-A | 16GB DDR4 2666 MHz | STRIX GTX 1070 OC | 2 x Toshiba XG5 256GB
Extradator: Core i7 870 | ASRock H55M-LE | 8GB 1600 MHz | Intel 320 120GB | HD6950 2GB | VX 550W

Permalänk
Medlem
Skrivet av Ratatosk:

Varför överklocka? prestandan räcker mer än väl.

Jag tycker den är klen om man inte överklockar :S

Permalänk
Medlem
Skrivet av Ratatosk:

Varför överklocka? prestandan räcker mer än väl.

Varför uppgradera om man inte ska överklocka? En överklockad phenom II spöar väl Bulldozer i standardfrekvenser? Men visst allt är relativt. För mig räcker en tvåkärnig processor för tillfället. Men skulle jag uppgradera så skulle jag inte välja det sämre alternativet när det gäller pris/prestanda eller prestanda/strömförbrukning. Och struntar man i att överklocka lär man få uppgradera systemet oftare om man nu inte vill ja en trött dator.

Visa signatur

Gilla min Guide till sweclockers tävlingen! :D : #12510535

Min Sweclockers-låt som aldrig deltog i Jultävlingen. Enjoy! https://www.youtube.com/watch?feature=player_embedded&v=g7gof...

Permalänk
Datavetare
Skrivet av Alexei:

En sak jag undrat dock, har alla tester kunnat utnyttja 8 kärnor?

En rad tester kan definitivt INTE utnyttja alla 8-kärnor. Men varför skulle de göra detta? Det är nästan 6 år sedan Intel presenterade sin första quad core CPU (QX6700) och nästa 5 år sedan AMD presenterad sin quad core Phenom 9700.

Trots det är det väldigt få desktop-program som på ett effektivt sätt kan använda mer än en CPU-kärnan idag. Vad är sannolikheten att genomsnittsprogrammet kommer kunna använda hela 8 kärnor under dagens Bulldozer modellers livstid?

Den trista sanningen är att det är fundamentalt svårt att på ett effektivt sätt utnyttja många CPU-kärnor i de arbetslaster som en normal desktop-dator utsätts för, därför är en hög prestanda per tråd kritiskt för att CPU ska vara en bra för desktop.

En sak som jag ser som väldigt trist är att Bulldozer är väldig dålig på kompilering, trots att det är något som väldigt enkelt kan använda precis alla CPU-trådar.

Valde själv Phenom före Core2Quad en gång i tiden då Phenom av någon anledningen var snabbare på just detta, trots att Core2Quad var snabbare i det mesta andra saker. Jobbar i projekt som består av miljoner rader kod, så hur effektiv CPUn är på kompilering är väldigt viktigt för mig Idag Core i7 2600 är det självklara valet idag då den är klart snabbare än Core i5 2500.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Hjälpsam
Skrivet av Chris_Kadaver:

Varför uppgradera om man inte ska överklocka? En överklockad phenom II spöar väl Bulldozer i standardfrekvenser? Men visst allt är relativt. För mig räcker en tvåkärnig processor för tillfället. Men skulle jag uppgradera så skulle jag inte välja det sämre alternativet när det gäller pris/prestanda eller prestanda/strömförbrukning. Och struntar man i att överklocka lär man få uppgradera systemet oftare om man nu inte vill ja en trött dator.

En fråga om tycke och smak, jag är lite för lat, på köpet har jag fått väldigt få problem med mitt system.
Överklockning ger sällan stor ökning i prestanda det är mer som en bonus.
Överlag tycker jag, att man skall överklocka enbart om man tycker att det är kul, är man bara ute efter prestandan, är det sällan värt besväret.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Hjälpsam
Skrivet av LeVvE:

Jag tycker den är klen om man inte överklockar :S

Vi kan enas, om att vi inte har enats på den punkten.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av Yoshman:

Trots det är det väldigt få desktop-program som på ett effektivt sätt kan använda mer än en CPU-kärnan idag. Vad är sannolikheten att genomsnittsprogrammet kommer kunna använda hela 8 kärnor under dagens Bulldozer modellers livstid?

Det finns bättre stöd för programmerare och utveckla för flera kärnor idag (det har varit dåligt), nästa version av visual studio där betor finns och köra på har mycket bättre stöd

Permalänk
Medlem
Skrivet av Yoshman:

En rad tester kan definitivt INTE utnyttja alla 8-kärnor. Men varför skulle de göra detta? Det är nästan 6 år sedan Intel presenterade sin första quad core CPU (QX6700) och nästa 5 år sedan AMD presenterad sin quad core Phenom 9700.

Trots det är det väldigt få desktop-program som på ett effektivt sätt kan använda mer än en CPU-kärnan idag. Vad är sannolikheten att genomsnittsprogrammet kommer kunna använda hela 8 kärnor under dagens Bulldozer modellers livstid?

Den trista sanningen är att det är fundamentalt svårt att på ett effektivt sätt utnyttja många CPU-kärnor i de arbetslaster som en normal desktop-dator utsätts för, därför är en hög prestanda per tråd kritiskt för att CPU ska vara en bra för desktop.

En sak som jag ser som väldigt trist är att Bulldozer är väldig dålig på kompilering, trots att det är något som väldigt enkelt kan använda precis alla CPU-trådar.

http://images.anandtech.com/graphs/graph4955/41699.png

http://media.bestofmicro.com/M/X/310569/original/visual%20stu...

Valde själv Phenom före Core2Quad en gång i tiden då Phenom av någon anledningen var snabbare på just detta, trots att Core2Quad var snabbare i det mesta andra saker. Jobbar i projekt som består av miljoner rader kod, så hur effektiv CPUn är på kompilering är väldigt viktigt för mig Idag Core i7 2600 är det självklara valet idag då den är klart snabbare än Core i5 2500.

Skulle vara intressant hur den och andra processorer presterar i Linux med olika schedulers.

Visa signatur

Arch - Makepkg, not war -||- Gigabyte X570 Aorus Master -||- GSkill 64GiB DDR4 14-14-15-35-1T 3600Mhz -||- AMD 5900x-||- Gigabyte RX6900XT -||- 2x Adata XPG sx8200 Pro 1TB -||- EVGA G2 750W -||- Corsair 570x -||- O2+ODAC-||- Sennheiser HD-650 -|| Boycott EA,2K,Activision,Ubisoft,WB,EGS
Arch Linux, one hell of a distribution.

Permalänk
Datavetare
Skrivet av klk:

Det finns bättre stöd för programmerare och utveckla för flera kärnor idag (det har varit dåligt), nästa version av visual studio där betor finns och köra på har mycket bättre stöd

Och det finns väldigt många som fortfarande tror att det går att hitta någon magisk formel som gör det enkelt för programmerar att på ett effektivt sätt utnyttja många CPU-kärnor.

Som jag skrev ovan, det är ett FUNDAMENTALT svårt problem. Det finns inga silverkulor som kan lösa detta problem. Servers kan i många fall ganska enkelt utnyttja många CPU-kärnor då de hanterar många olika anrop som sinsemellan är mer eller mindre helt oberoende av varandra. En enskild desktop-applikation fungerar inte på det sättet, här vill man i stället minska tiden det tar att lösa ETT problem.

I vissa fall är det sekventiellt problem f(g(x)), i.e. för att beräkna f() så måste man först veta värdet på g(x), ett sådant fall KAN INTE dra nytta av flera kärnor överhuvudtaget.

I andra fall så finns det rent teoretiskt en massa parallelism, men man måste på flera stället låta två eller flera trådar synkronisera med varandra. Här ser man många nybörjare glad i hågen slänga sig in och applicera saker som TPL (Task Parallel Library för .NET), OpenMP eller Cilk+ (ramverk för C/C++ för att dela upp beräkningar på flera trådar) eller genom att använda explicit trådning. Resultatet är väldigt ofta att programmet kommer att använda två eller flera trådar, men tiden det tar att lösa problemet är ofta LÄNGRE än om man använder en tråd. Vad de då fått sig en lektion i är dels Ahmdal's law samt effekten av MESI.

Så fort två trådar som kör på en CPU med mer än en CPU-tråd måste kommunicera så måste de använda sig av assembler instruktioner som utför en så kallad minnesbarriär (assembler-instruktion med ett "lock" prefix på x86/x86_64). Sådan instruktioner är DYRA då de orsakar pipeline-stalls, ingen instruktion efter en instruktion med ett "lock" prefix kan utföras innan resultatet av instruktionen med "lock" prefix är synligt hos ALLA CPU-kärnor i systemet, i.e. finns i L3 cache på Bulldozer och Core i3/5/7 system med 1 fysisk CPU-sockel.

Problemet är alltså att många uppgifter vi gör på en desktop-dator inte KAN (på ett effektivt sätt) använda många CPU-kärnor, givet den CPU-design vi har idag.

Visst kan de ske ett genombrott i forskningen som löser detta, men även om det genombrottet gör exakt nu så kommer det dröja många år innan vi kommer se resultatet av detta i majoriteten av den programvara vi kör på desktop.

Så jag vidhåller att en CPU-design med dålig IPC är en dåligt desktop CPU och det kommer förbli så under många år framåt. Men för vissa personer så kan en CPU med många CPU-kärnor där den totala beräkningskapaciteten är riktigt hög ändå vara interessant. Faller ju själv i den gruppen då jag värderar kompileringshastighet väldigt högt, som är ett s.k. embarrassingly parallel problem, givet ett projekt där antalet filer som ska kompileras vida överstiger antal CPU-trådar.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Antielefant
Skrivet av klk:

Inte i BF3

Inget slår en i5/i7 snurrandes i 4,5 GHz i BF3, och i5/i7'an drar fortfarande mindre ström i de 4,5 GHz'en än Bulldozern gör oklockad.

Skrivet av klk:

Det finns bättre stöd för programmerare och utveckla för flera kärnor idag (det har varit dåligt), nästa version av visual studio där betor finns och köra på har mycket bättre stöd

...och det är fortfarande i praktiken en fyrkärnig processor med HT. Bulldozer har bara fyra flyttalsenheter och i princip allt idag beräknas som flyttal!
Det är en tre år gammal arkitektur som släpps tre år för sent. AMD är körda.

Skrivet av Commander:

Skulle vara intressant hur den och andra processorer presterar i Linux med olika schedulers.

Prestandaskillnaden är enligt vad jag hört knappt märkbar. Scheduling löser inte problemet - Bulldozer är inte en äkta åttakärnig processor.
Thuban presterar ofta bättre eftersom den faktiskt har sex hela kärnor med sex separata flyttalsenheter. Inte särskilt konstigt då Thuban faktiskt är en nyare konstruktion än Bulldozer.

Visa signatur

i7 8770k @ 5.2 | MSI Z370 KRAIT | 32 GB DDR4-3200 | AX850W
EVGA GTX 980 Ti Classified SLI | Acer XB270HU G-Sync

Permalänk
Medlem

Prissänkning innan man börjat sälja. Kunde dom inte jämföra med 2500/2600 innan dom började producera processorn? Man får leta länge för att hitta en större flopp, ok intels MB var inte heller någon höjdare när dom kom.

Visa signatur

Intel Core i9-12900KF 5.2GHz+ HT Custom loop
MSI RTX 4080 Gaming X Trio 3030MHz
Asus ROG Maximus Apex Z690 (WI-FI)
Corsair Dominator Platinum 6200mhz 32GB CL36
Asus 34" TUF VG34VQL1B, NZXT H9 Flow, Corsair HX1200i, 970 Evo Plus, Asus ROG Strix Flare MX, Logitech G502 PS

Permalänk
Medlem
Skrivet av Old KnotVillage:

Prissänkning innan man börjat sälja. Kunde dom inte jämföra med 2500/2600 innan dom började producera processorn? Man får leta länge för att hitta en större flopp, ok intels MB var inte heller någon höjdare när dom kom.

Flopp och flopp, läser man på anandtech så är Bulldozer ingen flopp utan en besvikelse vilket jag till stor del håller med om. Problemet idag med bulldozer är att de försöker att öka prestandan inte genom att IPC utan genom Mhz alltså göra en Intel

De har förbättrat sin Turbo Core prestanda avsevärt dock något som är boven är just hur mycket ström den slukar och hur lite den fick på sin Mhz. Tittar man på andra artiklar så ser man att GF har problem med tillverkningen vilket också skulle påvisa varför de valde att lansera server varianten av Bulldozer som inte behöver så hög klock först.

Ser man vidare så ser det ut som AMD sneglar mot TSMC för att producera Piledriver (nästa iteration av Bulldozer) om GF inte löser sina produktions problem med den nuvarande. Något AMD har varit rusktigt bra med är just iterationer på sina processorer. Tittar man på Phenom och Phenom II är det bra fin skillnad och förhoppningsvis blir det en Bulldozer II (Piledriver) och förhoppningsvis kommer den inom lagom tid så man får se lite konkurrens på CPU marknaden så intel inte kommer sträcka ut benen och kunna förlust sänka sina processorer för att få ut AMD ännu mer ur spelet. Även om vid nuvarande läge inte ser ut att ens behöva göra det.

Visa signatur

Arch - Makepkg, not war -||- Gigabyte X570 Aorus Master -||- GSkill 64GiB DDR4 14-14-15-35-1T 3600Mhz -||- AMD 5900x-||- Gigabyte RX6900XT -||- 2x Adata XPG sx8200 Pro 1TB -||- EVGA G2 750W -||- Corsair 570x -||- O2+ODAC-||- Sennheiser HD-650 -|| Boycott EA,2K,Activision,Ubisoft,WB,EGS
Arch Linux, one hell of a distribution.

Permalänk

NU ligger 8120 på samma pris som en 2500k, utan att ens ha lanserats än. Det kanske blir något ändå...

Permalänk

Känns fortfarande lite för högt. Jag ångrar inte det minsta att jag valde en 2500K.

Visa signatur

| Asus Maximus IV Gene-Z | Intel i5 2500K @ Stock | Asus GTX 580 DCII | Corsair Vengeance 8 GB | Crucial M4 64 GB | Samsung F3 1000 GB |
| Corsair AX750 | Fractal Design Arc Mini + 2x Silverstone AP-121| Mionix Naos 3200 | Microsoft Sidewinder X4 | LG M227WDP |

Permalänk
Medlem

Kanske Athlon II x4 631 Llano Socket FM1, Kan vara nått för ett nytt budgetbygge, nu när det verkar som om de fyrkärniga Bulldoozrarna underpresterar http://www.sweclockers.com/forum/54-amd/1049879-athlon2-x4-63...

Visa signatur

AMD_PERAs Dator Galleri
Jag har försöker att hitta bra delar billigt: AMD, ASUS, MSI, Fractal Design, Corsair, Zalman, Noctua, Kingston, Seasonic, WesternDigital, Sapphire mfl.
Skitbra -sa Bill, Brakskit -sa Bull...
Det blir nog bra när det blir färdigt...Nu slipper jag intel, när RYZEN har kommit...

Permalänk
Medlem
Skrivet av Yoshman:

Och det finns väldigt många som fortfarande tror att det går att hitta någon magisk formel som gör det enkelt för programmerar att på ett effektivt sätt utnyttja många CPU-kärnor.

Nej

Skrivet av Yoshman:

Som jag skrev ovan, det är ett FUNDAMENTALT svårt problem. Det finns inga silverkulor som kan lösa detta problem.

Så svårt är det inte och det har kommit en del bibliotek samt mer är på gång

Skrivet av Yoshman:

Servers kan i många fall ganska enkelt utnyttja många CPU-kärnor då de hanterar många olika anrop som sinsemellan är mer eller mindre helt oberoende av varandra. En enskild desktop-applikation fungerar inte på det sättet, här vill man i stället minska tiden det tar att lösa ETT problem.

Om en desktopapplikation är i behov av mycket processorkraft så är det oftast inga problem och tråda upp det. Det är inget självändamål i att tråda upp arbeten.

Snarare handlar det om att dagens programmerare inte håller speciellt hög kvalitet

Permalänk
Medlem
Skrivet av Zcenicx:

...och det är fortfarande i praktiken en fyrkärnig processor med HT. Bulldozer har bara fyra flyttalsenheter och i princip allt idag beräknas som flyttal!
Det är en tre år gammal arkitektur som släpps tre år för sent. AMD är körda.

Titta igenom denna filmen så förstår du varför Intel satsar så extremt mycket på integrerad grafikkprocessor i deras ivy brige. Personligen tror jag trenden är just att flyttalsdelen minskar i betydelse eftersom ett grafikkort klarar väldigt mycket mera

Längre variant - http://channel9.msdn.com/posts/AFDS-Keynote-Herb-Sutter-Heter...

Permalänk
Medlem

Det beror på vad man gör på datorn. Glöm inte att spel som GTA IV och Bad Company 2 nyttjar 4 kärnor och glöm inte allt arbete som utförs på datorn, Allt över Office använder ofta flera trådar.

Därför ser jag bara i3 som en CPU för HTPC eller för äldre spel.

Visa signatur

Sex kärnigt på modermodemet och ett gäng 680s i hårddisken

Permalänk
Medlem
Skrivet av Pimpim666:

Det beror på vad man gör på datorn. Glöm inte att spel som GTA IV och Bad Company 2 nyttjar 4 kärnor och glöm inte allt arbete som utförs på datorn, Allt över Office använder ofta flera trådar.

Därför ser jag bara i3 som en CPU för HTPC eller för äldre spel.

Den har hyperthreading så det blir fyra "kärnor", det tillsammans med Sandy Bridges överlägsna arkitektur gör att en i3 2100 är snabbare än en 955 i mycket. Med 1155 kan man även uppgradera till 2500K, 2600K eller lämplig uppföljare i Ivy Bridge-familjen.

Visa signatur

Main Core i9-9900k | NH-D15 | ROG STRIX Z390-F | 16GB DDR4 3200 MHz LPX | STRIX 2080 Ti GAMING OC | Samsung 970 EVO 1TB + Toshiba XG5 256GB | RM650X | R5 Blackout
HTPC/Barndator: Core i5-8400 | ASUS PRIME B360M-A | 16GB DDR4 2666 MHz | STRIX GTX 1070 OC | 2 x Toshiba XG5 256GB
Extradator: Core i7 870 | ASRock H55M-LE | 8GB 1600 MHz | Intel 320 120GB | HD6950 2GB | VX 550W

Permalänk
Medlem
Skrivet av Zcenicx:

Inget slår en i5/i7 snurrandes i 4,5 GHz i BF3, och i5/i7'an drar fortfarande mindre ström i de 4,5 GHz'en än Bulldozern gör oklockad

Hur kan du säga det? Spelet har inte kommit än

Visa signatur

CITERA OM DU VILL HA SVAR! :)

Permalänk
Medlem
Skrivet av Broken-arrow:

Hm, viken uppgradering ger egentligen pris per krona?
http://www.inet.se/kundvagn/visa/1008438/2011-10-18
http://www.inet.se/kundvagn/visa/1008465/2011-10-18

Det skiljer ca 1000kr mellan amd och Intel.
Vad är bäst som sagt om man tänker pris per krona.

Det jag menar är att min 6000+ har gått i 3 år utan att flaska (men i bf 3 den slog den i taket och laggade djävulskt).

Så jag hoppades väldigt mycket på bulldozer. Vill ju ha bra all ruond prestanda och den här har gett tillräckligt för mina behov (dock vill jag ha mycket kräm som räcker länge).

Pris per krona? Det blir 1 tror jag :S

Skämt åsido, som jag fattade det så är det "value" du är ute efter, då är phenomriggen helt klart bäst, intelproppen ÄR bättre men den är 58% dyrare och ger INTE en ökning i prestanda med 58%

Det är nu var och en borde göra sin EGNA bedömningar om vad som bäst passar personens behov. Bara för att intel har den vassaste proppen på marknaden just nu så betyder det inte att intel regerar på alla segment och för alla användningsområden.

Värt att tänka på är att man inte klarar många spel om man bara tar de komponenter som man får mest för, det är oftast ultrabilliga i low-segmentet.

Ifall det är relevant för diskussionen så sitter jag på en intelpropp och jag är ingen fanboy av vardera läger, håll diskussionen på en vuxen nivå.

Visa signatur

CITERA OM DU VILL HA SVAR! :)

Permalänk
Medlem
Skrivet av mfm:

Den har hyperthreading så det blir fyra "kärnor", det tillsammans med Sandy Bridges överlägsna arkitektur gör att en i3 2100 är snabbare än en 955 i mycket. Med 1155 kan man även uppgradera till 2500K, 2600K eller lämplig uppföljare i Ivy Bridge-familjen.

HT gör cpun söligare än utan HT i många fall. Ett bra exempel är 3D Studio Max där varje kärna blir tilldelad resurser och nyttjas till 100%. Då om HT måste växla mellan två trådar på varje kärna blir bara halva jobbet gjort på samma tid och varje kärna får mindre resurser, samt varje gång en CPUn växlar mellan trådarna står båda trådarna stilla.
Enda gången man tjänar på HT är när datorn har möjlighet att växla mellan trådar där CPUn måste vänta eller när utför liknande uppgifter på två trådar.

Hyper threading kommer aldrig kunna ersätta en riktig kärna i cpu intensiva program.

Visa signatur

Sex kärnigt på modermodemet och ett gäng 680s i hårddisken

Permalänk
Datavetare
Skrivet av klk:

Titta igenom denna filmen så förstår du varför Intel satsar så extremt mycket på integrerad grafikkprocessor i deras ivy brige. Personligen tror jag trenden är just att flyttalsdelen minskar i betydelse eftersom ett grafikkort klarar väldigt mycket mera

Du hävdar att dagens programmerare inte håller speciell hög kvalité och sedan postar du en video som visar att du absolut inte har förstått att det finns en rad flyttalsintensiva arbetslaster som en GPU inte är det minsta effektiv på att utföra.

Vet du varför en GPU kan ha en sådan enorm GFLOP siffra? Den kan bara användas till den klass av problem som man kallar "embarrassingly parallel". Varför? Jo en "stream processor" (för att använda AMD termer) är inte cache-coherent med de andra "stream processorerna".

Vad betetyder det?
1. att man verkligen får dubbelt så hög både teoretiskt och praktiskt beräkningskapacitet om man dubblera antalet "stream processorer"
2. att alla problem som har punkter där man måste synkronisera data mellan trådar är i praktiken extremt ineffektivt att köra på detta system

För att se det på ett annat sätt, ett icke cache-coherent chip med N st "processorer" är ungefär som att ha N st separata PC system som är ihopkopplade via ett nätverk. I.e. varje del kan utföra beräkningar väldigt fort, men kommunikation mellan delarna är (relativt sätt) långsamt.

I en vanlig CPU är alla CPU-trådarna cache-coherenta med varandra, vilket betyder att det är effektivt att dela data mellan olika trådar (problemet är att skydda accessen på ett sätt som inte ställer till med prestanda-problem, något som är betydligt svårare i verkligheten än det kanske verkar). Det betyder att man kan hantera problem där man måste synkronisera mellan trådar, men det betyder också att det är svårt att skala upp till väldigt många CPU-kärnor lägger extrem belastning på cache-coherens trafiken (som till slut blir en flaskhals).

I videon gjorde man en simulering med N kroppar där varje annan kropp påverkar rörelsen av varje specifik kropp, i.e. för varje kropp måste man utföra N-1 beräkningar som innefattar hur de andra påverkar denna kropp. Det fina med detta problem är att jag kan räkna ut varje effekten på en kropp under en viss "frame" helt oberoende av hur någon annan kropp kommer att påverkas, i.e. det är ett "embarrassingly parallel". Ray-tracing är också ett sådant problem, varje pixels färg kan beräknas helt oberoende av alla andra pixels, varje cell i resultatet av en matris-multiplikation kan också beräknas helt oberoende av värdet i alla andra celler.

Så alla dessa problem kan (och bör) lösas på en APU/GPU.

Men många andra problem är inte av den typen. Ett populärt (men ur tidskomplexitets-synpunk horribelt) sätt att beräkna fibonacci-serien är genom recursion
F(0) = 0
F(1) = 1
F(N) = F(N-1) + F(N-2)

Denna går att göra parallel i t.ex. C så här

int fib(int n) {
int n1;
int n2;
if (n <= 1)
return n;
cilk_spawn n1 = fib(n-1);
n2 = fib(n-2);
cilk_sync;
return n1 + n2;
}

Vad detta säger är att "n1 = fib(n-1)" kan (men måste inte) utföras parallellt med allt fram till "cilk_sync;", vilket i detta fall betyder beräkna "fib(n-2)". Givet någorlunda stort värde på n (typ 40-50) kommer resultera i att beräkningen skalar helt linjärt med antal CPU-kärnor (riktiga kärnor). I alla fall upp till de 4-8 stycken vi har i dagens datorer. Men detta problem är ändå inte "embarrassingly parallel" då man konstant delar upp beräkningar för att sedan kombinera resultaten. Så detta är i praktiken extremt ineffektivt att köra på en APU/GPU och det har inget att göra med att vi använder heltal, alla typer av beräkningar där man delar upp och sedan kombinerar resultatet fungerar extremt dåligt på en APU/GPU.

Så visst satsar Intel en hel del på GPUn i deras framtida CPUer. Men den kommer knappast ersätta FPUn under överskådligt tid, GPUn är ett komplement. Inte ens SSE/AVX kan helt ersättas med GPU, även om det är en hel del överlapp mellan vad man effektivt kan använda SSE/AVX till och vad man kan använda en GPU till. Men SSE/AVX har den stora skillnaden att de körs på en cache-coherent CPU.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Du hävdar att dagens programmerare inte håller speciell hög kvalité och sedan postar du en video som visar att du absolut inte har förstått att det finns en rad flyttalsintensiva arbetslaster som en GPU inte är det minsta effektiv på att utföra.

Kan du ge exempel?

Snälla, korta ner dina inlägg (filtrera bort svamlet)