Intel en hel processnod före konkurrenterna

Permalänk
Medlem
Skrivet av Luxor ABC80:

Ursäkta men hur står det till ? Fråga till en massa konspirations teoretiker här.

Lite fakta:

1. Både Intel och AMD bildades av avhoppare från Farchild Semi Cunduktors. De ville utveckla sina egna koncept och inte vara styrda av Farchilds lite "trångsynta" förtags ledning. Ett friare tankesätt inom företag var på modet i USA på slutet av 60-talet och början 70-talet. Speciellt in högteknologiska företag. Xerox park var ett annat företag (eller rättare sagt avdelning inom ett företag). Och Xerox park har betydit mer för datorbranchen än Intel eller Microsoft. Musen, användars gränssnittet, Intra/internet med chatt och mail är några av deras ideer.

2. Idag finnes advancerade kretsar i symaskiner, kylskåp, tvättmaskiner ja till och med i brödrostar. Givetvis så finnes advancerade kretsar inom vapen indrustrin.

3. En stor orsak till den till utvecklingen av micro datorer (PC, Mac, Amiga mm) berodde på Apollo projektet. Där stäldes krav på liten storlek och hög pålitlighet under speciella omständigheter. Och väl när gång snöbollen hade börjat rulla så dröjde det inte länge förren det var en lavin. Och som fortfarande är igång.

4. Israel är ett land som systematiskt har satsat på högteknologi, de började det direkt efter sin födelse 1948. Orasak: det ger höga inkomster per invånare som ger höga skatte intäkter.

5. 1914 var 50Kg tung kulspruta högteknologi. Idag är en 10Kg tung kulspruta som skjuter snabbare och bättre än 1914 version low tech! På 1600-talet var flintlåsbössan högteknologi. På 700-talet var det arabiska kavalleriet högteknologi pga sina stigbyglar. Dagens high tech är morgon dagens low tech!

Jag har svårt att se var din fråga och poäng var,,,,

Permalänk
Inaktiv
Skrivet av Schnitz:

Det känns ändå lite fail alltihop. Ivy Bridge hade behövt ha minst dubbelt så snabb prestanda som en tidig i5/i7 för att Moore's lag ska upprätthållas.

Moors lag pratar om antalet transistorer per ytenhet. Inte hur snabb en CPU är. Sedan är den absurd då det inte går att förminska transistorer i all oändlighet. Så att kalla den lag är lite överdrivet. Låter nästan som kemister och biologer som kallar något för regel så fort det är en rak linje mellan två punkter.

Permalänk
Medlem
Skrivet av anon127948:

Moors lag pratar om antalet transistorer per ytenhet. Inte hur snabb en CPU är. Sedan är den absurd då det inte går att förminska transistorer i all oändlighet. Så att kalla den lag är lite överdrivet. Låter nästan som kemister och biologer som kallar något för regel så fort det är en rak linje mellan två punkter.

fast den har stämt rätt bra. sen kan man ju alltid fråga sig om det var ett resultat av en profetisk koncensus eller eller tvärtom. kommer verkligen Jesus tillbaka? ja, och det vet vi för det har ännu inte motbevisats.

Skrivet av Lordsqueak:

Påminner mig om denna http://xkcd.com/984/

illustrativ sammanfattning..

Skrivet av m0rk:

Jag har svårt att se var din fråga och poäng var,,,,

tror den ifrågasatte nått annat..

Skrivet av Luxor ABC80:

Ursäkta men hur står det till ? Fråga till en massa konspirations teoretiker här.

Lite fakta:

1. Både Intel och AMD bildades av avhoppare från Farchild Semi Cunduktors. De ville utveckla sina egna koncept och inte vara styrda av Farchilds lite "trångsynta" förtags ledning. Ett friare tankesätt inom företag var på modet i USA på slutet av 60-talet och början 70-talet. Speciellt in högteknologiska företag. Xerox park var ett annat företag (eller rättare sagt avdelning inom ett företag). Och Xerox park har betydit mer för datorbranchen än Intel eller Microsoft. Musen, användars gränssnittet, Intra/internet med chatt och mail är några av deras ideer.

2. Idag finnes advancerade kretsar i symaskiner, kylskåp, tvättmaskiner ja till och med i brödrostar. Givetvis så finnes advancerade kretsar inom vapen indrustrin.

3. En stor orsak till den till utvecklingen av micro datorer (PC, Mac, Amiga mm) berodde på Apollo projektet. Där stäldes krav på liten storlek och hög pålitlighet under speciella omständigheter. Och väl när gång snöbollen hade börjat rulla så dröjde det inte länge förren det var en lavin. Och som fortfarande är igång.

4. Israel är ett land som systematiskt har satsat på högteknologi, de började det direkt efter sin födelse 1948. Orasak: det ger höga inkomster per invånare som ger höga skatte intäkter.

5. 1914 var 50Kg tung kulspruta högteknologi. Idag är en 10Kg tung kulspruta som skjuter snabbare och bättre än 1914 version low tech! På 1600-talet var flintlåsbössan högteknologi. På 700-talet var det arabiska kavalleriet högteknologi pga sina stigbyglar. Dagens high tech är morgon dagens low tech!

1. två företag varav det ena har svastikans som angulärt inriktade komponenter uppdelad i 2 separerade delar i namnet, och det andra har den i loggan.

2. och den tekniken kommer väldigt ofta som en sidoeffekt av militär teknologi. inte för att det är nått konstigt med det, men syftet med överföringen är delvis att ge goodwill till den industrin och öka folkets stöd för mer militärmakt. detta är ett tydligt inslag särskilt just i amerikansk företagskultur där militaristiska analogier är extra tydligt framträdande i språkbasen.

3. och vad var de kombinerade trådarna som satte bollen i rullning?

4. ganska strax efter kriget ja så invaderar segermakterna land omgivet av stora mängder råmaterial till tex just processorer. tillfällighet igen?

5. du missar ju helt att även en "10 kg tung kulspruta" idag också oftast är just datorstyrd, med en rad betydligt mer avancerad teknologi än själva den datorn som tekniken är nödvändig för kopplad till sig. men oavsett om du inte räknar den biten som en viktig del av kulsprutans grundfunktion (som av rätt naturliga skäl inte har ändrats så mycket nej..) så har det hänt en del i metallurgin och mekaniken också sen standardlösning för en överhettad spruta var för alla att öppna byxorna.

(det där med stigbyglarna var dock en intressant detalj)

Visa signatur

Operativsystemet som löser nästan alla problem: Mint

Permalänk
Medlem
Skrivet av anon127948:

Moors lag pratar om antalet transistorer per ytenhet. Inte hur snabb en CPU är. Sedan är den absurd då det inte går att förminska transistorer i all oändlighet. Så att kalla den lag är lite överdrivet. Låter nästan som kemister och biologer som kallar något för regel så fort det är en rak linje mellan två punkter.

Japp, Moore's lag handlar om att dubbla antalet transistorer. Sedan har Intel själva uttalat en uppskattning om dubblad chip-prestanda (genom både ökat antal transistorer + effektivare chip) var 18:e månad som man ofta (felaktigt) refererar till som Moore's lag. Jag vet mycket väl att det absolut inte är någon "lag", men till saken hör att det finns ett och annat klappträ på forumet som tror att utvecklingstakten ständigt accelererar på alla fronter och de kan behöva tas ner på jorden och inse att precis allt inte utvecklas så snabbt som det en gång gjorts.

Visa signatur

Gentoo Desktop: Ryzen 3600X | 32 GB
Server: Intel G7400T
Commodore 64C + 1541u2

Permalänk
Entusiast
Skrivet av Yrch:

Jo precis så är det ju för så kallade "naturliga monopol", typ el- och telenät, gas-, avlopp-och vattenledningar. Stordriftsfördelarna är ju som du skriver markanta i dessa typer av verksamheter. (Och marginalkostnaden minskar ju fler som ansluter sig till det). Så visst är det som du säger i vissa fall. Ofta är det ju "samhällsnyttiga" verksamheter med. Historiskt sett har de ju ofta drivit av stat/kommun medan man nu börjat avrelgera dessa marknader med (med varierande framgång). Hur man skall driva ett naturligt monopol finns det ju lite olika modeller för men dessa "samhällsnyttiga" verksamheter är ju sällan vinstmaximerande. Att Intel skulle agera så att "markanta stordriftsfördelar leder till låga priser istället" är väl att betrakta som helt osannolikt.

Har dock svårt att se att CPU-tillverkning faller i kategorin "naturliga monopol". Pratar vi ekonomisk teori passar ju snarare den andra huvudorsaken till att monopol uppstår (och bibehålls) in, höga "barriers to entry".
Och på CPU-marknaden är väl "barriers to entry" snarast att betrakta som enorma då denna marknaden verkligen är "investerings- och kompetenstung" om jag lånar ditt ordval

Slänger och slänger vet jag inte heller, går AMD i konkurs blir det ju ett monopol? Och Intel har ju redan ett de facto monopol när det gäller high-end-CPUer. (Och övre mellanklassen med).

Men skall skriva ett lite bättre svar när jag inte är så trött.

När du säger elmarknaden, menar du då elmarknadne som den var tidigare innan avregleringen för som den ser ut idag är det ett dåligt exempel.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Avstängd
Skrivet av Yoshman:

SPARC bra som general purpose CPU, LOL.

Du inser att SPARC Niagara T1-T3 är en in-order dual issue design va? Vilka andra CPU:er har vi som har liknande teknik? Tja vi har Pentium (den första), Atom samt ARM11 och ARM Cortex A8.

Du har missat ganska mycket information om Niagara. Om du tror att det är en vanlig cpu så har du käpprakt fel. Niagara är helt unik och liknar ingen annan cpu på marknaden. Niagara är en revolution, det är inte evolution.

Varför tror du att en enda 1.6GHz Niagara är lika snabb som 13st (tretton) CELL cpuer på 3.2GHz på string pattern matching? 13st CELL, det är totalt 41.6 GHz. Hur kan en "vanlig" cpu på 1.6GHz vara lika snabb som 42GHz? Du inser inte att något är på tok på din bild av Niagara? Det finns inte en chans att en 1.6GHz ARM / Atom / Pentium kan matcha 42GHz CELL cpuer. Något är fel (på din världsbild höll jag nästan på att säga). En enda GHz för Niagara, motsvarar 26 GHz för IBM CELL.

Hur kan en enda Niagara server med fyra st 1.6GHz Niagara cpuer, matcha sex st IBM POWER servrar med totalt 14 st POWER6 cpuer på 5GHz, när vi talar SIEBEL v8 benchmarks? Dvs, Niagara använder totalt 6.4GHz, och IBM använder totalt 70GHz. En enda GHz för Niagara motsvarar 11 GHz för IBM POWER.

På vissa work loads, har Niagara varit 25x snabbare än Intel x86. Inte 25% snabbare, utan 25 GÅNGER. Företag har bytt ut sina x86 servrar mot en enda Niagara server.

Så... hur var det nu, Niagara är en helt "vanlig" in-order dual issue cpu, med prestanda i klass med ARM eller Atom eller Pentium 1, eller hur? Knappast.

Vet du på vilket sätt Niagara är unik? Inte? Låt mig då berätta. En cpu under full load, under max load, idlar ca 50% av tiden. Cpun väntar på data från RAM, cpun får cachemissar. Detta gäller ALLA cpuer, och har alltid varit så. Alla cpuer får cache missar oavsett hur stora caches. T.ex. IBM z196 Mainframe cpun på 5.26GHz har ca 200 MB = 0.2 GB cache och ändå är IBMs stordator cpuer flera ggr långsammare än en high end x86 cpu på 2,4GHz. Så att ha stora caches hjälper inte. En cpu under max load, väntar på data ca 50% av tiden. Det har alltid varit så, och detta är en väl förborgad hemlighet som cpu tillverkarna inte basunerar ut. Cpuerna har komplex pre fetch logik, enorma caches, etc - allt för att minska cachemissarna.

Men vet du hur mycket Niagara idlar under full load? 5-10%. Det är helt unikt och ingen har lyckats med detta tidigare. Aldrig förr. En Niagara väntar nästan aldrig på cache missar, den får aldrig cachemissar. Det är ett av skälen till att en 1.6GHz Niagara är 10 ggr så snabb som x86 eller IBM POWER6 cpuer. Detta är REVOLUTION. Inte evolution. Detta är unikt och ingen annan cpu kan göra detta.

Läs på lite mera om Niagara, sen kan du ju fundera på hur en Niagara kan vara lika snabb som 10 andra high end cpuer. Observera att detta gäller somliga benchmarks, inte alla benchmarks. Niagara är traditionellt ingen general purpose cpu, nej. Niagara är grymt snabb på det den är designad för. Enormt mycket snabbare än andra cpuer. Men den börjar gå mot general purpose, bli det mer och mer i kommande generationer.

Citat:

Edit: när jag ändå är igång. SPARC kommer nog aldrig kunna ha riktigt hög IPC då det är ett instruktions-set som har dålig kod-densitet, framförallt jämfört med x86 och ARM. Det betyder att givet en viss storlek på cache så kommer alltid SPARC få mer missar än x86 och ARM.

Nu tycker jag du är lite luddig här. Det är stor skillnad på SPARC och på Niagara. Pratar vi SPARC så ligger den efter andra cpuer, det är främst Fujistu som utvecklar SPARC. Inte mycket har satsats där på senare tid. Dock har nu Fujitsu ryckt upp sig och utvecklat en SPARC som sitter i världens snabbaste super dator, Fujitsu "K". Så SPARC är en general purpose.

Niagara är en nischad cpu, och kan göra somliga saker grymt mycket snabbare än andra cpuer. Men iom T4 så är niagara inte lika nischad längre. T.ex när du pratar om att "SPARC kommer få mycket cache missar": Du vet väl att Niagara har typ 256KB cache - 1MB cache, och ändå får aldrig cachemissar, den väntar på data 5-10% av tiden, då den kör full load. Jfr det med Intel och POWER som har 24-32 MB cache och ändå väntar på data 50-60% av tiden, då de kör full load. Så Niagara får inte cachemissar, men det får alla andra traditionella cpuer. Så du har fel. Vad föredrar du, en enorm cache och cachemissar hälften av tiden, eller mycket liten cache och ändå aldrig cachemissar? Niagara är okänslig för cachemissar. Varför? Jo, unik konstruktion.

Citat:

AMD, Intels och IBMs CPUer har långt mycket bättre IPC än SPARC; men de har inte alls lika många CPU-trådar.

Spelar det någon roll hur hög IPC Niagara har, om den aldrig får cachemissar? Visst kanske Intel och POWER har högre IPC, men de får ju cachemissar 50% av tiden. Vad föredrar du? Hög IPC och massa cachemissar, eller lägre IPC och aldrig cachemissar?

Citat:

SPARC T1-T4 suger som desktop CPU, den suger faktiskt på det mest utom saker som innefattar MASSOR med I/O och framförallt saker där man normalt sett har massor med samtidiga transaktioner, något SPARC hanterar väldigt bra p.g.a extremt många CPU-trådar. Databaser passar denna perfekt på denna beskrivning, vilket förklarar varför SPARC är en så bra match för Oracle

Vet du att IBM hånade Niagara och sa att Niagara är skräp. Varför? Jo, därför att Niagara har många svaga cores. Det enda raka, är att ha få starka cores. Typ 1-2 cores på 7-8GHz - det är framtiden! Det är bättre att ha en stark core, än många svaga. Hur motiverade IBM detta? Jo IBM sa: "databaser körs bäst på starka cores, därför är Niagara skit och POWER är bäst". Och som vi alla vet, är ju databaser det viktigaste systemet som finns i ett företag. Databasen är själva hjärtat i ett företag, den har all info. Utan databas, ingen verksamhet.

Senare gjorde IBM helt om, och slutade med GHz racet, och switchade om till många cores racet istället. Det race, som SUN inledde för längesen med Niagara. Niagara hade 8 cores, när alla andra hade 1-2 cores. 8 cores var helt sjukt många cores på den tiden. Senare släppte IBM cpuer som inte alls hade 1-2 cores på 7-8 GHz, utan istället hade IBM många lägre klockade cores, precis som Niagara. Som IBM hånade. Varför har inte POWER7 en enda core på 8 GHz? Nej, POWER7 har många lägre klockade cores. Men helt plötsligt är många cores, det enda raka, och IBM har gjort "något nytt och revolutionerande och innovativt". Bull shit, säger jag. När SUN gör något så var det skit, när IBM gjorde samma sak senare, så var det "innovativt och nytt"?

Så nu är ju Niagara T4 grym på att köra databaser, den är mer än dubbelt så snabb som IBM POWER7 på det enligt benchmarks. Det måste ju betyda att T4 har starka cores? Precis det du inte säger att den har?

Citat:

Det fanns en SPARC CPU som gick under namnet "Rock" som skulle få transactional memory men den CPUn såg aldrig dagens ljus. Transactional memory kan göra allt som man kan göra med "load link / store conditional" eller dubbel compare-and-swap men det möjliggör även en rad andra saker. Nu blir Haswell först med den tekniken i stället.

Fel igen. Niagara T5 kommer detta år, och den kommer ha transactional memory. T5 blir först. SUN försökte få in det i sin ROCK cpu, men den lades ned. De bästa bitarna hittar vi i kommande Niagara cpuer. Som T5. Den kommer ha 16 cores, och skala till 8 cpuer. Och den kommer knäcka. Om 3 år kommer 16.384 trådars Solaris server. Den kommer krossa.

Citat:

Så SPARC kommer bara vara bra (jämfört med x86) på saker där varje transaktion hanteras av EN tråd och man har MASSOR av sådana transaktioner. Helst ska man även göra massor med I/O och/eller använda så stora working-set att ingen cache i världen är stor nog. Åter igen, ingen general purpose CPU.

"Ingen cache i världen är stor nog". Vet du vad det låter som? Det låter som server work loads. Server work loads betjänar typiskt många 1000 klienter samtidigt, och varje klient har massa data. Ingen cache kan hålla alla klienters data. Ingen cache räcker till det. Men såna workloads är inget problem för Niagara, för Niagara får aldrig cachemissar. Niagara är alltså en server cpu, eftersom den inte behöver stor cache för att prestera bra.

IBM POWER och x86 cpuer får sin prestanda till stor av sin enorma cache. Såna här cpuer måste få in all data i sin cache för att få upp prestanda, annars suger de. Vad händer när de försöker betjäna 1000 klienter som swappar data in och ut i cachen hela tiden? Cachen thrashar och prestanda sjunker ned till 5% eller så. Mao, det är typiskt desktops det. Det är desktops som måste få in ett litet data i cachen, som cpun kan ligga och bearbeta. Typ, en liten for loop som körs gång på gång. Om det istället är många tusen klienter, så går all det datat aldrig in i cachen. Kort sagt, Intel och POWER är desktop cpus. Niagara är server cpu.

Så du säger att Niagara suger? Andra säger att den är innovativ.

Permalänk
Entusiast

Måste säga att Saddam har ett intressant sätt att räkna. Visste inte att man jämförde processorer med att addera frekvensen. Borde man inte addera frekvensen per kärna också då och inte bara per fysisk CPU?

Sen verkar han missa att T3 och T4 är SPARC, hur mycket han än verkar vilja göra skillnad på det så kör båda SPARC v9. De heter till och med SPARC T3 och SPARC T4. Niagara är bara utvecklingsnamnet som dessutom verkar vara nedlagt.

Vore också intressant att veta vilken processor han refererar till eftersom han inte verkar göra någon skillnad på T3 och T4 trots att det är stor skillnad rent tekniskt.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Avstängd
Skrivet av Zotamedu:

Måste säga att Saddam har ett intressant sätt att räkna. Visste inte att man jämförde processorer med att addera frekvensen. Borde man inte addera frekvensen per kärna också då och inte bara per fysisk CPU?

Om man ska vara strikt ordentlig, så går det inte att räkna ihop GHz. Det är ju självklart. Men om man gör en mycket grov uppskattning så går det. Men det är kanske bättre att räkna per kärna också, precis det du föreslår. Du är välkommen att göra det om du vill posta de siffrorna.

Det jag vill säga är att en Niagara GHz är mycket mer effektiv än t.ex. IBM POWER GHz. Om Niagara använder totalt 5GHz, och IBM använder 50GHz - ja vilken cpu t.ex. drar mest watt? Om du använder en Niagara cpu, eller tvingas använda 10st andra cpuer - vilken är mest effektiv? Detta är bara en grov uppskattning mellan samma benchmarks. Om man kör exakt samma workload på olika cpuer, men Niagara använder en cpu, och andra cpuer använder 10st - ja då tycker jag man inte kan säga att Niagara suger?

Citat:

Sen verkar han missa att T3 och T4 är SPARC, hur mycket han än verkar vilja göra skillnad på det så kör båda SPARC v9. De heter till och med SPARC T3 och SPARC T4. Niagara är bara utvecklingsnamnet som dessutom verkar vara nedlagt.

Man skiljer mellan SPARC och Niagara, fastän Niagara implementerar SPARC arkitekturen. SPARC är en traditionell cpu i stil med IBM POWER och x86; dvs höga klockfrekvenser, stora cacheminnen, få cores, etc

Niagara är en unik cpu design som inte liknar någon annan på marknaden: låga klockfrekvenser, mycket små cachen, många cores, etc.

Men nu börjar gränserna suddas ut lite iom T4 som har hög GHz, och samtida x86 som på senare tid faktiskt börjar få 8-10 cores. Men Niagara har ju haft 16 cores ett tag innan. Senare kommer väl x86 och POWER få 16 cores, men då har Niagara 32 cores eller 64 cores.

Poängen är att när man säger SPARC, så menar man de gamla SPARC cpuerna som inte är vidare bra, då är x86 och IBM POWER bättre. När man säger Niagara, så menar man T1-T4 och det är ett helt annat djur.

Citat:

Vore också intressant att veta vilken processor han refererar till eftersom han inte verkar göra någon skillnad på T3 och T4 trots att det är stor skillnad rent tekniskt.

T3 och T4 tillhör samma familj av cpuer. Jag försöker prata om Niagara vs de traditionella cpuerna: x86 / POWER / Itanium / etc. Det var nån som jämförde Niagara med ARM och Pentium 1 cpuer, jag visade att det inte stämmer.

Min poäng är att om man vill se revolution, så kommer den antagligen från Niagara lägret. Inte från POWER, inte från x86, inte från Itanium, inte från SPARC. Niagara liknar inget annan cpu och kan vara 10x så snabb som traditionella cpuer på vissa workloads. Att vara 10x snabbare, är revolution. Intels nya cpuer är typiskt 10% snabbare än de gamla, det är inte revolution. Vill du se radikala nya ideer, vill du se 10x bättre prestanda från en cpu till nästa cpu, så får du vända dig till Niagara.

Permalänk
Entusiast
Skrivet av saddam:

Om man ska vara strikt ordentlig, så går det inte att räkna ihop GHz. Det är ju självklart. Men om man gör en mycket grov uppskattning så går det. Men det är kanske bättre att räkna per kärna också, precis det du föreslår. Du är välkommen att göra det om du vill posta de siffrorna.

Det jag vill säga är att en Niagara GHz är mycket mer effektiv än t.ex. IBM POWER GHz. Om Niagara använder totalt 5GHz, och IBM använder 50GHz - ja vilken cpu t.ex. drar mest watt? Om du använder en Niagara cpu, eller tvingas använda 10st andra cpuer - vilken är mest effektiv? Detta är bara en grov uppskattning mellan samma benchmarks. Om man kör exakt samma workload på olika cpuer, men Niagara använder en cpu, och andra cpuer använder 10st - ja då tycker jag man inte kan säga att Niagara suger?

Man skiljer mellan SPARC och Niagara, fastän Niagara implementerar SPARC arkitekturen. SPARC är en traditionell cpu i stil med IBM POWER och x86; dvs höga klockfrekvenser, stora cacheminnen, få cores, etc

Niagara är en unik cpu design som inte liknar någon annan på marknaden: låga klockfrekvenser, mycket små cachen, många cores, etc.

Men nu börjar gränserna suddas ut lite iom T4 som har hög GHz, och samtida x86 som på senare tid faktiskt börjar få 8-10 cores. Men Niagara har ju haft 16 cores ett tag innan. Senare kommer väl x86 och POWER få 16 cores, men då har Niagara 32 cores eller 64 cores.

Poängen är att när man säger SPARC, så menar man de gamla SPARC cpuerna som inte är vidare bra, då är x86 och IBM POWER bättre. När man säger Niagara, så menar man T1-T4 och det är ett helt annat djur.

T3 och T4 tillhör samma familj av cpuer. Jag försöker prata om Niagara vs de traditionella cpuerna: x86 / POWER / Itanium / etc. Det var nån som jämförde Niagara med ARM och Pentium 1 cpuer, jag visade att det inte stämmer.

Min poäng är att om man vill se revolution, så kommer den antagligen från Niagara lägret. Inte från POWER, inte från x86, inte från Itanium, inte från SPARC. Niagara liknar inget annan cpu och kan vara 10x så snabb som traditionella cpuer på vissa workloads. Att vara 10x snabbare, är revolution. Intels nya cpuer är typiskt 10% snabbare än de gamla, det är inte revolution. Vill du se radikala nya ideer, vill du se 10x bättre prestanda från en cpu till nästa cpu, så får du vända dig till Niagara.

Det går ju inte att räkna ut det eftersom du inte talar om vilken CPU du syftar på. Det är alltså väldigt svårt att göra någon som helst bedömning av det du skriver när du bara kommer med konstiga uträkningar baserat på benchmarks du inte redovisar. Jag googlade lite efter Benchmarks och det verkar som om Oracles egna är högst tvivelaktiga. Så jag räknar gärna om GHz per kärna och tråd om du kan avslöja var du får dina siffror från.

Du missförstod jämförelsen helt. Googla lite på in-order så kanske du förstår jämförelsen och vad nackdelarna är. Nu är väl T4 en out of order vilket gör det önnu viktigare för dig att åtminstonde tala om vilka processorer du pratar om. T3 har antingen 8 eller 16 kärnorn medan T4 har 8 kärnor. De jobbar dock väldigt olika. T3 kör inorder som ARM gör och T4 kör out of order som Intels x86 sedan sena pentium.

Fast det är lätt att vara 10x snabbare på vissa arbetslaster om man kanstar 10x fler kärnor på problemet. Det verkade vara lite så de räknade i egna benchmarks där de jämförde sig med POWER7. Sen hjälper inte 10x prestanda på databaser ett piss om man vill köra vanlig desktop för det har man ingen nytta av. Lika lite som att en vanlig GPU har ungefär 10-100 gånger högre FLOPS än en vanlig x86 CPU alltså är de mellan 10 och 1000 gånger snabbare på vissa beräkningar. DU har alltså redan en sådan revolution i din dator som kan vara 10 gånger häftigare än Niagara. Fast det har du ingen nytta av om du inte bara ska sitta och multiplicera gigantiska matriser med varandra.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Medlem

Saddam; Var ligger ditt Niagara altare nånstans?

Och, räkna om det där EFTER du har hyrt polacker och ta bor ditt Niagara altare

Visa signatur

2600k @ STOCK <|> GTX 970 Omega!<|> Nån samsung 500gb ssd <|> 16 GB Kingston Hyper X <|> BenQ XL2420t
"Det finns inget skrot, bara gamla delar som kan användas på nya sätt" - Mulle Meck

Permalänk
Medlem

Är det inte också så att olika cpu:er passar för olika saker? Känns som Intels x86:or är fetbra generalister, de kan köra spel, databaser, utvecklingsmiljöer,htpc och så vidare. Men för mig är SPARC mer en datapump som är grym på just pattern matchning och databas ?

T.ex. så minns jag att vi portade en löv-träd databas från en Hitachi mainframe, cpu:n hade 8kb cache och snurrade på nån gigahertz, men det var ändå svårt att matcha prestandan när vi flyttade datan till en relationsdatabas. Detta för att Hitaching var formad kring några huvudtankar så som access via text terminal och fömågan att skyffla en massa data i batch.

Så jag tror att det finns rum för fler än 1 typ av CPU och CPU arkitektur.

// Lazze

Permalänk
Medlem
Skrivet av saddam:

Bla bla bla...

Okej, du gillar Niagara - got it.

Visa signatur

Chassi: NZXT Switch 810 Vit PSU: Corsair AX 1200i Mobo: ASUS Z170-DELUXE CPU: Intel Core i7-6700K Skylake RAM: HyperX Fury 2666MHz 32GB GPU: Gigabyte GeForce GTX 1080 8GB XTREME Gaming SSD1: Samsung 850 PRO 512GB SSD2: Samsung 840 PRO 256GB SSD3: Samsung 830 Series 256GB CPU-kylning: Corsair Hydro H105 med 2st Noctua NF-F12-PWM NAS: Synology DS1812+ med 8st Western Digital Red 3TB