Helgsnack: Är AMD ute ur leken?

Permalänk
Medlem
Skrivet av emilakered:

Ge dig nu, läs vad Andreas skriver och sluta leta dolda konspirationer. Du är välkommen att delta i diskussionen på vettigt vis, utan att ditt bidrag endast består av en uttjatad meme-bild.

Skickades från m.sweclockers.com

Hur är det med § 11 Synpunkter på moderering eller webbplatsen
Gäller den vissa personer enbart eller ska det gälla alla ?

Permalänk
Medlem

CPU:
AMD konkurrerar inte längre med Intel i prestandasegmenten och är tvingade till låga marginaler i mellan- och budgetklasserna. Men Phenom II BE är fortfarande extremt prisvärd för entusiaster utan enorma prestandakrav, speciellt med tanke på överklockningsmöjligheterna, och ger tillräcklig prestanda i även de nyaste spelen om du som de flesta gamers kör 1080 och har ett bra grafikkort. Serverprocessorer vet jag inte mycket om men det verkar inte som om att det är någon enorm kris där.

GPU:
AMDs nya 7-serie håller sig i linje med med Nvidias 6-serie. Jag ser inte hur folk kan klaga på den. Även om Nvida skulle ha mindre fördelar så är de knappast stora nog för att tala om en kris hos AMD. Dessutom är AMDs GPUer mindre men säljs i många fall till nästan samma pris, något som talar för bättre lönsamhet. Dessutom har Nvidia fortfarande inget mellansegment på 2-3k i den nya serien, ett segment som är väldigt tilltalande för en stor grupp gamers med tight budget. Även om 570 presterar bättre än 7850 så tror jag de flesta ändå väljer 7850 just för att det är modernare.

APU:
Här är AMD så mycket före konkurrenterna att det enda alternativet är CPU+GPU. Det finns ingen APU att ställa mot AMDs. Här är det snarare en fråga om att utveckla och marknadsföra hela APU-konceptet. T ex få dem bra nog för att användas i mellanklassen. Den dagen en APU kan sitta i en gaming laptop kommer Intel och Nvidia få problem på marknaden. Laptops med som klarar moderna spel är ett område som varken Intel eller Nvidia kan slå sig in på med APUer. Intel saknar grafik och lade ner sina försök till en presterande GPU/APU, Nvidia saknar x86 och presterande CPUer. AMD tillverkar både högpresterande CPUer och GPUer. De borde utnyttja detta mycket bättre. En APU med Bulldozer+7850 hade blivit en storsäljare med flera fördelar i storlek, strömförbrukning och kylning över motsvarande Intel/Nvidia kombination. Ännu mer intressant skulle det vara om AMD släppte en APU med ARM istället för x86/x64.

Slutsats:
AMD ligger efter på CPU sidan, speciellt i prestandasegmentet. Men AMD är mer än bara CPUer och när det kommer till GPU så syns inga större problem. Att AMD inte gör det snabbaste grafikkortet är inte en katastrof så länge de andra korten följer med och är rätt prissatta. De bästa CPUerna och GPUerna är dessutom är väldigt liten marknad. När det kommer till APU så har AMD en stor marknad att plocka och bäst förutsättningar för att lyckas.

Permalänk
Medlem
Skrivet av Yoshman:

Som jag förstått det så kvittar AMD och Intel denna licensavgift, AMD får därmed en licens för den grundläggande x86 tekniken och Intel får en för x86_64 extensionen. Har också läst att i avtalet mellan Intel och AMD står att om den ena parten går i konkurs eller på annat sätt drar sig ur x86-marknaden så får den andra parten fri tillgång till den andra partens x86/x86_64 licens.

När IBM en gång i tiden valde Intel som leverantör teknik så ville dom inte vara beroende av en leverantör utan mer eller mindre tvingade Intel att licensiera sin teknik till AMD.. Sen är resten en enda lång rättegångshistoria mellan dom där domarna till slut efter många år av "intriger" blev att dom äger rätt att nyttja varandras licenser mer eller mindre... skrev ett långt inlägg om det engång (innan 2007) i tiden men det är bortplockat tror jag....
Om jag inte har fel för mig så är det sura i detta för AMD att dom måste betala för vissa rättigheter medans Intel har det mer eller mindra gratis, jag kan ha fel så rätta mig gärna!

Visa signatur

XFX Radeon RX 7700 XT Speedster QICK 319 Black Edition | AMD Ryzen R7 5700X | Noctua NH-D15 | Asus TUF Gaming B550-Plus | Kingston Fury Beast DDR4 3600MHz 4x8GB | Samsung 990 Pro 1TB | Corsair HX1000i | Fractal Design Define S | LG 27GL83A | Corsair K95 Platinum | Corsair Sabre RGB PRO Wireless | Corsair Void Elite Wireless

Permalänk
Medlem

tråkigt att dom konkar ändå, betyder bara att intell kommer bli dyrare en vad dom är

Visa signatur

CPU: i7 9700k GHz |GPU:GTX 2070 ROG |Moderkort: ASUS ROG Strix Z390-F |Kylning: Corsair H115i PRO |RAM: Corsair ddr4 32GB 3000 mhz |SSD:m.2 90 evo plus |OS: windows 10 Pro
Online:| Overwatch(master) | CS:GO | APEX | VR-SPEL | PUBG |
Bredband | Fraktfritt Inet | hemsida| swec bb-koder

Permalänk
Medlem
Skrivet av skruvis:

När IBM en gång i tiden valde Intel som leverantör teknik så ville dom inte vara beroende av en leverantör utan mer eller mindre tvingade Intel att licensiera sin teknik till AMD.. Sen är resten en enda lång rättegångshistoria mellan dom där domarna till slut efter många år av "intriger" blev att dom äger rätt att nyttja varandras licenser mer eller mindre... skrev ett långt inlägg om det engång (innan 2007) i tiden men det är bortplockat tror jag....
Om jag inte har fel för mig så är det sura i detta för AMD att dom måste betala för vissa rättigheter medans Intel har det mer eller mindra gratis, jag kan ha fel så rätta mig gärna!

En förlikning var det men annars är det korrekt.

Intressant blir den dagen x86 patentet går ut men x64 finns kvar.

Permalänk
Medlem
Skrivet av oi-bastard:

tråkigt att dom konkar ändå, betyder bara att intell kommer bli dyrare en vad dom är

Eh, va?

Permalänk
Medlem
Skrivet av Yoshman:

Ok, inser att det är dax att ge upp.

Klart att det finns problem som inte går att parallellisera i någon högre grad. Det motsäger jag inte. Samtidigt är jag tveksam till att vi kommer överkomma problemet med frekvens-skalning. Därmed inte sagt att prestanda i per tråd är oviktigt, tvärt om.

Skrivet av Yoshman:

De flesta algoritmer av typen divide-and-conquer har en teoretisk parallellism (d.v.s du KAN INTE komma över denna gräns) på log(N) där N är antal element du jobbar med. Om "divide" steget delar i två (väldigt vanligt) så har du en teoretisk parallellism på ~20, även om du har oändligt med CPU-kärnor.

Det har jag heller aldrig sagt emot. Du påstod att "vanliga program" inte har någon nytta av mer än 2-4 kärnor. Det håller jag inte riktigt med om. Jag tycker nog att program som Photoshop etc har nytta av fler än ett par kärnor. Det är klart att nyttan med fler kärnor blir mindre och mindre när antalet exekveringsenheter går mot oändligheten, men det är inte heller så intressant. Största vinsten gör man naturligtvis med fler än en kärna. Därmed inte sagt att det inte finns vinster med att gå ifrån fyra till åtta kärnor(eller tom sexton osv). Är det värt det? Beror förstås helt på problemet och kostnaden.

Om du är bekant med Ahlmdals argument så antar jag att du också är bekant med Gustafson Law också? Jag motsäger inte problemet Ahlmdal tar upp på något sätt, dock är det inte alltid man begränsas på det sättet.

Och såklart får man nästan aldrig en dubbling när man dubblar antalet exekveringsenheter. Men när prestandan per kärna utvecklas långsamt och det å andra sidan är lätt att få fler kärnor så känns det naturligt att koncentrera sig på parallellism där det är möjligt. Intel pratade om detta för flera år sedan, vi har i flera års tid nu haft problem med att skala upp frekvenserna i samma takt som tidigare (bortser man ifrån att vi har flera kärnor per CPU så gäller knappast Moore's lag längre). Och då är enda sättet att få mer prestanda att slänga fler kärnor på problemet. Det är självklart att det inte alltid är applicerbart, men när det handlar om relativt stora datamängder som skall bearbetas så är det för det mest sant. Att GUI:n inte kan dra nytta av massor av CPU-kärnor ser inte jag som ett problem direkt. Men jag ska ju glatt erkänna att större delen av mitt arbete inte direkt är beroende av GUI:n på nån skala och knappast kommer bli det heller. GUI:n blev å andra sidan mycket mer responsiva när vi fick mer än en CPU att leka med som standard. GUI-processen kan få en helt egen CPU att äga, de andra processerna får ha sina CPU:er ifred (Intels HT var rätt bra på det när den kom). Det är väl ungefär där mobila enheter nu har kommit, efterfrågan på fler kärnor för att kunna köra flera appar samtidigt utan alltför stora problem är antagligen här för att stanna. Ska bli intressant att se hur många "RISK"-kärnor Samsung et al lyckas klämma in i en mobiltelefon.

Visa signatur

--
A shark on whiskey is mighty risky, but a shark on beer is a beer engineer.

Permalänk
Medlem
Skrivet av Yoshman:

Ok, inser att det är dax att ge upp.

Det var väl inte meningen att vara dryg, mest var det väl att

Citat:

Två och möjligen fyra kärnor kan man utnyttja till viss del för "vanliga" program, fler kärnor än det är helt meningslöst.

klingade så likt den idiot-förklaring jag fick av nån windows-människa för drygt 10 år sen när jag köpte ett moderkort med två platser för Pentium 3. Ingen skulle ju någonsin behöva mer än en CPU, slöseri med pengar minsann. Vi skulle aldrig få multi-trådade applikationer ändå, ingen skulle ju orka koda sånt.

Jag ångrade aldrig att jag byggde den datorn, hade mycket kul med den. Det gick köra en Celeron och P3:a tillsammans i linux. Det blev lite, hums, underligt, men det _gick_ Slot-1 adaptrar till socket, Alphas speciella kylare. Mycket skojs var det iaf.

Idag sitter jag på en sexkärning maskin sedan en tid tillbaka, och skulle gärna vilja ha fler kärnor. Jag är väl medveten om att jag inte är medel-konsumenten, dock tror jag inte att gränsen för diminishing returns är nådd vid fyra kärnor. En i7:a har ju typ åtta trådar, nuförtiden fungerar ju HT ganska bra. Det är inte som på den gamla onda P4-tiden direkt (död åt rambus).

On topic då? Jo AMD sket i blå skåpet med Bulldozer på så vis att den har sån konstig enkeltråds-prestanda. Delvis lagar det väl det med Piledriver, men bara delvis tyvärr. Man får hoppas på lågt pris åtminstånde. Fast jag har inte tittat noga på prestandan i Linux, har hört en del om att tom Bulldozer ska fungera bättre där in i Win. Känner mig lite skeptisk dock, men men.

Trinity ser väl ganska bra ut. Dock om mobile ivy bridge plus mobile nvidia-grafik kostar ungefär lika mycket och inte har särskilt sämre batteritid så får AMD nog lite svårt där med. Men det lär väl märkas. Det tar tid för ett bolag som AMD att "försvinna", dock kan man argumentera för att AMD har varit på reträtt ganska länge, ungefär sedan Intel lanserade Core 2.

På grafiksidan däremot verkar det gå mycket bättre än på CPU-sidan. GPGPU kommer antagligen bli allt viktigare, och där kom AMD rätt starkt senast.

Visa signatur

--
A shark on whiskey is mighty risky, but a shark on beer is a beer engineer.

Permalänk
Hjälpsam
Skrivet av Yoshman:

Ok, inser att det är dax att ge upp. Ett tips: läs på lite om algoritm-teori och framförallt om hur man rent teoretiskt kan beräkna parallellismen i ett givet problem. GPU:er kan ha extremt många parallella exikveringsenheter då rendreringen är ett problem som är embarrassingly parallel.

Väldigt få problem hamnar i den klassen. De flesta algoritmer av typen divide-and-conquer har en teoretisk parallellism (d.v.s du KAN INTE komma över denna gräns) på log(N) där N är antal element du jobbar med. Om "divide" steget delar i två (väldigt vanligt) så har du en teoretisk parallellism på ~20, även om du har oändligt med CPU-kärnor.

Och sedan bör du fungerar över Amdahl's_law. När du begriper vad denna lag säger så kommer du inse hur extremt svårt det är att få en givet program att skala till riktigt många CPU-kärnor. Åter igen är detta en lag som ger teoretiskt max för parallellism, så du KAN INTE kommer över detta värde. Om t.ex. endast 10% av ditt program måste köras på en CPU-kärna kan du ALDRIG öka prestanda mer än en faktor 10 och en faktor 10 får du endast när du har oändligt med CPU-kärnor. 90% parallellism och 8 CPU-kärnor ger dig mindre än 5 gångers prestandaökning (teoretiskt, i praktiken är värdet lika eller lägre).

Om du tänker till lite på telefonerna: hur mycket gick prestanda upp på olika benchmarks när man jämför single core och dual core telefonerna. Det var inte i närheten av 100%, det var kanske 10-40%. Och steget från 1 till 2 CPU-kärnor är det absolut lättaste, steget från 2 till 4 kärnor gav i de flesta fall absolut ingenting (på dagens program ska tilläggas, men det kommer inte ändras speciellt snart).

Men han har ju rätt i mycket, vi kommer inte att se stora prestandaökningar per kärna i den nära framtiden, vill du ha en kraftig ökning av prestanda är flertrådat rätt väg att gå.
Att köra flertrådat är sällan något som den enskilda utvecklaren gör i sin kod, det handlar om att konstruera arkitekturen på rätt sätt, bla via modulisering och noggrant specade gränsytor.
Att vissa problem inte går att dela upp på flera trådar är trivialt, och är knappast något som behöver diskuteras.
Men vissa problem går utmärkt att dela upp, det bevisas av alla superdatorer som består av datorkluster, Folding @ home och BIONC är andra utmärkta exempel.
Tänk också på alla multi-CPU lösningar som finn i flygplan bilar osv.
På persondatorsidan ser vi ett massor av program som drar nytta av GPGPU-lösningar, dessa är också extremt lönsamma att dela upp.
För spel kan man tex enkelt tänka sig parallella beräkningar av AI rörelser och fysik.

edit Amdahl’s lag är från 1967 och giltig under vissa förutsättningar, när dessa förutsättningar inte gäller är den givetvis inte tillämpbar längre.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av Bakgrund:

"igen"? Amd har aldrig varit på toppen.

Ok, och dom var inte först med att använda 2 kärninga processorer??

Visa signatur

Amiga 500 + Amiga CD32 + Game & Watch 😊

Permalänk
Hedersmedlem
Skrivet av jonthan:

Ok, och dom var inte först med att använda 2 kärninga processorer??

Inte för att jag minns riktigt vilken plats amd kom på, men ibm, sun och liknande var väl i alla fall före?

Permalänk
Avstängd
Skrivet av jonthan:

Ok, och dom var inte först med att använda 2 kärninga processorer??

Grattis till dem, de var först med något som ingen använde då, varken program eller spel

Visa signatur

I am no more human then you are, I see my reflection as I look at you

Permalänk
Medlem
Skrivet av Absurd:

Grattis till dem, de var först med något som ingen använde då, varken program eller spel

Jag använde det

Visa signatur

Pc 1--> [AsRock DualSata2][AMD4600+X2][7800GT] [Intel SSD X-25 80GB G2][1TB F3][750GB IDE][4GB XMSCorsiar]Pc 2--> [Asus Crosshair] [AMD 4800+X2] [2st 8800GT i SLI] [RAID 0 2x250GB] [6GB XMSCorsair] [Corsair HX750]Pc 3-->[HP Microserver 12TB]Pc 4--> AsRock P67 Extreme 4,i7 2600K @ 4.0 GHz,830 256GB,16GB 1600MHz, R9 290X Foto [Nikon D7000][70-300/35 1,8/18-55 [Skärmar=24",24",24" Eyefinity]

Permalänk

AMDs grafikkort ger "pang för pengarna" än Nvidia ! Jämförelse: Gigabyte windforce http://www.prisjakt.nu/produkt.php?p=1203812 och http://www.prisjakt.nu/produkt.php?p=1181519
7970 kostar 4149:- och ger 130 poäng i Prestandaindex dvs 31.92 Kr/poäng
680 kostar 4706:- och ger 140 poäng i Prestandaindex dvs 33.61 Kr/poäng
Om man inte behöver det absolut snabbaste grafikkortet utan låter förnuftet tala så är AMD ett bättre köp för system i klassen 12-15K. När det gäller CPU så är Intel vinnare pga AMD inte har någon bra utmanare i den klassen. Däremot så är FX-8120 vinnaren i klassen 6-8k.

Så AMD är med leken även om de inte kan utmana sina konkurrenter i alla lägen.

PS: Att jämföra ARM CPUer som sitter i smartphones och läsplattor med AMD/Intels CPUer i presstandard PC är som att jämföra 1.0-1.6 L motorer i småbilar med 12-16 L diesel motorer som sitter i långtradare på 30-60 Ton.
DET GÅR INTE!
DS.

Visa signatur

Varje svensk medborgare borde ha minst 3 PC/pers där hemma !

Permalänk
Medlem

Gällande 3570k+ Prestanda så ligger AMD ute, men fortfarande ligger dom bra till gällande pris per prestanda FX 8120 ligger i toppris nu, 3570k kostar ca 700kr mer än FX 8120 (40%) och ligger inte i närheten av att vara 40% snabbare.

Visa signatur

Gpu: EVGA GeForce GTX 1080 TI FE Kraken G10+H110 Psu:Corsair AX760 Mb: Gigabyte Aorus Gaming 7 Cpu: Intel 8700k @5.2GHz @ 1.385V Cpu-kylare:EVGA CLC 280 Chassi:Define R5 Minne:G.Skill Ripjaws V 3600Mhz CL16 SSD:OCZ Arc 240GB HDD: Toshiba 3TB A-600

Permalänk
Avstängd
Skrivet av skog1s:

Jag använde det

Grattis, men varken OS, program eller spel använde det när AMD kom med det

Visa signatur

I am no more human then you are, I see my reflection as I look at you

Permalänk
Datavetare
Skrivet av Pholostan:

Klart att det finns problem som inte går att parallellisera i någon högre grad. Det motsäger jag inte. Samtidigt är jag tveksam till att vi kommer överkomma problemet med frekvens-skalning. Därmed inte sagt att prestanda i per tråd är oviktigt, tvärt om.

Det har jag heller aldrig sagt emot. Du påstod att "vanliga program" inte har någon nytta av mer än 2-4 kärnor. Det håller jag inte riktigt med om. Jag tycker nog att program som Photoshop etc har nytta av fler än ett par kärnor. Det är klart att nyttan med fler kärnor blir mindre och mindre när antalet exekveringsenheter går mot oändligheten, men det är inte heller så intressant. Största vinsten gör man naturligtvis med fler än en kärna. Därmed inte sagt att det inte finns vinster med att gå ifrån fyra till åtta kärnor(eller tom sexton osv). Är det värt det? Beror förstås helt på problemet och kostnaden.

Om du är bekant med Ahlmdals argument så antar jag att du också är bekant med Gustafson Law också? Jag motsäger inte problemet Ahlmdal tar upp på något sätt, dock är det inte alltid man begränsas på det sättet.

Och såklart får man nästan aldrig en dubbling när man dubblar antalet exekveringsenheter. Men när prestandan per kärna utvecklas långsamt och det å andra sidan är lätt att få fler kärnor så känns det naturligt att koncentrera sig på parallellism där det är möjligt. Intel pratade om detta för flera år sedan, vi har i flera års tid nu haft problem med att skala upp frekvenserna i samma takt som tidigare (bortser man ifrån att vi har flera kärnor per CPU så gäller knappast Moore's lag längre). Och då är enda sättet att få mer prestanda att slänga fler kärnor på problemet. Det är självklart att det inte alltid är applicerbart, men när det handlar om relativt stora datamängder som skall bearbetas så är det för det mest sant. Att GUI:n inte kan dra nytta av massor av CPU-kärnor ser inte jag som ett problem direkt. Men jag ska ju glatt erkänna att större delen av mitt arbete inte direkt är beroende av GUI:n på nån skala och knappast kommer bli det heller. GUI:n blev å andra sidan mycket mer responsiva när vi fick mer än en CPU att leka med som standard. GUI-processen kan få en helt egen CPU att äga, de andra processerna får ha sina CPU:er ifred (Intels HT var rätt bra på det när den kom). Det är väl ungefär där mobila enheter nu har kommit, efterfrågan på fler kärnor för att kunna köra flera appar samtidigt utan alltför stora problem är antagligen här för att stanna. Ska bli intressant att se hur många "RISK"-kärnor Samsung et al lyckas klämma in i en mobiltelefon.

Känner till Gustafson lag, men du vet vad skillnaden mellan dessa är va? För att beskriva detta måste man alltid använda en bilanalogi

Amhdal's lag säger: givet att du ska köra 9km, om du måste köra 3km i max 30km/h så kan du aldrig nå en medelhastighet över 90km/h oavsett hur fort du kör de sista 6km

Gustafson's lag säger: om du redan kört 3km i 30km/h så måste du köra minst 6km till (i oändlig hastighet) för att nå en medelhastighet på mer än 90km/h

I Amhdal's är alltså storleken på problemet givet på förhand, i Gustafson's lag fixerar man i stället den effektivitet man vill ha. För "vanliga" applikationer som "svensson" kör är problemet i princip alltid fix och litet, det är alltså helt meningslöst att försöka applicera Gustafson's lag. Det är bl.a. den egenskapen, att problemet är relativt litet, som gör det svårt att (på ett effektivt sätt) utnyttja många CPU-kärnor för dessa applikationer.

Naturligtvis kan beräkningsintensiva program som Photoshop, kodning av film, kompilering, köra virtuella instanser av flera OS etc använda många CPU-kärnor på ett relativt enkelt sätt. Men är detta verkligen applikationer som "vanliga" användare kör? Just kompilering är något jag kör väldigt mycket och det är ett problem som, enligt Gustafson lag, går att parallellisera väldigt bra givet tillräckligt stort projekt (tillräckligt många filer). Så rent teoretiskt skulle de projekt jag jobbar med skala till säker 100 CPU-kärnor, men i praktiken så blir I/O-subsystemen i OS:et en flaskhals någonstans vid ~10 CPU-kärnor (även om man kör mot RAM-disk så ligger gränsen där, så flaskhalsen är inte disken i sig).

Men visst finns det områden som där många CPU-kärnor ger väldigt bra skalning. Helt enligt Gustafson's lag så kommer alla riktigt beräkningstunga uppgifter skala extremt bra. Sådana problem ju precis vad superdatorer med >100.000 CPU-kärnor effektivt kan jobba med. Men åter igen, det är inte svensson-applikationer. Svensson vill att det lilla program de har i fokus ska reagera omedelbart. Definitionen på omedelbart för en människa ligger (väl?) på att man får respons under 100ms. Så varje gång en användare gör något så har man maximalt 100ms på sig i sitt program att endera lösa hela problemet (händer nog rätt ofta på en modern PC) eller i alla fall ge feedback om att programmet arbetar på problemet och är under tiden redo för annan input. Att lösa sådana problem effektivt över flera CPU-kärnor är svårt medan det är trivialt bara prestanda per tråd är tillräckligt hög.

Att klämma in fler RISC-kärnor är nog inte det man bör titta på i första hand i dagens läge. De primitiver man har på ARM för att implementera saker som lås och atomära operationer är idag extremt ineffektiva, så man ska nog titta på detta först. Och att det är så är inget konstigt, dessa operationer är extremt svåra att implementera på ett korrekt och effektivt sätt. Även Intels/AMDs och även FreeScale (PowerPC) implementationer av motsvarande instruktioner var rätt usla i de första multi-core designerna. Faktum är att en av de saker som förbättrades mest i Core2 -> Nehalem var just effektiviteten på atomära instruktioner, så Intel lär sig fortfarande...

Skrivet av Ratatosk:

edit Amdahl’s lag är från 1967 och giltig under vissa förutsättningar, när dessa förutsättningar inte gäller är den givetvis inte tillämpbar längre.

Öh, det är som att säga att man upptäckte addition för så pass länge sedan att det inte längre gäller. Ahmdal's lag gäller precis lika bra idag som den gjorde 1967. Den beskriver den maximala parallellism ett program kan uppnå givet antal CPU-kärnor och givet hur stor del programmet som måste köras på endast en CPU-kärna. Den gräns man får ut är ett teoretisk max som bara kan nås om CPU-kärnorna inte delar någonting och inte påverkar varandra på något sätt när de jobbar parallellt, d.v.s i praktiken får man ALLTID en parallellism som är lägre än vad Ahmdal's lag säger.

Däremot är Ahmdal's rätt svår att använda då det är i praktiken är näst intill omöjligt att beräkna hur stor del av ett givet program som är serialiserat. Det man kan använda den till är t.ex. att extrapolera hur ett program kommer skala till fler CPU-kärnor man har tillgång till givet data om hur programmet skalar på 1,2...N (där N är så många kärnor man faktiskt har). Men saker som Intels HT och AMDs "moduler" gör även en sådan beräkning väldigt osäker.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Hjälpsam
Skrivet av Absurd:

Grattis, men varken OS, program eller spel använde det när AMD kom med det

Jodå, man hade mycket bättre flyt med en dual-cpu, högre min-fps och mindre hack.
Var vanligt att systemet nästan låste sig vid uppdateringar med singelprocessorer för mig, Active-X och Antiviruset slogs mot varandra, så att CPUn svältes ut.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Hjälpsam
Skrivet av Yoshman:

--- Text borttagen av Ratatosk-----
Öh, det är som att säga att man upptäckte addition för så pass länge sedan att det inte längre gäller. Ahmdal's lag gäller precis lika bra idag som den gjorde 1967. Den beskriver den maximala parallellism ett program kan uppnå givet antal CPU-kärnor och givet hur stor del programmet som måste köras på endast en CPU-kärna. Den gräns man får ut är ett teoretisk max som bara kan nås om CPU-kärnorna inte delar någonting och inte påverkar varandra på något sätt när de jobbar parallellt, d.v.s i praktiken får man ALLTID en parallellism som är lägre än vad Ahmdal's lag säger.

Däremot är Ahmdal's rätt svår att använda då det är i praktiken är näst intill omöjligt att beräkna hur stor del av ett givet program som är serialiserat. Det man kan använda den till är t.ex. att extrapolera hur ett program kommer skala till fler CPU-kärnor man har tillgång till givet data om hur programmet skalar på 1,2...N (där N är så många kärnor man faktiskt har). Men saker som Intels HT och AMDs "moduler" gör även en sådan beräkning väldigt osäker.

Har inte sagt att Ahmdals lag inte gäller jag har sagt att den gäller under vissa förutsättningar.
Folk citerar Ahmdals lag som om det vore bibeln, det är bara en en modell, som gäller innanför vissa gränser, utanför gränserna gäller den inte längre, det är inget konstigt med det.
Jämför med Ohms lag den gäller inte längre när våglängden närmar sig ledarnas längd, då får man börja räkna med tex ledningsteori.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Datavetare
Skrivet av Ratatosk:

Har inte sagt att Ahmdals lag inte gäller jag har sagt att den gäller under vissa förutsättningar.
Folk citerar Ahmdals lag som om det vore bibeln, det är bara en en modell, som gäller innanför vissa gränser, utanför gränserna gäller den inte längre, det är inget konstigt med det.
Jämför med Ohms lag den gäller inte längre när våglängden närmar sig ledarnas längd, då får man börja räkna med tex ledningsteori.

Det man alltid kan använda Ahmdal's lag till är som övre gräns för hur mycket snabbare ett program kan gå om man ökar antalet CPU-kärnor. Finns i praktiken inget fall där du kan få en bättre skalbarhet än vad denna lag säger, däremot så får man väldigt ofta sämre skalning än vad som denna lag visar så den går ju inte att använda som en "bevis" för att man kan uppnå en viss prestanda.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Avstängd
Skrivet av Ratatosk:

Jodå, man hade mycket bättre flyt med en dual-cpu, högre min-fps och mindre hack.
Var vanligt att systemet nästan låste sig vid uppdateringar med singelprocessorer för mig, Active-X och Antiviruset slogs mot varandra, så att CPUn svältes ut.

*suck*, de användes fortfarande inte, bara för att alla mina 4 kärnor är aktiva nu betyder det inte att de används på det sättet quad är menat att användas, samma sak när AMD kom med sin dual-core

Visa signatur

I am no more human then you are, I see my reflection as I look at you

Permalänk
Avstängd

det stora misstaget amd gjorde med bulldozer var att inte sattsa på hög ipc(framförallt på desktop), de försökte kompensera detta med högre klock men då sköt strömförbrukningen i höjden och fiaskot var ett faktum. dock skadar det inte med bra multitrådat prestanda tex när jag konverterar FLAC till lite olika format så konverteras varje låt på en tråd(dbpoweramp) och om man då har 12 låtar i ett album då vore det trevligt med i7 3930k. bulldozer hade i vilket fall aldrig haft någon möjlighet att slå intel på paralell beräkningskraft i vilket fall, om fx8150 hade varit paralellt snabbare än i7 2600k så hade intel helt enkelt släppt sandy bridge med fler kärnor(upp till 8), så där var amd changslösa.

brazor , llano, trinity etc har framförallt excistensberättigande i kompakta system, sen tror jag inte intel kommer försöka konkurrera med amd där dels för att detta skulle resultera i mindre försäljning på desktop sidan och även då intel vill att amd skall ha vissa marknadsandelar(fast inte konkurrans då det är olika segment) ungefär som när m$ räddade apple. att inte ha bra prestanda i toppsegmentet är väldigt förödande pr mässigt då folk kommer förknippa intel med bra prestanda ännu mer då.

Permalänk
Medlem
Skrivet av Yoshman:

Däremot är Ahmdal's rätt svår att använda då det är i praktiken är näst intill omöjligt att beräkna hur stor del av ett givet program som är serialiserat. Det man kan använda den till är t.ex. att extrapolera hur ett program kommer skala till fler CPU-kärnor man har tillgång till givet data om hur programmet skalar på 1,2...N (där N är så många kärnor man faktiskt har). Men saker som Intels HT och AMDs "moduler" gör även en sådan beräkning väldigt osäker.

Lägg till Turbo Core och liknande dynamisk frekvensskalning. När en stor beräkning börjar nå sitt slut och trådarna blir färre så börjar CPU-kärnorna klocka upp sig och plötsligt går det märkbart fortare för de sista trådarna att bli klara.

Visa signatur

--
A shark on whiskey is mighty risky, but a shark on beer is a beer engineer.

Permalänk
Medlem
Skrivet av Morkul:

Quote från Sweclockers Ivr Bridge recension :

"I det stora hela påminner överklockningen av Ivy Bridge-plattformen väldigt mycket om den vi upplevde med Sandy Bridge förra året. En förhöjning av klockfrekvensen med 1 000 MHz jämfört med lägsta turboläget och konventiell luftkylning kan inte anses som något annat än bra, och bör ge en rejäl prestandaskjuts i rätt riktning."

Här kan du läsa mera: http://www.sweclockers.com/recension/15291-intel-core-i7-3770...

Det blir åtminstone varmt en stund innan allt slutar gå.

Permalänk
Hjälpsam
Skrivet av Absurd:

*suck*, de användes fortfarande inte, bara för att alla mina 4 kärnor är aktiva nu betyder det inte att de används på det sättet quad är menat att användas, samma sak när AMD kom med sin dual-core

Om en applikation högg all cpu-kraft från en kärna (vilket inte var ovanligt), kunde fortfarande systemet och hjälpprogram få full tillgång till CPU-kraft via den andra, är det så svårt att förstå?

PS Höll på att glömma; *SUCK!* DS

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

Jag tror och hoppas att amd gör en bra comeback, jag kommer ihåg deras athlon 64 prolle, galet bra produkt!
Och vem säger att amd inte gör som Nvidia?
Gtx 480 fick alltid klagomål om strömförbrukning, 580 var väl ett steg i rätt riktning sen sa de smack så kom 680.
Det som störde mig och som Alltid stört mig var amd fanbois argument att amd var så mycket bättre än nvidia för deras kort drog inte så mycket ström. Sen när amd gjorde ett kort som drog som en kärnreaktor vart var klagomålen?
Åter tillbaks till ämnet, jag hoppas verkligen att amd kommer ikapp o skärper sig, för jag har haft minst lika många amd prollar och grafikkort som intel och nvidia, vissa har varit en besvikelse och vissa har varit guld och gröna skogar.
Konkurens är ett måste annars går allt åt skogen ^^
O sluta pipa om att min prolle är bättre än din, min gren är längre än din!
Jäkla sandlåda sweclockers har blivit, vilket är synd då det är den mest besökta sidan från min del ^^

* Reserverar sig för ev skrivfel och särskivningar, det är ett privilegium för min del då min hjärna kokar över av all cam/cad och förbannade G koder! Och har ni klagomål så kan ni lämna dom i min papperskorg *

Visa signatur

Main : AMD Ryzen 5900X @ 4.55 | NZXT Kraken X73 | 32 GB DDR4 Gskill 3600mhz @ 3800 CL16 | Asus ROG STRIX B550-A GAMING | Sapphire Radeon 7900 XT nitro+ | Samsung 970 evo 1TB | Windows 10 | Lian Li PC-O11 Dynamic EVO | Corsair RM 750 | AOC cu34g2x + Dell u3415w / 1st 24"
Htpc / server : Intel G3258 | Nvidia GTX 670 | 12 GB | 6TB lagring | Fractal design Node 804 | Win 10+Kodi

Permalänk
Avstängd
Skrivet av abki:

Det blir åtminstone varmt en stund innan allt slutar gå.

Då har du gjort något allvarligt fel under installationen.

Permalänk
Medlem
Skrivet av Maho:

Jag tror och hoppas att amd gör en bra comeback, jag kommer ihåg deras athlon 64 prolle, galet bra produkt!
Och vem säger att amd inte gör som Nvidia?
Gtx 480 fick alltid klagomål om strömförbrukning, 580 var väl ett steg i rätt riktning sen sa de smack så kom 680.
Det som störde mig och som Alltid stört mig var amd fanbois argument att amd var så mycket bättre än nvidia för deras kort drog inte så mycket ström. Sen när amd gjorde ett kort som drog som en kärnreaktor vart var klagomålen?
Åter tillbaks till ämnet, jag hoppas verkligen att amd kommer ikapp o skärper sig, för jag har haft minst lika många amd prollar och grafikkort som intel och nvidia, vissa har varit en besvikelse och vissa har varit guld och gröna skogar.
Konkurens är ett måste annars går allt åt skogen ^^
O sluta pipa om att min prolle är bättre än din, min gren är längre än din!
Jäkla sandlåda sweclockers har blivit, vilket är synd då det är den mest besökta sidan från min del ^^

* Reserverar sig för ev skrivfel och särskivningar, det är ett privilegium för min del då min hjärna kokar över av all cam/cad och förbannade G koder! Och har ni klagomål så kan ni lämna dom i min papperskorg *

7970 ansågs sval när den kom då den var betydligt svalare än GTX 580, sedan att GTX 680 var svalare var bara trevligt. Undrar bara hur mycket GK100 hade dragit om de lyckats få den att fungera. Personligen tycker jag dock att 7970 är för varm, GTX 680 är väl gränsfall.

Med det sagt så är det en helt annat sak att göra samma sak med processorer. AMD satsade mer på GPGPU vilket gjorde att de fick använda extra mm² och watt till det, så deras steg upp var inte så stort denna generationen som det kunnat vara, samtidigt dumpade nVidia filosofin med hotclocks, sket till GK100 och släppte GK104 utan lika mycket GPGPU-funktioner som toppmodell. Så det är flera faktorer till att AMD blev ovanligt varma och nVidia ovanligt svala. Processorer byter man inte arkitektur i lika lätt. Bulldozer är första stora rekonstruktionen sedan Athlon K7.

Permalänk

Vet inte om jag tyder detta fel nu men det verkar som att AMD fortfarande har en jävligt juste integrerad grafik. Läste recension på intels 3770k och fick upp detta diagram: http://www.sweclockers.com/image/diagram/2987?k=087c32e282757...

Enligt den har AMD:s A8 bättre prestanda än intels 3770k och då kostar A8 nästan en tredjedel av vad 3770 gör. Så ur min syn ser det inte dött ut.

Var förresten en av dem som köpte AM3+ moderkort då jag tänkte köra med bulldozer. Blev till att köpa nytt moderkort så fort recensioner kom ut..

Visa signatur

PC1: MSI P67A-GD65 / i5 2500K @ 4.4Ghz / HD6950 2GB / 8GB 1600Mhz / Corsair TX650W / SSD 128GB / ~1,5TB HDD
PC2: GA-990FXA-UD3 / Athlon 965 @ 3,4GHz / 2x HD5770 1GB / 4GB 1600Mhz / Antec 480W / SSD 128GB / 280GB HDD
HP Probook: i5 2410M @ 2,3GHz / 8GB / 256GB SSD

Permalänk
Hedersmedlem
Skrivet av DeathMetal:

Vet inte om jag tyder detta fel nu men det verkar som att AMD fortfarande har en jävligt juste integrerad grafik.

Därom råder väl inte mycket tvekan, men risken är väl att marknadssegmentet mellan "intel-grafik räcker gott och väl" och "amd-grafik räcker inte heller" inte är tillräckligt stort?