Premiär! Fyndchans i SweClockers Månadens Drop

Intel Core i7-6700K och i5-6600K "Skylake" hittar ut på nätet

Permalänk
Medlem
Skrivet av Zotamedu:

Jaså? Vad kör du som effektivt kan använda mer än 4 kärnor? Vad får dig att tro att en pytteliten nisch-serie utan GPU skulle bli billigare? Intel skulle ju behöva designa om processorn då. Ivy Bridge finns i fyra modeller, två med två kärnor och två med fyra kärnor med två olika typer av GPUer. Du vill alltså lägga till en femte modell som ska vara en hybrid mellan Skylake och Skylake-E? Jag tror inte du vill betala för den när en 5820K kostar 500 kr extra. Vi kan ju se tillbaks lite i tiden också. 2600K hade en 2820 med lite mer cache och samma antal kärnor. Den kostade lika mycket som 2600K. 3770K hade en 3820K som även den hade 4/8 kärnor/trådar men mer cache till i princip samma pris. Så vad får dig att tro att det magiskt skulle bli mycket billigare att tillverka en annan CPU med mer cache och fler kärnor?

Du svarade på din egen fråga varför det sitter en iGPU i Intels K-modeller. Det kostar för mycket att tillverka en helt ny krets.

Just nu kör jag GTA 5 som effektivt kan använda fler kärnor. I och med att PS4 och XO har fler kärnor så kommer detta att prioriteras mer framöver. Xbox 360 med sina tre kärnor, varav två effektiva, har tidigare varit den största faktorn till varför spel inte använt fler kärnor.

Det är inte bara processorn man må titta på när det gäller pris. Moderkorten är bra mycket dyrare också. Det billigaste moderkortet med 1150 socket kostar enligt Prisjakt 404kr medan det billigaste med 2011 socket kostar 1799kr. Det är en ganska stor skillnad, och det var den skillnaden jag syftade mest på när jag menade att det blir billigare.

Visa signatur

Intel i5 12600K | Asus TUF Gaming Z690-Plus D4 | Asus Geforce RTX 3060 Ti | 32 GB DDR4 | Fractal Design North | Corsair iCue Link H100i | Cooler Master V750 Gold i Multi

Permalänk
Datavetare
Skrivet av Erwya:

...
Moores lag säger att det skall bli billigare att få in samma antal transistorer på en yta så vi borde ha sett billigare processorer idag, ungefär en åttondel av priset på vad en sandy kostade. Istället har de blivit dyrare!...

Haswell har ca 40% fler transistorer än Sandy Bridge om du jämför i7-2600 med i7-4770. En del av ökningen kommer från bättre iGPU, men en väldigt stor del kommer också från att Haswell har en 33% "bredare" back-end, djupare interna köer, mer resurser för att förutsäga hopp etc.

Dold text

Problemet är att Sandy Bridge (redan Core2) var redan den CPU med bäst enkeltrådprestanda som tillverkas och inga genombrott har gjorts som kraftigt kan öka detta. Det finns lite saker som fungerar, problemet är att även om man dubblar storleken på det fönster av instruktioner man tittar på för exekvering (s.k out-of-order window), något som kostar MYCKET transistorer, så ökar kanske prestanda 10-20% av detta (från Core2 till Haswell har out-of-order-window dubblerats). I något läge blir det överhuvudtaget inte vettigt att lägga mer resurser på en viss finess, Intels problem är att man börjar slå i allt fler av dessa väggar.

Skrivet av Erwya:

En fyrkärnig Intel med HT har åtta trådar. Varje kärna har två trådar och uppgifterna måste dela på beräkningsprestandan hos en kärna. Ger som känt bättre flyt och parallellism men är inte fördelaktigt om man har enkelkärniga program som måste offra prestanda till den andra tråden.

En fyrmodulig AMD har också åtta trådar. Om uppgiften som skall beräknas består av flyttal fungerar detta på ungefär samma sätt som Intel HT. Dessa får dela på en moduls beräkningsprestanda vilket ger bättre flyt överlag (dock verkar detta inte vara lika optimerat hos AMD). Om uppgifterna däremot består av heltal delar modulen istället upp sig i två delar som var för sig simultant beräknar uppgifterna som operativsystemet laddat i trådarna. Om alla uppgifter som skickas till den fyrmoduliga processorn består av heltal beter processorn som den vore åttakärnig.

Tyvärr verkar det bli vanligare att köra flyttal genom processorn vilket är till nackdel för CMT. Programmeringsmässigt har jag svårt att finna områden där användandet av flyttal är essentiellt. Heltal är mycket exaktare och enklare för processorn att beräkna. Man kan fundera på om användandet av flyttal har gått upp just p.g.a. att AMD använder CMT.

Tyvärr 2 är att AMD dragit på sig en lågprestandastämpel då en kärna hos den första bulldozern presterade ungefär 50-60% av motsvarande Intel. Idag är det cirka 80% vilket skulle ge 160% totalprestanda för heltal på en fyrmodulig AMD jämfört med en fyrkärnig Intel, men stämpeln är svår att tvätta bort.

Den delade flyttalsdelen är tvärt om en av de få vettiga designerna i Bulldozer arkitekturen, är extremt få "vanliga" program som begränsas av flyttalskapacitet. Om det faktiskt varit en flaskhals skulle man sett kraftiga förbättringar vid Nehalem och Haswell som båda dubblerade flyttalskapaciteten från modellen innan.

Den totala misslyckandet med CMT kommer från hur man kan (eller inte kan) använda existerande CPU-resurser i program som använder få CPU-kärnor (vilket är den absoluta majoritet av allt som körs av "vanliga" användare).

Väldigt förenklat så kan man beskriva Haswell resp. Steamroller så här

  • Haswell två CPU-trådar som delar på en front-end som kan avkoda max 5 x86 (4st i bilden, men blir en extra via "macro-op fusion") instruktioner per cykel, dessa bryts upp i mindre microops och de två trådarna delar på 8 exekveringsportar (4 för beräkning/hopp, 4 för minnesoperationer, upp till 8 micro-ops kan då påbörjas samma cykel). Kör man bara en tråd får den tillgång till alla resurser själv

  • Steamroller två CPU-trådar som delar på en prefetcher som kan hämta 16 bytes (en x86 instruktion är mellan 1 till 15 bytes), varje CPU-tråd har en separat avkodare som kan avkoda upp till 4 x86 instruktioner. Båda trådarna har en separata heltalsbackend med 4 exekveringsportar, 2 för beräkning/hopp/minnesoperationer och 2 som endast kan utföra adressgenerering (del av minnesoperation men "load/store" tar både en sådan port + en av de två beräkningsportarna). Så när bara en tråd jobbar har den tråden bara hälften så många exekveringsportar som Haswell i samma läge + 2 av portarna i Steamroller är extremt begränsade i vad de kan göra (finns en motsvarande port i Haswell för "store", det är 1 av 8).

Ur den synvinkeln är inte enkeltrådprestanda speciellt dåligt i Steamroller, Haswell är inte riktigt dubbelt så snabb vid samma klockfrekvens trots klart mer än dubbelt så mycket resurser per CPU-tråd (vilket är helt förväntat då effektiviteten av fler exekveringsportar klingar rätt snabbt efter 4-5st).

Poängen är: Intels fördel är mycket bättre prestanda på heltal när man kör få trådar. Detta är vad som är flaskhals i >90% av det man kör på en typisk PC, till och med spel är idag mer begränsade av heltalskapacitet än flyttalskapacitet då det flyttalsintensiva är grafiken som utförs av en GPU.

Edit: bytte bild till en som både täcker front-end och även back-end.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Datavetare
Skrivet av Gender Bender:

Just nu kör jag GTA 5 som effektivt kan använda fler kärnor. I och med att PS4 och XO har fler kärnor så kommer detta att prioriteras mer framöver. Xbox 360 med sina tre kärnor, varav två effektiva, har tidigare varit den största faktorn till varför spel inte använt fler kärnor.

Det är inte bara processorn man må titta på när det gäller pris. Moderkorten är bra mycket dyrare också. Det billigaste moderkortet med 1150 socket kostar enligt Prisjakt 404kr medan det billigaste med 2011 socket kostar 1799kr. Det är en ganska stor skillnad, och det var den skillnaden jag syftade mest på när jag menade att det blir billigare.

Xbox360 hade 3 kärnor med 2 trådar i varje, d.v.s. 6 CPU-trådar totalt och alla kunde användas av spel. Så XBox360 har exakt lika många tillgängliga CPU-trådar för spel som PS4/XBO. Skulle gissa att störta orsaken till att man inte såg fler titlar som mer eller mindre krävde många CPU-kärnor under 360-tiden var att GPU-delen är/var den stora flaskhalsen både för PS3 och 360 medan det är uppenbart att CPU-delen är en enorm flaskhals i PS4/XBO.

GTA V är det enda spel så vitt jag vet där XBO i flera lägen har bättre FPS tack vare sin 10% högre klockade CPU, det trots klenare GPU än PS4 och att båda versionerna kör i samma upplösning. Naughy Dog har också beklagat sig över CPU-delen i PS4, medan man är väldigt nöjd med GPUn. Gissar att Microsoft är rätt nöjda över deras sista minuten förändring av CPU-frekvensen idag, framförallt om fler spel beter sig som GTA V.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Gender Bender:

Just nu kör jag GTA 5 som effektivt kan använda fler kärnor. I och med att PS4 och XO har fler kärnor så kommer detta att prioriteras mer framöver. Xbox 360 med sina tre kärnor, varav två effektiva, har tidigare varit den största faktorn till varför spel inte använt fler kärnor.

Det är inte bara processorn man må titta på när det gäller pris. Moderkorten är bra mycket dyrare också. Det billigaste moderkortet med 1150 socket kostar enligt Prisjakt 404kr medan det billigaste med 2011 socket kostar 1799kr. Det är en ganska stor skillnad, och det var den skillnaden jag syftade mest på när jag menade att det blir billigare.

360 hade 2 vägs SMT också för 6 trådar totalt. Gjordes för att spara transistorer och köra in order istället out of order och kompensera för prestandaskillnaden med SMT där optimeringsjobbet las över på utvecklarna istället att flertråda ordentligt för maximal prestanda.

Permalänk
Medlem
Skrivet av dannesthlm:

Varför vill man (du) ha en entusiastprocessor i en HTPC utan grafikkort? Motivera, annars är din åsikt irrelevant. Grafikdelen kommar iaf inte hålla "entusiastklass" oavsett.

Är du seriös? Klarar GPU'n i processorn 1080... sååå... behöver du inget grafikkort till en... HTPC.

Dessutom är ordet "entusiast" inte något endast för "gamers", utan även inom andra områden såsom bild och ljud. Till mitt 7.2 system funkar detta hur bra som helst och jag är väldigt nöjd. Så, för alla vi som vill ha 4K blir nog Skylake en rolig liten pryl.

§1
Visa signatur

---

Permalänk
Inaktiv

Blir väl en Xeon för min del i min nästa privata burk, vägra ha GPU-dritt i cpun istället för vettig mängd L3-cache. Sedan en massa andra bra saker som ECC, men jag är dumsnål för privat bruk....

Det är en sak att de billigare i7, i5, i3 har inbyggt gpu, men vem tusan har en bättre i7a och använder den interna gpun?

Permalänk
Medlem
Skrivet av Yoshman:

Haswell har ca 40% fler transistorer än Sandy Bridge om du jämför i7-2600 med i7-4770. En del av ökningen kommer från bättre iGPU, men en väldigt stor del kommer också från att Haswell har en 33% "bredare" back-end, djupare interna köer, mer resurser för att förutsäga hopp etc.

Problemet är att Sandy Bridge (redan Core2) var redan den CPU med bäst enkeltrådprestanda som tillverkas och inga genombrott har gjorts som kraftigt kan öka detta. Det finns lite saker som fungerar, problemet är att även om man dubblar storleken på det fönster av instruktioner man tittar på för exekvering (s.k out-of-order window), något som kostar MYCKET transistorer, så ökar kanske prestanda 10-20% av detta (från Core2 till Haswell har out-of-order-window dubblerats). I något läge blir det överhuvudtaget inte vettigt att lägga mer resurser på en viss finess, Intels problem är att man börjar slå i allt fler av dessa väggar.

Den delade flyttalsdelen är tvärt om en av de få vettiga designerna i Bulldozer arkitekturen, är extremt få "vanliga" program som begränsas av flyttalskapacitet. Om det faktiskt varit en flaskhals skulle man sett kraftiga förbättringar vid Nehalem och Haswell som båda dubblerade flyttalskapaciteten från modellen innan.

Den totala misslyckandet med CMT kommer från hur man kan (eller inte kan) använda existerande CPU-resurser i program som använder få CPU-kärnor (vilket är den absoluta majoritet av allt som körs av "vanliga" användare).

Väldigt förenklat så kan man beskriva Haswell resp. Steamroller så här

  • Haswell två CPU-trådar som delar på en front-end som kan avkoda max 5 x86 instruktioner per cykel, dessa bryts upp i mindre microops och de två trådarna delar på 8 exekveringsportar (4 för beräkning/hopp, 4 för minnesoperationer). Kör man bara en tråd får den tillgång till alla resurser själv

  • Steamroller två CPU-trådar som delar på en prefetcher som kan hämta 16 bytes (en x86 instruktion är mellan 1 till 15 bytes), varje CPU-tråd har en separat avkodare som kan avkoda upp till 4 x86 instruktioner. Båda trådarna har en separata heltalsbackend med 4 exekveringsportar, 2 för beräkning/hopp/minnesoperationer och 2 som endast kan utföra adressgenerering (del av minnesoperation men "load/store" tar både en sådan port + en av de två beräkningsportarna). Så när bara en tråd jobbar har den tråden bara hälften så många exekveringsportar som Haswell i samma läge + 2 av portarna i Steamroller är extremt begränsade i vad de kan göra (finns en motsvarande port i Haswell för "store", det är 1 av 8).

Ur den synvinkeln är inte enkeltrådprestanda speciellt dåligt i Steamroller, Haswell är inte riktigt dubbelt så snabb vid samma klockfrekvens trots klart mer än dubbelt så mycket resurser per CPU-tråd (vilket är helt förväntat då effektiviteten av fler exekveringsportar klingar rätt snabbt efter 4-5st).

Poängen är: Intels fördel är mycket bättre prestanda på heltal när man kör få trådar. Detta är vad som är flaskhals i >90% av det man kör på en typisk PC, till och med spel är idag mer begränsade av heltalskapacitet än flyttalskapacitet då det flyttalsintensiva är grafiken som utförs av en GPU.

De senaste 5 åren har de blivit rätt uppenbart att det inte går att öka singeltråd-prestandan något nämnvärt med dagens CPU-design och mjukvaran som finns till hands.
Två tänkbara scenarion för att öka prestanda är:
1. En ny modell för hur CPU:er arbeterar och hur mjukvara skrivs. Detta är långsökt (i min begränsade tankevärld), krävs att någon kommer på något extraordinärt sätt att bearbeta instruktioner och/eller 10-20 år innan världens utvecklare lärt sig dra nytta av de nya tankesätten.
2. Fortsätt på samma väg, men byt ut kisel mot ett matrial som klarar högre frekvenser, t.ex. GaAs-transitorer klarar betydligt högre frekvenser än kisel med någorlunda bra strömförbrukning. Med ett annat matrailval än kisel så kan man säkert lyckas få 10-20GHz CPU:er vilket skulle åtminstone dubbla singeltrådsprestandan. Det kommer kräva mycket RnD innan någon sådan produktion är igång, jag undrar vad Intel, Samsung m.fl. gör inom dessa områden nu, hörs inte mycket om det i media.

Skrivet av dannesthlm:

Varför vill man (du) ha en entusiastprocessor i en HTPC utan grafikkort? Motivera, annars är din åsikt irrelevant. Grafikdelen kommar iaf inte hålla "entusiastklass" oavsett.

Kör man någon form av video-kodning eller postprocessing som inte har hårdvarustöd behövs väldigt mycket CPU-kraft för att rulla runt mjukvaran, inget generellt jätteproblem, men när det uppstår vill du ha väldigt mycket CPU-kraft.
Förövrigt får man väl se GPU-delen i K-CPU:erna som en bonus för att köra GPGPU-saker och sånt, man betalar egentligen inget extra för GPU'n, en 4790K har ju samma kisel som 4590T som kostar hälften så mycket bara att Intel döper en av dem till 4790K och ändrar lite i micro-koden så de kan ta 100% mera för den, tillverkningskostnaden för dem är fortfarande typ 100 kr.

Skrivet av Johan86c:

Blir väl en XEON för min del i min nästa privata burk, vägra ha GPU-dritt i cpun istället för vettig mängd L3-cache. Sedan en massa andra bra saker som ECC, men jag är dumsnål för privat bruk....

Det är en sak att de billigare i7, i5, i3 har inbyggt gpu, men vem tusan har en bättre i7a och använder den interna gpun?

Skulle mycket väl tänka mig en överklockad i7 med intern GPU i min dator. Har ingen nytta av snabb 3D-grafik men att jämföra filer, leta textsträngar eller kompilera snabbare skulle spara mig en del tid.

Visa signatur

kill -s SIGCHLD `pidof Kenny`
bash: Oh my god, they killed Kenny
init: You Bastards

Permalänk
Medlem
Skrivet av anon159643:

Blir väl en Xeon för min del i min nästa privata burk, vägra ha GPU-dritt i cpun istället för vettig mängd L3-cache. Sedan en massa andra bra saker som ECC, men jag är dumsnål för privat bruk....

Det är en sak att de billigare i7, i5, i3 har inbyggt gpu, men vem tusan har en bättre i7a och använder den interna gpun?

Jag. HD 4600 är förvånansvärt kraftfull.

Visa signatur

---

Permalänk
Medlem
Skrivet av anon159643:

Blir väl en Xeon för min del i min nästa privata burk, vägra ha GPU-dritt i cpun istället för vettig mängd L3-cache. Sedan en massa andra bra saker som ECC, men jag är dumsnål för privat bruk....

Det är en sak att de billigare i7, i5, i3 har inbyggt gpu, men vem tusan har en bättre i7a och använder den interna gpun?

Så du har nytta av långsamt ecc och större l3 cache i hemdatorn? Du måste mena någon sorts server? känns mest som att du tramsar.

Permalänk
Inaktiv
Skrivet av neohasse:

Jag. HD 4600 är förvånansvärt kraftfull.

Jo prestandan i HD4600 räcker till för många, jag gillar dock externa grafikkort då man ska koppla in flera monitorer då de flesta bara har en.

Skrivet av durutti:

Så du har nytta av långsamt ecc och större l3 cache i hemdatorn? Du måste mena någon sorts server? känns mest som att du tramsar.

Angående ECC så är det inte onödigt med en stabil dator, dock kostar det därefter vilket innebär att jag snålar in på det för hemmabruk. Just minnesfel är något jag har haft för mycket av i mina tider, jag vet dock inte om ECC hade löst alla dessa.

Angående L3 chache så om man har många kärnor så går det åt, på min jobbdator har jag igång över 30 maskiner samtidigt på samma dator (2st hostar med vardera 2x12 kärnig Xeon och 64GB ram) , privat så kanske man kör 10 maskiner igång i Exisi och då ibland kör beräkningar som upprepas så det är inget fel med lite cache.
Ur konsument perspektiv är min åsikt bland de dyrare i7orna släng ut gpu och sälj dem billigare, då skaran som köper en cpu för över 4000kr och inte har ett externt grafikkort inte är så stor och jag tror många skulle vilja att cpun istället var billigare.

Permalänk
Medlem

Grejen är ju att det blir inte billigare utan gpu. Och eftersom folk har användning av den så är det bara onödigt att ta bort den. Ni som kör massor av vm hemma är i extrem minoritet och kan ju köra på e-serien eller whatever.

Permalänk
Entusiast
Skrivet av Gender Bender:

Just nu kör jag GTA 5 som effektivt kan använda fler kärnor. I och med att PS4 och XO har fler kärnor så kommer detta att prioriteras mer framöver. Xbox 360 med sina tre kärnor, varav två effektiva, har tidigare varit den största faktorn till varför spel inte använt fler kärnor.

Det är inte bara processorn man må titta på när det gäller pris. Moderkorten är bra mycket dyrare också. Det billigaste moderkortet med 1150 socket kostar enligt Prisjakt 404kr medan det billigaste med 2011 socket kostar 1799kr. Det är en ganska stor skillnad, och det var den skillnaden jag syftade mest på när jag menade att det blir billigare.

Hur många kärnor hade PS3 och Xbox 360 och hur stor påverkan hade det på hur många kärnor som effektivt användes på PC? Vi har haft fyra kärnor sedan 2006 och inte har det haft någon större påverkan på hur vältrådade spel är generellt. Vet du varför? Jo för att det inte bara är att tråda upp spel. Det finns en gräns innan det blir sämre prestanda när man börjar smeta ut det på flera kärnor för det lägger till massa extra trassel. Vissa delar kommer bli lite enklare med DX12 men det är inte en magisk lösning. Tror du att du hittar en enda spelutvecklare som skulle välja Jaguar med 8 kärnor före en Intel i3 med två kärnor? Båda har ungefär samma prestanda totalt sätt.

Inte helt ärligt att jämföra ett "billigt" X79-moderkort med billigaste mATX H81. Realistiskt kommer du sitta på ett Z97 och de börjar på 900 kr.

Så vad får dig att tro att en specialbyggd nisch-serie skulle bli billigare än de modeller som redan finns? Intel har ju redan släppt processorer som passar in på dina önskemål. Ingen iGPU, fler kärnor och större cache. Fast du vill bara inte betala vad den faktiskt kostar.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Skrivet av Yoshman:

[...] när båda kärnorna och GPU-delen är lastade samtidigt blir TDP den stora flaskhalsen och U-serien prestera klart bättre. AnandTech har gjort en ingående analys av Core M där man ser klara TDP-effekter.

Mao så kommer dessa låg TDP'are må väldigt bra av DirectX 12

Skrivet av Yoshman:

Problemet är att Sandy Bridge (redan Core2) var redan den CPU med bäst enkeltrådprestanda som tillverkas och inga genombrott har gjorts som kraftigt kan öka detta.

Skrivet av houze:

De senaste 5 åren har de blivit rätt uppenbart att det inte går att öka singeltråd-prestandan något nämnvärt med dagens CPU-design och mjukvaran som finns till hands.

Jag läste nånstans att samma forskningslabb som utvecklade Core 1 & 2, och Sandy Bridge även utvecklat Skylake så vi får väl se om liknande kvalitativa prestandaförbättring är att vänta. Enligt källan så borde arkitekturförbättringar i kärnorna vara att förväntas när just detta forskningslabb gjort sitt.

källa till "nånstans"
Visa signatur

Dator: EEE901 N270/ 1GB / 20GB SSD ... Kraftigt nedbantat/tweakat Win7 x86 for speeeEED!
Facebook användare? Hatar tidslinjen? gå med i denna FB-grupp:
Undo Timeline ...med lite tur får h*lvetet ett slut!

Permalänk
Medlem
Skrivet av Zotamedu:

Hur många kärnor hade PS3 och Xbox 360 och hur stor påverkan hade det på hur många kärnor som effektivt användes på PC? Vi har haft fyra kärnor sedan 2006 och inte har det haft någon större påverkan på hur vältrådade spel är generellt. Vet du varför? Jo för att det inte bara är att tråda upp spel. Det finns en gräns innan det blir sämre prestanda när man börjar smeta ut det på flera kärnor för det lägger till massa extra trassel. Vissa delar kommer bli lite enklare med DX12 men det är inte en magisk lösning. Tror du att du hittar en enda spelutvecklare som skulle välja Jaguar med 8 kärnor före en Intel i3 med två kärnor? Båda har ungefär samma prestanda totalt sätt.

Inte helt ärligt att jämföra ett "billigt" X79-moderkort med billigaste mATX H81. Realistiskt kommer du sitta på ett Z97 och de börjar på 900 kr.

Så vad får dig att tro att en specialbyggd nisch-serie skulle bli billigare än de modeller som redan finns? Intel har ju redan släppt processorer som passar in på dina önskemål. Ingen iGPU, fler kärnor och större cache. Fast du vill bara inte betala vad den faktiskt kostar.

Det handlar inte bara om pris i överlag. För en överklockare så är grafikkretsen bara ett hinder. Den tar upp onödig plats. De kompromisser som Intel får göra i designen orsakar bara mer värmeutveckling. De har ett väldigt begränsat utrymme för att få så hög yield som möjligt. Plockar man bort grafikkretsen så går det att "möblera om" och göra den ännu mer effektiv för överklockning, vilket är hela poängen med K.

Jag tog de billigaste korten som fanns. Hur är det en oärlig jämförelse när man vill diskutera prisskillnader? Mycket möjligt att jag kommer sitta på ett Z97, men då kommer jag förmodligen också ha ett diskret grafikkort och inget integrerat skit, och då är vi tillbaka på samma poäng som då vi började den här diskussionen. Vad är poängen med att ha en grafikkrets som ingen ändå använder? Väldigt få köper en K-modell och kör integrerat, för man har ingen prestanda att vinna på att överklocka CPU:n när GPU:n flaskar så mycket. Och köper man en K-modell och inte överklockar, ja då är man bara dum.

Så svara på min fråga nu, utan att tänka på produktionspris hit och dit. Varför bör K-modellen ha en integrerad grafikkrets? Utrymmet behöver inte ens användas till fler kärnor, utan man kan göra om strukturen för att t.ex. göra K-modellen mer effektiv när det kommer till värmeutveckling, vilket skulle underlätta överklockning ytterligare.

Allt jag sa från början var att det var onödigt med en integrerad krets i K-modellerna då i stort sätt alla med en K-processor har ett diskret grafikkort. Den är bara där och tar upp onödig plats. Sen så får det gärna vara kvar på resterande processorer, men just K-modellerna ser jag ingen som helst poäng.

Visa signatur

Intel i5 12600K | Asus TUF Gaming Z690-Plus D4 | Asus Geforce RTX 3060 Ti | 32 GB DDR4 | Fractal Design North | Corsair iCue Link H100i | Cooler Master V750 Gold i Multi

Permalänk
Medlem

Hemskt tråkig utveckling. Efter drygt 4 år och 4 gen senare har intel åstadkommit:
* Drygt 10% högre klockfrekvens
* Samma TDP
* Kanske 10% högre IPC
* 30% högre pris
* Antagligen lika eller t om sämre överklockningsmöjligheter

Finns ingen anledning att "uppgradera" från 2600K!

Man kan ju hoppas på att deras "nya" namnsättning innebär att högre klockade modeller är på ingång, tex 6790K @4.7Ghz, men det klarar nog inte litografi av :/

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av Gender Bender:

Så svara på min fråga nu, utan att tänka på produktionspris hit och dit. Varför bör K-modellen ha en integrerad grafikkrets? Utrymmet behöver inte ens användas till fler kärnor, utan man kan göra om strukturen för att t.ex. göra K-modellen mer effektiv när det kommer till värmeutveckling, vilket skulle underlätta överklockning ytterligare.

Allt jag sa från början var att det var onödigt med en integrerad krets i K-modellerna då i stort sätt alla med en K-processor har ett diskret grafikkort. Den är bara där och tar upp onödig plats. Sen så får det gärna vara kvar på resterande processorer, men just K-modellerna ser jag ingen som helst poäng.

Det finns redan en k-modell utan grafik. Den heter e-serien. Grejen med k-serien är att det bara är en vanlig i5/i7 som även används i alla möjliga sorters datorer. Googla binning enkel och bra lösning för nästan alla. Är inte du en av dom finns det som sagt andra cpu att köpa.

Permalänk
Datavetare

[QUOTE=Gender Bender;15364463]Det handlar inte bara om pris i överlag. För en överklockare så är grafikkretsen bara ett hinder. Den tar upp onödig plats. De kompromisser som Intel får göra i designen orsakar bara mer värmeutveckling. De har ett väldigt begränsat utrymme för att få så hög yield som möjligt. Plockar man bort grafikkretsen så går det att "möblera om" och göra den ännu mer effektiv för överklockning, vilket är hela poängen med K.

Jag tog de billigaste korten som fanns. Hur är det en oärlig jämförelse när man vill diskutera prisskillnader? Mycket möjligt att jag kommer sitta på ett Z97, men då kommer jag förmodligen också ha ett diskret grafikkort och inget integrerat skit, och då är vi tillbaka på samma poäng som då vi började den här diskussionen. Vad är poängen med att ha en grafikkrets som ingen ändå använder? Väldigt få köper en K-modell och kör integrerat, för man har ingen prestanda att vinna på att överklocka CPU:n när GPU:n flaskar så mycket. Och köper man en K-modell och inte överklockar, ja då är man bara dum.

Så svara på min fråga nu, utan att tänka på produktionspris hit och dit. Varför bör K-modellen ha en integrerad grafikkrets? Utrymmet behöver inte ens användas till fler kärnor, utan man kan göra om strukturen för att t.ex. göra K-modellen mer effektiv när det kommer till värmeutveckling, vilket skulle underlätta överklockning ytterligare.

Allt jag sa från början var att det var onödigt med en integrerad krets i K-modellerna då i stort sätt alla med en K-processor har ett diskret grafikkort. Den är bara där och tar upp onödig plats. Sen så får det gärna vara kvar på resterande processorer, men just K-modellerna ser jag ingen som helst poäng.[/QUOTE]

Överklockare: en grupp som på det stora hela är så liten att den statistisk sett inte finns. Så svaret på "Varför bör K-modellen ha en integrerad grafikkrets? " är: allt handlar om volymer (economies of scale) och av den anledningen tillverkas bara två desktop modeller

  • 4 kärnor med GPU GT2, full fungerande kretsar blir i7 och de med någon defekt på t.ex. cache blir i5

  • 2 kärnor med GPU GT2, full fungerande kretsar blir i3 och resten blir Celeron/Pentium (med typisk halva iGPU avslagen, GT1)

Skulle man göra en modell utan iGPU baserad på den första så skulle den enda ekonomiskt rimliga varianten vara att fortfarande tillverka samma krets för att sedan på något sätt helt slå av iGPU. Med dagens extremt effektiva "power-gating" så skulle det inte ha någon annan effekt än att man tappar möjligheten att slå på iGPU igen om behov uppstår.

Är man i behov av en maskin med mer I/O, mer CPU-cache, fler CPU-kärnor än ens vad i3 erbjuder är man idag en minoritet (något som även är ett stort problem för Intel då det inte finns någon poäng för folk att uppgradera ett fungerande system). Behöver man mer än vad i5/i7 erbjuder tillhör man extremt smal nisch, men tydligen ändå tillräckligt stor att det var ekonomiskt vettigt att ta Xeon E5 CPUer, skala ner dem marginellt och sälja som E-serien (ska nog ses som i5-vesionen av Xeon E5).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Oneone:

Dags att uppgradera ifrån 2500K då kanske hängt med typ 4-5 år nu.

Håller med. Klarar gta 5 utan problem men du vet, om man kan så why not

Skickades från m.sweclockers.com

Visa signatur

Dator: i7 9700k @ 5.0 Ghz - Asus Rog Strix OC 2080 Super
3600mhz 32gb - Gigabyte UD Z390 - Dark Rock Pro 4 - M.2 SSD MP510

Kringutrustning: Xiaomi 34" 3440x1440 - Xtrfy K4 - Glorious 0 Mus
Ljud: DT770 80ohm Headset - E10K DAC/AMP

Permalänk
Medlem

Intel i7 6700K, GTX 980 Ti och Windows 10 kommer bli grymt till min nya kommande dator!

Visa signatur

Chassi: Corsair 4000D CPU: Intel i7 11700K RAM: 32Gb DDR4 Moderkort: ASUS Z590-F
Grafik: RTX 3070 Ti OS: W11 SSD: M.2 1TB snabb som tusan

Permalänk
Medlem
Skrivet av neohasse:

Är du seriös? Klarar GPU'n i processorn 1080... sååå... behöver du inget grafikkort till en... HTPC.

Dessutom är ordet "entusiast" inte något endast för "gamers", utan även inom andra områden såsom bild och ljud. Till mitt 7.2 system funkar detta hur bra som helst och jag är väldigt nöjd. Så, för alla vi som vill ha 4K blir nog Skylake en rolig liten pryl.

Känns ju som ett mer givet val är en billigare processor som med all säkerhet kommer ha tillräcklig kräm i GPU för att klara detta. Intel lär ju lansera en mindre uppsjö av olika billigare varianter. Då känns ju ett av dessa val ganska givna istället för att betala mycket pengar för att få en väldig obalans i CPU kontra GPU-prestanda.

Permalänk
Medlem

Du kanske har glädje, eller är intresserad att betala för en riktigt bra CPU kombinerad med halvmedioker GPU till ett högt pris. Fine. För det stora flertalet skulle nog däremot en något sämre CPU tillsammans med en ytterligare sämre GPU till ett betydligt lägre pris, om det ändå tillät filmtittande och annat i de upplösningar man nu är intresserad av.

Skulle man sedan vilja videokoda, som någon föreslog, i en HTPC så fine... Dock hur många procent av folk med HTPC håller på att videokoda i dessa. Någon som kopplar till sin konsol och använder den som streamingdator, visst. Fast då är väl frågan om man inte borde satsa på något större med grafikkort för en mer kompetent lösning som klarar bättre spelande dessutom (eftersom man tydligen då är intresserad av detta).

Tagit bort citat och svar enligt §1
Permalänk
Quizmaster Malmö 22
Skrivet av Lessismore:

Hemskt tråkig utveckling. Efter drygt 4 år och 4 gen senare har intel åstadkommit:
* Drygt 10% högre klockfrekvens
* Samma TDP
* Kanske 10% högre IPC
* 30% högre pris
* Antagligen lika eller t om sämre överklockningsmöjligheter

Finns ingen anledning att "uppgradera" från 2600K!
Skickades från m.sweclockers.com

När jag såg Skylake i rubriken blev man förväntansfull. Sen läser man alla inlägg o när man kommer ti ditt så e det bara o sänka förväntningarna....

Zen kanske kommer va nåt o ha ändå....

Visa signatur

[Gigabyte EP35-DS4][Intel Core 2 Duo E8400 3.0 Ghz][2x2GB Corsair XMS 2][Gainward GTX 570][Sandisk Extreme II 480GB][Corsair HX 620W][Fractal Design Define XL R4][Acer GD245HQBID]

Permalänk
Medlem
Skrivet av Lessismore:

Hemskt tråkig utveckling. Efter drygt 4 år och 4 gen senare har intel åstadkommit:
* Drygt 10% högre klockfrekvens
* Samma TDP
* Kanske 10% högre IPC
* 30% högre pris
* Antagligen lika eller t om sämre överklockningsmöjligheter

Finns ingen anledning att "uppgradera" från 2600K!

Man kan ju hoppas på att deras "nya" namnsättning innebär att högre klockade modeller är på ingång, tex 6790K @4.7Ghz, men det klarar nog inte litografi av :/

Skickades från m.sweclockers.com

Ditt inlägg fick mig att sänka mina förväntningar något.

Visa signatur

Chassi: CM NR200P Kylare: Scythe Fuma 2
CPU
:
R5 5600x@4,6Ghz GPU: ASUS RTX 3080 TUF OC V2
Moderkort
:
ASUS X570-I Gaming Minne: 32GB 3600Mhz
Lagring
:
2xSamsung 970 EVO 500GB
Nätaggregat: Corsair SF750W

Permalänk
Entusiast
Skrivet av Gender Bender:

Det handlar inte bara om pris i överlag. För en överklockare så är grafikkretsen bara ett hinder. Den tar upp onödig plats. De kompromisser som Intel får göra i designen orsakar bara mer värmeutveckling. De har ett väldigt begränsat utrymme för att få så hög yield som möjligt. Plockar man bort grafikkretsen så går det att "möblera om" och göra den ännu mer effektiv för överklockning, vilket är hela poängen med K.

Jag tog de billigaste korten som fanns. Hur är det en oärlig jämförelse när man vill diskutera prisskillnader? Mycket möjligt att jag kommer sitta på ett Z97, men då kommer jag förmodligen också ha ett diskret grafikkort och inget integrerat skit, och då är vi tillbaka på samma poäng som då vi började den här diskussionen. Vad är poängen med att ha en grafikkrets som ingen ändå använder? Väldigt få köper en K-modell och kör integrerat, för man har ingen prestanda att vinna på att överklocka CPU:n när GPU:n flaskar så mycket. Och köper man en K-modell och inte överklockar, ja då är man bara dum.

Så svara på min fråga nu, utan att tänka på produktionspris hit och dit. Varför bör K-modellen ha en integrerad grafikkrets? Utrymmet behöver inte ens användas till fler kärnor, utan man kan göra om strukturen för att t.ex. göra K-modellen mer effektiv när det kommer till värmeutveckling, vilket skulle underlätta överklockning ytterligare.

Allt jag sa från början var att det var onödigt med en integrerad krets i K-modellerna då i stort sätt alla med en K-processor har ett diskret grafikkort. Den är bara där och tar upp onödig plats. Sen så får det gärna vara kvar på resterande processorer, men just K-modellerna ser jag ingen som helst poäng.

Hade du byggt en speldator med ett H81 mATX? Bra då säger vi att datorn med s1150 kör i ett svindyrt Lian Li medan den med s2011 kör i kartongen moderkortet kom i så har vi jämnat ut priset igen. Om vi nu ändå bara ska hitta på fantasibyggen utan verklighetsföranrking när vi jämför priser.

Vadå inte blanda in produktionskostnader? Det är ju precis därför även K-modellerna har en integrerad grafikkrets. Jag tror inte riktigt du förstår hur tillverkningen går till.

Som sagt så finns Ivy Bridge (inte -E) i fyra modeller. Två stycken tvåkärniga med olika mängd cache och olika stor GPU samt två stycken fyrkärniga med olika mängd cache och olika stor GPU. Det var de fyra som Intel tillverkade och de blev sedan över hundra olika modeller. Men i grunden var de en av de fyra. Varför gör man så? Jo för att spara pengar så klart. 3570K var samma CPU som 3330 fast 3570K var högre binnad. Så de tillverkar en massa Ivy Bridge-HM-4 och sedan testas varje enskilt chip för att se hur höga frekvenser det klarar och blir därefter en passande modell. Intel designade inte Ivy Bridge specifikt för 3770K utan det fick bli vad den högsta batchen kretsar klarade av. Intel ville ha iGPU i alla s1150 för att de utgick från att de kunde sälja flest då. Ivy Bridge är inte designad för gamers. Det är en för liten marknad för att designa en egen CPU för gamers som lägger ~10 000 kr på en dator. Det finns för så sådana för att bära den kostnaden. Så igen, de skulle kunna designa en krets baserad på sina enklare CPUer med fler kärnor men du kommer inte vilja betala för den. Du är ju till och med för snål för att köpa s2011 som faktiskt passar in precis på det du vill ha och de är fortfarande inte designade för att sitta i spelburkar. Det är ommärkta och lågt binnade serverprocessorer. Om de inte klarar stabilitetskraven för Xeon så kan de ju kränga dem lite billigare till entusiaster istället för att slänga dem.

Så vad får dig att tro att det på något vis hade blivit billigare om Intel designade en 6-kärnig CPU utan GPU som inte var till för s2011?

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Medlem
Skrivet av Zotamedu:

Jaså? Vad kör du som effektivt kan använda mer än 4 kärnor?

Själv kommer jag kompilera kärnor och alla program jag installerar. Där kommer alla cores till nytta och glädje.
Hade gärna haft fyra 8 cores om det gick.

Visa signatur

Mac Mini M2 Pro
5K

Permalänk
Medlem

Jo jag maxar ut min 3930K i kompilering med, no problems. Hjälpte päronen att renovera badrummet. Designade det i datorn, ritningar mm men gjorde även modeller i blender av deras inredning och la in programmet inklusive fotograferade kakel och klinkers och la in och renderade sedan både bilder och filmer. En film med max renderings kvalite kvalité, 720p, 16:9, 25fps på 37 sek tog ca 84h att rendera med alla 12 trådar maxade i 4Ghz. En 8 kärnig i7 i 4.5Ghz hade inte varit fel kan jag säga.

More CORES!

Permalänk
Medlem
Skrivet av pa1983:

Jo jag maxar ut min 3930K i kompilering med, no problems. Hjälpte päronen att renovera badrummet. Designade det i datorn, ritningar mm men gjorde även modeller i blender av deras inredning och la in programmet inklusive fotograferade kakel och klinkers och la in och renderade sedan både bilder och filmer. En film med max renderings kvalite kvalité, 720p, 16:9, 25fps på 37 sek tog ca 84h att rendera med alla 12 trådar maxade i 4Ghz. En 8 kärnig i7 i 4.5Ghz hade inte varit fel kan jag säga.

More CORES!

Uppskattningsvis Hur lång tid hade det tagit med i7 5960x tror du? Skulle vara kul att veta, som jämförelse.

Visa signatur

Mac Mini M2 Pro
5K

Permalänk
Medlem

körde i 4Ghz på alla kärnor, nu är jag inte den som klockar lika hårt som recensenter då jag kör hårda stabilitetstester och därmed falerar ofta mina OC's med sådana nivåer swec och andra testsidor ofta kör med men kan man köra 4Ghz minst så skalar det nog i bästa fall linjärt. Hade 100% användning på alla trådar men som sagt beror ju på OC och hur bra programmet skalar med flera kärnor.

Men 33% förbättring kan man väl få om båda går i samma frekvens.
ETA var 84h sedan exakt vad det tog mins jag inte men i dom regionerna var det. Men man skulle spara ca 20 timmar så det är nästan en dag sparad med 8 kärnig i7

Sedan beror det väl på om AVX 2.0 spelar någon roll med men jag har en i3 4360, det jag testat i praktiska applikationer så verkar AVX 2.0 inte nyttjas så mycket att det reflekteras nämnvärt i praktiken. Syntetiska tester som intel linpack är ju lite överdrivna då dom i princip enbart använder AVX/AVX 2.0 vilket ger orealistiska prestandaförbättringar jämfört med verkligheten.

Tex renderade jag ca 12s videoklipp med samma inställningar på min i3930K @ 4Ghz på alla kärnor som då är SB-E och min i3 4360 vilket är haswell refresh med 4Mb cache och basfrekvens 3.7Ghz och igen turbo och ja min i7 3930K var väl 3x snabbare ungefär så visst övertag hade haswell i IPC men utöver det verkade x264 inte vinna mycket på AVX 2.0 tex även om jag kompilerat allt från source i gentoo med native så båda hade stöd för alla sina instruktioner.

men jag är glad att jag valde en 6 kärnig CPU när jag upgraderade sisst, specielt då det är rätt lätt nyttjat i lunux då jag haft dubbla processorer sedan singelcore var det ända som fans att köpa och fletrådnigstödet är mycket bättre nu än det nånsin varit. Men vist man klarar sig på både 2 kärnor med SMT som min i3 och 4 kärnor men ja även 6 kärnor tar saker tid med i dag.

Programet jag designade i hette Sweet home 3D, gratis, windows, OSX, och Linux så inget märkvärdigt och något alla kan ha nytta av.

Päronen har en i7 3770 så ja i det läget om dom vill designa själva då jag la in programmet för dom och man vill rendera kvalitiativa bilder så är det rätt gött att inte sitta på en sölig celeron det är säkert, många koppar kaffe senare annars.

Permalänk
Medlem
Skrivet av pa1983:

Jo jag maxar ut min 3930K i kompilering med, no problems. Hjälpte päronen att renovera badrummet. Designade det i datorn, ritningar mm men gjorde även modeller i blender av deras inredning och la in programmet inklusive fotograferade kakel och klinkers och la in och renderade sedan både bilder och filmer. En film med max renderings kvalite kvalité, 720p, 16:9, 25fps på 37 sek tog ca 84h att rendera med alla 12 trådar maxade i 4Ghz. En 8 kärnig i7 i 4.5Ghz hade inte varit fel kan jag säga.

More CORES!

Köpa grafikkort?
http://blog.boxxtech.com/2014/10/02/gpu-rendering-vs-cpu-rend...

Liten annan beräkning än grafik (jag kan inte om det är skillnader här) men som referens tog min överklockade 2500k 2+ timmar för samma sak som mina grafikkort rakade av på 4 minuter

Visa signatur

sCaz har lirat online sedan direktmodemanslutning var hett.
OSW Sim Racing Rig | HTC Vive | 27" Acer 165 Hz IPS G-sync
Gigabyte Z170X-Gaming 7 | 6700K | 16GB DDR4 | 3x Samsung SSD's
ASUS 1080 Ti ROG STRIX OC | EVGA G2 850W | NH-D15 Triple | Steelseries H

Permalänk
Medlem

Lågt från alla program som stödjer GPGPU för rendering. Sedan beror det ju på val av renderingsmotor i blender tex men dom genererar ju lite olika resultat, kan inte påstå att jag tycker GPGPU med GTX780 gick märkbart snabbare med acceptabel kvalité jämfört med min CPU men dock igen expert på det heller.
Dock fullt medveten om att GPGPU är bättre i vissa mjukvaror än CPU men som sagt då ska det också vara fallet och så är det inte i alla program.

Fortfarande lättare att nyttja en kraftig CPU:n än GPU:n överlag. GPGPU är inte direkt praktiska för kompilering tex.