Intel Core i7-9700K med 8 kärnor och 16 trådar hittar ut på webben

Permalänk
Skrivet av Esseboy:

Jodå, google har börjat tappa spåret, men deras insatser på mjukvaru sidan och open source sidan är inte att kasta under mattan!
Säljer hellre mina inköps uppgifter o.s.v än att betala premium för karttjänster, sökmotorer o.s.v

Om man drar detta längre så är det ganska illa. Totalitära samhällen, där staten har total insyn i ditt liv, "1984" av Orwell - är vad som kan hända i långa loppet. Om du levde i det gamla Sovjet eller Nordkorea, skulle du antagligen mycket hellre betalat pengar än att låta ditt liv styras av en högre makt.

Permalänk
Datavetare
Skrivet av Ozzed:

Och förhoppningsvis också utvecklarna så småningom. Det är extremt surt att 4c8t har blivit någon slags "guldstandard".

Om något så är "guldstandard" 2C/4T, det är vad majoriteten av PC-användarna kör med då bärbara står för minst 70 % av PC-marknaden numera. Hur många tror du upplever att CPU-delen är deras flaskhals?

Nästan alla pekar på AMD när Intel ökar antalet CPU-kärnor på deras mainstream desktop-plattform. Tror det finns två förklaringar till, varav en är minst lika stor drivkraft som AMDs Ryzen.

1. Folk är i allt större utsträckning nöjda med prestanda i sin PC, man måste hitta något vinkel på det hela som får en hyfsat stor grupp att uppgradera. Här kvittar det helt om det finns någon verkligen vinst i uppgraderingen eller ej, räcker med att man PR-mässigt kan ge känslan av att man får något väsentligt bättre.

2. Nvidia. Jen-Hsun Huang må spetsa till saker rätt ordentligt och hans uttalande om att GPUer kommer göra CPUer irrelevant har vissa brister. Men tittar man enbart på klassen av problem som faktiskt kan skala väl med CPU-kärnor tror jag hans uttalande och Nvidias framgångar börjar kännas rejält obekväma för Intel.

Inte mycket har hänt på GPGPU fronten de ca 10 år tekniken funnits, men det börjar lossna allt mer. CUDA är idag väldigt moget och förvånansvärt lätt att använda. OpenCL gänget måste slipa rejält på boiler-plate delen, motsvarande "hello world" har man igång i CUDA på under 5 min medan det i bästa fall tar under timmen för OpenCL utan "wizards" och liknande. När man väl är igång är de ändå väldigt snarlika, så bra där!

Använder man OpenCL på "rätt" typ av problem blir vissa program upp mot dubbelt så snabb på min Surface 4 (i7-6650U, har Iris Graphics) jämfört med min R5-1600. Något som är rätt förväntat då flyttalskapaciteten i HD540 är ungefär den dubbla mot R5-1600 när den använder SSE/AVX. Ställer man AMDs/Intels snabbaste CPUer mot AMDs/Nvidias snabbaste GPUer i "rätt" typ av problem är det typ tio till ett i fördel för GPUerna!

RISE SICS anordnar varje år något de kallar "Multicore Day".

Förra året var det tioårsjubileum på detta event, rätt kul att se tillbakablickarna och visionerna man hade initialt. Forskarna var helt övertygade om att multicore skulle "knäckas", behövdes bara nya programspråk, metoder och liknande. Sammanfattningen av dessa tio slutade i någon mån rätt mycket i moll, det man krasst kan konstatera nu är att en rätt stor klass av problem kommer aldrig fungera väl på multicore-system.

Hur pass väl något kan nyttja många CPU-kärnor är idag i långt större utsträckningen en konsekvens av problemets natur än val av programspråk och hur "lata" programmerarna är. Råkar man stå inför "fel" problem är det lika fruktlöst att försöka optimera det för multicore som att försöka accelerera något förbi ljusets hastighet. Eventuellt inte omöjligt (fungerar ju i Star Trek ), men just nu något vi inte klarar eller ens har en idé om hur det ska lösas.

Men i de flesta specifika fall finns oftast något väsentligt bättre. Och här lär nog Nvidias framfart skrämma Intel. Anställningen av Raj Kaduri var knappast något man gjorde för att tvåla till AMD, det lär vara för att kunna ta sig an Nvidia på ett bättre sätt.

Imorgon går nästa Multicore Day av stapeln (ska försöka hinna dit). En sak man allt mer tittar på nu är om multicore CPUer alls är rätt väg att gå, GPUer krossar ju CPUer på de flesta problem som är dataparallella. Kanske är så att CPUer ska optimeras för vad de gör bäst: hantera de seriella och de udda fallen, en modern CPU är en Jack-of-all-trade då den kan lösa i princip allt.

Slutpanelen handlar ju om "Is the Multicore dead?". Svaret är självklart ett rungande "nej", men vi lär få se allt mer specialiserade kretsar med väldigt många kärnor. Framförallt då x86 har en rad designval som rimmar illa med multicore. T.ex. extremt strikt minneskonsistens, ett annat föredrag är ju om "Weak Memory, and Program Order", här är en annan huvudvärk för x86 då bl.a. ARM har en väldigt "weak memory order" vilket gör den bättre lämpad som multicore CPU. x86 stora styrka är Windows, väldigt mogna verktyg och att ISA problemet är rätt irrelevanta om man designar kretsar med få väldigt starka kärnor.

TR;DR för den stora massan är redan mer än två kärnor en icke-fråga.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av fiskebulle:

Skojigt att folk tror att AMD är Robin Hood. Som om deras intresse är att ta fram CPU'er helt har att göra med filantropiska anledningar.

Vars läser du att folk tror att AMD är Robin Hood?

Visa signatur

HTPC Hemmabio Vinyl
CPU Intel 9900k@4.9GHz - Corsair Hydro H150i PRO RGB 360mm MB Gigabyte Z390 Aorus Master RAM Corsair Vengance LPX 16GB 3200Mhz GFX ASUS GTX 1080 Ti FE 11GB PSU Seasonic PRIME Ultra 1000W Gold SSD Corsair Force MP500 240GB Chassi NZXT H440
Gaming/Workstation
CPU Intel i9-7900X @4500 NZXT Kraken X62 MB Asus Prime X299-A GFX AMD Radeon VII RAM Corsair Vengeance RGB 4x8GB 3000MHz PSU EVGA SuperNOVA 750 G1 SSD Samsung 960 EVO M.2 SSD 500GB Chassi Phanteks Enthoo EVOLV ATX

Permalänk
Medlem
Skrivet av Xinpei:

Z470 för i3:or och i5:or men vill man ha HT så gäller Z570 som kostar det tredubbla... bara för att det är Intel?

Skulle inte förvåna mig Men förstår inte vad Intel tjänar på alla dessa socket byten (bortsett från arkitekturförändringar som kräver det).
Moderkortstillverkarna tjänar ju på det, men man undviker ju gärna att uppgradera cpu pga att man just måste byta mobo också (och ibland mer) vilket Intel förlorar på. Eller mutas dom rejält av mobotillverkarna? ”Ni får en miljard dollar om ni byter socket till nästa gen”

Skickades från m.sweclockers.com

Visa signatur

Dator 1: | i9 9900k | MSI RTX 4080 Ventus 3x OC | ASUS ROG STRIX Z390-F Gaming | Corsair LPX DDR4 32 GB 3200Mhz | FD define S | Samsung 850 EVO 1TB | Samsung 980 NVMe M.2 1TB | Noctua NH-U12S | Corsair RM750x 750W | Windows 11
Skärm 1: ASUS 27" ROG SWIFT PG279Q 1440p @ 165Hz/IPS/G-Sync
Skärm 2: ASUS 27" TUF VG27AQ1A 1440p @ 170Hz/IPS/G-Sync/HDR

Permalänk
Medlem
Skrivet av _Merc_:

Verkligen? För mig Vann AMD redan det här året och det finns ingen anledning till att köpa ifrån Intel som gång på gång har visat att det inte har något intresse att sälja sina bästa grejer till konsumenter.

Det finns Miljarder av skäl att inte köpa Intel (mutor).

Ryzen Refresh nu i början av 2018 är det själv klara valet. Det som ryktas är 15% bättre prestanda främst i enkeltrådad.

9700k kommer förmodligen fortfarande vara några FPS bättre i spel. men priset kommer vara nog vara runt 5000kr vs AMDs billigare icke låsta billigare versioner av sina 8 kärnor 16 trådar.

samt att du inte behöver göra en Delid på AMDs CPUer som du kan överklocka. Det är fortfarande sjukt att Intels K modeller inte kommer med löd IHS när dem ändå är gjorda för att överklockas. Det ska ju snålas på vart ända öre.

Jo, jag ligger i samma tanke, men jag sitter nu här också utan ett vettigt GPU, då jag anser Vega 64 meningslöst. Min poäng är... jag vill se var vi hamnar. Inga tvivel på att Intel kommer ta multum för 9700k, men på tanke med TR kan de inte springa iväg för mycket heller.

Problemet ligger i hur väl 8700k klockar, utan att temps skenar. 4.8Ghz på en enkel luftkylare är ju... underbart. Jag har svårt att se AMDs nod kunna nå de nivåerna, och ändå vara sval. Hela TIM problemet finns ju bara om du har massiv OC, liten kärna eller mycket värme. 7700k är ett ex på hemsk TIM lösning, men till även min förvåning är 8700k betydligt bättre pga större kärna. 9700k kommer ju vara ännu större igen.

Problemet som det är nu mao är... även om du inte gör delid på AMD... kan du ändå knappt klocka. 4Ghz spärren är hård.. och även om tecken finns att 4.2-4.3 ska vara möjligt med nyare tillverkningen, är det ändå vad min 5775c broadwell gör. Förutom att den äter spel... till frukost. Titta på var denna 3.3-3.7Ghz CPU ligger i Sweclockers tester... jo mellan 4-4.2Ghz 6700k och 4.2-4.5Ghz 7700k. OCad till 4Ghz är den sval än, men mer än nog kraftfull pga den är mer effektiv i DX11 med L4an.

Så för mig att byta till en AMD idag... är ren nergradering. De få gångerna jag har nytta av 9+ trådar är inte så många än då de spelar roll, och priset att byta till DD4 svider hårt. Så ska jag göra det, måste det vara en bra uppgradering över allt.

Skrivet av _Merc_:

Mer att de har problem med att AMD säljer bättre produkter till ett rimligare pris.

Med det sagt ovan, så vill jag ändå hålla med dig. Om man sitter på riktigt gammal dator (1:e i5 tex) och vill ha en prisvärd uppgradering, men möjlighet att gå vidare, är AMD helt klart ett alternativ. Problemet är minnet... och att man nästan tvingas OCa och pilla för att verkligen få bra prestanda ur den.

Här är AMD akilleshäl, för du måste trixa för att få snabbt RAM stabilt, med samtidigt så behöver du snabbt RAM för att få bra prestanda ur den (pga sina interconnects). Så hur detta är justerat i Ryzen+ är vad som intresserar mig. 15% högre single IPC är en sak... kanon. Men det är också viktigt att det går att bygga, utan kunskap i hur man OCar, något tyvärr man kan Intel idag.

Skulle jag tvingas handla ny dator idag hade jag dock valt AMD... pga Ryzen+ ska kunna köra på befintliga moderkort. Du har en framtidsplan i den plattformen som Intel totalt saknar idag. Z390 kommer nog lösa det, hoppas jag, men som det är nu är Z370 en död plattform. Skulle inte förvåna mig öht om intel tom byter CPU sockel till denna, då de haft problem att leverera effekten som behövs redan på 6-core (som är varför Z270 inte fungerar med dem).

Så min poäng? Hypa inte den. Ta en titt på vad för konkurrens den kommer mot. Titta på både fördelar, nackdelar och potential. Sen avgör. Gäller både Ryzen+ och 9700k/Z390.

Skrivet av fiskebulle:

Skojigt att folk tror att AMD är Robin Hood. Som om deras intresse är att ta fram CPU'er helt har att göra med filantropiska anledningar.

Ser det lite mer som Intel är sheriffen, som skattar och åter skattar stackars folket.
Inget har skett... öht på 5 år.

Nu på 2 generationer, inte ens med en ny arkitektur, och poff, går vi från 4-core till 8-core mainstream. Från 10-core till 18-core HEDT och från 2/4 core CPU till 4/6 core (15W/45W) laptop.
Det är satans mycket teknik Intel vägrat släppa, som de kunde ha gjort något av... under dessa 5 år. För du tror väl inte "allt" gjordes nyupptäckt på <1 år? Mycket har legat i pipelinen länge och bara väntat på en anledning.

Så AMD blir som Robin Hood pga de tvingar fram mer från andra tillverkare. Tillverkare som i dagsläget håller inne allt, om inte konkurrens finns. Njut tex av 1070Ti, det är enda Nvidia kortet du lär se förrän Q3 2018... nästan 1 år. För AMDs vega kunde inte pressa fram något.

Permalänk
Medlem

@IcedEarth: Oklart om någon specifikt kallat dom Robin Hood, men det jag läser lite mellan raderna.

@Paddanx: Jo, intel är definitivt ingen hjälte i sammanhanget, och det visar sig mer och mer uppenbart att pga. AMD's återfunna förmåga att konkurrera så svettas intel och lanserar äntligen produkter som är verkliga uppgraderingar för folk.

Men AMD gör det inte för någon annans skull än sin egen - Som alla vinstdrivande företag. AMD har mycket att tjäna på att framstå som en underdog.

Permalänk
Medlem
Skrivet av fiskebulle:

@Paddanx: Jo, intel är definitivt ingen hjälte i sammanhanget, och det visar sig mer och mer uppenbart att pga. AMD's återfunna förmåga att konkurrera så svettas intel och lanserar äntligen produkter som är verkliga uppgraderingar för folk.

Men AMD gör det inte för någon annans skull än sin egen - Som alla vinstdrivande företag. AMD har mycket att tjäna på att framstå som en underdog.

Håller helt med.

Men det lämnar ett intressant koncept och teori. Borde man därför alltid stöda underdogen? För som det är nu, har AMD varit underdog så länge att folk glömmer hur stora de varit. Detta är ju varför de fått denna "hjältes stämpel".

De har satsat mycket på att göra öppna tekniker, standarder som inte är låsta och delar som faktiskt gynnar både oss OCH dem. Så... visst gör AMD detta för egen vinning. Men om vi också vinner på det, borde inte vi... tänka lika?
Sekunden AMD kör över oss, så kan vi heja på underdog Intel istället.

Men AMD har gett oss 64-bit med 32-bit kompatibilitet, Intel 64-bit var låst till 64-bit. Intel ville köra RAMBUS, vi valde öppna DDR istället. Intel tyckte 2-4Core räckte, AMD gav oss prisvärda 16-trådiga CPUer. Nvidia vill trycka på oss DX11 till 2050 verkar det som och G-synk med dyra delar, AMD vill få fram DX12 och Free-Sync som standard.

Underdog eller inte. Vinstdrivande eller inte. Är inte brist på fria tekniker och utveckling något negativt?

Problemet ligger ju att utan någon konkurrens så förlorar vi konsumenter något enormt. Och det ser tyvärr ut som att tiden med detta är nu kommen till Nvidia. Så vi får nu kanske flera år med nya fina CPUer, konkurrens osv... men vi kommer sitta med samma 1080 Ti prestanda i 1-2 år+ till... kanske mer.

Mao, vilket är viktigast egentligen? För vår egen skull? Långsiktigt och kortsiktigt?

Permalänk
Medlem

Kanske inte påpekats lika ofta... men om man vill kan man få det att se ut som om man ska räkna med att Intel har 20-40% bättre min frames i 1080P.

Ja, iaf om man inte överklockar system likvärdigt och bestyckar båda system med vassa minnen.
3466 och de ser likvärdiga ut enligt mig förutom då WD2.

https://youtu.be/S6yp7Pi39Z8?t=7m41s - med Vega

https://youtu.be/p--iuQhujqI?t=2m7s - med 1080

Om jag skulle bygga ett system i dag skulle jag optimera det på liknande sätt. Borde väl de flesta swec?
Varför vill man jämföra ooptimerad Zen mot överklockad i7?
Jag tror att alla här vet varför om de tänker till.

Visa signatur

[UCP-1000] 2700K@4.6 | GTX1070 | m4 256GB | 360 mm
[NEO] 5800X3D -30 | 64GB E-Die @ 3200C14 | 7900 XTX | 2*XPG SX6000 Pro 1TB M.2 |420 mm x2
LG OLED B9 65" | Logitech Z906 | Beyer DT880

Permalänk
Medlem
Skrivet av Yoshman:

Om något så är "guldstandard" 2C/4T, det är vad majoriteten av PC-användarna kör med då bärbara står för minst 70 % av PC-marknaden numera. Hur många tror du upplever att CPU-delen är deras flaskhals?

Nästan alla pekar på AMD när Intel ökar antalet CPU-kärnor på deras mainstream desktop-plattform. Tror det finns två förklaringar till, varav en är minst lika stor drivkraft som AMDs Ryzen.

1. Folk är i allt större utsträckning nöjda med prestanda i sin PC, man måste hitta något vinkel på det hela som får en hyfsat stor grupp att uppgradera. Här kvittar det helt om det finns någon verkligen vinst i uppgraderingen eller ej, räcker med att man PR-mässigt kan ge känslan av att man får något väsentligt bättre.

2. Nvidia. Jen-Hsun Huang må spetsa till saker rätt ordentligt och hans uttalande om att GPUer kommer göra CPUer irrelevant har vissa brister. Men tittar man enbart på klassen av problem som faktiskt kan skala väl med CPU-kärnor tror jag hans uttalande och Nvidias framgångar börjar kännas rejält obekväma för Intel.

Inte mycket har hänt på GPGPU fronten de ca 10 år tekniken funnits, men det börjar lossna allt mer. CUDA är idag väldigt moget och förvånansvärt lätt att använda. OpenCL gänget måste slipa rejält på boiler-plate delen, motsvarande "hello world" har man igång i CUDA på under 5 min medan det i bästa fall tar under timmen för OpenCL utan "wizards" och liknande. När man väl är igång är de ändå väldigt snarlika, så bra där!

Använder man OpenCL på "rätt" typ av problem blir vissa program upp mot dubbelt så snabb på min Surface 4 (i7-6650U, har Iris Graphics) jämfört med min R5-1600. Något som är rätt förväntat då flyttalskapaciteten i HD540 är ungefär den dubbla mot R5-1600 när den använder SSE/AVX. Ställer man AMDs/Intels snabbaste CPUer mot AMDs/Nvidias snabbaste GPUer i "rätt" typ av problem är det typ tio till ett i fördel för GPUerna!

RISE SICS anordnar varje år något de kallar "Multicore Day".

Förra året var det tioårsjubileum på detta event, rätt kul att se tillbakablickarna och visionerna man hade initialt. Forskarna var helt övertygade om att multicore skulle "knäckas", behövdes bara nya programspråk, metoder och liknande. Sammanfattningen av dessa tio slutade i någon mån rätt mycket i moll, det man krasst kan konstatera nu är att en rätt stor klass av problem kommer aldrig fungera väl på multicore-system.

Hur pass väl något kan nyttja många CPU-kärnor är idag i långt större utsträckningen en konsekvens av problemets natur än val av programspråk och hur "lata" programmerarna är. Råkar man stå inför "fel" problem är det lika fruktlöst att försöka optimera det för multicore som att försöka accelerera något förbi ljusets hastighet. Eventuellt inte omöjligt (fungerar ju i Star Trek ), men just nu något vi inte klarar eller ens har en idé om hur det ska lösas.

Men i de flesta specifika fall finns oftast något väsentligt bättre. Och här lär nog Nvidias framfart skrämma Intel. Anställningen av Raj Kaduri var knappast något man gjorde för att tvåla till AMD, det lär vara för att kunna ta sig an Nvidia på ett bättre sätt.

Imorgon går nästa Multicore Day av stapeln (ska försöka hinna dit). En sak man allt mer tittar på nu är om multicore CPUer alls är rätt väg att gå, GPUer krossar ju CPUer på de flesta problem som är dataparallella. Kanske är så att CPUer ska optimeras för vad de gör bäst: hantera de seriella och de udda fallen, en modern CPU är en Jack-of-all-trade då den kan lösa i princip allt.

Slutpanelen handlar ju om "Is the Multicore dead?". Svaret är självklart ett rungande "nej", men vi lär få se allt mer specialiserade kretsar med väldigt många kärnor. Framförallt då x86 har en rad designval som rimmar illa med multicore. T.ex. extremt strikt minneskonsistens, ett annat föredrag är ju om "Weak Memory, and Program Order", här är en annan huvudvärk för x86 då bl.a. ARM har en väldigt "weak memory order" vilket gör den bättre lämpad som multicore CPU. x86 stora styrka är Windows, väldigt mogna verktyg och att ISA problemet är rätt irrelevanta om man designar kretsar med få väldigt starka kärnor.

TR;DR för den stora massan är redan mer än två kärnor en icke-fråga.

Det jag i så fall inte förstår är varför Intel ens bemödar sig med RnD. De har ju redan idag den starkaste lingeltrådsprestandan, både på desktop och bärbara. Som jag skrev, vore det då inte bättre investerade pengar med utbildning?

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Medlem
Skrivet av ExcZist:

Kul för alla som precis köpt 8700k 😂😂

Har ägt 3930K, 4930K, 5930K, 4790K, 6700K, 7700K.
Äger en 8700K och jag kommer köpa 9700K.
För min egen del är det inte det minsta konstigt.

Visa signatur

Intel i9 12900K | Asus Z690 Apex | 32GB G.Skill DDR5 6400C32
Asus Strix 2080Ti | Asus Rog Swift PG279Q | 2xWD Black SN850
Corsair AX1200i | Lian Li O11DXL Dynamic | EKWB Custom loop

Permalänk
Medlem
Skrivet av fiskebulle:

Skojigt att folk tror att AMD är Robin Hood. Som om deras intresse är att ta fram CPU'er helt har att göra med filantropiska anledningar.

Jo klart det är så... alla företag vill väl ge bort saker gratis eller ?? Vart är min 16-core free sample

Permalänk
Datavetare
Skrivet av Ozzed:

Det jag i så fall inte förstår är varför Intel ens bemödar sig med RnD. De har ju redan idag den starkaste lingeltrådsprestandan, både på desktop och bärbara. Som jag skrev, vore det då inte bättre investerade pengar med utbildning?

Tycker du Intels huvudfokus för deras FoU verkar ligga på deras x86 kärnor? Tycker det ser ut som man med ljus och lykta försöker hitta andra områden, vilket pekar på att man är väldigt medveten om att vägens ende är snart nådd kring generell IPC ökning.

Man har fortfarande den starkaste prestanda per kärna, men man har inte längre den högsta IPCn, det har Apple. Är nog bara en tidsfråga innan Apple har den högsta absolut enkeltrådprestandan i mobilt format (dels har Apple i det närmste obegränsade FoU resurser, dels är Aarch64 en dröm att jobba med för kompilatortillverkare jämfört med x86_64).

Finns dock ändå mycket att göra inom specifika områden, det även på sätt som gynnar den normala desktopmarknaden. Bättre GPGPU stöd är ett.

Något både Intel, Apple m.fl. jobbar hårt med nu är något som kallas automatic vectorization. Något man teoretiserat om länge, men är först nu det finns något med rätt typ av infrastruktur så detta kan realiseras i verkligheten: LLVM (Apple använder redan LLVM, Microsoft stödjer numera LLVM i VS och gissar att man kommer överge sin egen kompilator med tiden).

Många former av map-reduce kan LLVM idag parallellisera automatiskt. För att ta ett extremt enkelt exempel

float mean(float *arr, int arr_len) { float sum = 0; for (int i = 0; i < arr_len; i++) { sum += arr[i]; } return sum / arr_len; }

Finns ingen explicit parallellism alls i exemplet ovan, men LLVM inser att man kan dela upp detta i flera mindre problem och köra med SSE/AVX/NEON/motsvarande. Det kan ge upp till x8 boost (AVX, x4 med SSE/NEON). Ett exempel på något som kan parallelliseras med SIMD, men inte med flera kärnor (kostnaden att sprida ut och samla ihop data från delproblemen kostar mer än vinsten att köra på flera kärnor om inte arr_len är löjligt stor alt. att man gör något väsentligt dyrare än addition).

Machine learning är hett, det är i stort uppdelat i två delar: "training" som just nu domineras av Nvidia, här har Intel insett att man är chanslös med en CPU så man har köpt flera företag som designar specifikt kisel för detta. Det andra är "inference" som Intel just nu dominerar (använda ett tränat neutralt nätverk till att göra förutsägelser), här lär man fortsätta att investera. AVX512 har delar som är helt dedicerat till detta område.

Och Nvidias VD har som sagt en lite förenklad bild i sin domedagsprofetia kring CPUer. GPUer är brutala på de flesta typer av dataparallella problem, men på serversidan är många problem uppgiftsparallella och där är ett område där multicore CPUer än så länge är det bästa som finns att tillgå!

Utbildning ska man absolut göra, dock knappast något Intel har som huvudfokus då det inte specifikt gynnar dem. Varje börsnoterad företag ska i slutändan tänka på vad som är bäst för deras ägare...

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Inte mycket har hänt på GPGPU fronten de ca 10 år tekniken funnits, men det börjar lossna allt mer. CUDA är idag väldigt moget och förvånansvärt lätt att använda. OpenCL gänget måste slipa rejält på boiler-plate delen, motsvarande "hello world" har man igång i CUDA på under 5 min medan det i bästa fall tar under timmen för OpenCL utan "wizards" och liknande. När man väl är igång är de ändå väldigt snarlika, så bra där!

Kom att tänka på Shaders compo, https://www.youtube.com/watch?v=O-1zEo7DD8w
Känns ju som att CUDA är väldigt lättjobbat. Om vi nu bara kunde få till något liknande på CPU sidan.

Permalänk
Avstängd
Skrivet av MikaelSwahn:

Om man drar detta längre så är det ganska illa. Totalitära samhällen, där staten har total insyn i ditt liv, "1984" av Orwell - är vad som kan hända i långa loppet. Om du levde i det gamla Sovjet eller Nordkorea, skulle du antagligen mycket hellre betalat pengar än att låta ditt liv styras av en högre makt.

Du använder ett felaktigt argument aka snöbollseffekten. Bara för att man tillåter en sak betyder det inte att vi kommer att låta det gå till 1984 skala...

Visa signatur

2600x||16GB @3000Mhz 14-14-10-14-32-46||Vega 64||1TB SSD||HX1000 plat||FD R6 TG vit||CH VII||H100i V2||SST-ARM22SC||SG 32" QHD 144 Hz VA|| https://folding.extremeoverclocking.com/team_summary.php?s=&t...

Permalänk
Medlem
Skrivet av xcluzive:

Skulle inte förvåna mig Men förstår inte vad Intel tjänar på alla dessa socket byten (bortsett från arkitekturförändringar som kräver det).
Moderkortstillverkarna tjänar ju på det, men man undviker ju gärna att uppgradera cpu pga att man just måste byta mobo också (och ibland mer) vilket Intel förlorar på. Eller mutas dom rejält av mobotillverkarna? ”Ni får en miljard dollar om ni byter socket till nästa gen”

Skickades från m.sweclockers.com

De tjänar på det genom försäljning av nya chipsets.

Visa signatur

Fractal Design Meshify 2 Compact w/ Dark Tint | Intel i5 12600K | Asus ROG Strix B660-F | 32 GB Corsair DDR5 5600 MHz CL36 | MSI Geforce RTX 3060 TI Ventus 2X OCV1 | 512 GB Samsung Pro 850 SSD + 2TB WD Black SN850 NVME PCI-E 4.0 | Corsair RM750X |

Permalänk
Medlem
Skrivet av Esseboy:

Så du anser att Intel byggde sockeln 1151 helt utan tankar på att stöda framtida flerkärniga CPUer? AM4 har runt dubbelt så många strömkontakter sockeln, Intel snålade och fick kläma in fler i version 3 av sockeln! Intels CPUer har förut haft lödd IHS och tror inte ett dugg på deras bortförklaringar.

AMD går också hårt för att modularisera sin akitektur (Zeppelin modulerna och infinity fabric) fört att pressa priserna, men om dom verkligen skulle satsa på att snåla skulle dom använda silikon i sin TIM istället.

Sen har vi 2066 platformen som begränsar antalet PCI-E banor med billigare modeller, kräver en nyckel för hårdvaru RAID, dålig VRM kylning och kostar sjuka summor!

På svart och vitt är AMD för tillfället företaget att stöda så länge man använder deras produkter i applikationer där du får samma prestanda per krona Speciellt med tanke på Ryzen 2 och Ryzen refresh.

Konstigt att du blandar in Intel trots att jag inte nämnde Intel alls. Finns nog ingen entusiast som stödjer eller gillar det Intel gör med sina socklar, TIM eller att de låser in oss till dyrare upplåsta modeller för överklockning. Det enda jag försökte få fram är allt AMD gör är ur ett ekonomiskt perspektiv. Att tex designa en sockel och behålla den över flera år är väldigt ekonomiskt.
Intel kan tvinga på oss nya socklar och processorer genom att de redan har en kundbas och de ekonomiska musklerna att genomföra det.

Visa signatur

Ryzen 5600X | Asus B550-F Gaming | 32GB G.Skill Trident Z 3600mhz | Powercolor 6800 XT | Seasonic Prime TX 850W

Athlon 64, du har alltid en plats i mitt hjärta. <3

Permalänk
Medlem
Skrivet av Xinpei:

Men samtidigt är det mindre lönsamt ur ett försäljningsperspektiv. AMD skulle må bättre av merförsäljning än den taktik de kör med nu som helt enkelt handlar om att få tillbaka förtroendet hos kunderna. En jämförelse med Intel kan göras när de låg efter AMD. Då försökte de precis som nu. Så nog är AMD mer användarvänliga än Intel även om det beror snarare på ekonomiska orsaker. Intel däremot bryr sig sällan om användarvänligheten.. så länge de säljer.

Håller helt med. Det hela är riktigt smart och bra för oss kunder. Det är därför som Intel fått sån panik och lagt i överväxeln.

Visa signatur

Ryzen 5600X | Asus B550-F Gaming | 32GB G.Skill Trident Z 3600mhz | Powercolor 6800 XT | Seasonic Prime TX 850W

Athlon 64, du har alltid en plats i mitt hjärta. <3

Permalänk
Avstängd
Skrivet av Moriquende:

Konstigt att du blandar in Intel trots att jag inte nämnde Intel alls. Finns nog ingen entusiast som stödjer eller gillar det Intel gör med sina socklar, TIM eller att de låser in oss till dyrare upplåsta modeller för överklockning. Det enda jag försökte få fram är allt AMD gör är ur ett ekonomiskt perspektiv. Att tex designa en sockel och behålla den över flera år är väldigt ekonomiskt.
Intel kan tvinga på oss nya socklar och processorer genom att de redan har en kundbas och de ekonomiska musklerna att genomföra det.

Tror inte det kostar speciellt mycket att designa om en sockel, och nog därför intel gör det

Folk kommer oftast att köpa med peningspungen i högsta grad, men jag brukar ofta välja schystare företag om det inte skiljer mycket i pris/prestanda. På det viset kan vi som kunder påverka företagen genom att visa att vi inte tålererar pennings mjölkande metoder...

Som sagt, man får välja, antingen går man för maximal prestanda och accepterar att man blir mjölkad på extra pengar av företagen, eller så väljer man dom mindre men schystare företagen.

Ämnade inte att sätta ord i din mun, ber om ursäkt om jag antog något du inte sa!

Visa signatur

2600x||16GB @3000Mhz 14-14-10-14-32-46||Vega 64||1TB SSD||HX1000 plat||FD R6 TG vit||CH VII||H100i V2||SST-ARM22SC||SG 32" QHD 144 Hz VA|| https://folding.extremeoverclocking.com/team_summary.php?s=&t...

Permalänk
Skrivet av Esseboy:

Du använder ett felaktigt argument aka snöbollseffekten. Bara för att man tillåter en sak betyder det inte att vi kommer att låta det gå till 1984 skala...

Nej, men det är så det börjar i liten skala. Sen är det försent. Du ger gärna bort massa information om dig, för att slippa betala för mail, etc. Men detta måste man vara mycket observant på. Det är ungefär som IPRED lagen och massa andra lagar som röstats igenom. Varje lag tycker folk inte är en stor grej, men alla lagar är designade för att samspela så myndigheterna kan göra exakt de vill. Myndigheterna får stycka upp total kontroll i smålagar som var och en låter ofarlig och kan röstas igenom. Men när man accepterar första smålagarna så krattar man vägen för total kontroll. Det är just detta man måste vara uppmärksam på. Jag gör inget olagligt, men jag vill ha integritet. Alla skiter på toaletten men jag vill inte att myndigheterna ska se det på kamera. Lite privatliv vill jag ha trots att jag inte har något att dölja.

Ungefär som om man jobbar med maffian, man låter de göra en liten tjänst åt en, och man gör tillbaka en liten tjänst, och vips har det eskalerat. Man måste vara försiktig i början. Om 30 år kanske folk tänker tillbaka och säger "om jag hade vetat hur det skulle blivit, så skulle jag gladeligen betalat för en mailtjänst, nu har vi istället sovjet och total kontroll i hela världen".

Permalänk
Avstängd
Skrivet av MikaelSwahn:

Nej, men det är så det börjar i liten skala. Sen är det försent. Du ger gärna bort massa information om dig, för att slippa betala för mail, etc. Men detta måste man vara mycket observant på. Det är ungefär som IPRED lagen och massa andra lagar som röstats igenom. Varje lag tycker folk inte är en stor grej, men alla lagar är designade för att samspela så myndigheterna kan göra exakt de vill. Myndigheterna får stycka upp total kontroll i smålagar som var och en låter ofarlig och kan röstas igenom. Men när man accepterar första smålagarna så krattar man vägen för total kontroll. Det är just detta man måste vara uppmärksam på. Jag gör inget olagligt, men jag vill ha integritet. Alla skiter på toaletten men jag vill inte att myndigheterna ska se det på kamera. Lite privatliv vill jag ha trots att jag inte har något att dölja.

Ungefär som om man jobbar med maffian, man låter de göra en liten tjänst åt en, och man gör tillbaka en liten tjänst, och vips har det eskalerat. Man måste vara försiktig i början. Om 30 år kanske folk tänker tillbaka och säger "om jag hade vetat hur det skulle blivit, så skulle jag gladeligen betalat för en mailtjänst, nu har vi istället sovjet och total kontroll i hela världen".

Fortfarande snöbollseffekten du snackar om.

Visa signatur

2600x||16GB @3000Mhz 14-14-10-14-32-46||Vega 64||1TB SSD||HX1000 plat||FD R6 TG vit||CH VII||H100i V2||SST-ARM22SC||SG 32" QHD 144 Hz VA|| https://folding.extremeoverclocking.com/team_summary.php?s=&t...

Permalänk
Medlem
Skrivet av Moriquende:

Konstigt att du blandar in Intel trots att jag inte nämnde Intel alls. Finns nog ingen entusiast som stödjer eller gillar det Intel gör med sina socklar, TIM eller att de låser in oss till dyrare upplåsta modeller för överklockning. Det enda jag försökte få fram är allt AMD gör är ur ett ekonomiskt perspektiv. Att tex designa en sockel och behålla den över flera år är väldigt ekonomiskt.
Intel kan tvinga på oss nya socklar och processorer genom att de redan har en kundbas och de ekonomiska musklerna att genomföra det.

Beror lite på vad du menar med ekonomiskt perspektiv.

AMD har fastlöd IHS, som måste valideras och testas noga, och kostar ändå att göra vs TIM. (Som de ändå inte fått bra sedan Ivy).

AMD har låst upp alla modeller i hela rangen, vilket ur ren ekonomiskt synpunkt är dumt, om du inte räknar det som något folk vill ha. Du säljer ju trots allt samma kärna, för mindre pengar när folk överklockar den billigare.

Och Intels mainstream plattform sockel har mer eller mindre sett lika ut sedan Sandybridge 1155. Tror dom delvis lika 1156 i5orna innan det också. Därför har du kylare som passar i samma. Du kan ofta använda om samma skydd för sockeln och det enda som skiljer är pinnarnas antal och lite små veck och hack för att inte man ska kunna sätta fel.
Men det är samma retention arm, samma flip-design och samma storlek på allt. Kostar inte mycket "att designa om", speciellt när du tvingar alla att köpa nytt, och säljer den nya sockeln till moderkort tillverkarna ändå.

Mao, hade de gjort "1165-eller något" kunde de i teorin behållit samma design från Nehalem till Broadwell, om det inte vore för alla experiment man gjorde med Haswells strömleverans, som trots allt ändå fick plats på 1150. Alla kör samma PCI-E 16 lanes + 4. Alla kör dual channel DDR3, 4 slots. Alla kör runt samma spänning på 0,8-1,4V. Alla kör runt samma frekvenser. Alla bygger på samma Ringbuss-teknik. Men istället valde man att mjölka lite extra istället från konsumenterna "för man var rädd för att få problem som med 775 igen".

Ändå... gör man 2011 / 2011-2 / 2011-3 och nu 1151 och 1151-2. Så... what gives?
Nu sitter vi här med samma "problem" som 775... men utan någon kompatibilitet öht. Tack Intel.

AMD har ju genom hela FM2, FM2+ och FM3 serierna försökt iaf hålla lite kompatibilitet. Har det med ekonomi att göra? Nej... det är ju mer ekonomiskt att tvinga dig att köpa allt nytt, då både Intel och AMD säljer ju socket designen också.

AMD har nu designat en sockel som ska passa i många år, med marginaler att kunna göra det. De har dessutom valt att inte gå över till den typ som Intel gjorde (LGA), för att slippa garantier med skador på CPU pinnarna, utan stannat på PGA. Intel gjorde detta av girigheten att istället för att designa en bättre lösning och hantera garantier, flytta problemet till moderkortet med extremt tunna och super känsliga pinnar och moderkort-tillverkarna säger till konsumenten "skyll dig själv" om du ens nyser nära dem. Så... vi kunderna får betala igen och Intel sparar mer.

Och när AMD väl gick över till LGA med TR... gjorde man en speciell design av den, som ska vara relativt svår att skada pinnarna och göra fel på. Mao.. de löste Intels problem...

Så. Vem är det egentligen som gör sakerna "ekonomiskt"? AMD gör hel del saker, satsande, som verkligen inte kan klassas som ekonomiska. Intel gör inte ekonomiska investeringar alltid, men de gör beslut som ger mer vinst i slutändan varje gång även om vi får betala för det. Tror det finns exempel ur bådas bok som klassas "ekonomiskt" här.

Permalänk
Skrivet av Esseboy:

Fortfarande snöbollseffekten du snackar om.

Japp. Man måste vara försiktig så det inte blir en stor snöboll. Det börjar litet, man sparar någon hundralapp. Och mer och mer, till slut lever du i Sovjet med total kontroll.

Nu är det överdrivet, men jag menar bara att man måste vara försiktig med vad man ger bort. Du ger bort info om dig själv. Det är ju helt klart värt massa pengar för företagen. Det är värdefull info, så pass att företagen värderar din info till tusen kronor. Facebook värderar sina data om varje användare till $140.
http://www.businessinsider.com/price-per-user-for-whatsapp-20...

Företagen skänker aldrig bort saker gratis, de har en plan för att få tillbaka pengarna mångdubbelt senare. Det är en investering som de gör, och de vill ha minst 10% avkastning per år. Din information är värd mycket för företagen. Facebook är värd många miljarder SEK, pga folk lämnar bort sin info. Att skänka bort informationen är inget att ta lätt på. Var medveten om det.

Permalänk
Avstängd
Skrivet av MikaelSwahn:

Japp. Man måste vara försiktig så det inte blir en stor snöboll. Det börjar litet, man sparar någon hundralapp. Och mer och mer, till slut lever du i Sovjet med total kontroll.

Nu är det överdrivet, men jag menar bara att man måste vara försiktig med vad man ger bort. Du ger bort info om dig själv. Det är ju helt klart värt massa pengar för företagen. Det är värdefull info, så pass att företagen värderar din info till tusen kronor. Facebook värderar sina data om varje användare till $140.
http://www.businessinsider.com/price-per-user-for-whatsapp-20...

Företagen skänker aldrig bort saker gratis, de har en plan för att få tillbaka pengarna mångdubbelt senare. Det är en investering som de gör, och de vill ha minst 10% avkastning per år. Din information är värd mycket för företagen. Facebook är värd många miljarder SEK, pga folk lämnar bort sin info. Att skänka bort informationen är inget att ta lätt på. Var medveten om det.

Tja du, att likställa den information Facebook lämnar ut med att installera kamera i varje hem är lite roligt. Folk är ren rädda för staten som det är så det skulle aldrig gå igenom.

Låt företagen snylta på våran info, vi som är mindre lättpåverkade tjänar ju stor kovan på det!

Visa signatur

2600x||16GB @3000Mhz 14-14-10-14-32-46||Vega 64||1TB SSD||HX1000 plat||FD R6 TG vit||CH VII||H100i V2||SST-ARM22SC||SG 32" QHD 144 Hz VA|| https://folding.extremeoverclocking.com/team_summary.php?s=&t...

Permalänk
Skrivet av Esseboy:

Tja du, att likställa den information Facebook lämnar ut med att installera kamera i varje hem är lite roligt. Folk är ren rädda för staten som det är så det skulle aldrig gå igenom.

Låt företagen snylta på våran info, vi som är mindre lättpåverkade tjänar ju stor kovan på det!

Jag tror det är tvärtom. Företagen tjänar storkovan på att du lämnar bort din info. De tjänar miljarder på att folk gör det. Hur mycket är FB värt? Hur kan det vara värt så mycket?? Företaget innehåller ju ingenting intressant. Jo, det innehåller massa data om användare. Den nya "oljan" är data. Och data är värt massor så pass att grundarna blir mång-mång miljardärer.

Permalänk
Medlem
Skrivet av RPGWiZaRD:

Får hoppas att nästa generations Ryzen ger Intel såpass hård konkurrens att Intel blir tvugna att tillåta Z370 kompatibilitet med 9-serien men det är nog önsketänkande. Däremot kan jag väl tänka mig Z390 kompabilitet bara för att (troligtvis) Z470 kommer vara så få månader emellan varandra och Z390 kommer vara mer "premium" påkostade varianter så...

Jag skulle inte tro det framförallt för att Z370 verkar vara typ samma som Z270 och Z170 och sockeln ju är samma så det är ju redan tre processorer på ~samma sockel och chipset.

Förr brukade de väl köra en vända av tock-tick (för det var väl i den ordningen så att säga på moderkorten?) på dem, nu är det ju kanske dags för nästa.

Och det finns ju en hel del att uppgradera, något moderkort hade 5 gbit lan men fler usb 3.1 gen 2, stöd för optanedimm kanske, möjligen nya hdmistandarden, uppgradera bussen emellan processor och chipset till fler lanes eller pci-express 4 hade ju varit lämpligt med då det känns så jävla snålt nu.