Intel presenterar Skylake-processorer med Iris Pro 580 och 128 MB L4-cacheminne

Permalänk
Medlem
Skrivet av Findecanor:

Jag trodde det var 68020 som hade 256 byte cache och att '030 hade betydligt mer, men jag kanske minns fel.

68020 har en 256 byte instruktions cache och 68030 hade en 256 byte instruktions cache och en 256 byte data cache Så du minns rätt att det var en till cache på en 030, men instruktions cachen är den samma

Visa signatur

Amiga 3000 (1990), CPU: 68060 66MHz, RAM: 2MB chip 470MB Fast, GFX: ECS+RTG zz9000 @ 1920x1080, HDD: 32GB SSD/PATA, 128GB SCSI, DVD-Brännare/SCSI, Chassi: Original Desktop. www.som99.se
Primär workstation: i9-12900KS, 128GB RAM, intel A770 16GB.

Permalänk
Medlem
Skrivet av ajp_anton:

GTX 980 och R9 Fury är "bara" ca 4 gånger snabbare än en Iris 580, så en 25% boost är inte bara en fjärt i rymden.

I vilken benchmark då? Tar gärna en länk.

Permalänk
Skrivet av Sveklockarn:

I vilken benchmark då? Tar gärna en länk.

Den enda refferensen till att detta kan stämma är att GTX 980 anges ha 4,358 GFLOPS, medans Iris Pro 580 anges till 1152 GFLOPS beroende på kylning/TDP (resultat vid 1 GHZ).

I spel så krävs dock även bra drivrutiner, arkitekturspecifika optimeringar och hästnivåer av minnesbandbredd.
Men ja, i specifika scenarion (antagligen GPGPU-beräkningar) där man maxar arkitekturerna utan större krav på minnesbandbredd så borde alltså detta stämma.

Verkligheten med praktiska tillämpningar är dock en helt annan och man får extrema penalties (oproportionerliga) av att tex skruva på upplösningen med intel grafik.

Visa signatur

Dator: EEE901 N270/ 1GB / 20GB SSD ... Kraftigt nedbantat/tweakat Win7 x86 for speeeEED!
Facebook användare? Hatar tidslinjen? gå med i denna FB-grupp:
Undo Timeline ...med lite tur får h*lvetet ett slut!

Permalänk
Medlem
Skrivet av Sveklockarn:

I vilken benchmark då? Tar gärna en länk.

Det var en uppskattning baserat på 3DMark-siffror från NotebookCheck.net. Iris 580 har inga prestandasiffror, så det blir en ännu grovare uppskattning via föregångaren Iris 6200, där jag antar att 580 är 50% snabbare med sina 1,5x antal EUs.

3DMark Fire Strike Standard Graphics:
GTX 980: 12600
Iris 6200: 1740
Prestandaskillnad: 12600/(1740*1,5) = 4,8

3DMark Cloud Gate Standard Graphics:
GTX 980: 84100
Iris 6200: 15400
Prestandaskillnad: 84100/(15400*1,5) = 3,6

3DMark 11 Performance GPU:
GTX 980: 17500
Iris 6200: 2770
Prestandaskillnad: 17500/(2770*1,5) = 4,2

Kanske lite mer än 4x skillnad då, men sen tillkommer uppgraderingen till Gen9. Jag räknar alltså med ca 4x.

Permalänk
Skrivet av ajp_anton:

Det var en uppskattning baserat på 3DMark-siffror från NotebookCheck.net. Iris 580 har inga prestandasiffror, så det blir en ännu grovare uppskattning via föregångaren Iris 6200, där jag antar att 580 är 50% snabbare med sina 1,5x antal EUs.

Kanske lite mer än 4x skillnad då, men sen tillkommer uppgraderingen till Gen9. Jag räknar alltså med ca 4x.

Skull Canyon NUC (NUC6i7KYK) får i "3dmark firestrike 1.1": 1741 poäng, med beta drivers. Samt är den låst till 45W TDP, istället för 65W. I detta exempel är Iris Pro 580 alltså endast 10-15% bättre än Iris Pro 6200 i desktop utförande (ja, jag läste andra siffror hos futuremark för Iris Pro 6200 / i7-5775C).

Visa signatur

Dator: EEE901 N270/ 1GB / 20GB SSD ... Kraftigt nedbantat/tweakat Win7 x86 for speeeEED!
Facebook användare? Hatar tidslinjen? gå med i denna FB-grupp:
Undo Timeline ...med lite tur får h*lvetet ett slut!

Permalänk
Medlem

@lastninja: Jag tror 45W begränsar prestandan rejält, speciellt grafik. Med en eventuell sockel-version (det som man skulle kunna para ihop med ett bra grafikkort) kanske man t.o.m kan höja 65W-begränsningen.

Permalänk
Medlem
Skrivet av ajp_anton:

Det var en uppskattning baserat på 3DMark-siffror från NotebookCheck.net. Iris 580 har inga prestandasiffror, så det blir en ännu grovare uppskattning via föregångaren Iris 6200, där jag antar att 580 är 50% snabbare med sina 1,5x antal EUs.

3DMark Fire Strike Standard Graphics:
GTX 980: 12600
Iris 6200: 1740
Prestandaskillnad: 12600/(1740*1,5) = 4,8

3DMark Cloud Gate Standard Graphics:
GTX 980: 84100
Iris 6200: 15400
Prestandaskillnad: 84100/(15400*1,5) = 3,6

3DMark 11 Performance GPU:
GTX 980: 17500
Iris 6200: 2770
Prestandaskillnad: 17500/(2770*1,5) = 4,2

Kanske lite mer än 4x skillnad då, men sen tillkommer uppgraderingen till Gen9. Jag räknar alltså med ca 4x.

Jag skulle titta på var föregående iGPUs från Intel placerar sig i den här listan, och hur liten skillnad det varit mellan modellerna: http://videocardbenchmark.net/high_end_gpus.html

Tar vi de siffrorna gånger 1,5 så landar vi på samma prestandanivå som ett Radeon HD 5850. Jag vet inte om 980 Ti är så relevant att jämföra med så länge till heller, med tanke på att det är på väg att helt pensioneras inom en mycket snar framtid, till förmån för snabbare kort.

Det är ju kul att det utvecklas, men diskreta grafikkort utvecklas minst lika snabbt.

Permalänk
Medlem
Skrivet av Sveklockarn:

Jag skulle titta på var föregående iGPUs från Intel placerar sig i den här listan, och hur liten skillnad det varit mellan modellerna: http://videocardbenchmark.net/high_end_gpus.htm

Intels föregående topp-GPUer som inte är så TDP-begränsade:
Iris 6200, 48EUs: 1534 (broadwell)
Iris 5200, 40EUs: 1173 (haswell)

Föregående modeller verkar alltså ha ökat i takt med EUs plus 10%. Precis vad jag räknade med alltså, förutom att jag skippade öknigen pga ny arkitektur.

Och givetvis utvecklas både diskreta grafikkort och iGPUer.
Men om dessa CPUer med stark iGPU bara kostar $30* mer än K-versionen så är det ett givet köp för spel som stödjer att iGPUn hjälper till. Bra mycket mer prestanda per krona jämfört med högpresterande GPUer.

* i7-6785R: $370, i7-6700k: $340

Permalänk
Skrivet av the squonk:

Definitivt inte 2011-någonting, detta är laptop cpu:er som rent tekniskt går att anpassa för 1151 men frågan är om Intel vill. 2011 är (E)ntusiast-plattformen där man inte har några grafikdelar, som i dessa, och därför inte heller behöver edram speciellt mycket.

ursäkta, blandade ihop de med de nya Broadwell-e

Visa signatur

PC #1 CPU: R5 1600 @3.8 Motherboard: B350-A PRIME GPU: EVGA 1080 Ti
PC #2 CPU: i7 3770K @4.2 Motherboard: P8P67 GPU: AMD R9 290X

Permalänk
Medlem
Skrivet av Yoshman:

Transistorer kan inte heller rakt av användas till saker som större L1-L3-cache, finns en stark korrelation mellan latens och storlek som tyvärr dikteras av saker som ljusets hastighet. Att storlek på L1$ varit i stort sett konstant under över 10 år beror på att det är så stor man kan göra den och ändå ha 3-4 cyklers latens.

Väldigt få applikationer får någon boost av en väldigt stor cache med relativt hög latens. Många var kritisk till Nehalem som fick en 256 kB L2$, rätt mycket mindre än de 2-4 MB L2$ som Core2 hade. Visade sig att den ungefär halvering av latens som den mindre cachen möjliggjorde i praktiken gav en långt större positiv effekt än minskning i storlek.

Håller med.

Jag själv tyckte denna 256kB ändring var konstig, men de kompenserade den med en L3 Cache. Tex Yorkfield hade ju bara L2 cache, medan AMD gick på L3 vägen. Jag mindes dock tillbaka till P2/3 tiden där man hade extern L2 cache på P2 i halva frekvensen, och därför hög latens. Denna kunde de ersätta från 256-515kB till 128-256kB i en L2 cache direkt på chippet, och då lägre latens och snabbare hastighet.

Hade de inte gjort L3 cachen så stor som den blev, så tror jag dock det hade varit grund till kritiken. Men med prefetch och liknande tekniker så kunde ju CPUn se till att det mest lämpliga fanns tillgängligt i den mindre L2 cachen i de flesta fallen. Och i värsta fall fanns den i L3 cache, dock med ökad latens. I det stora hela är det en bättre lösning.

Lite därför jag tror att "L4" kan vara vägen nu, med eDRAM eller ev HBM liknande. Du kan åter minska L3 cachen, få ner dens latens lite och låta L4 cache vara buffert mellan långsammare DDR3/DDR4, men då i betydligt större storlek än L2/L3.