Intel Haswell med GT3e får 128 MB L4-cacheminne

Permalänk
Medlem
Skrivet av ajp_anton:

Se det mer som L4-cache (som nyheten även säger) och inte som grafikminne. Den kan användas av både CPU och GPU (enligt någon sida), och räcker det inte så finns alltid vanligt (långsamt) RAM i bakgrunden.

Fast i Lx-Cache minnen använder man SRAM - där av de låga kapaciteterna. De 128MB använder sig av den långsammare (e)DRAM tekniken men ändå med så låg kapacitet. Idag har vi telefonen med 1024MB eDRAM. Det är de som förvånar mig

Visa signatur

~. Citera så jag hittar tillbaka .~

Permalänk
Avstängd
Skrivet av xapa112:

Känner att de borde prioritera CPU kraft i stället.....
Annars är 128 MB riktigt, riktigt imponerande.

För att...?! Den kraft som är idag räcker och blir över, all kraft utnyttjas inte ens i dagens

Skickades från m.sweclockers.com

Visa signatur

MY ATTITUDE IS A RESULT OF YOUR ACTIONS! SO IF YOU DON'T LIKE MY ATTITUDE, BLAME YOURSELF!!

Permalänk
Medlem
Skrivet av Devil May Cry:

Dela upp CPU marknaden i CPU med integrerat grafikkort och en utan integrerat grafikkort. Att utvecklingen går framåt är fantastiskt men någonstans känner jag att vi på forumet som knappt använder GPU-delen betalar för det ändå.

Vi som överklockar och inte vill betala för något vi aldrig kommer att använda kan köpa en svalare och billigare processor och de som behöver köpa en processor med integrerat grafikkort för en dyrare slant kan göra det.

Notera att GT3 inte kommer komma i till exempel K varianterna utan i framförallt i laptops och i R varianterna på desktopsidan. Eller du kanske menar att man ska ta bort integrerad grafik helt? Själv tycker jag det är skönt att veta att man fortfarande kan köra datorn ifall grafikkortet går sönder eller strular, även kunna köra switchable grafik för till exempel Quick Sync. Inte ens säkert att det skulle bli billigare att tillverka dom utan grafikdelen då de modellerna lär tillverkas i färre exemplar, är väl enklare och billigare att köra samma kisel.
http://www.sweclockers.com/nyhet/16815-intel-haswell-for-stat...

Permalänk
Avstängd
Skrivet av Devil May Cry:

Dela upp CPU marknaden i CPU med integrerat grafikkort och en utan integrerat grafikkort. Att utvecklingen går framåt är fantastiskt men någonstans känner jag att vi på forumet som knappt använder GPU-delen betalar för det ändå.

Vi som överklockar och inte vill betala för något vi aldrig kommer att använda kan köpa en svalare och billigare processor och de som behöver köpa en processor med integrerat grafikkort för en dyrare slant kan göra det.

Det spelar ingen roll vad du köper och från vem så kommer du ändå vara med och betala på något de säljer men inte finns i det du köpt, de tjänar ju inga pengar på en produkt som ännu inte finns på marknaden så pengarna håvas in via befintliga produkter och avsätts för utveckling av nya

Skickades från m.sweclockers.com

Visa signatur

MY ATTITUDE IS A RESULT OF YOUR ACTIONS! SO IF YOU DON'T LIKE MY ATTITUDE, BLAME YOURSELF!!

Permalänk
Avstängd
Skrivet av Schnitz:

Märkligt resonemang. Att utvecklingen på CPU-kraft går framåt i samma fart som tidigare kanske? Ditt resonemang har man ju alltid kunna applicera. Varför var man inte nöjd med Pentium II-prestanda? Vad saknade man? Den var ju bra mycket snabbare än en 486:a och klarade alla nya spel och program.

Utmärkt förslag! Även om den så bara blir 5-10% billigare så hade det varit bra att slippa köpa något man inte använder. Pinsamt dåligt av Intel att inte erbjuda en så enkel lösning.
Jo just det ja. 2550K var ju en måttligt ologisk lösning från Intel. De tog bort GPU:n höjde de priset istället. Strålande.

Finns inget konstigt i hans resonemang över huvud taget, det finns inget som kräver den kraften och då är det meningslöst att göra dem kraftigare, mjukvara har halkat rejält efter.
Redan för 10 år sedan när Intel hade en P4 på 3.8GHz så sa de att de inte kommer kliva över 4GHz även fast de kan, men det var onödigt då inget behövde det, kort därefter slutade de tillverka sin 3.8GHz CPU med då den inte heller behövdes för något, faktum är att deras 10 år gamla beslut står sig än idag då mjukvaran ännu inte är ikapp, Prestanda Race och någon form av intern hastighetstävling är det bara AMD som meningslöst håller på med

Skickades från m.sweclockers.com

Visa signatur

MY ATTITUDE IS A RESULT OF YOUR ACTIONS! SO IF YOU DON'T LIKE MY ATTITUDE, BLAME YOURSELF!!

Permalänk
Medlem
Skrivet av KeVVa:

Fast i Lx-Cache minnen använder man SRAM - där av de låga kapaciteterna. De 128MB använder sig av den långsammare (e)DRAM tekniken men ändå med så låg kapacitet. Idag har vi telefonen med 1024MB eDRAM. Det är de som förvånar mig

Fast telefoner har detta som "last level cache", medan datorers sista level är RAM som är mycket större (och snabbare).
Extra cache mellan L3 och RAM kan inte göra annat än hjälpa, och 128MB är ändå rätt mycket för att bara vara ett mellansteg. Ja, eDRAM är långsammare än SRAM, men det är så det funkar. Högre levels är större och långsammare, och DRAM tar upp mindre kretsyta och är strömsnålare än SRAM. Med 512 bitars buss så har det ändå hyfsat med bandbredd.

Permalänk
Medlem
Skrivet av Justbecause:

Finns inget konstigt i hans resonemang över huvud taget, det finns inget som kräver den kraften och då är det meningslöst att göra dem kraftigare, mjukvara har halkat rejält efter.
Redan för 10 år sedan när Intel hade en P4 på 3.8GHz så sa de att de inte kommer kliva över 4GHz även fast de kan, men det var onödigt då inget behövde det, kort därefter slutade de tillverka sin 3.8GHz CPU med då den inte heller behövdes för något, faktum är att deras 10 år gamla beslut står sig än idag då mjukvaran ännu inte är ikapp, Prestanda Race och någon form av intern hastighetstävling är det bara AMD som meningslöst håller på med

Skickades från m.sweclockers.com

xD Man gick inte över 3,8GHz för att man hade massiva värmeproblem. De hade problem att få duglig yield på Prescott på ens 3GHz i flera månader efter Prescotts release. Den kunde inte arbeta på spänningarna som krävdes utan att bli överhettad. AMD låg på den tiden före ganska ordentligt. Idag har vi 3 gånger så hög prestanda per kärna! Redan A64 hade ju nära dubbla IPCn mot P4 vid högre frekvenser då P4 med sin dåliga minnesarkitektur skalade sämre med frekvens.
Om de slutat gå upp i frekvens för att de inte behövde det så hade de inte låtit sig pressas av AMD till gränsen för vad de stackars P4 kunde leverera. Tejas fick läggas ner då den utvecklade över 150W värme redan vid låga frekvenser på en enda kärna.

Permalänk
Datavetare
Skrivet av ajp_anton:

Se det mer som L4-cache (som nyheten även säger) och inte som grafikminne. Den kan användas av både CPU och GPU (enligt någon sida), och räcker det inte så finns alltid vanligt (långsamt) RAM i bakgrunden.

Det är precis som du säger endast en cache. Men skulle gissa att det bara är en cache för GPUn då varje nivå cache adderar latens så en fjärde nivå cache för CPUn ökar latens mot RAM + att en cache på 128MB lär ha rätt många cykler latens själv (rent generellt gäller att högre kapacitet på cache också ger högre latens).

I.e. detta minne lämpar sig dåligt för att använda som CPU-cache i många, men definitivt inte alla, fall. Finns en del server-fall där även en cache med väldigt hög latens kan ge positiv effekt. IBM har ju varianter av sin POWER7 med hela 80MB L3 cache.

GPUer är inte alls speciellt känsliga för latens, det är i stort sätt bara bandbredd som räknas här.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Det är precis som du säger endast en cache. Men skulle gissa att det bara är en cache för GPUn då varje nivå cache adderar latens så en fjärde nivå cache för CPUn ökar latens mot RAM + att en cache på 128MB lär ha rätt många cykler latens själv (rent generellt gäller att högre kapacitet på cache också ger högre latens).

I.e. detta minne lämpar sig dåligt för att använda som CPU-cache i många, men definitivt inte alla, fall. Finns en del server-fall där även en cache med väldigt hög latens kan ge positiv effekt. IBM har ju varianter av sin POWER7 med hela 80MB L3 cache.

GPUer är inte alls speciellt känsliga för latens, det är i stort sätt bara bandbredd som räknas här.

Ja, tänkte egentligen bara att eftersom det finns så måste någon på Intel ha räknat ut att det faktiskt hjälper.
Så frågan är då om det bara är för GPUn. Visst hjälper det CPUn indirekt genom att den slipper dela lika mycket bandbredd med GPUn, men Anandtech hintar om att båda kan använda denna L4.

Hur som helst så kommer detta endast till ett begränsat antal produkter, så gamers på Sweclockers kan sluta oroa sig för att behöva betala för detta extra minne i deras speldatorer.

Permalänk
Avstängd

Kommer man kunna köra 1900x1200 med inställningar på high?
Vilka spel kommer man att kunna spela?
Vilka spel kommer man inte att kunna spela?
Kommer man behöva ett dedikerat grafikkort också?

Permalänk
Medlem
Skrivet av Justbecause:

Finns inget konstigt i hans resonemang över huvud taget, det finns inget som kräver den kraften och då är det meningslöst att göra dem kraftigare, mjukvara har halkat rejält efter.
Redan för 10 år sedan när Intel hade en P4 på 3.8GHz så sa de att de inte kommer kliva över 4GHz även fast de kan, men det var onödigt då inget behövde det, kort därefter slutade de tillverka sin 3.8GHz CPU med då den inte heller behövdes för något, faktum är att deras 10 år gamla beslut står sig än idag då mjukvaran ännu inte är ikapp, Prestanda Race och någon form av intern hastighetstävling är det bara AMD som meningslöst håller på med

Menar du verkligen att ingen skulle behöva mer prestanda än en P4 på 3.8 GHz?

Skickades från m.sweclockers.com

Permalänk
Entusiast
Skrivet av rektor:

Kommer man kunna köra 1900x1200 med inställningar på high?
Vilka spel kommer man att kunna spela?
Vilka spel kommer man inte att kunna spela?
Kommer man behöva ett dedikerat grafikkort också?

Intel hävdar att den kommer prestera som ett Nvidia 650M, alltså deras mobila 650. Kolla benchmarks för det kortet så borde du i alla fall i rätt område av prestanda och tittar.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Skrivet av Zotamedu:

Nej det har man inte. Procoessorkraften har utvecklats långt mycket snabbare än behovet.

Exakt och precis samma sak gäller dagens löner, de har stigit såpass kraftigt så att i princip ingen kan göra slut på stålarna hur mycket de än försöker. Våra löner har alltså stigit kraftigare än vårt behov.. Eller kan det vara så att om vi får mer av något så ökar vårt behov därefter?

Där just cpukraft är något man aldrig kan få för mycket av och man tvingas begränsa vilken kvalité man gör arbetena i.
Att folk inte spenderar mycket pengar på att byta cpu ofta har den enkla förklaringen att prestandaökningen är så marginell emot vad man får betala.

Annars jag är också lite tveksam till all denna gpu utvecklingen i dyrare cpuer där folk ändå kommer ha externa grafikkort.

Visa signatur

[Core i7-3930K med 32GB ram, 2*256GB SSD] & [Core i7 3770K med 16 GB RAM, 256GB SSD] som tillsammans har ett [HD 5850 1GB] och 3st 24".

Permalänk
Entusiast
Skrivet av bud_bundy:

Exakt och precis samma sak gäller dagens löner, de har stigit såpass kraftigt så att i princip ingen kan göra slut på stålarna hur mycket de än försöker. Våra löner har alltså stigit kraftigare än vårt behov.. Eller kan det vara så att om vi får mer av något så ökar vårt behov därefter?

Där just cpukraft är något man aldrig kan få för mycket av och man tvingas begränsa vilken kvalité man gör arbetena i.
Att folk inte spenderar mycket pengar på att byta cpu ofta har den enkla förklaringen att prestandaökningen är så marginell emot vad man får betala.

Annars jag är också lite tveksam till all denna gpu utvecklingen i dyrare cpuer där folk ändå kommer ha externa grafikkort.

Fast nu är det en konsumentplattform vi pratar om och användarmönstret där har ju inte direkt ändrats mycket. En mailklient och en ordbehandlare kräver inte mycket resurser. Inte en browser heller. Mycket av det som gör att folk i allmänhet behöver prestanda är ju en total avsaknad av optimering för att det inte behövs för att vi har prestanda så det räcker och blir över.

Visst finns det saker som kräver massa prestanda. CFD är ett exempel där vi skulle behöva flera tiopotenser mer prestanda än som finns idag. Jag överdriver inte när jag säger att 1000 gånger snabbare processorer fortfarande inte hade varit tillräckligt för att göra allt med CFD som man skulle vilja göra. Men hur stor är marknaden? Folk i allmänhet använder ju inte mer prestanda idag än för fem år sedan. Ett lysande exempel som visat på att din hypotes inte håller är att folk i allt större utsträckning byter ut sina datorer med surfplattor som ju har i storleksordningen en tiondel av den teoretiska prestandan som en stationär dator har.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Medlem
Skrivet av rosts:

Ja, de är undermåliga, men sedan Valve har sparkat dem i stjärten så har de blivit markant bättre. Kör du 13.04, eller har du uppgraderat drivisarna via t.ex. xorg-edgers?

Minns inte riktigt hur jag gjorde... Uppgraderade kerneln på 12.04, senaste drivrutinerna finns väl inbakade? Om inte uppdaterade jag de i samband med kerneluppgraderingen, minns inte riktigt, det var ett tag sen nu. Ska väl testa 13.04. Nu kör jag bara Linux virtuellt under Windows (på stationära burken då).

Visa signatur

Desktop|i5 3570k(@4,4GHz)|Asus P8Z77-V|AMD 6950|12GB RAM|Crucial BX500 480GB|Manjaro|
Laptop|Lenovo T440s|i7|8GB RAM|Debian Jessie|
Server|Fujitsu Primergy TX1310|G1820|8GB RAM|15TB|Unraid|
Ring, lånad mail

Permalänk
Medlem

Varför sluta nischa sig? Det finns folk som fortfarande behöver cpu-kraft utan några hybridlösningar. Låt de mobila plattformarna tävla mot varandra... Folk kommer fortfarande behöva renodlade arbetsstationer.

Visa signatur

Gilla min Guide till sweclockers tävlingen! :D : #12510535

Min Sweclockers-låt som aldrig deltog i Jultävlingen. Enjoy! https://www.youtube.com/watch?feature=player_embedded&v=g7gof...

Permalänk
Medlem
Skrivet av Chris_Kadaver:

Varför sluta nischa sig? Det finns folk som fortfarande behöver cpu-kraft utan några hybridlösningar. Låt de mobila plattformarna tävla mot varandra... Folk kommer fortfarande behöva renodlade arbetsstationer.

De har en annan plattform för arbetsstationer.

Permalänk
Entusiast
Skrivet av Chris_Kadaver:

Varför sluta nischa sig? Det finns folk som fortfarande behöver cpu-kraft utan några hybridlösningar. Låt de mobila plattformarna tävla mot varandra... Folk kommer fortfarande behöva renodlade arbetsstationer.

http://en.wikipedia.org/wiki/Xeon

Sedan ett antal år tillbaks har Intel delat upp sina produkter i två väldigt tydliga plattformar. Vi har en konsumentplattform och en proffsplattform. Konsumentplattformen har fått nöja sig med två kanaler för RAM, begränsade antal PCIe-lanes, 6 SATA-kanaler och så vidare men har i gengäld ett mycket lägre pris. Dessutom har de fått integrerad grafik som nu faktiskt börjar bli värdig sitt namn vilket är en jättevinst för alla som inte spelar eller som bara spelar lite då de slipper ett löst grafikkort.

Sedan har vi proffsplattformen som i dagsläget heter Sandy Bridge-E. Där har vi processorer speciellt designade för servrar med massa roliga leksaker som möjlighet att koppla ihop fyra processorer på ett moderkort, fyra minneskanaler, fler PCIe-lanes än många vet vad man ska göra med och så vidare. Sen kommer massa andra roliga funktioner som vanliga dödliga har noll nytta av. Av allt att döma kommer denna taktik fortsätta. Det vore ju väldigt konstigt om Intel helt plötsligt slutade med sin Xeon som de lagt ner enorma mängder pengar på. Servermarknaden är hård och de har fått kämpa för att få in x86 där mot giganter som IBM. Här har även AMD haft en stark närvaro. För övrigt är prestanda per watt väldigt mycket mer intressant i en server än i en arbetsburk då kylningen av stora servrar är allt annat än trivial. Där betalar man ju dels dyrt för elen för att driva datorerna och sedan betalar man dyrt för elen som går åt till luftkonditionering för att hålla temperaturen i hallen hanterbar. Detta gäller för övrigt större kontor också som ofta har ett kylbehov året om även i Sverige för att kombinationen av många datorer och mycket folk genererar mycket värme som måste bort. Så att minska strömförbrukningen ger en dubbel vinst.

Så för att sammanfatta. Intel satsar fortfarande på arbetsstationer. Ivy Bridge-E är ju på ingång.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Skrivet av Zotamedu:

Du menar att Intel borde göra två olika plattformar. En som är inriktad på ren processorprestanda med extra minneskanaler som till exempel skulle kunna vara en avkomma från deras Xeon? Sedan en plattform för konsument? Vi skulle ju kunna kalla den ena s2011 och den andra s1155.

Varför?

Nej det har man inte. Procoessorkraften har utvecklats långt mycket snabbare än behovet. De som spelar klarar sig bra med Nahelem idag och ska du bara surfa och kolla räkningar så lär man inte märka någon skillnad alls annat än på elräkningen om man har en Core 2 eller nyare. Det stämde inte förr då varje ny generation var ett enormt lyft.

Vi kan ju titta lite krasst på vad folk använder sina datorer till. Spel är med få undantag begränsade av grafikkorten. Slösurfa, kolla film, betala räkningar, kontorsarbete och så vidare har vi haft fullt tillräcklig prestanda för i många år. En gammal core 2 räcker utan problem och du kommer aldrig sakna prestandan. Eller så sparar du på ström och köper en ny Pentium eller till och med Celeron för de räcket gott och väl. Tittar vi sedan på det som folk gör som brukar ta mycket processorkraft så hittar vi filmrendering. Det är folk som vill konvertera semesterfilmer till andra format och det är folk som vill rippa sina filmer till sin mediaserver. Här springer grafikkort cirklar runt processorer och Intels integrerade grafikkort springer cirklar runt ett GTX 580. Kvar är väl de få fallen där man vill konvertera till något annat än H.264 och har mycket men då jobbar man antagligen med det och köper en arbetsstation med ett par Xeon i av andra anledningar. Vad har vi mer? Folk som kodar mycket? Själv fotograferar jag mycket och leker med bildredigering. Min gamla Q9450 höll igång utan större problem där och jag märker ingen större skillnad på den och min nya 3770 i arbetsflödet. Det var snarare dubbla mängden RAM och en SSD som fick fart på det. Den största anledningen till att köpa en snabbare processor idag verkar vara e-penis och det är ju ett dåligt argument att driva utvecklingen efter.

Vi har nått en nivå av tillräckligt bra hos processorerna så nu är det dags att utveckla andra aspekter som är mer intressanta. Det är framförallt två områden nu och det är integrerad grafik så man kan slippa diskreta grafikkort i de lägre segmenten. Nvidia kommer bli jätteledsna när en stor del av deras inkomst försvinner. Sen har vi strömförbrukningen som är på väg ner igen. Den ökade ju stadigt genom historien till en topp någonstans runt P4 och Core 2. Sen dess har både förbrukning och TDP stadigt gått ner igen vilket är bra av många anledningar.

Nu vet jag inte vad du har för kamera men med 36mp så får min 3570K jobba. Jag sitter redan med 16GB RAM och Intel 520 SSD där LR previews ligger. Ändå hade jag inte tackat nej till mer kraft för att göra arbetsflödet snabbare. Att prata om att folk som vill ha snabbare CPU bara är ute efter en längre "e-penis" är att utgå enbart efter eget behov. Självklart tillhör vi inte den stora skaran datorkonsumenter men vi som har behovet finns.

OnT: Tycker det är fantastiskt att de har kommit så långt med integrerad GPU och att slippa separat grafikkort i burkar som inte är menade för high-end gaming är super! Sen är det fullt förståeligt att folk inte vill ha det i sina bättre burkar.

Visa signatur

Fractal Design Define R4 | i5-3570K | Corsair Vengeance 16GB 1600Mhz | Asus P8Z77-V LE Plus | Intel 520 180GB SSD | Antec TruePower NS 650W | HD7950 Windforce 3X OC | ESI ESP1010e

Permalänk
Entusiast
Skrivet av Explorer45:

Nu vet jag inte vad du har för kamera men med 36mp så får min 3570K jobba. Jag sitter redan med 16GB RAM och Intel 520 SSD där LR previews ligger. Ändå hade jag inte tackat nej till mer kraft för att göra arbetsflödet snabbare. Att prata om att folk som vill ha snabbare CPU bara är ute efter en längre "e-penis" är att utgå enbart efter eget behov. Självklart tillhör vi inte den stora skaran datorkonsumenter men vi som har behovet finns.

OnT: Tycker det är fantastiskt att de har kommit så långt med integrerad GPU och att slippa separat grafikkort i burkar som inte är menade för high-end gaming är super! Sen är det fullt förståeligt att folk inte vill ha det i sina bättre burkar.

Jag leker med en Nikon D200. Testat att öka filchachen i LR så den inte behöver skapa lika många previews on the fly? Det gör enorm skillnad för den generella prestandan. Sen är ju frågan, vad skulle 20 % mer prestanda göra för lightroom? Lite snabbare batchkonvertering? Mycket slöhet i Lightroom ligger i IO och inte ren processorkraft. Jag är också lite förvånad över att de inte integrerat OpenGL-funktionerna från Photoshop än men det är en annan fråga.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Skrivet av Zotamedu:

Jag leker med en Nikon D200. Testat att öka filchachen i LR så den inte behöver skapa lika många previews on the fly? Det gör enorm skillnad för den generella prestandan. Sen är ju frågan, vad skulle 20 % mer prestanda göra för lightroom? Lite snabbare batchkonvertering? Mycket slöhet i Lightroom ligger i IO och inte ren processorkraft. Jag är också lite förvånad över att de inte integrerat OpenGL-funktionerna från Photoshop än men det är en annan fråga.

Inte så mycket konvertering som allmän respons tex. när du öppnar upp en nyimporterad bild för redigering så tar det lite tid för bilden att bli renderad. Visst, det är inga minuter vi pratar men när du sitter med 300 bilder som skall redigeras så gör de där sekundrarna per bild en hel del totalt.
Sandy Bridge-E är mycket bättre men kostar också 6x så mycket.

Visa signatur

Fractal Design Define R4 | i5-3570K | Corsair Vengeance 16GB 1600Mhz | Asus P8Z77-V LE Plus | Intel 520 180GB SSD | Antec TruePower NS 650W | HD7950 Windforce 3X OC | ESI ESP1010e

Permalänk
Entusiast
Skrivet av Explorer45:

Inte så mycket konvertering som allmän respons tex. när du öppnar upp en nyimporterad bild för redigering så tar det lite tid för bilden att bli renderad. Visst, det är inga minuter vi pratar men när du sitter med 300 bilder som skall redigeras så gör de där sekundrarna per bild en hel del totalt.
Sandy Bridge-E är mycket bättre men kostar också 6x så mycket.

Fast mycket av det där problemet hade varit lätt att gå runt om Adobe ändrade lite kod. Som sagt så kan du öka upp cachen för previews vilket gör att den inte behöver rendera om dem lika ofta vilket gör underverk. Om de gjorde lite mer jobb med att förbereda bilder även för fullstor visning så hade man kunnat få upp ett väldigt mycket bättre flyt. Jag var lite inne på det tidigare. Det handlar inte bara om att ha snabbare processorer utan att utnyttja sina resurser på ett smart sätt.

Sen är ju tyvärr Lightroom inte riktigt optimerat heller. Ibland misstänker jag att de medvetet har gjort det segare för att få folk att använda Photoshop och Bridge istället.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Medlem

Till bärbara är det bra och vad dom har till stationära struntar jag i.

Visa signatur

3570k 4.7 ghz - ASUS 660ti - 4*4gb - 840 250gb
Citera för svar
/Jacob

Permalänk
Skrivet av Zotamedu:

Fast nu är det en konsumentplattform vi pratar om och användarmönstret där har ju inte direkt ändrats mycket. En mailklient och en ordbehandlare kräver inte mycket resurser. Inte en browser heller. Mycket av det som gör att folk i allmänhet behöver prestanda är ju en total avsaknad av optimering för att det inte behövs för att vi har prestanda så det räcker och blir över.

Och detsamma gäller grafikkort och även processorer för servrar. De flesta mjukvaror som dessa körs kräver inte mycket. Optimering sedan varken enkelt eller billig, att köpa snabbare system kan vara mycket mer kostnadseffektivt.

Skrivet av Zotamedu:

Visst finns det saker som kräver massa prestanda. CFD är ett exempel där vi skulle behöva flera tiopotenser mer prestanda än som finns idag. Jag överdriver inte när jag säger att 1000 gånger snabbare processorer fortfarande inte hade varit tillräckligt för att göra allt med CFD som man skulle vilja göra. Men hur stor är marknaden?

Marknaden av folk som måste ha snabbare processorer är stor, där allt fler idag tvingas använda klusterdator i hemmet.
Men som någon nämnde nästan allt vettigt kräver mycket cpukraft, photoshop, filmredigering, vanlig programmering, spel etc. Visst denna marknad är i inte stor i förhållande till den totala marknaden, men den är tillräckligt stor för att persondatorprocessortillverkare borde satsa på denna, där jag tror att AMDs frånvaro leder till att Intel inte behöver göra detta. Och att Intel istället satsar på det de tror att de i längden tjänar mest kosing på.
D.v.s hålla ner variationen av processorer. Så Intel gör såklart det de tror är bäst för dem själva och det är såklart rätt val. Andra som mig väntar på att AMD ska komma igen och ge oss lite mer cpukraft.
Angående Xeon så använder jag en hel del såna på jobbet och jag är inte imponerad av prestandan för mina arbetsuppgifter. Visst de är bra om de gör det de är tillverkade för, men för mina arbetsuppgifter så spöar min slöa burk i signaturen de xeonbaserade datorer som jag brukar använda. Nu brukar jag i.o.f.s. bara få tillgång till en processor på 8kärnor, men denna processor kostar också 15000kr.

Skrivet av Zotamedu:

Folk i allmänhet använder ju inte mer prestanda idag än för fem år sedan. Ett lysande exempel som visat på att din hypotes inte håller är att folk i allt större utsträckning byter ut sina datorer med surfplattor som ju har i storleksordningen en tiondel av den teoretiska prestandan som en stationär dator har.

Folk i allmänhet använder såklart mer prestanda än för 5 år sedan, för 5 år sedan var det gott med windows Xp datorer med högst 1GB ram. Dessa datorer klarar inte av det folk sysslar med idag.
Folk i allmänhet kör med de billigaste skräpdatorerna som säljs från våra elkejdor och ofta är de så slöa så att knappt vanlig ordbehandling fungerar efter ett tag. Skaran som lägger någon tusenlapp på en processor är dock inte stor, men vi som gör det känner ofta inget behov av integrerat grafikkort, såvida inte intressanta gpucpu lösningar kommer.

Skrivet av Zotamedu:

Ett lysande exempel som visat på att din hypotes inte håller är att folk i allt större utsträckning byter ut sina datorer med surfplattor som ju har i storleksordningen en tiondel av den teoretiska prestandan som en stationär dator har.

Detta påstående att folk byter ut sina datorer emot surfplattor är ett påstående jag hör ofta som jag betvivlar, däremot är det många som kompletterar sina persondatorer just med surfplattor. Detsamma gäller mobiler och kameror, dagens systemkameror är knappast så bra så att det inte längre finns någon marknad att satsa på att utveckla bättre och mer satsa på mobiltelefoner istället.

Visa signatur

[Core i7-3930K med 32GB ram, 2*256GB SSD] & [Core i7 3770K med 16 GB RAM, 256GB SSD] som tillsammans har ett [HD 5850 1GB] och 3st 24".

Permalänk
Entusiast
Skrivet av bud_bundy:

Och detsamma gäller grafikkort och även processorer för servrar. De flesta mjukvaror som dessa körs kräver inte mycket. Optimering sedan varken enkelt eller billig, att köpa snabbare system kan vara mycket mer kostnadseffektivt.

Marknaden av folk som måste ha snabbare processorer är stor, där allt fler idag tvingas använda klusterdator i hemmet.
Men som någon nämnde nästan allt vettigt kräver mycket cpukraft, photoshop, filmredigering, vanlig programmering, spel etc. Visst denna marknad är i inte stor i förhållande till den totala marknaden, men den är tillräckligt stor för att persondatorprocessortillverkare borde satsa på denna, där jag tror att AMDs frånvaro leder till att Intel inte behöver göra detta. Och att Intel istället satsar på det de tror att de i längden tjänar mest kosing på.
D.v.s hålla ner variationen av processorer. Så Intel gör såklart det de tror är bäst för dem själva och det är såklart rätt val. Andra som mig väntar på att AMD ska komma igen och ge oss lite mer cpukraft.
Angående Xeon så använder jag en hel del såna på jobbet och jag är inte imponerad av prestandan för mina arbetsuppgifter. Visst de är bra om de gör det de är tillverkade för, men för mina arbetsuppgifter så spöar min slöa burk i signaturen de xeonbaserade datorer som jag brukar använda. Nu brukar jag i.o.f.s. bara få tillgång till en processor på 8kärnor, men denna processor kostar också 15000kr.

Folk i allmänhet använder såklart mer prestanda än för 5 år sedan, för 5 år sedan var det gott med windows Xp datorer med högst 1GB ram. Dessa datorer klarar inte av det folk sysslar med idag.
Folk i allmänhet kör med de billigaste skräpdatorerna som säljs från våra elkejdor och ofta är de så slöa så att knappt vanlig ordbehandling fungerar efter ett tag. Skaran som lägger någon tusenlapp på en processor är dock inte stor, men vi som gör det känner ofta inget behov av integrerat grafikkort, såvida inte intressanta gpucpu lösningar kommer.

Detta påstående att folk byter ut sina datorer emot surfplattor är ett påstående jag hör ofta som jag betvivlar, däremot är det många som kompletterar sina persondatorer just med surfplattor. Detsamma gäller mobiler och kameror, dagens systemkameror är knappast så bra så att det inte längre finns någon marknad att satsa på att utveckla bättre och mer satsa på mobiltelefoner istället.

Det finns ju nivåer av optimeringar. Många har blivit episkt slöa i sitt programmerade. Titta lite på storleken på drivrutiner och reflektera över varför de har blivit så enormt stora. Jo för de är fulla med onödig skit. Du kan också jämföra användarupplevelsen i en gammal netbook med en nyare mobiltelefon. Processorprestandan är ungefär den samma men en netbook var en pina att använda medan en modern smartphone fungerar riktigt smidigt. Så det kan ju inte vara så jobbigt att optimera sina grejer lite gran. Det här återknyter för övrigt till att det är långt ifrån trivialt att göra processorer snabbare. Det är inte bara att slänga fler kärnor och fler transistorer på ett problem.

Jag tror det var jag som nämnde de där programmen och i samma mening nämde jag även varför de inte är en direkt drivkraft på processorsidan. Photoshop har större problem med IO än med rå beräkningskraft. Spel är med några få undantag begränsade av grafikkortet och inte processorn. Mycket videoredigering landar på grafikkortet nu då det är ett parallelliserbart problem och då spelar det ingen roll hur mycket pengar man lägger på CPU, en enkel GPU kommer fortfarande vara mycket mycket snabbare. Och så vidare.

Vem bygger kluster hemma för någon seriös last? De byggen jag har sett har ju varit folk som fort en hög gamla datorer som de drar ihop till ett kluster för att det är roligt.

Jag tror även du inte tar med en del tekniska svårigheter i dina beräkningar. Mer prestanda per kärna blir mycket dyrare att få till. Många av de knepen som har gett stora förbättringar är ju redan gjorda. Högre klockfrekvenser är krångligt för fysiken har vissa gränser. Det är ju därför vi har en gräns på klockfrekvenserna och istället mest ser fler och fler kärnor. Det går inte bara att slänga fler transistorer på problemet och tro att det löser sig självt.

Det är snart fem år sedan jag köpte datorn i min signatur. Det saknas bara ett par månader. Jag uppdaterade den i somras för att grafikkortet inte orkade med och för att jag behövde mer än 8 GB RAM och då var jag så illa tvungen att uppgradera allt. Att hitta DDR2 stickor som är större än 2 GB är inte roligt och framförallt svindyrt. Processorn höll fortfarande bra. För övrigt är det snart sju år sedan de första Core 2 Duo släpptes.

Ett lysande exempel är Kina där många väljer en surfplatta som första dator. Jag vet att min far är sugen på att bara köra på en surfplatta men det som hindrar honom är att det inte finns en vettig Office-svit till Android.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Skrivet av Zotamedu:

Det finns ju nivåer av optimeringar. Många har blivit episkt slöa i sitt programmerade. Titta lite på storleken på drivrutiner och reflektera över varför de har blivit så enormt stora. Jo för de är fulla med onödig skit. Du kan också jämföra användarupplevelsen i en gammal netbook med en nyare mobiltelefon. Processorprestandan är ungefär den samma men en netbook var en pina att använda medan en modern smartphone fungerar riktigt smidigt. Så det kan ju inte vara så jobbigt att optimera sina grejer lite gran. Det här återknyter för övrigt till att det är långt ifrån trivialt att göra processorer snabbare. Det är inte bara att slänga fler kärnor och fler transistorer på ett problem.

Ordet jobbigt bör ersättas med kostsamt. Skattningarna för att lösa olika delarna är ofta väldigt låga, tar vi driverutveckling så kör man ofta med workitem där man har bestämt att olika moment enbart får ta en viss tid. Som systemutvecklare gör man då bara det som behövs för det aktuella work itemet, skulle man få tid över så kan man fuska använda denna tid till andra arbetsmoment. Så det hela handlar främst om pengar.
Att däremot utveckla för ett instängd system där man inte behöver ta hänsyn till så mycket, ja då blir kostnaden helt annorlunda.
Sparar man säg 40h på att använda ett annat projekt så har man sparat 40 000kr, att sedan koden blir bloated, ja för 40 000kr så kan man satsa på att köpa en bättre dator istället. Det tillkommer även andra fördelar med att återvinna kod.

Skrivet av Zotamedu:

Jag tror det var jag som nämnde de där programmen och i samma mening nämde jag även varför de inte är en direkt drivkraft på processorsidan. Photoshop har större problem med IO än med rå beräkningskraft. Spel är med några få undantag begränsade av grafikkortet och inte processorn. Mycket videoredigering landar på grafikkortet nu då det är ett parallelliserbart problem och då spelar det ingen roll hur mycket pengar man lägger på CPU, en enkel GPU kommer fortfarande vara mycket mycket snabbare. Och så vidare.

Nu vet jag ej riktigt vad du menar med photoshop och IO, men enbart ssd räcker knappast. Annars finns det en utveckling där allt mer körs på grafikkorten, såsom videoredigering har börjat göra. Men för konsumentversioner så är det fortfarande cpu som gäller. Förutom att videoredigeringsprogrammen brukar vara sega i gränssnittet.

Skrivet av Zotamedu:

Vem bygger kluster hemma för någon seriös last? De byggen jag har sett har ju varit folk som fort en hög gamla datorer som de drar ihop till ett kluster för att det är roligt.

Alla seriösa datornördar? Nu behöver man inte ha kluster i vanlig bemärkelse, utan det räcker att man splittrar upp programmen på olika datorer och har gränssnittet på en dator. Där det absolut vanligaste är att man enbart har sqlservern på en egen dator, men många inkl jag själv har mer än sqlservern på vår hjälpdator som sköter om diverse beräkningar så att vår huvuddator kan göra annat.

Skrivet av Zotamedu:

Jag tror även du inte tar med en del tekniska svårigheter i dina beräkningar. Mer prestanda per kärna blir mycket dyrare att få till. Många av de knepen som har gett stora förbättringar är ju redan gjorda. Högre klockfrekvenser är krångligt för fysiken har vissa gränser. Det är ju därför vi har en gräns på klockfrekvenserna och istället mest ser fler och fler kärnor. Det går inte bara att slänga fler transistorer på problemet och tro att det löser sig självt.

Jag är fullt medveten om att det är problem att göra processorna snabbare, det innebär dock inte att de behöver slänga in gpu i processorn utan de kunde använda utrymmet till annat såsom fler kärnor eller mer cache-minne.

Skrivet av Zotamedu:

Det är snart fem år sedan jag köpte datorn i min signatur. Det saknas bara ett par månader. Jag uppdaterade den i somras för att grafikkortet inte orkade med och för att jag behövde mer än 8 GB RAM och då var jag så illa tvungen att uppgradera allt. Att hitta DDR2 stickor som är större än 2 GB är inte roligt och framförallt svindyrt. Processorn höll fortfarande bra. För övrigt är det snart sju år sedan de första Core 2 Duo släpptes.

Och det är tragisk att cpu-utvecklingen har gått så sakta så att man inte får så mycket mer cpu-kraft av att uppgradera.
Annars ska du arbeta med lite tyngre projekt så skulle du få problem med din dator, när jag var inne i min intensiva fas fick min dator arbeta runt 5-7 varje natt för att hinna kompilera koden så jag kunde fortsätta med projektet nästa dag.

Skrivet av Zotamedu:

Ett lysande exempel är Kina där många väljer en surfplatta som första dator. Jag vet att min far är sugen på att bara köra på en surfplatta men det som hindrar honom är att det inte finns en vettig Office-svit till Android.

Och dessa personer använder dator till vadå? Som sagt persondator är något som alla har behov av idag, dock finns det väldigt många som sysslar systemkrävande arbetsuppgifter.
Och för oss finns det stor en marknad, det är bara det att som konkurrensen ser ut idag så prioriterar Intel inte oss. Och det är knappast dumt av Intel att tänka så, bara att många inkl mig väntar på att amd ska tillfredsställa vårt behov.

Visa signatur

[Core i7-3930K med 32GB ram, 2*256GB SSD] & [Core i7 3770K med 16 GB RAM, 256GB SSD] som tillsammans har ett [HD 5850 1GB] och 3st 24".

Permalänk
Skrivet av Zotamedu:

Fast mycket av det där problemet hade varit lätt att gå runt om Adobe ändrade lite kod. Som sagt så kan du öka upp cachen för previews vilket gör att den inte behöver rendera om dem lika ofta vilket gör underverk. Om de gjorde lite mer jobb med att förbereda bilder även för fullstor visning så hade man kunnat få upp ett väldigt mycket bättre flyt. Jag var lite inne på det tidigare. Det handlar inte bara om att ha snabbare processorer utan att utnyttja sina resurser på ett smart sätt.

Sen är ju tyvärr Lightroom inte riktigt optimerat heller. Ibland misstänker jag att de medvetet har gjort det segare för att få folk att använda Photoshop och Bridge istället.

Problemet är ju just att om de inte förbättrar koden så måste datorn förbättras. Att man märker skillnad mellan olika kraftfulla CPUer är ett faktum när man jobbar med stora filer.
Videoredigering funkar tyvärr inte så bra med konsumentgrafikkort då framförallt adobe vill att man kör Quadro. Visst med lite meck och hack så funkar ett GTX ofta men det är fortfarande inget officiellt stöd och drivrutinerna är inte optimerade för det.

Visa signatur

Fractal Design Define R4 | i5-3570K | Corsair Vengeance 16GB 1600Mhz | Asus P8Z77-V LE Plus | Intel 520 180GB SSD | Antec TruePower NS 650W | HD7950 Windforce 3X OC | ESI ESP1010e

Permalänk

Hoppas intel fixar sin helt värdelösa drivrutiner då dom senaste till Windows 8 är instabila som tusan och levererar dåligt prestanda...