Inlägg

Inlägg som anon227198 har skrivit i forumet
Av anon227198
Skrivet av tellus82:

Att köra 720p tester där begränsning av GPU hålls till ett minimum är på intet sätt en felaktighet i ett cpu test, det visar potentiell prestanda som finns tillgänglig när GPU inte är den begränsande faktorn. När du sedan kör med kraftigare gpu så vet du att det finns headroom uppåt i FPS vilket är mycket viktigt för de som spelar uppåt 200fps på skärmar som faktiskt kan visa det.

Igjen, dette argumentet har blitt besvart flere ganger. Du sier man vil kjøre kraftigere GPUer i fremtiden. Vel, like fullt kan det argumenteres for at man også med kraftigere grafikkort vil kjøre høyere oppløsning. Så der 1440p er vanlig for 1080 Ti i dag, vil 4K være oppløsningen en mulig fremtidig kraftigere GPU. Og dette vil igjen nulle ut enhver flaskehals du snakker om.

Skrivet av tellus82:

Alla tester i benchmarks behöver inte vara real world tester rakt av, kolla bara på de syntetiska testerna, många av dom är så långt från real world det kan bli men jag hör ingen gnälla om dom direkt?

Så du sammenstiller 720p med en syntetisk test alså? Vi snakker her om real-world benchmarks av spill. Det er meningen med slike benchmarks å reflektere FPSen til vanlige folk når de gamer de samme spillene. spill-benchmarks er ikke syntetiske tester. De skal være representerende FPS-tester for forbrukere, i tilfelle de vil kjøpe CPUen.

Av anon227198
Skrivet av FredrikMH:

Fast nu finns där ju tester med 1440p/4K som visar att skillnaden mellan CPU idag om du ska spela i de upplösningar förmodligen är mycket små. Vad vill du mer ha? 200 speltester som visar samma sak?

Igjen bruker du argumenter osm lett kan brukes mot deg. Jeg kan i mye sterkere grad si dette til deg, da den overveldende antall CPU-tester der ute tester i 1080p og ikke 1440p. Jeg vet stadig om folk med 1440p-skjermer som klager over dette. Det er faktisk mye vanskeligere å finne 1440p-tester der ute enn lavere oppløsninger.

Skrivet av FredrikMH:

Förr såg testen på Sweclockers annorlunda ut, där test av processorer kunde innebära att grafikkortet var flaskhalsen i testet. Om man vill se skillnaden mellan processorer så är det TOTALT meningslöst.

Nej, det er totalt meningsfylt. Skillnaden mellom processorer bør vises slik de er i virkelige situasjoner. Ikke manipulerte situasjoner som ingen noensinne kommer bort i. Skillnaden mellom prosessorer er kanskje liten i 1440p. Men i den virkelige verden vil en person meg high-end GPU ha denne oppløsningen (eller høyere), og det er denne skillnaden han vil merke. Du vet dette like godt som meg. Tester med 720p og 1080p med slike GPUer er i realiteten manipulerte tester som kraftig overdriver tallene, og det gir feil inntrykk til folk.

Skrivet av FredrikMH:

Det man vill se med testerna är att om skillnaderna är stora nog så slipper man byta processor lika ofta

Jeg ser ikke hvordan en 720p og 1080p i noe større grad vil vise dette. Man bør bytte prosessor når det faktisk utgjør en ordentlig ytelsesforskjell i sin set-up. 720p-testen kan kanskje vise stor forskjell mellom ulike CPUer, og en vanlig forbruker vil kanskje tro at "nu er tiden inne for å bytta ut min CPU, for den yter mycket dårligere enn alt det andre". Men hvis han vanligvis gamer i 1440p, og skillnaden der er lik null, så har jo han blitt misinformert. Er du ikke enig? For eks. er 8700K mycket battre enn 7700K, og en med 7700K vil tro at han må bytte sin prosessor. Men hvis han gamer i 1440p, er jo dette overhode ikke riktig.

Argumentet er mye sterkere for min del, for jeg snakker om å faktisk teste ting på lik linje som folks virkelige anstallinger.

Skrivet av FredrikMH:

Vill du testa sportbilar på 30-väg utanför dagis (förlåt, förskola) och hålla dig till lagen så gör du det. Men tro inte att det går att utläsa något vettig data ur testet.

Rar analogi du bruker. Det er strengt tatt du, ikke jeg, som ønsker å teste i 30-vag utanfor dagis. Jeg ønsker å teste sportsbilen i de konditioner sportsbilen er laget til. En 1700X og GTX 1080 er ikke laget for å kjøre spel i 720p.

Av anon227198
Skrivet av FredrikMH:

Fortsätt fokusera på 720p speltester med medium/low grafik. Det är det enda som på bästa sätt visar skillnaden mellan processorerna när inga andra komponenter blandar sig i leken vilket för just det ger ett helt missvisande resultat.

En skillnad som ingen overhode kommer til å erfare, fordi ingen med rette sinnet i behold spelar med GTX 1080 og 8700K i 720p. Det produseres altså tall og skillnader som ingen lesere og konsumenter har praktisk bruk for. I verste fall er det misvisende, da den vanlige mannen i gaten kommer til å kjøpe 8700K til sitt GTX 1080@1440p oppsett og tenke "jaaaaah, denne vil være best, for Sweclockers viste meg at den har 20 FPS mer enn 2700X i BF1". Men i realiteten er vil forskjellen være ikke-eksisterende for hans bruk.

DET er missvisande resultat. Å vise en test hvor GPU er enda mer flaskehals er ikke missvisande. Det er REALITETEN. Eller kanskje jeg bare kjører på en missvisande 2560x1440 oppløsning, eller hur?

Av anon227198
Skrivet av emilakered:

Du tycker inte det är intressant, och det får såklart stå för dig. T

Det har ingenting med at jeg ikke "tycker" at det ikke er interessant. Det er at jeg vil at også 1440p skal være inkludert. Jeg bare ber om en mer fyldig recension.

Og dette handler ikke om hva jeg tycker. Det er et faktum at GTX 1080 + 8700K i 1080p ignorerer den overveldende majoriteten av de som eier GTX 1080 (og forøvrig også 1080 Ti). Man tester altså hardware i tilstander som konsumenter med de samme produktene aldri har.

Skrivet av emilakered:

Förhoppningsvis hittar du fler tester som kan ge dig ytterligare vinklar. Det är oavsett alltid en bra idé för att få hela bilden av produkter.

Hele bildet. Som også 1440p for GTX 1080-oppsett. Du skaper et bilde av meg som en som vil fjerne 720p og 1080p. Slettes ikke. Om du så bastant vil ha de der, samme for min del. Jeg bare etterlyser også 1440p. Det er vel heller du, ikke jeg, som argumenterer mot å ha det fulle bildet.

Hvis Sweclockers ikke har nok med ressurser, syns jeg da at de bør gå for 1440p i stedet for 720p i hvert fall. 1440p er, uansett om du liker å tro annet, den meste representerende oppløsningen for GTX 1080.

Av anon227198
Skrivet av tellus82:

Åter igen, att påvisa prestanda ohejdad av GPU limitering är inget fel, speciellt inte när det dessutom kombineras med 1080p,1440p och 4k upplösningar. Finns ingen anledning att inte ta med det i ett processor test.
Det handlar inte om vad folk i allmänhet spelar på eller ej utan det ska helt enkelt visa hur saker presterar när GPU "tas bort" ur ekvationen.

Og igjem, det argumentet bestrider helle motivet med spill-benchmarks. Som jo nettopp er å formulere real-world-resultater (ellers hadde de ikke testet spill i det hele tatt, og bare holdt seg til syntetiske tester). Disse benchmarksene danner grunnlaget for folks kjøp av produkter og. Derfor bør de gi en så reell representasjon som overhode mulig. GTX 1080 + i7 8700K i 720p er ikke en slik situasjon. Når jeg har en 1440p, hva skal jeg kunne leste ut av Sweclockers test egentlig? Kan du fortelle meg det?

Skrivet av emilakered:

Majoriteten av skärmar som säljs är fortfarande 1920x1080 pixlar, och de lär användas några år framåt.

T

Majoriteten av skjermkort og CPUer som brukes er også i mellom og lavsjiktet. Svært få eier GTX 1080/1080 Ti. Men det er like mange av disse få som også eier 1440p-skjermer. De samme menneskene faktisk.

Så når man tester med 1080/1080 Ti og med high-end CPU, så kan det kanskje være greit å vise benchmarksresultateter i forhold som brukere av slike produkter faktisk er i. Og det er ikke i 720p. I mindre grad i 1080p og. Det er i 1440p eller oppover. Jeg sier ikke å ikke ta med 1080p. Men det bør være et minimum å inkluderte instillinger som folk med GTX 1080/1080 Ti og 8700K/2700X faktisk spiller med. Det kan vel du ikke fornekte?

Du sier også at folk står over høy oppløsning for høyere frekvens. Jeg får allerede 140 FPS på BF1 med min GTX 1080 Ti...

Skrivet av cyprus:

Det finns enkla förklaringar till varför man testar CPU:er i låga upplösningar. Man testar CPU:er och inte GPU:er. Varför fortsätter vissa med annat trams?

Og det er en grunn til at man tester hardware og legger resultatene opp. For å gi et grunnlag folk kan se på for sine kjøp. Jeg leser en anmeldelse av en iPhone for å finne ut hvordan telefonen er hvis jeg skal kjøpe den. Jeg ser på en anmeldelse av en skjermkort for å se hvilken FPS jeg får når jeg kjøper det. Jeg ser også på en anmeldelse av en CPU for å se hvilken ytelser den gir meg når jeg kjøper meg. Men FPSene som Sweclocker viser er overhode ikke representativt med meg og mitt bruk, for jeg sitter med en 1440p-skjerm. Det samme gjør andre folk med high-end GPUer. De spiller som regel ikke på 1080p. I hvert fall ikke 720p.

Skrivet av skewgen:

Lasten kanske inte är realistisk för många, men det är inte det som är relevant, det som är relevant i detta fall är att det är ett sätt att mäta prestanda som under förutsättningar där programmet i fråga inte använder flera kärnor speciellt effektivt. Det är ungefär lika relevant som testerna där man kör syntetiska tester med perfekt parallellisering. Herregud, når vil sånne som deg noensinne innse dette?

Man skal teste CPUen på en realistisk måte og i realistiske betingelser. Når man setter de i overdrevent CPU-flaskehalser som 720p og 1080p, med hardware som ingen eiere av slik hardware gamer i 1080p, så produserer man i realiteten en test som ikke er representativ for noen. Kanskje 2700X er 20 FPS bak 8700K i Sweclockers tester. Men for de 1080 og 1080 Ti-brukere, vil FPS-forskjellen være noe helt annet. Den vil kanskje være 0-3. Så i realiteten lurer Sweclockers meg til å tro at forskjellen er større enn den er.

Hvis programmer ikke parallelliserer bra nok i vanlige betingelser, so be it. Da tester man det sånn og så konkluderer man deretter. Reviews skal tross alt gi en representasjon av virkeligheten; ikke endre på virkeligheten.

Skrivet av skewgen:

Förövrigt finns det fler än man tror som faktiskt kör äldre spel och vill ha extremt hög fps, exempelvis cs go. Då är ju denna last realistisk.

Hvis du skal bruke det argumentet, hvorfor er du likevel villig til å forkaste kravet om 1440p for en mye større brukergruppe av 1080 og 1080 Ti-eiere som har høyere oppløsninger enn 1080p? Denne gruppen er vitterlig større en CS:GO-gruppen som gamer i 1080p med 1080 Ti.

Av anon227198
Skrivet av emilakered:

Massa diskussion, härligt! Själv lutar jag åt en 2600X för min dator, 4770K:n som sitter i har börjar bråkar lite. Ska ge det ett försök till första hjälpen i helgen, annars är det dags. Skulle lika gärna kunna ta någon Intel-variant, men omväxling är kul! Ryzen till förra bygget (HTPC:n) föll först på inga ITX-moderkort och sedan på att 8400:an är så jäkla effektiv, men för stora burken spelar de bitarna mindre roll.

Om 720p-testerna, tycker många har intressanta poänger. Handlar egentligen inte om att försöka sia framtiden på något vattentätt sätt, utan om att ge en indikation. Där håller jag inte med om att testerna är värdelösa, utan tittar vi några år bakåt står sig de processorer som hanterade 720p bäst även rätt bra idag. Tycker historien visar att just spel förändras ganska långsamt, och även om det kommer större hopp ibland tar det tid innan majoriteten av titlar är med på tåget.

Sigh...vi har vært gjennom dette før. Dette argumentet er horribelt. Om noen år er GPUer også kraftige nok til at man spiller i enda høyere oppløsning. For eks. 4K. Da forsvinner flaskehalsen igjen. Dette nuller ut den flaskehalsen du mener vil dukke opp om noen år. Hva som er standard for 1440p er standard for 4K i fremtiden. CPUen vil aldri bli en flaskehals i fremtiden med kraftigere GPUer, så lenge folk fortsetter å spille i høyere og høyere oppløsninger. Er dette så vanskelig å forstå?

Spilltester skal representere virkeligheten. Det er hele meningen med disse anmeldelsene. Ingen spiller i 720p på en GTX 1080 i virkeligheten. Dermed ender testen opp med å vise tall som er viktig for absolutt ingen som helst. Selv 1080p er lavt med den GPUen; de kan for min del ha 1080p, men inkluder for Guds skyld en oppløsning folk flest med GTX 1080 bruker: 1440p!

Jeg sitter på en 1440p og et GTX 1080. Vet du hva Sweclockers informerer meg om hvilken CPU er best for meg? Ingenting? Jeg får ikke vite noe som helst. Det gjør heller ikke majoriteten av GTX 1080-eiere som tenker å kanskje kjøpe ny CPU.

Skickades från m.sweclockers.com

Av anon227198
Skrivet av skewgen:

De testar det för att det är relevant för att få fram hur bra råprestanda processorn har under den typen av last.

Og den last er ikke realistisk, for folk med slike prosessorer og GPUer spiller i høyere oppløsning. Dermed ender testen med å produsere tall som ikke representerer folks bruksområde.

Herregud, når vil sånne som deg noensinne innse dette?

Skickades från m.sweclockers.com

Av anon227198
Skrivet av XHI:

Det är väl inte så svårt att förstå? Det ska ge en känsla för hur de presterar om några år, samt att se ifall man "kan" nå höga frekvenser ifall man vill lira tex csgo i 300fps, sitta med sina 144hz osv osv.

Jag är otroligt glad över att Sweclockers har kvar 720p...

Sigh...vi har vært gjennom dette før. Dette argumentet er horribelt. Om noen år er GPUer også kraftige nok til at man spiller i enda høyere oppløsning. For eks. 4K. Da forsvinner flaskehalsen igjen. Dette nuller ut den flaskehalsen du mener vil dukke opp om noen år.

Spilltester skal representere virkeligheten. Det er hele meningen med disse anmeldelsene. Ingen spiller i 720p på en GTX 1080 i virkeligheten. Dermed ender testen opp med å vise tall som er viktig for absolutt ingen. Selv 1080p er lavt med den GPUen; de kan for min del ha 1080p, men inkluder for Guds skyld en oppløsning folk flest med GTX 1080 bruker: 1440p!

Skickades från m.sweclockers.com

Av anon227198
Skrivet av WIRN:

Låter galet mycket. Men å andra sidan är 2,9 GHz också rätt galet för en mobil-krets

Skrivet av Paddanx:

Jo visst låter det lite för bra för att vara sant, men som @WIRN säger, 2.9Ghz är väldigt högt för så få watt krets. Det kanske är någon turbo nivå den kan nå i burst läge iaf. Man vill ju inte ha en stekhet telefon heller.

Ehhh, er du seriøs nå? Forrige generasjons CPUer, som Exynos 8895, hadde en frekvens på 2.35 GHz, som allerede var opp fra 2.15 GHz fra generasjonen før. 2.8-2.9 GHz på en bedre prosessnode som forbedrer spesifikt dette, er da ikke noe unormalt. Det er en helt normal økning i klokkefrekvens fra generasjon til generasjon.

Skrivet av Paddanx:

Enkeltrådig prestanda är det som gör mest skillnad i vad man normalt använder dessa till.
Det är det som gör skillnaden mellan "seg"... "snabb" när det gäller respons, och varför iPhone har ofta vunnit trots färre kärnor. Så i detta fall är det en benchmark sak som spelar roll.

Vill du ha 4k 120Hz... köp en TV, då detta är en artikel om en processor.

Egentlig ikke, nei. For det første har flertrådet ytelse veldig mye å si i Android, som er avhengig. For det andre har iPhone ikke "vunnet". Deres prosessorer har hatt dobbelt så høy entrådet ytelse. Men ta og se på real-world usage. Android-telefoner som OnePlus 5T eller Pixel gjør alle oppgaver minst like raskt som en iPhone X. Software har faktisk mye å si her. Dessuten er stock Android-grensesnittet til Google Pixel 2 (Pixel UI), glattere enn iOS på iPhone X: genereltt sett opprettholder den 60 FPS bedre, med færre frame drops, stutter og inkonsistente animasjoner og handlinger.

Av anon227198
Skrivet av Bascule666:

Men allvarligt talat, du tycker väl att du själv är en "ÄKTA gamer" inte sant. En som står på barrikaderna och skanderar...

Nei, det gjør jeg ikke. Det er din oppfinnelse. Dine ord.

Og hvorvidt man er aktiv gamer eller ikke har ingen relevans på det vi diskuterer. Det handler fortsatt om å prøve å forhindre at gaming blir mer ødelagt og perversert. Dette har effekt på alle, aktive og mindre aktive gamere. Som jeg skrev i forrige innlegg:

At du ikke har integritet nok til å innrømme at du ikke har vilje nok til å la være å kjøpe spillet, er din egen feil.

Av anon227198
Skrivet av Bascule666:

Du är ingen "ÄKTA gamer" om du köper Star Wars: Battlefront II med andra ord. Ordentligt korkat inlägg...

Dette har ingenting med å være "ekte gamer". Det handler om å gjøre motstand mot den konstante ødeleggelsen av spillindustrien. I dette tilfellet med injeksjoner som mikrotransaksjoner, hvor du må legge ut massive mengder penger for å faktisk ta utbytte av spillet i sin helhet. Det handler om å motverge introduseringen av gambling i spill, som mange barn allerede deltar i.

Helt latterlig at du drar en stråmann-argument og får det til å virke som dette har noe med å være "ekte gamer".

Av anon227198
Skrivet av Icte:

Lite väl otrevlig ton där, du får nog läsa på lite mer om reglerna här på SweClockers och hur vi bör bete oss mot varandra, även om man har lite annorlunda åsikter.

Reglene? Hahaha. Nå må du gi deg. Dette her er ikke en barnehage. Det er ikke som om jeg kalte deg noen navn -- jeg kom med bare kritikk over at du har kjøpt varen.

Skrivet av Icte:

. Det är ett väldigt fint spel och jag förväntar mig spendera många timmar på det. Jag ogillar dock microstransactions-delen och detta är inget jag kommer att stödja genom att köpa in-game currency, crystals eller vad det nu än är de säljer. Om alla andra som köper detta spel gör samma sak så kommer EA se att det inte är lönt med microtransactions och kanske rentav sluta implementera det i framtida titlar.

Dette er veldig dårlig argument. Å ikke bruke mikrotransaksjoner har ingen relevans for hvorvidt EA tar det bort eller ikke. Å legge inn miktrotransaksjoner i et spill krever knapt noen ressurser, så å bare ha det ekstra i spilli tilfelle (og slik spillet er satt opp på, som er akkurat som gambling, så vil mange uansett ta det i bruk), selv når folk ikke tar det i bruk, vil være en god bonus for EA. Den eneste måten å få vekk mikrotransaksjoner på er å ikke kjøpe spillet i det hele tatt. Noe du selvfølgelig har valgt å gjøre...

Dessuten er det nå slik at mikrotransaksjoner er bare et av mange problemer med EA og deres spill. Det er også snakk lite innhold, masse bugs, manglende støtte over tid, osv. Dette er også problemer som folk misliker med EA (og andre produsenter og, forsåvidt).

Skrivet av Icte:

Att inte stödja en utvecklare (DICE i detta fall) p.g.a. microtransactions-delen implementerad av EA (förmodligen) kan ju även leda till att DICE stängs ner av EA då produkten de levererade inte håller förväntningarna (=vinst).

Dette er det dummeste jeg har hørt. Skal EA altså stenge ned DICE, en av deres mes suksessfulle utviklere de siste 15-20 årene, på grunn av dårlig salg på ETT spill? Nå må du gi deg. Og om spillet selger dårlig, så tror jeg EA vet veldig godt hva det kommer av og hvor skylden ligger hen. Det er ikke hos DICE, men hos EAs mikrotransaksjoner og PR-katastrofen det førte til.

Du kan argumentere så mye du vil om at du støtter DICE med å kjøpe spillet. Men i virkeligheten støtter du EA deres forkastelige oppførsel mot sine kunder. Mest av alt støtter du introduksjonen av gambling i gamingverdenen. At du ikke har integritet nok til å innrømme at du ikke har vilje nok til å la være å kjøpe spillet, er din egen feil.

Av anon227198
Skrivet av Icte:

Perfekt, var lite rädd att sambons dator med RX 480 skulle inte klara av spelet nu under helgen men nu verkar helgen vara räddad!

Du og alle andre som kjøper dette spillet (eller ikke har returnert det allerede), er en gjeng med sell-outs uten integritet. Ved å kjøpe og spille dette spillet bidrar dere til å ødelegge spillmarkedet ved å vise aksept for forkastelig oppførsel som mikrotransaksjoner (gambling mao., og dette i et spill som markedsføres for barn).

Gjør dere selv og alle andre en tjeneste: returner varen og ikke spill dette.

https://pbs.twimg.com/media/DOmcpn3W4AA8FfW.jpg

Skickades från m.sweclockers.com

Av anon227198

Jeg finner det morsomt hvordan Bethesda oppfører seg som om spillet deres har fin grafikk; det har det ikke. Grafikken føles flere år gammel og er fullstendig underlegen sammenlignet med The Witcher 3.

Jeg har ingenting imot dårlig grafikk. Det jeg er imot er at selskapet prøver å påstå dey motsatte. I tillegg er det helt latterlig at PC-kravene for Fallout 4 er høyere enn The Witcher 3. Selv Battlefront 3 krever mindre!

Skickades från m.sweclockers.com

Av anon227198
Skrivet av sKRUVARN:

Detta är ju en fråga man alltid ser på dessa nyheter, beror ju helt på om man behöver mer cpu -prestanda eller inte. CPUer som presterar mycket bättre än 2500/2700 har funnits länge, men är ju såklart onödigt att uppgradera om man inte upplever flaskhals oavsett om det presterar 20 eller 100% bättre. 4790k eller tex en 5960x är ju avsevärt mycket snabbare än en 2500k om det man gör kan utnyttja den extra prestandan. Tittar man tex på cinebench resultat (som imo är ett rätt bra test för att se vilken prestanda som faktiskt går att få ut) så ser man ju att det har hänt en del sen sb, speciellt om man uppgraderar till fler kärnor / trådar.

Skickades från m.sweclockers.com

Dette er bare tull og vrøvl!

Sandy Bridge til Ivy Bridge: 2-10%, rundt 3% totalt. Bare krymping av prosessoren (32nm til 22nm) og i tilfellet til LGA1155 og bærbare prosessorer, mye bedre GPU. På dette punktet er Intel godt inn i dets ganske faste tick-tock syklus. Den virkelige fordelen med IVB var strømforbruket selvfølgelig, og på serversiden, 8 ->12 kjerner ga en reell økning der dette skjedde.

Ivy Bridge til Haswell: 0-3% er typisk her, og det topper 10-15% på enkelte steder. Haswell er fokusert på ren energieffektivitet, og Intel gjorde forbedringer-per-watt-forholdet enda strengere (i utgangspunktet dobbelt så hardt).

Så, siden SB har vi sett rundt 6-10% IPC-forbedring, noen stigende klokkehastigheter og flere kjerner. En person som har en 2600K har INGEN GRUNN til å oppgradere.

Med dette i bakhodet kan du gjette hvor stor "revolusjon" Skylake blir...

Skrivet av Xay0r:

Då blir det dags för 2500K'n att pensionera sig i augusti-september : )

Er du smart gjør du ingenting. Det vil være neglisjerbare forskjeller mellom en i5 2500K og en i5 6600K, akkurat som det er neglisjerbare forskjeller mellom en i7 2600K og i7 6700K. Intels CPUer har gitt bortimot INGEN ytelsesøkning siden Sandy Bridge, og hvis du sitter på en i7 2600K har du fortsatt ingen grunn til å oppgradere. Sandy Bridge til Ivy Bridge ga 3% forbedring "overall", mens Ivy Bridge-Haswell ga 0-3% (med 10% økning i visse, isolerte deler). Så noen oppgradering fra Sandy Bridge til Haswell er allerede ren idioti. Haswell til Broadwall gir praktisk talt ingen økning, og Broadwell til Skylake gir -- hvis vi skal tro "hypen" -- en økning på kanskje 5-10%.

Om du har en Sandy Bridge prosessor, er du smart nok til å holde deg til den og ikke oppgradere. Det er hele 5 år siden den ble lansert, men ikke glem at Intel ikke har kommet med reelle arkitekturforbedringer siden den gang heller. Fokuset har i stor grad vært på energieffektivitet, og den eneste grunnen til å gå over til en Skylake-prosessor er hvis du har en laptop. I vanlige oppgaverer med PCen, gaming, mindre tunge programer osv. vill skillnaden mellom Sandy Bridge og Skylake være mikroskopisk.

Vær smart og ikke kast bort pengene dine.

Av anon227198
Skrivet av Mocka:

Hoppas de skippar 4K, sjukt onödigt och kommer bara slöa ner telefonen.

Hvorfor er det unødvendig?

1. For "unge mennesker, er den gjennomsnittlige synsskarpheten til et sunt øye ca. 20/16 til 20/12, så det er feil å referere til 20/20 synsskarphet som "perfekt" syn, I følge Clinical Procedures for Ocular Examination, en undervisningsbok for studenter og øyepraktiere. Dette er som sagt gjennomsnittlig syn, og flere kan ha både bedre (helt opp til 20/8) og dårligere (20/200) syn. Uansett er det fullt mulig for mennesker å se individuelle piksler opp til 600-700 ppi fra 25cm. Med VR, som videre deler opp skjermoppløsningen og i tillegg er mye nærmere øyet, er betydelig høyere PPI nødvendig. Her har Oculus snakket om så mye som 16K x 16K for hvert øyere, før man får realistisk opplevelse.

2. Dettte er dog ikke den eneste fordelen med å gå høyere enn 20/20-syn på typiske visningsavstander (25-35cm). Det inkluderer blant annet en tettere konsistens med med digitale bildeoppløsninger, muligheten til å vise 1080p-4K-bilder uten å nedskalere og ødelegge bildekvaliteten, i tillegg til effektiv og enkel oppskalering av ulike HD og QHD-skjermoppløsningsformater som gir bedre resulterende bildekvalitet.

3. Det er også en grunn til at alle de med "dårlig" syn skal bry seg. I 2010 oppdaget Japan NHK Science & Technology Research Laboratories at jo mindre pikslene er, jo mer ekte virket skjermobjektet til personen som leste det, selv om de ikke har perfekt syn. Faktisk er denne effekten så virkningsfull på individer at man til slutt kommer til et punkt der pikslene er små nok til at skjermobjekter er helt umulig å skille fra virkelige objekter.

Av anon227198
Skrivet av DavidtheDoom:

Prestandaskillnaden mellan Sandy Bridge mot Skylake verkar ligga på runt 40%.

i7 2600k: 0.1975 poäng per 100MHz i Cinebench 11.5 (SweClockers).
i7 6700k: 0.252 till 0.2645 poäng (med eller utan turbo) per 100Mhz Cinebench 11.5 (i artikeln).
Detta vid multicore last.

Dvs 27.6% till 33.9% i IPC förbättringar.

Sedan är ju även 6700k högre klockad. 4-4.2GHz mot 3.4-3.8. Så ytterligare ca 10% högre prestanda utöver ca 30% högre prestanda i IPC.

Hvis du tror man får 30-40% økt praktisk ytelse fra 2600K til 6700K så er du helt ute og kjører. Ved å tenke på denne måten muliggjør og fremmer man Intels praksis, som i størst grad består av oppblåste lovnader og hype -- ikke faktiske ytelsesøkninger.

De lovde rundt 10% økt ytelse fra Sandy Bridge til Ivy Bridge, Ivy Bridge til Haswell, osv. også. Det vi i realiteten fikk var ca. 3% økt generell ytelse for hver generasjon. Jeg tviler på at ytelsen her vil være noe stort heller, og forskjellen mellom en i7 2600K og i7 6700K vil i beste fall være 15-20%. I gaming og dagligdagse oppgaver og programmer tviler jeg på du vil merke noe forskjell.

For 4. år på rad ser vi god utvikling for laptoper og mobile enheter. For desktop derimot: INGENTING. Har man en 2500K eller 2600K liggende, er oppgradering det verste man kan gjøre. Rett og slett. Om disse menneskene ønsker ny teknologi, kan de i stedet vente på AMDs Zen-CPUer og heller støtte et selskap som faktisk er fordøyelig.

Av anon227198

@2good4you: I linken til innlegget du har skrevet, er halvparten av resultatene dine fra prestasjonen til den integrerte Intel HD-grafikken -- som er fullstendig irrelevant i vårt tilfelle. Ei heller kan jeg ta tallene dine, som virker å ikke ha noen referanser (?) mer seriøst enn de fra anerkjente sider som Anandtech -- som både er mer nøyaktig og har større omfang.

Skrivet av 2good4you:

Ang Skylake så får du vänta och se. Det är inte bara CPU prestanda som är intressant, utan prestanda/w och även den integrerade grafikdelen som kan nyttjas simultant i DX12.

Igjen, om du ser hva jeg skriver, så står det tydelig og klart at Intels nye CPUer i bunn og grunn har hatt positiv fremgang utelukkende for mobile plattform (især laptoper og mobiler/nettbrett). Det er her integrert Intel HD-grafikk eller prestanda/w kommer til nytte. Slike ting har vært fullstendig irrelevant for Desktop-segmentet.

Hvor stor forskjellen støtte til DX12 for den integrerte grafikken vil ha i første omgang er jeg også veldig skeptisk til. Det er først og fremst nye spill, og da gjerne de store, grafikkrevende spillene, som støtter DX12. Selv med DX12-optimalisering, vil du ikke kunne spille disse spillene bedre på en ultrabook eller en laptop med integrert HD-grafikk. DX12-støtten vil først komme til gode om 2-3 år.

Av anon227198
Skrivet av Yoshman:

Om det bara handlar om brist på konkurrens, varför lägger man så mycket krut på servermarknaden där man har ~92% medan man ligger på runt 80% (var ett tag sedan jag såg siffror här i.o.f.s) på desktop? För bärbara datorer (exklusive pekplattor) lär man också ha en bra bit över 90%, varför satsar man så mycket här?

Man förbättrar de punkter man kan förbättra, just nu är det perf/W och total perf där det finns förbättringspotential. Det är användbart för servers och bärbara, men ger inte speciellt mycket för deskop tyvärr.

Intels R&D budsjett er enorm, for å si det mildt, og likevel har "alternative" veier til stagnasjonen av av CPU-teknologien blitt presenteret av smarttelefonprodusenter eller mye mindre selskaper enn Intel: "heterogeneous systems", eller "Graphics Core-Next" -- av AMD og ARM, for eksempel. Du later også til male et bilde av ARM som er dårligere enn Intel på mobilfronten, når dette er helt usant. Intel er knapt med i smarttelefonindustrien, som ARM har fullstenig overtaket på.

Og det er noe jeg synes er veldig atypisk, hvis vi ser på den enorme forskjellen i størrelse mellom Intel og disse selskapene. Eller det faktum at hvert år introduserer Intel-CPUer ekstremt små ytelsesforbedringer som er akkurat små nok til å rettferdiggjøre deres salg; utgivelser de hadde sluppet å komme med. Eller hva med de stadige nye sokkelene (sockets) som tvinger kundene til å kjøpe ny maskinvare hele tiden? Er det noen logiske grunner (grunner, ikke påskudd) for nye prosessokler nesten hvert eneste år?

Jhg har følelsen på at Intel-prosessorer vil gi oss bedre ytelsesøkninger når vi kommer til et punkt der andre selskaper med deres teknologier og løsninger starter å true dem i det stasjonære og bærbare markedet. Skylake synes å være den første av disse.

Skrivet av Yoshman:

ör bärbara datorer (exklusive pekplattor) lär man också ha en bra bit över 90%, varför satsar man så mycket här?

Det sier jo seg selv: den stadige ytelsesøkningen av ARM-prosessorer vil til slutt føre til at ARM kan konkurrere på latopmarkedet. Intels forbedringer på nettopp dette området er jo fullstendig konkurransebasert. Det går også den andre veien; med stadig utvikling av mobile CPUer (som med Skylake vil innebærer vifteløse CPUer med x86 som kan gi reell konkurranse med ARM i mobil og nettbrett).

Av anon227198
Skrivet av Yoshman:

Du nämner ARM, de har inte alls samma ökningstakt i de senaste modellerna som man hade tidigare. Startar man på Cortex A8 nivå är det knappast en bedrift att skapa något som är ett par gånger snabbare ett gäng år senare... Intel mer än dubblade prestanda från Atom Saltwell till Silvermont, det är vad man ska jämföra mot ARMs bedrift med.

Men anta att allt jag skrivit är totalt nonsens: enda vi då behöver göra är att vänta på Zen för om Intel bara suttit och fjärtat och räknat pengar sedan man lanserade Sandy Bridge lär det knappast vara något problem att skapa något som är signifikant snabbare än Skylake då prestanda brukade fördubblas var 18e månad tidigare. Sandy Bridge till Skylake är 4.5år, så AMD borde kunna tredubbla prestanda mot vad man själv hade sedan Intel lanserad Sandy Bridge.

Jeg krever ikke en dobbling av prestanden hver nye generasjon. Men hvis du for eks. tar ARM, så ser du reelle økninger i ytelse hvert år! Vi har sett 57% økning ytelse på Exynos på 12 måneder: Exynos 5422 (28nm -- Galaxy S5) til Exynos 7420 (14nm -- Galaxy S6) og vil se noe lignende igjen med neste års Exynos "Mongoose", hvis ryktene om 40% økning i bare single-core ytelse er sanne. Også Snapdragon 810 (20nm) er 40% raskere enn Snapdragon 801 (28nm) fra året før.

Problemet er at fra Sandy Bridge til Broadwell, har vi sett en prosess på 32nm til 14nm. Hvor stor har ytelsesøkningen vært? 6-7%. Virker det logisk hos deg? Intel utnytter monopolet så godt de kan, slik jeg ser det. Det eneste markedet som har tjent på Ivy Bridge, Haswell, og det eneste markedet som kommer til å tjene på Skylake, er det mobile markedet: laptoper, tablets, mobiltelefoner. De gir rett og slett faen i desktopmarkedet, fordi de har ingen konkurranse der.