Intel "Haswell" Core i7-4770K i prestandatest

Permalänk
Medlem

Används SSE 4, AVX och andra instruktioner mycket i spel? AVX2 har fått rätt mycket hype på flera tekniska forum

Permalänk
Skrivet av Sisyfos:

Hur kommer det sig att klockfrekvensen på CPU'er har stått silla i nästan 10 år nu? Jag vet att detta inte har mycket att göra med prestandan egentligen men kommer vi aldrig se processorer med 1THz till exempel? Varför har det "stannat" på den fronten?

Om man kollar tillbaka på processorer innan år 2000 så ökades oftast klockfrekvenserna ganska mycket mellan varje generation.

Om du ska upp på 1 THz så kommer ljusets hastighet att vara en flaskhals.

Det är bara att ta fram papper och penna och börja räkna på t.ex en 3-4 cm stor processoryta, göra om frekvensen till periodtid och roa sig med idealfallet att vi skulle kunna ha kommunikation inne i chippet med ljusets hastighet.

Permalänk
Medlem

så kommer min i7 950 @ 3,78 Ghz bli piskad av hawell?

Visa signatur

RTX 3060ti och Ryzen 7 5800x3D + annat

Permalänk
Skrivet av pytonOrm:

Tagen av mig när jag ägde en 920 vad den kan prestera på luft

http://valid.canardpc.com/show_oc.php?id=557264

//Mvh

okeeeej den var inte dålig och gammal hederlig OC inte K-skiten som vem som helst kan göra

och priset 2000kr som bäst...
http://www.prisjakt.nu/produkt.php?pu=352410

kanske det är min nästa processorn men 130W avskräcker då själv prioriterar jag maximalt ljudlös kylning framför OC. Minns själv problem med q6600 och den var "endast" 105W. min e8600 (65W) har jag på 1,37v och på gränsen till att kunnas kylas ner ljudlöst

Permalänk
Datavetare
Skrivet av dunis90:

Används SSE 4, AVX och andra instruktioner mycket i spel? AVX2 har fått rätt mycket hype på flera tekniska forum

SSE,SSE2 & SSE3 (SSE3 introducerades i P4 och Athlon 64) används av i princip alla spel. Dessa versioner av SSE gjorde så att den gamla x87 flyttalsprocessorn helt kunde ersättas med det betydligt modernare SSE3. Ovanpå detta använder vissa spel bibliotek som använder SSE för att utföra flera flytalsoperationer (2*64bit-float eller 4*32bit-float då SSE register är 128 bitar) per instruktion (den ursprungliga anledningen till att MMX och SSE skapades). AVX lägger till motsvarande instruktioner till 256 bitars AVX register.

SSE4.x lade sedan till motsvarande stöd för att hantera flera heltalsberäkningar med en ena instruktion. Microsoft och även GNU C/C++ har lagt in en del stöd i kompilatorerna så att loopar och liknande kan processa 4 iterationer (4 * 32-bitars = 128 bitar vilket är storleken på SSE register) per loop-varv, AVX2 lägger till motsvarande funktioner till de 256 bitars AVX registren så man kan utföra 8 iterationer per loop-varv. Kan ju se i TomsHardware testet att om man faktiskt använder AVX2 så dubblas nästan heltalsprestanda (och det är nog vad hypen kommer ifrån).

Men det är samma dilemma här som vid många kärnor: om man använder detta så ökar prestanda kraftigt, frågan är bara hur lång tid det kommer ta innan det börja användas. Det positiva är att det i många fall är enklare att dra nytta av SIMD än vad det är att dra nytta av många CPU-kärnor, framförallt i spel. CPUn i PS4, AMDs Jaguar, har ju fått rejält mycket kraftigare SIMD enheter jämfört med föregångaren Bobcat, så vi kommer nog få se rätt mycket fokus på AVX-bibliotek.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av medbor:

om vi räknar på ((nehalem + 20%)+10%)+13% så får vi 1.2*1.1*1.13 = 1.5 = +50% prestanda per klockcykel.
Det vill säga en Nehalem skulle behöva vara klockad till ~ 5.8GHz för att matcha en oklockad haswell med turbo.
samma siffra blir 4.8 och 4.4 för sandy respektive ivy bridge. Dvs en normalt (luft-)överklockad sandy/ivy är ungeför som en stock haswell, men en extremt överklockad nehalem har inte en chans mot en stock haswell. Om vi räknar med att haswell kan klockas lika högt som sandy snackar vi extrema skillnader. Då blir det istället 7.1, 6.0, 5.4 GHz som krävs för att matcha en Haswell i 4.8, så att säga att inget händer så är man ju helt ute och cyklar.

problemet med klockhastighet är helt enkelt ljusets hastighet. vid 3GHz hinner ljus i vakuum färdas ca 1dm per klockcykel. till detta måste vi tänka på att ledningsbanorna som elektriciteten ska färdas på inte alls går raka vägen och att elektriciteten inte alls åker lika fort i kisel som ljuset gör i vakuum. elektriciteten går däremot snabbare fram om man ökar spänningen, men detta motverkas av att resistansen ökar med temperaturen. totalt sett begränsas vi alltså runt ca 4GHz vid 100W, sedan blir det värre och värre. om du kan tänka dig en dator som drar några kilowatt kan vi säkert fixa 10GHz, men då snackar vi flytande helium eller motsvarade för kylning. anledningen till att vi hela tiden krymper storleken på kretsarna är för att vi vill komma åt fler transistorer per klockcykel.
Ett annat problem blir värmeutvecklingen som skenar iväg dels för att vi måste öka volten och frekvensen, men dels är destruktiv för resistansen och ledningsförmågan. dessutom är idag ledningsbanorna mara några få atomer breda och att lägga flera volt över dom skadar ganska snabbt deras struktur och skapar definitivt ett större problem med elektrontunnling som inte fanns när banorna (och de isolerande lagrena runt om) var mycket tjockare än dom är idag. Dessutom ger krympningarna förminskad yta att leda bort värmen från (om vi antar liknade mängd transistorer).
Kontentan av allt detta är väl att en THz dator skulle kunna vara teoretiskt möjlig, om du tycker att en hel stjärna som energikälla känns rimligt (ett kärnkraftverk är nog minimum). Men den prestandan skulle sannolikt inte vara bättre än ett fåtal moderna grafikkort i terraflops.

Grymt bra skrivet!

Skulle vara kul om någon kunde göra ett test där man jämför prestanda mellan generationer, men inte som vanligt där man jämför vid samma klockfrekvens, utan att man istället kollar hur mycket det ska klockas för att få samma prestanda. Det är ju inte orimligt att 20% högre klockfrekvens och därmed faktisk prestanda bara ger 15% prestandaskillnad i snitt på en rad test då det finns andra flaskhalsar i ett system.

T.ex. så kollar man vilken frekvens en Nehalem behöver för att få samma framerate som en Haswell i BF3. Att testa på det sättet visar ju mycket tydligare hur snabba dagens processorer faktiskt är. Även om det bara skiljer 10% i framerate mellan två processorer så kan det vara 50% mer prestanda som ligger bakom resultatet.

Permalänk
Medlem
Skrivet av Anton.o:

så kommer min i7 950 @ 3,78 Ghz bli piskad av hawell?

Jajamensan. Men den duger länge till ändå.

Permalänk
Medlem
Skrivet av Anton.o:

så kommer min i7 950 @ 3,78 Ghz bli piskad av hawell?

ja,faktiskt kommer den det. och sen är socket 1366 utdöd processor och inte tillverkas längre. men jag råder er o vänta tills Broadwell kommer själv tycker jag inte det e hypa att skaffa sig en haswell nu heller, bara 13 procent snabbare än ivb är inget att hurra för. då kan lika väl köpa sig en geforce gtx titan istället.

Visa signatur

[Intel Core i9@13900KF Raptor Lake@5,5Ghz Oc][Asus ROG Z790 HERO[G-Skill RGB 32GB 6600Mhz cL34][WD Back 2TB NvMe][2TB Samsung 970 Evo + 2x8Tb Samsung 870 Qvo spel disk][Msi RTX 4090 Gaming Trio-X][ASUS ROG Swift OLED PG48UQ][Windows 11][1000/1000Mbits Telia fiber][Razer Ornata Tangentbord.

Permalänk
Medlem
Skrivet av pytonOrm:

ja,faktiskt kommer den det. och sen är socket 1366 utdöd processor och inte tillverkas längre. men jag råder er o vänta tills Broadwell kommer själv tycker jag inte det e hypa att skaffa sig en haswell nu heller, bara 13 procent snabbare än ivb är inget att hurra för. då kan lika väl köpa sig en geforce gtx titan istället.

Lite nyfiken på var du får 13% från ?
Nästan alla test på THG visar ju bara hur mycket bättre AVX2 eller den integrerade grafiken är.
Och i de "vanligare" blender/lame/3ds/etc skiljer det ju betydligt mindre än så, under 5% i snitt.

Permalänk
Medlem
Skrivet av Svensktiger:

Lite nyfiken på var du får 13% från ?
Nästan alla test på THG visar ju bara hur mycket bättre AVX2 eller den integrerade grafiken är.
Och i de "vanligare" blender/lame/3ds/etc skiljer det ju betydligt mindre än så, under 5% i snitt.

Okej, vi tar bort alla tester du tycker är orättvisa. Vi tittar bara på program som inte utnyttjar AVX2 eller OpenCL, ännu.
Jag tycker då det ser ut som mer än "under 5% i snitt".

Blender: 8,1%
Visual Studio: 15,2%
Handbrake CLI: 7,9%
ABBYY FineReader: 7,1%
iTunes: 3,7%
TotalCode Studio: 8,8%
3ds Max 2012: 6,5%
Winzip 17 (CPU-Only): 7,6%

Genomsnitt:
8,1%

Hur ser det ut om ett år när mer har stöd för AVX2?

Permalänk
Medlem
Skrivet av Yoshman:

SSE,SSE2 & SSE3 (SSE3 introducerades i P4 och Athlon 64) används av i princip alla spel. Dessa versioner av SSE gjorde så att den gamla x87 flyttalsprocessorn helt kunde ersättas med det betydligt modernare SSE3. Ovanpå detta använder vissa spel bibliotek som använder SSE för att utföra flera flytalsoperationer (2*64bit-float eller 4*32bit-float då SSE register är 128 bitar) per instruktion (den ursprungliga anledningen till att MMX och SSE skapades). AVX lägger till motsvarande instruktioner till 256 bitars AVX register.

SSE4.x lade sedan till motsvarande stöd för att hantera flera heltalsberäkningar med en ena instruktion. Microsoft och även GNU C/C++ har lagt in en del stöd i kompilatorerna så att loopar och liknande kan processa 4 iterationer (4 * 32-bitars = 128 bitar vilket är storleken på SSE register) per loop-varv, AVX2 lägger till motsvarande funktioner till de 256 bitars AVX registren så man kan utföra 8 iterationer per loop-varv. Kan ju se i TomsHardware testet att om man faktiskt använder AVX2 så dubblas nästan heltalsprestanda (och det är nog vad hypen kommer ifrån).

Men det är samma dilemma här som vid många kärnor: om man använder detta så ökar prestanda kraftigt, frågan är bara hur lång tid det kommer ta innan det börja användas. Det positiva är att det i många fall är enklare att dra nytta av SIMD än vad det är att dra nytta av många CPU-kärnor, framförallt i spel. CPUn i PS4, AMDs Jaguar, har ju fått rejält mycket kraftigare SIMD enheter jämfört med föregångaren Bobcat, så vi kommer nog få se rätt mycket fokus på AVX-bibliotek.

Tack för detaljerat svar! Är du en sorts programmerare?
Egentligen har du väl sagt det indirekt, men alla standarder som x86-processorerna i konsolerna stödjer och använder, kommer alltså direkt gynna även PC-sidan?

Gillar fina prestandaförbättringar och AVX2 låter onekligen som en sådan, bara inte spelen börjar kräva det så småningom:D

Permalänk
Medlem
Skrivet av Aleshi:

Okej, vi tar bort alla tester du tycker är orättvisa. Vi tittar bara på program som inte utnyttjar AVX2 eller OpenCL, ännu.
Jag tycker då det ser ut som mer än "under 5% i snitt".

Blender: 8,1%
Visual Studio: 15,2%
Handbrake CLI: 7,9%
ABBYY FineReader: 7,1%
iTunes: 3,7%
TotalCode Studio: 8,8%
3ds Max 2012: 6,5%
Winzip 17 (CPU-Only): 7,6%

Genomsnitt:
8,1%

Hur ser det ut om ett år när mer har stöd för AVX2?

Inte orättvisa.
Men THG har ett väldigt nära sammarbete med Intel och är alltid först ut med dessa previews.
Och utan tvivel har dom fått ganska stränga förhållningsorder vad som får testas och publiceras.
Hur svårt skulle det t.ex vara att pillra i ett diskret grafikkort och köra lite moderna spel ?

Självklart så tjänar vi alla på bättre hårdvara och nya/bättre funktioner.
Dock så gissar jag på att Intel är (och har varit de senaste åren) i "tjäna så mycket pengar det bara går" läge.
När du t.o.m har svårt att skilja 3 generationers olika CPU'er åt med benchmarks kan man ju inte låtsas att dom tänjer på gränserna längre...

Permalänk
Medlem
Skrivet av pytonOrm:

Tagen av mig när jag ägde en 920 vad den kan prestera på luft

http://valid.canardpc.com/show_oc.php?id=557264

//Mvh

Va inte dåligt, får ja inte äns upp med vatten

Visa signatur

Data 00110011

Permalänk
Medlem
Skrivet av Svensktiger:

Dock så gissar jag på att Intel är (och har varit de senaste åren) i "tjäna så mycket pengar det bara går" läge.
När du t.o.m har svårt att skilja 3 generationers olika CPU'er åt med benchmarks kan man ju inte låtsas att dom tänjer på gränserna längre...

Om du menar de senaste 20 åren så ja, självklart.
Det är ett av världens största teknikbolag, det handlar om att tjäna pengar och göra aktiemarknaden glad, precis som innan.

När det inte finns någon konkurrens eller pengastark efterfrågan så finns heller ingen anledning att pressa gränserna...

Permalänk
Medlem
Skrivet av zhrooms:

Som väntat, 4770k är inte intressant alls nu när konsolerna får 8 kärnor x86, många fler spel kommer stödja fler än 4 kärnor troligtvis, då kommer 3930k/4930k vara ett betydligt bättre val (1500-1700kr dyrare än 4770k)

Var det inte ungefär sådär det lät vid xbox 360 också? Eller när Q66an kom ut på marknaden? Hur ser det ut nu, 4 kärnor dominerar än

Visa signatur

Asus Prime Z390-A - Intel I7 9700KF - Corsair Vengeance 2x8GB 3200Mhz CL16 - MSI GeForce RTX 2080 SUPER 8GB Ventus XS OC - Creative Sound Blaster Z (skäms) - Corsair AX 1200i Digital 1200W 80+ Platinum - Fractal Design R6 - Sennheiser GSP 600 - Acer Predator XB271HUA

Permalänk
Medlem
Skrivet av Dual-Tjur:

tänkte skriva samma sak men om 2600k.... vet inte hur bra man kan klocka 920:n

Så vitt jag minns sen 4,5 år tillbaka så var det som med 2600k, min 3,4 ligger ju i 4,8 vilket ger ca 40%, minns det var samma sak med 920. Skillnaden mellan 2600 och 920 var så liten så jag blev lite ledsen att jag inte körde på 920 utan väntade på 2600k i 1,5-2 år extra, när jag satt på en Q6600 i 4 år...

Visa signatur

Fractal R3, Corsair AX 850W, 2x Gigabyte 580 Windforce + Gigabyte 210, I7 2600k @ 4.6 GHz, Asus P8P67 PRO, Corsair 32GB 2133 MHz, Corsair H80, Intel 320 300GB, 5x2TB WD GP, 5xSchyte F-Flex 1600, 2xFractal 140mm Silent, 7xFanmate, 3xDell U3014, LG BH10LS30, Qpad 5k, Logitech Z-5500, Sennheiser 360, 2xDinovo Edge. Samsung 900X4C, 256GB SSD, 16 GB Ram.

Permalänk

Eh är det bara jag som är frustrerad som fan över att Intel utan anledning valt att stänga av TSX på K processorerna?
Så jävla onödigt. Hade varit så nice med TSX.

Permalänk
Medlem
Skrivet av Blackbird_CaD_:

Eh är det bara jag som är frustrerad som fan över att Intel utan anledning valt att stänga av TSX på K processorerna?
Så jävla onödigt. Hade varit så nice med TSX.

Nä, jag håller med, det är en typiskt dum intelbegränsning precis som med vt-d.

Permalänk
Skrivet av Azodan:

Nä, jag håller med, det är en typiskt dum intelbegränsning precis som med vt-d.

Kylpasta under värmespridaren är också en onödig och dum grej tycker jag.

Permalänk
Medlem
Skrivet av medbor:

om vi räknar på ((nehalem + 20%)+10%)+13% så får vi 1.2*1.1*1.13 = 1.5 = +50% prestanda per klockcykel.
Det vill säga en Nehalem skulle behöva vara klockad till ~ 5.8GHz för att matcha en oklockad haswell med turbo.
samma siffra blir 4.8 och 4.4 för sandy respektive ivy bridge. Dvs en normalt (luft-)överklockad sandy/ivy är ungeför som en stock haswell, men en extremt överklockad nehalem har inte en chans mot en stock haswell. Om vi räknar med att haswell kan klockas lika högt som sandy snackar vi extrema skillnader. Då blir det istället 7.1, 6.0, 5.4 GHz som krävs för att matcha en Haswell i 4.8, så att säga att inget händer så är man ju helt ute och cyklar.

problemet med klockhastighet är helt enkelt ljusets hastighet. vid 3GHz hinner ljus i vakuum färdas ca 1dm per klockcykel. till detta måste vi tänka på att ledningsbanorna som elektriciteten ska färdas på inte alls går raka vägen och att elektriciteten inte alls åker lika fort i kisel som ljuset gör i vakuum. elektriciteten går däremot snabbare fram om man ökar spänningen, men detta motverkas av att resistansen ökar med temperaturen. totalt sett begränsas vi alltså runt ca 4GHz vid 100W, sedan blir det värre och värre. om du kan tänka dig en dator som drar några kilowatt kan vi säkert fixa 10GHz, men då snackar vi flytande helium eller motsvarade för kylning. anledningen till att vi hela tiden krymper storleken på kretsarna är för att vi vill komma åt fler transistorer per klockcykel.
Ett annat problem blir värmeutvecklingen som skenar iväg dels för att vi måste öka volten och frekvensen, men dels är destruktiv för resistansen och ledningsförmågan. dessutom är idag ledningsbanorna mara några få atomer breda och att lägga flera volt över dom skadar ganska snabbt deras struktur och skapar definitivt ett större problem med elektrontunnling som inte fanns när banorna (och de isolerande lagrena runt om) var mycket tjockare än dom är idag. Dessutom ger krympningarna förminskad yta att leda bort värmen från (om vi antar liknade mängd transistorer).
Kontentan av allt detta är väl att en THz dator skulle kunna vara teoretiskt möjlig, om du tycker att en hel stjärna som energikälla känns rimligt (ett kärnkraftverk är nog minimum). Men den prestandan skulle sannolikt inte vara bättre än ett fåtal moderna grafikkort i terraflops.

Det här inlägget innehåller sakfel och påståenden tagna från luften.

De smalaste ledningsbanorna är 50-100nm breda och det är bra mycket mer än "några atomer". Dessutom används dessa smala ledare enbart för korta ledare medan man för distribution av tex klocka använder sej av bredare och tjockade ledare högre upp i ledarstacken. Det är inte ledarna som skadas av för hög spänning, det är transistorerna, och i första hand isolatorn mellan gate och kanal. Det är den tunnaste strukturen som finns i ett chip och som också bestämmer maximal drivspänning. Att köra en CPU på 10GHz eller mer är full realististiskt men då måste olika block i en CPU vara asynkrona så att de inte beroende av en global klocka. Det är dock inte ljusets hastighet som är problemet i första hand utan att buffertar som ska driva långa ledningar måste ha väldigt bra drivförmåga eftersom ledningens kapacitans blir så stor och det kostar i effektförbrukning.

Permalänk
Medlem
Skrivet av zhrooms:

Som väntat, 4770k är inte intressant alls nu när konsolerna får 8 kärnor x86, många fler spel kommer stödja fler än 4 kärnor troligtvis, då kommer 3930k/4930k vara ett betydligt bättre val (1500-1700kr dyrare än 4770k)

sålänge inte Intel går över till samma modell som AMD lär det inte bli nån större förändring ens på de enskilda storttitelexemplen du räknade upp. dessutom måste det förfarande funka hyfsat på laptop marknaden som bara blir större och viktigare för den större spelmarknaden. då tillkommer även frågan hur mycket minne dessa kommer utrustas med, oavsett om det blir vanligt med 8 riktiga eller fejkade kärnor till det. för:

Skrivet av Yoshman:

Så fort du spelar på någorlunda vettig upplösning räcker det nästan alltid med en dual-core CPU. Titta t.ex. på Far Cry 3 som TomsHardware gjort en lång rad benchmarks på
http://media.bestofmicro.com/9/G/364516/original/CPU-scaling....

notera att en Corei3 på 3.1Ghz drar runt detta spel i 60FPS (min FPS är över detta värde). Nu spelar jag inte speciellt mycket, men är inte Far Cry 3 rätt modernt och "krävande"?

Och det jag har svårast med är: varför skulle PS4 göra så att PC-spel kommer kunna dra nytta av flera CPU-kärnor när den totala CPU-prestandan (summan av alla 8-kärnor) i PS4 matchas av en SNB/IVB (behövs ingen Haswell) Corei3@3.2Ghz vad det gäller flyttal och på heltal krävs än lägre frekvens för att matcha?

det är i vanlig ordning viktigt att inte glömma några detaljer när det gäller det här med att jämföra kiwi med kokosnöt. först så kan det spekuleras i att prestandatapp i planerad kökörning blir väldigt mycket mindre. all prestanda från de åtta" kärnorna" används av spelet, bokstavligen denna gång tydligen då maskinen använder en helt separat processor för "OS". det går att förlita sig på minnesmängden, jag tror som sagt massmarknaden för PC-grejer mycket väl kan vara kvar vid 4GB ett bra tag till, och även om inte så är det i princip snarare 12GB eller mer de behöver upp i för att matcha.

det kan låta överdrivet, men det räcker rimligen att titta på de typiska praktiska resultaten mot de teoretiska vid dessa jämförelser som ständigt görs. hur borde ett spel på en maskin med 230MB minne se ut jämfört med en som har 3500MB liksom? varför då förvänta sig nått helt annorlunda denna gång.

Visa signatur

Operativsystemet som löser nästan alla problem: Mint

Permalänk
Medlem

Undra om Intel/AMD funderat över huruvida GPU snart kan användas för beräkningar i deras nya APUer. Som det är nu så är ju ~10% CPU prestanda inget att hänga i julgranen direkt. Men hur skulle det se ut om man hade en applikation som både kunde använda CPU och GPU kraft för beräkningarna? Typ CUDA liknande.

Permalänk
Medlem
Skrivet av Vexo:

Undra om Intel/AMD funderat över huruvida GPU snart kan användas för beräkningar i deras nya APUer. Som det är nu så är ju ~10% CPU prestanda inget att hänga i julgranen direkt. Men hur skulle det se ut om man hade en applikation som både kunde använda CPU och GPU kraft för beräkningarna? Typ CUDA liknande.

AMD arbetar mycket på det. Men för att det ska fungera tillfredställande så ska grafikkort och processor börja dela minnesutrymme och inte arbeta i separata delar av minnet, en hel del andra lösningar måste till också, men de tar ett steg i taget med varje fusion-generation.

EDIT: Med Kaveri så är man i steg 3 av de i bilden ovan.

Permalänk
Skrivet av Quorthon:

Har man en bra Ivy CPU(faktiskt även Sandy), så är Haswell ganska ointressant..däremot om man har äldre än Sandy, så..

Äsch, min Bloomfield i7 920 presterar fortfarande bra.

Visa signatur

Stationär: R4 ROG: Maximus VI Formula i7 4770K, 16GB RAM, GTX 760
Skärm: Acer Predator XB271HU
Bärbar: Lenovo Ideapad 720S 14"

Permalänk
Medlem

Det pratas så otroligt mycket strunt i denna tråd.

10% är inte dåligt. Börjar man sedan använda TSX och AVX2 så blir det ännu mer.

Hade ni tänkt att en ny CPU-arkitektur skulle uppgradera ert grafikkort åt er!? Det är klart som fan att ni inte får fler FPS av ny CPU när det är GPUn som flaskar.

Permalänk
Medlem
Skrivet av lorgix:

Det pratas så otroligt mycket strunt i denna tråd.

10% är inte dåligt. Börjar man sedan använda TSX och AVX2 så blir det ännu mer.

Hade ni tänkt att en ny CPU-arkitektur skulle uppgradera ert grafikkort åt er!? Det är klart som fan att ni inte får fler FPS av ny CPU när det är GPUn som flaskar.

fast i just det här fallet så får man ju faktiskt just det.

Visa signatur

Operativsystemet som löser nästan alla problem: Mint

Permalänk
Medlem

Kul att Intel nu kan börja ta upp kampen med AMD på integrerad grafik. Deras 4600 ligger ju nästan i klass med A10 5800.

Skrivet av KTL:

Jag kan lugnt sitta kvar på 3770K. Och säkerligen efter Broadwell och en till generation också.

Jodå, jag sitter fortfarande med en C2D (kolla sig). Alla multiplatform spel rullar finfint. Det är när jag spelar PC exklusiva spel som det kan bli problem. Natural Selection 2 rullar rätt illa t.ex. Även där vet jag ej hur mycket processorn faktiskt påverkar, bandbredd mot minne och GPU (PCI-E 2.0) kan mycket väl vara bovarna.

Skrivet av Yoshman:

Nu spelar jag inte speciellt mycket, men är inte Far Cry 3 rätt modernt och "krävande"?

Konsol port som är anpassad för dålig CPU prestanda, så det förvånar mig inte. Kolla på PC exklusiva titlar som Planetside 2 som helt massakrerar segare CPUer.

Permalänk
Medlem
Skrivet av AndreaX:

fast i just det här fallet så får man ju faktiskt just det.

Hur menar du nu? Teoretiskt sett så kan ingen CPU ge fler FPS om GPUn är flaskhals. Det är därför vi kallar det "flaskhals".

Permalänk
Hedersmedlem
Skrivet av Nirvasher:

Äsch, min Bloomfield i7 920 presterar fortfarande bra.

Jo lite tråkigt är det ju att sitta på hårdvara från 2008 och känna att man förmodligen kan vänta en till tick-tock cykel innan det börjar bli dags att byta upp sig...

Permalänk
Medlem

Kanske blir att uppgradera min i5 750 (Lynnfield), men bara kanske

Visa signatur

Speldator: Rtx 3070, AMD 5700x3d, Asus B450-F, Corsair 32GB 3600Mhz, 2TB SSD, Corsair 400Q, Win11.
Uppgraderad sen 2017. Nätagg, lagring och chassi består.
Skärm: Philips Evnia 27M2N8500AM (OLED, 360 Hz)