Intel Core i7-4770K och i5-4670K "Haswell"

Permalänk

Ingen som vet

Skrivet av phoenix4m:

Ang Z87:
Vad är den senaste nyheten ang USB3 buggen?
Är de moderkort som släpps nu fixade eller kommer det en separat C2 version?
Sorry, jag är inte up to date...

Skickades från m.sweclockers.com

Ingen som vet altså...

Visa signatur

---CPU---Intel Core 2 QUAD Q9550 2.83GHz 12MB FSB1333
---RAM---DDR2 PC2-8500 1066MHz CL5-5-5-15
---MOBO---Maximus II GENE ( P45/ICH10R , Dual-channel, DDR2 1300)
---PSU----Corsair HX520W ---GPU--- Radeon HD6850

Permalänk
Skrivet av phoenix4m:

Ingen som vet altså...

Eller ingen som bryr sig. Förstår inte varför någon skulle bry sig om en sån bugg.

Permalänk
Medlem
Skrivet av znarkus-o:

Jag har inte dragit några slutsatser om GPUn och absolut inte skällt på nån GPUn har jag inget intresse av då jag har en dedikerad sådan, men om den ökar strömförbrukningen även om den inte används är det ett problem för mig. Det låter som du missuppfattade min fråga.

Skrivet av znarkus-o:

Har sökt igenom alla kommentarer, men inte hittat ett svar:
Någon klok som kan förklara/spekulera i varför Haswell drar mer ström än motsvarande Ivy Bridge?
Är det så att den uppumpade grafikdelen drar massa även om den inte används? Eller kan du vara barnsjukdomar på ny hårdvara/ooptimerad mjukvara? Jag inser att de flesta uppdateringar Intel har gjort bara används i bärbara, men att det går från 50% mindre strömförbrukning till 15% mer är för mig obegripligt.

Nej, det gör den inte och det är bara GT3-delarna som är kraftigare. Annars tas inte heller kärnan upp av den utbyggda grafikprocessorn, då det handlar om två olika produkter och desktopdelarna (socket) inte har något extra som drar ström.

Det är en inkörd process då det är en gammal process och det finns inget som tyder på att designen inte skulle fungera för denna.

Aktiv användning som jag ville poängtera drar den ofta mindre för samma arbete, den drar mindre idle, den drar mindre i standby och den drar lika mycket eller något mer på de högst klockade modellerna med syntetisk last. Inte när du tittar på en film eller spelar ett spel eller när datorn idlar för att du läser på Sweclockers.

Så mycket mer vet vi inte i dagsläget och flera har redan påpekat att vi ännu inte har några kompletta siffror eller analyser av strömförbrukningen. S0iX finns bara på single-chip Haswell (ULT / U/Y) och C7-10 används bara vid vila/standby när maskinen är avstängd (STR). Så det är samma strömsparlägen som vi har haft sen år, och saker som P-states fungerar säkert lika bra som tidigare.

Sen har du ju en viktig förändring genom att spänningsregleringen numera är inbyggd i processorn, i ganska stor utsträckning, men det förklarar egentligen bara mindre justeringar av TDP-värdena och inte plattforms-förbrukning. De högre klockade modellernas förbrukning kan kanske förklaras genom t ex spänning som krävs för att driva dem och hur transistorerna skalar vid högre frekvenser. Sen testar ju såklart sådana som Sweclockers processorn på helt annat moderkort än de jämför 3770k emot t ex. Med ny sockel och chipset. Så små förändringar kan t.o.m. ibland hänföras till firmware/UEFI/BIOS. Det är inte grundligt nog att dra några slutsatser ifrån, men vi kan se att GPU inte är boven t ex.

Permalänk
Skrivet av Blackbird_CaD_:

Eller ingen som bryr sig. Förstår inte varför någon skulle bry sig om en sån bugg.

Ah, förlåt....dumt av mig...

Visa signatur

---CPU---Intel Core 2 QUAD Q9550 2.83GHz 12MB FSB1333
---RAM---DDR2 PC2-8500 1066MHz CL5-5-5-15
---MOBO---Maximus II GENE ( P45/ICH10R , Dual-channel, DDR2 1300)
---PSU----Corsair HX520W ---GPU--- Radeon HD6850

Permalänk
Medlem

Tycker det är illa att Intel tagit bort TSX från i7 4770k...4770k är ju för tusan Haswells flaggskepp

Permalänk
Entusiast
Skrivet av Aleshi:

Haswell drar mindre ström vid idle och vid användande. Det är vid påtvingad maxbelastning den drar mer eller med något program som verkligen maxar dess resurser. Sedan kan man inte titta på högsta uppmätta värden som man ofta gör vid ett test. Man kör ett testprogram och det högsta som uppmätts skriver man ut. Men om du testar en processor som ligger konstant på 60W och en annan som spikar på 65W en hundradel för varje sekund men annars ligger på 45W så ser den senare ut att vara strömhungrigare då den fick högre högsta värde.

http://www.tomshardware.com/reviews/core-i7-4770k-haswell-rev...

Fast det verkar fortfarande inte riktigt gå ihop. Där skiljer det en halv procent i använd energi mellan Haswell och Ivy vilket är så lite att det lika gärna kan vara mätfel. Något går fortfarande inte riktigt ihop här då den ligger högre på topparna och verkar inte gå ner lika långt när den idlar. Fortfarande lite nyfiken på varför Anandtech inte har några siffror heller.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Medlem
Skrivet av Zotamedu:

http://www.tomshardware.com/reviews/core-i7-4770k-haswell-rev...

Fast det verkar fortfarande inte riktigt gå ihop. Där skiljer det en halv procent i använd energi mellan Haswell och Ivy vilket är så lite att det lika gärna kan vara mätfel. Något går fortfarande inte riktigt ihop här då den ligger högre på topparna och verkar inte gå ner lika långt när den idlar. Fortfarande lite nyfiken på varför Anandtech inte har några siffror heller.

Intressant, men jag förstår inte hur de får det till att att Haswell idlar högre än IB då den faktiskt drar liite mindre i långa loppet trots att den drar mer i belastning.

Permalänk
Entusiast
Skrivet av Aleshi:

Intressant, men jag förstår inte hur de får det till att att Haswell idlar högre än IB då den faktiskt drar liite mindre i långa loppet trots att den drar mer i belastning.

De skriver ju att de kollat loggarna så jag gissar att de får det därifrån. De skriver ju så här:

"A look at the logs suggests that the Haswell-based chip isn’t idling as low as the -3770K, even though all power-savings features are enabled in both motherboard UEFIs."

Enligt deras siffror peakar den högre men arbetar snabbare vilket ger samma energi per utfört arbete.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk

Detta var nog det sämsta generationssteg jag sett inom CPU-världen. En tveksamt bättre prestanda och högre elförbrukning. Och fortfarande är det stortrumman som gäller eftersom det är Intel gen. IV-processor. "WOW, generation 4 - det måste jag ju bara ha!!"

Och varför dessa små konstiga sockelförändringar? 1156 till 1155 till 1150? De har säkert sina tekniska förklaringar. Bakom dem döljer sig dock bara en, mer pengar. Jag tror också att det har blivit svårare att i tillverkningsprocessen att gå ned på nanoskalan på grund av att fysikens lagar börjar säga sitt, så Intel behöver flytta fokus från från sådant vi är vana med (prestanda och TDP) till att bara slå på stortrumman när ett nytt "generationsskifte" sker.

Jag är positiv inför framtiden dock. Det kommer säkert att dyka upp nya tekniker som revolutionerar processormarknaden, och kanske är det inte Intel som blir först.

Visa signatur

MSI K9N Neo V2 || AMD x2 5200+ || 3 GB DDR2 || XFX nVidia GTS 250 512 MB || Samsung F3 1 TB || Antec Sonata III || Logitech Illuminated || Logitech G500 // WinXP sp3

Permalänk
Medlem

Vad kommer skillnaden vara mellan Haswell, Haswell-E, Ivy Bridge-E och senare Skylake(När planeras den komma?)? Framförallt E-versionerna, Skylake är ju 14nm medan de andra är 22nm. Vet inte inte om jag ska vänta på Skylake eller om den lanseringen kommer att dröja flera år?

Permalänk
Medlem
Skrivet av Klos_:

Vad kommer skillnaden vara mellan Haswell, Haswell-E, Ivy Bridge-E och senare Skylake(När planeras den komma?)? Framförallt E-versionerna, Skylake är ju 14nm medan de andra är 22nm. Vet inte inte om jag ska vänta på Skylake eller om den lanseringen kommer att dröja flera år?

Nästa lansering är Broadwell. Nästa Tick är Skylake. Skylake är runt 2015 och DDR4-tiden.

Permalänk
Medlem
Skrivet av Kingsthrone:

Detta var nog det sämsta generationssteg jag sett inom CPU-världen. En tveksamt bättre prestanda och högre elförbrukning. Och fortfarande är det stortrumman som gäller eftersom det är Intel gen. IV-processor. "WOW, generation 4 - det måste jag ju bara ha!!"

Och varför dessa små konstiga sockelförändringar? 1156 till 1155 till 1150? De har säkert sina tekniska förklaringar. Bakom dem döljer sig dock bara en, mer pengar. Jag tror också att det har blivit svårare att i tillverkningsprocessen att gå ned på nanoskalan på grund av att fysikens lagar börjar säga sitt, så Intel behöver flytta fokus från från sådant vi är vana med (prestanda och TDP) till att bara slå på stortrumman när ett nytt "generationsskifte" sker.

Jag är positiv inför framtiden dock. Det kommer säkert att dyka upp nya tekniker som revolutionerar processormarknaden, och kanske är det inte Intel som blir först.

Haswell är fortfarande ett bättre köp än sin föregångare. Inte som med Intel Prescott. Tog månader innan det fanns någon tillgänglighet ens i samma frekvenser som föregångaren hade, utvecklade mer värme och hade lägre prestanda per Hz. Där snackar vi skitprocessor, och då var det ändå en krympning som brukar ge svalare processor.
Haswell har högre IPC, bättre IGP, integrerat mer grejer i processorn. Tror också att den undervoltar bättre. Ja om inte nu så åtminstone när tillverkningen börjar bli inkörd och yielden är bättre.

Permalänk
Medlem

Okey, denna processorserie har jag väntat på. Dock är jag inte säker på om det blev en besvikelse eller inte?
I vilket fall, jag har i dagsläget en Intel i7 950 3.07GHz sittandes på ett Sabertooth x58, 6gig ram och ett nvidia gtx 480..
Jag skulle vilja byta ut moderkort och processor och möjligtvis ha kvar ram och grafikkort, är det möjligt utan att det flaskhalsar? Budget har jag 18lax men är atm bara sugen på ny prolle/moderkort.
Min verkliga fråga är alltså: Är det värt att köpa någon av den nya haswell serien (isf vad) eller bör jag låta bli(vad bör jag skaffa istället)?

Permalänk

När jag kollar lite bilder på staplar och sånt så är 4770K ingen rolig.
i7-4770K = 3,5-3,9ghz, 9mb cache, 84w TDP, 3Dmark = ~1,7p, HD4600, F16C

Däremot är jag nyfiken på... Fast när släpps dessa?
i7-4770R = 3,2-3,9ghz, 7mb cache, 65w TDP, 3Dmark = ~2,9p, HD5200, F16C
i7-4950hq = 2,4-3,6ghz, 9mb cache, 47w TDP, 3Dmark= ~2,5p, HD5200

Målet är att bygga liten ljudlös sak som drar minst möjliga ström helst utan grafikkort, men som ändå blir roligare än E2180 2ghz GF9600gt

Lite kluven vilken av dessa två man bör välja. Vad skillnaderna är mer än dessa siffror.

Permalänk
Medlem

Som jag sagt och man kunnat räkna ut, och Jonas och Jacob bekräftat så kommer många av ultrabook-datorerna lite senare särskilt helt nya modeller än det som har lanserats nu. Vissa av modellerna kommer inte lanserar eller inte finnas tillgängliga i volym från början.

i7-4770R likaså HQ-modellerna kommer du bara få i färdigbyggda datorer främst. Därför inte så intressant när de finns i handeln, eller när de finns på retailkort utan när just det som du är intresserad av finns tillgängligt är det intressanta. OEMer får grejerna månader innan brädor och system finns.

Permalänk
Entusiast
Skrivet av DeltaMelta:

När jag kollar lite bilder på staplar och sånt så är 4770K ingen rolig.
i7-4770K = 3,5-3,9ghz, 9mb cache, 84w TDP, 3Dmark = ~1,7p, HD4600, F16C

Däremot är jag nyfiken på... Fast när släpps dessa?
i7-4770R = 3,2-3,9ghz, 7mb cache, 65w TDP, 3Dmark = ~2,9p, HD5200, F16C
i7-4950hq = 2,4-3,6ghz, 9mb cache, 47w TDP, 3Dmark= ~2,5p, HD5200

Målet är att bygga liten ljudlös sak som drar minst möjliga ström helst utan grafikkort, men som ändå blir roligare än E2180 2ghz GF9600gt

Lite kluven vilken av dessa två man bör välja. Vad skillnaderna är mer än dessa siffror.

4950HQ är en laptop-CPU medan 4770R är en desktop. Dock kommer 4770R inte säljas som lös processor då den kör på BGA så den kan bara säljas i färdiga system. Den ska vara liadan som den vanliga 4770 men den har den kraftigaste grafikkresten med det integrerade minnet på 128 MB. Det verkar dock som om den kommer kosta skjortan. Anandtech hade ett pris på lite över $600 för den så man får betala mycket för det där minnet.

4770R är officiellt släppt men vi måste ju vänta på att någon tillverkare bygger något med den vilket verkar dröja. Antagligen beror det på att det är billigare att köra med en 650M som presterar lite bättre i spel. 4950HQ verkar släppas i tredje kvartalet vad jag kan se.

Du kanske ska vänta lite och se vad AMDs kommande Kaveri har att erbjuda också?

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Skrivet av Zotamedu:

då den kör på BGA

Vad betyder BGA?

Permalänk
Medlem

Lånar: passar en h100i till lga 1150 (haswell)?

Visa signatur

q9550@3,4Ghz, GTX275, 4GB DDR2 Corsair XMS2//HTPC AmdX2 4600+ passivt kyld med scythe ninja mini, Antec NSK 2480

Fractal design arc midi r2// core i7 4770k@ 4,4ghz :)
// corsair h100i // corsair hx 850m// asus maximus VI hero//
Corsair vengeance pro 2400mhz// intel ssd 335 180gb// gigabyte gtx 780 OC@1200mhz Core//win 8.1

Permalänk
Entusiast
Skrivet av DeltaMelta:

Vad betyder BGA?

Ball Grid Array vilket betyder att den måste lödas fast vid moderkortet. Alltså kommer den bara kunna säljas färdigmonterad på moderkortet.

Vanliga stationära processorer från Intel har LGA, Land Grid Array vilket betyder att processorn på undersidan har ett antal små kontaktpunkter som sedan ska få kontakt med motsvarande pinnar på moderkortets sockel. AMD kör den motsatta varianten som kallas PGA, Pin Grid Array. Där sitter pinnarna på processorn istället.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Avstängd
Skrivet av Aleshi:

Du är ju förbannat oärlig i din diskussionsmetod. Du gör verkligen strawmans över allt. Han har aldrig sagt dumheterna du anklagar honom för.

Du har ju inte en aning om vad tomten och jag har diskuterat tidigare. Så jag refererar tillbaka till gamla diskussioner också. Det kan inte du veta.

Citat:

Så inte nog med att du handplockar orimliga tester, du missförstår medvetet Virtual Void för att sedan ägna massa tid till att anklaga honom för att sprida FUD? Allvarligt talat ser du inte vad du sysslar med själv?

Nej, det ser jag inte. Du vet inte vad han har påstått tidigare. Du kommer in utifrån utan att ha hela bilden.

Citat:

Allra helst när man redan krossar allt som finns med råge när det kommer till att klara många olika typer av belastning med hög prestanda per tråd.

Jag tror alla som bevakar de tyngre RISC cpuerna, är alla överens om att POWER7+ har starkast trådar. Intel har inget att komma med. Generellt har POWER7+ starkare trådar än SPARC T5. På vissa benchmarks har T5 starkare trådar.

Citat:

Att tillverka en processor med hög parallell prestanda i ett specialområde är inte lika imponerande. Och absilut inte så revolutionerande som du vill få det till.

Jag pratar om att alla servercpuer idlar 50% under full load. Det är endast SPARC Niagara som har nyttjandegrad kring 90% under full load. Det är unikt. Att lägga in flera cores i en cpu är inget svårt, det svåra är att använda dem effektivt och öka nyttjandegraden. ALLA cpuer har 50% eller värre nyttjandegrad under max load - förutom SPARC niagara. Niagara handlar inte om att stoppa in så många cores som möjligt, det är inget svårt (förutom att TDP sprängs och andra problem). Niagara handlar om att stoppa i många cores och inte svälta någon core. Det är ungefär som att del säger "det är bara att stoppa in många cpuer i en server, det är inget svårt att bygga såna servrar". Nej det är inget svårt att bygga såna, men det svåra är att utnyttja alla cpuer effektivt. Det finns inte många OS idag som kan utnyttja 32 eller 64 cpuer effektivt. T.ex. IBMs mogna Enterprise AIX Unix hanterar 32 cpuer i IBMs största P795 server som väger typ 2 ton. Om man då stoppar in 128 eller t.om 256 cpuer, så är det helt menlöst. Det ger ingen extra boost. I själva verket är Oracle stolta över bedriften att SPARC T5 skalar linjärt upp till 8 cpuer, eftersom inte många 8-cpu servrar klarar av det. Som de säger "många 8-cpu servrar ger prestanda motsvarande 4-5 cpuer, men inte T5" vilket förklarar varför den har så många världsrekord.

Citat:

Sedan det där med hur många trådar som windows kör. För det första så är inte windows 100+ trådar någon belastning. Den tunga belastningen i en PC är oftast i en eller ett fåtal trådar, även fast det finns 100 till i windows som inte belastar. Spelar ingen roll om du kan tugga 1000 trådar då om du har låg prestanda per tråd och det bara är 2 trådar som behöver riktig prestanda.

Alla trådar måste switcha ut och in, så det är ett stort problem om det tar 1000 tals cykler att byta tråd hela tiden. Speciellt är detta ett stort problem bland tyngre servrar.

Citat:

För det andra så skalar även duktigt flertrådade program riktigt dåligt när det kommer till större mängder trådar. Ja iaf om man lever i verkligheten med vanliga program och inte i Oracles benchvärld.

Oracle riktar sig mot tyngre server marknaden, det är där pengarna finns. IBMs gamla P595 med 32 cpuer, kostade 35 miljoner USD. Listpris. Servrar är byggda på annat sätt än desktops, och har andra problem.

Citat:

Det är inte klokt att klaga på den processor som är bäst i hela världen för det den ska göra, och hänvisa till ett verklighetsfrånvarande benchmark som favoriserar primitivare men mer parallelliserade processorer. Ett benchmark som processorn inte alls är byggd för.

Dessa s.k "verklighetsfrånvarande benchmarks" är stora generella serverbenchmarks, typ affärssystem, databas, java, etc. Sånt som tyngre servrar är designade att köra. Det finns tomtar som tror att Oracle benchar sina servrar genom att låta dem kopiera 256KB RAM så snabbt som möjligt, vilket vore korkat. Inget Fortune500 företag tittar på såna konstiga benchmarks. De tittar på hur de ska köra affärssystem så effektivt som möjligt, databaser, etc. Det handlar inte om att de kör primitiva specialiserade benchmarks. Vi pratar om servrar, för bövelen. På desktops ser man ofta små specialiserade benchmarks, men företagen bryr sig inte om sånt. De vill ha affärsnytta, hur snabbt körs databasen? Affärssystemet? Hur mycket snabbare kan de göra sin databas analys som tidigare tog 15h? Kan de köra på 3h istället, så de följer marknaden snabbare? Om de kan få fram prognoser före alla andra, så är det definitivt värt 35 miljoner USD för de stora företagen. Vem f-n av Fortune500 företagen bryr sig om de kan kopiera 256KB RAM snabbare? Jisses. Lägg ned snacket om att server benchmarks är små specialiserade saker. Läs på lite istället. Bevaka den tyngre servermarknaden och lär er lite, så ni slutar tro att ni kan föra över ert desktopskunnande till servrar. Det kan man inte. Servrar är nåt helt annat.

Det är ungefär som "jag fattar inte varför folk säger Windows inte duger till Enterprise laster, och de påstår att Windows är instabilt. Jag har kört windows hemma i 2 år utan krasch! Det är hur stabilt som helst!". Man kan inte tänka så. Det är lätt att få till stabil miljö på desktops med låg last. Det är enormt mycket svårare att få till stabil miljö på en tungt lastad server. Startar man upp windows 3.11 och låter den stå idle så kommer den antagligen att inte krascha på flera år. Men att köra en tungt lastad server som servar många klienter, databaser, affärssystem, tung I/O och annat - det är en heeeelt annan sak. Då ska man inte tro att Windows kan klara av såna arbetsuppgifter, bara för att det funkar bra på sin desktop. Man kan inte ta med sig desktop tänk in till server marknaden. Vilket ni gör.

Permalänk
Medlem
Skrivet av znarkus-o:

Inte för en fotograf

Hur resonerar du då? Jag är mer av en hobbyfotograf och har endast runt 5 års erfarenhet av dslr, men jag konverterar betydligt mer till PNG än JPEG på grund av lägre komprimering. Den enda fördelen jag ser med JPEG är väl den bevarade EXIF-datan men den är i ärlighetens namn inte viktigare än bildkvaliteten.

Försöker inte vara spydig i min kommentar nu utan är intresserad över vilka fördelar du syftar på med JPEG-konvertering?

Visa signatur

Define XL R2 || CM Silent Pro M1000 || Asus Z490-F || Intel i9 10900k || Noctua NH-D15 || RTX 2080 || 64GB DDR4 || 1TB 970 Evo Plus M.2 + 1.5TB SSD + 2TB HDD || Win10 Pro

Permalänk
Entusiast
Skrivet av RaZman:

Hur resonerar du då? Jag är mer av en hobbyfotograf och har endast runt 5 års erfarenhet av dslr, men jag konverterar betydligt mer till PNG än JPEG på grund av lägre komprimering. Den enda fördelen jag ser med JPEG är väl den bevarade EXIF-datan men den är i ärlighetens namn inte viktigare än bildkvaliteten.

Försöker inte vara spydig i min kommentar nu utan är intresserad över vilka fördelar du syftar på med JPEG-konvertering?

Jag testade lite snabbt att konvertera en bild till jpeg och PNG och PNG-bilden är ganska exakt dubbelt så stor. Den upplevda kvalitetsskillnaden är noll. Så vad är då nyttan med att spara dubbelt så stora filer? Vidare saknar PNG inte bara stöd för EXIF utan även stöd för färgprofiler vilket för dem direkt olämpliga för tryck.

De är helt enkelt olika saker som är utvecklade för olika tillämpningar vilket man direkt ser i namnet. De är inte direkta konkurrenter utan de komplimenterar varandra. PNG är designat för att vara en ersättare till GIF i första hand och inte som en ersättare för jpeg. Hade de bara lagt in möjligheten till animeringar så hade GIF varit dött idag.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Skrivet av RaZman:

Hur resonerar du då? Jag är mer av en hobbyfotograf och har endast runt 5 års erfarenhet av dslr, men jag konverterar betydligt mer till PNG än JPEG på grund av lägre komprimering. Den enda fördelen jag ser med JPEG är väl den bevarade EXIF-datan men den är i ärlighetens namn inte viktigare än bildkvaliteten.

Försöker inte vara spydig i min kommentar nu utan är intresserad över vilka fördelar du syftar på med JPEG-konvertering?

Jag tror de flesta fotografer använder JPG eller TIFF, beroende på vilket media man arbetar med. Är själv också mest en hobbyfotograf

Visa signatur

markushedlund.com

Workstation: Define R4, KFA2 GTX 670, FSP Aurum 400W, AMD Phenom2 X6 1055T, Asus M4A89GTD PRO/USB3, Corsair 8 GB 1666 MHz, Samsung 830 128GB, Intel X25-M G2 80GB, Scythe Mugen 2
Server: PicoPSU, Intel Atom 330, 4 GB ram, Intel SSD 40 GB + olika diskar

Permalänk
Medlem

Om ni testar hårdvara som ska vara top klass/nyaste cpu varför envisas ni att köra 3dmark och spel i upplösningar som man spelade i för 5 år sen eller senare. Lönt o köpa nyaste cpu för ev klocka den till 4.5-5ghz för sen spela i låga upplösningar??? Visst testa lägre res för referens mot andra system men glöm inte bort dom som spelar i 2560x1440 eller högre.

2-3 titan med 3 monitors o sen benchmark , det hade varet intressant o se.

Visa signatur

MB MSI PRO Z790-A MAX WIFI CPU i9 14900K CPU COOLER EK-Nucleus AIO CR360
GPU ASUS GeForce RTX 3090 STRIX GAMING OC PSU ASUS ROG Strix 1000W
MEM CORSAIR DOMINATOR TITANIUM 48GB DDR5 RGB 7000Mhz
MONITOR Asus PG42UQ 4K CHASSI Phanteks Eclipse P600S White
HD 1 Samsung 990 PRO 2Tb HD 2 Samsung 980 PRO 2Tb

Permalänk
Medlem
Skrivet av Mogwaii:

Om ni testar hårdvara som ska vara top klass/nyaste cpu varför envisas ni att köra 3dmark och spel i upplösningar som man spelade i för 5 år sen eller senare. Lönt o köpa nyaste cpu för ev klocka den till 4.5-5ghz för sen spela i låga upplösningar??? Visst testa lägre res för referens mot andra system men glöm inte bort dom som spelar i 2560x1440 eller högre.

2-3 titan med 3 monitors o sen benchmark , det hade varet intressant o se.

hehe. Jag tänkte precis samma sak. Jag sitter med en 30" skärm och kör 2560*1600 hemma och går i uppgraderingstankar. Men när jag kollar testerna så ser jag ingen anledning till att köpa tex Intels 3770K/4770K istället för AMDs 8350 eftersom jag just spelar på så hög upplösning och att det mer eller mindre alltid är grafikkortet som flaskar då. Så därför hade det varit väldigt intressant att se hur dom olika CPU:erna presterar på hög upplösning men där samtidigt grafikkortet inte är flaskhalsen. Tex 2560*1600 eller högre med 2- eller 3-way SLI/Crossfire bara för att nämna ett exempel. Det hade faktiskt varit mer intressant än att se hur värsting CPUs presterar på låga upplösningar.

Permalänk
Medlem
Skrivet av FANTEN:

hehe. Jag tänkte precis samma sak. Jag sitter med en 30" skärm och kör 2560*1600 hemma och går i uppgraderingstankar. Men när jag kollar testerna så ser jag ingen anledning till att köpa tex Intels 3770K/4770K istället för AMDs 8350 eftersom jag just spelar på så hög upplösning och att det mer eller mindre alltid är grafikkortet som flaskar då. Så därför hade det varit väldigt intressant att se hur dom olika CPU:erna presterar på hög upplösning men där samtidigt grafikkortet inte är flaskhalsen. Tex 2560*1600 eller högre med 2- eller 3-way SLI/Crossfire bara för att nämna ett exempel. Det hade faktiskt varit mer intressant än att se hur värsting CPUs presterar på låga upplösningar.

Vanlig missuppfattning. CPU behöver inte nödvändigtvis utföra mer arbete i 2560 x 1440 än i säg 800 x 600. Det beror visserligen på spelet (t.ex. om viewport ändras mycket), men jag ljuger inte om jag säger att 95 % faller på grafikkortet i den högre upplösningen och resterande 5 % på CPU i nästintill alla spel (finns säkert något enstaka undantag). Vill du se vad en CPU presterar i spel utan att riskera att grafikkortet begränsar testar du i "tillräckligt" låga upplösningar, annars är det rätt överhängande att du lurar dig själv. Egentligen samma sak med flera skärmar: ju högre upplösning desto större risk att grafikkortet flaskar.

För att förklara ytterst grundläggande: I 3D-spel används CPU för att skapa ett "skelett" av spelvärlden. Skelettet skickas till grafikkortet, som anpassar det efter din upplösning, klistrar på texturer, ljussätter, tar hand om effekter etc. CPU tar hand om AI, kollissionsdetektering, fysik, ljud, spelmekanik och annat som pågår i bakgrunden. Det mesta som CPU behöver göra ska alltså göras oavsett vilken upplösning du spelar i.

Permalänk
Medlem
Skrivet av jonas_jj:

Vanlig missuppfattning. CPU behöver inte nödvändigtvis utföra mer arbete i 2560 x 1440 än i säg 800 x 600. Det beror visserligen på spelet (t.ex. om viewport ändras mycket), men jag ljuger inte om jag säger att 95 % faller på grafikkortet i den högre upplösningen och resterande 5 % på CPU i nästintill alla spel (finns säkert något enstaka undantag). Vill du se vad en CPU presterar i spel utan att riskera att grafikkortet begränsar testar du i "tillräckligt" låga upplösningar, annars är det rätt överhängande att du lurar dig själv. Egentligen samma sak med flera skärmar: ju högre upplösning desto större risk att grafikkortet flaskar.

För att förklara ytterst grundläggande: I 3D-spel används CPU för att skapa ett "skelett" av spelvärlden. Skelettet skickas till grafikkortet, som anpassar det efter din upplösning, klistrar på texturer, ljussätter, tar hand om effekter etc. CPU tar hand om AI, kollissionsdetektering, fysik, ljud, spelmekanik och annat som pågår i bakgrunden. Det mesta som CPU behöver göra ska alltså göras oavsett vilken upplösning du spelar i.

okej. Där ser man. Tack för informationen.

Permalänk
Medlem
Skrivet av wRRM:

Det verkar som om Intel helt och hållet ignorerar den stora massan som klag ar på kylpastan dem använder mellan kärna och IHS, tråkigt att det ska behöva vara så när dem här CPUerna egentligen är så mycket bättre.

Personligen så tror jag dom gjorde det för att dom insåg hur bra Sandy (och senare Ivy + Haswell fast dom stryps ju oftast av värmeproblem) klockade och folk köper hellre en billig mainstream än en dyr entusiast CPU, speciellt då om den är lika snabb el t.o.m snabbare än entusiast i enkeltrådat som står för vad? Över 90% av allt man gör, kan det stämma tro?

El ja en utav anledningarna ial skulle jag tro