Samsung avtäcker Galaxy S6 och S6 Edge

Permalänk
Medlem
Skrivet av skruvis:

Dom som har iphone i verkstan har samtliga fått byta ut dom pga. att glaset spricker vid minsta påfrestning. Men visst fungerar dom även med sprucket glas det vet vi..

Ericsson hajfenan var både hållbar & vattentät.. något för apple att ta efter..

Nu är det ju ingen smartphone som inte heter CAT eller dylikt som tål samma mängd styrk som en sådan telefon. Man kan nog inte heller betrakta hajfenan som samma produkt som en smartphone 2015 heller ;=)
De må dela telefonfunktionen, sms funktionen men där tar det princip slut

Det jag ville poängtera att att mina ifall hållit för ganska mycket mer än minsta påfrestning. Både glas och speciellt resten

Permalänk
Medlem

Kul att de fortsätter att komma med egen design. Inte alls lik iphone 6.

Visa signatur

Cooler Master H500 A-RGB | MSI MPG Z690 CARBON WIFI DDR5 ATX | Intel 12700K | Arctic Liquid Freezer II 240 A-RGB | Gigabyte Geforce RTX 3070 8GB GAMING OC | ASUS ROG Strix 850W PSU | och förhoppningsvis snart två DDR5 to rule them all på nya gamingskärmen - LG OLED65C15LA :D

Permalänk
Medlem
Skrivet av Triton242:

Det jag ville poängtera att att mina ifall hållit för ganska mycket mer än minsta påfrestning. Både glas och speciellt resten

Mycket möjligt, men företaget har försett en del med iphones som jobbar i verkstaden där vi bygger "el/starter samt plc" skåp som är från 800*800mm stora till 7M långa 2,5m höga.. dom tappas & kommer i klämm & går i sönder..

Men i mina ögon är problemet med iphone priset + att folk tror sig vara speciella bara dom har en.. Likadant är det med andra snordyra skettelefoner.

Visa signatur

XFX Radeon RX 7700 XT Speedster QICK 319 Black Edition | AMD Ryzen R7 5700X | Noctua NH-D15 | Asus TUF Gaming B550-Plus | Kingston Fury Beast DDR4 3600MHz 4x8GB | Samsung 990 Pro 1TB | Corsair HX1000i | Fractal Design Define S | LG 27GL83A | Corsair K95 Platinum | Corsair Sabre RGB PRO Wireless | Corsair Void Elite Wireless

Permalänk
Medlem

Låt se, AMOLED, TouchWiz, Exynos SOC..skulle inte tro det. Måste dock medge att Edge versionen är riktigt snygg men för många minus på mitt konto för att jag skulle ens överväga en Samsung telefon igen.

Visa signatur

Save us from fate, save us from hate. Save ourselves before it's too late

Permalänk
Skrivet av Vintervilan:

Jag kan leva med det icke utbytbara batteriet, även om det också är en klar nackdel. Men avsaknad av SD-slotten var ju katastrof. Tyvärr tror jag många tvekar på grund av det.

precis vad jag tänkte!
jag har haft s2, s3, s4 å jag hadde nästan bestämt mig för en s6 i vår men jag kommer aldrig å köpa en telefon utan minneskortsplats så länge inte mobilerna kommer med 128GB standard!! nä jag blev jävligt besviken på s6an

Visa signatur

Asus X-99 A. I7 5820K 4,5ghz. 16gb DDR4Cruical Ballistix 2400mhz.R9 290X. 512gb Samsung pro850. Corsair HX850 .Timberjack monsta vattenkylning .Corsair 900 Timberjack Edition.

http://www.sweclockers.com/galleri/12121-timberjack-900d

Permalänk
Skrivet av Craiser:

Var det inte det utbytbara batteriet och SD-kortsplatsen som alla, som pratade positivt om samsung argumenterade för? Apples Iphone var så dålig för att det inte gick att byta dessa delar, men nu tar dem bort det?

precis det jag gjorde, nu finns inga fördelar gentemot iphone kvar, hoppas verkligen inte sd platsen försvinner hos alla tillvärkare
jag tänkte följa min gammla vana å uppdatera i vår till en s6a men den kommer inte jag å köpa som har haft samsung nästan hela tiden.
kan man hoppas på en s6+ senare i år å hoppas den har minnesplats?

Visa signatur

Asus X-99 A. I7 5820K 4,5ghz. 16gb DDR4Cruical Ballistix 2400mhz.R9 290X. 512gb Samsung pro850. Corsair HX850 .Timberjack monsta vattenkylning .Corsair 900 Timberjack Edition.

http://www.sweclockers.com/galleri/12121-timberjack-900d

Permalänk
Medlem
Skrivet av timberjack:

precis det jag gjorde, nu finns inga fördelar gentemot iphone kvar, hoppas verkligen inte sd platsen försvinner hos alla tillvärkare
jag tänkte följa min gammla vana å uppdatera i vår till en s6a men den kommer inte jag å köpa som har haft samsung nästan hela tiden.
kan man hoppas på en s6+ senare i år å hoppas den har minnesplats?

Sant, men du har iaf ett fördelaktigt os kvar
Hoppas på nya noten och att de inte gör samma miss med den.

Skickades från m.sweclockers.com

Permalänk
Skrivet av timberjack:

precis det jag gjorde, nu finns inga fördelar gentemot iphone kvar, hoppas verkligen inte sd platsen försvinner hos alla tillvärkare
jag tänkte följa min gammla vana å uppdatera i vår till en s6a men den kommer inte jag å köpa som har haft samsung nästan hela tiden.
kan man hoppas på en s6+ senare i år å hoppas den har minnesplats?

Påstår du att 128 gig inte räcker för dig?
Jag förstår att samsung tar bort sdplatsen, Google likaså. Det medför bara förvirring, appar som är flyttade till SD kortet kan lagga och sd kort har en förmåga att gå sönder ibland.

Jag är glad att slippa skiten, blir en Edge 64 Gig. Räcker och blir över för mig.

Permalänk
Medlem

Alltså hur tänkte dom . Jag är som sagt inget Samsung fan utan snarare tvärtom. Men hela deras grej har ju varit utbytbart batteri SD kort m.m . Men nu har dom gått all in och gjort en absurd copy paste ala Apple mer än någonsin hela botten stycket är ju ett rent plagiat. Om 2014 var et dåligt år så lär ju inte 2015 bli roligare för dom.

Visa signatur

MBP Retina 15" late 13 2,3ghz / 16gb ram / 512gb ssd / GT750m / Iphone 6 64gb / Ipad 4 / Apple Watch 

Permalänk
Medlem
Skrivet av Barilla08:

Påstår du att 128 gig inte räcker för dig?
Jag förstår att samsung tar bort sdplatsen, Google likaså. Det medför bara förvirring, appar som är flyttade till SD kortet kan lagga och sd kort har en förmåga att gå sönder ibland.

Jag är glad att slippa skiten, blir en Edge 64 Gig. Räcker och blir över för mig.

Personligen så klarar jag mig knappt på 64 gb så 128 börjar bli något att fundera över.
Och varför skall man flytta appar till sdkort? är ju bara dumt på ett flaggskep med mer än 8gb intern på.
Minneskortet använder man för lagring så om något händer mobilen så kan du bara plocka ut kortet och vara glad att alla bilder etc inte försvann.
Samt att man slipper slöa ner internminnet med en massa videor och semesterbilder samt mp3or.

Samt att så länge man flashar custom roms så vill jag ha ett minneskort.

För mig och många andra så handlar inte minneskortplats bara om utrymmet utan pris per GB, säkerheten det medför samt expanderbarheten.

Jag har haft en s, s2 ,s3 och nu en z1 och planerade en s6. Men det kommer jag hoppa nu och inväntar LG G4 i stället.

Visa signatur

MediaCen= Playstation 4, Playstation 3, Xbox 360, Proj= Epson TW700, Projduk= Grandview Cyber 100" tab-tension, Receiver= Marantz SR-6005, Front= Jamo S708, Cen= Jamo D8CEN, Surr= Jamo D8SUR, Surr bak= Jamo D8SUR, Sub= REL T3 + Audiovector K-Sub Signature, Köpta filmer= 1000++ och stiger stadigt

Permalänk
Medlem

Nog gillar jag Apple men nu har du fel, Samsung var före med designen http://images.anandtech.com/doci/6213/ATIV_S_Product_Image_Fr... . Samsung Ativ S (2012) . Konstigt att Apple inte blev stämda för designval av iPhone 6.

Skrivet av Don_W:

Alltså hur tänkte dom . Jag är som sagt inget Samsung fan utan snarare tvärtom. Men hela deras grej har ju varit utbytbart batteri SD kort m.m . Men nu har dom gått all in och gjort en absurd copy paste ala Apple mer än någonsin hela botten stycket är ju ett rent plagiat. Om 2014 var et dåligt år så lär ju inte 2015 bli roligare för dom.

Visa signatur

Save us from fate, save us from hate. Save ourselves before it's too late

Permalänk
Medlem

Botten monterad hörlurs utgång istället för topp monterad ? Sen såg jag att det tydligen var näst intill rip off på deras nya touch sensor UI. Men Visst Ativen hade jag missat faktiskt .

Visa signatur

MBP Retina 15" late 13 2,3ghz / 16gb ram / 512gb ssd / GT750m / Iphone 6 64gb / Ipad 4 / Apple Watch 

Permalänk
Medlem

Väntar på MicroSoft flagship telefon! Windows 10 och allt

Permalänk
Medlem
Skrivet av RainesX:

Personligen så klarar jag mig knappt på 64 gb så 128 börjar bli något att fundera över.
Och varför skall man flytta appar till sdkort? är ju bara dumt på ett flaggskep med mer än 8gb intern på.
Minneskortet använder man för lagring så om något händer mobilen så kan du bara plocka ut kortet och vara glad att alla bilder etc inte försvann.
Samt att man slipper slöa ner internminnet med en massa videor och semesterbilder samt mp3or.

Samt att så länge man flashar custom roms så vill jag ha ett minneskort.

För mig och många andra så handlar inte minneskortplats bara om utrymmet utan pris per GB, säkerheten det medför samt expanderbarheten.

Jag har haft en s, s2 ,s3 och nu en z1 och planerade en s6. Men det kommer jag hoppa nu och inväntar LG G4 i stället.

Exakt!!

Att köpa en så pass dyr mobil och ändå dumsnåla genom att köpa för lite minne kan bli otroligt störande i längden. Men den här superkameran kommer bilderna ta massor med plats och videoinspelningar också. Man kommer köra 100% FullHD-material på serie och filmfronten vilket ta upp hur många gigg som helst.
Nä 32 gb borde inte ens säljas överhuvudtaget. Däremot 64 gb kan räcka för de som aldrig använder mobilen till annat än lite foto och surf. Men använder man den fullt ut som en mediamaskin med tusen låtar, massor med serier och filmer då är det 128 gb som gäller.

Så vida man inte vill tömma mobilen varje vecka på foton m.m..

Plus att säkert 8 gb kommer redan vara förbrukat till OS redan från start.

Permalänk
Skrivet av Barilla08:

Påstår du att 128 gig inte räcker för dig?
Jag förstår att samsung tar bort sdplatsen, Google likaså. Det medför bara förvirring, appar som är flyttade till SD kortet kan lagga och sd kort har en förmåga att gå sönder ibland.

Jag är glad att slippa skiten, blir en Edge 64 Gig. Räcker och blir över för mig.

jag har just nu 80Gig i min s4a så 128Gig S6an är ju enda alternativet för mig om jag inte vill begränsa mitt användande av telefonen, å jag tycker det blir på tok för dyrt med lagringen! gör du som du vill å köp edge 64gig men för mig så funkar det inte med modellerna dom presenterade, antingen får min s4a leva ett år till eller så köper jag nått annat märke.

Visa signatur

Asus X-99 A. I7 5820K 4,5ghz. 16gb DDR4Cruical Ballistix 2400mhz.R9 290X. 512gb Samsung pro850. Corsair HX850 .Timberjack monsta vattenkylning .Corsair 900 Timberjack Edition.

http://www.sweclockers.com/galleri/12121-timberjack-900d

Permalänk
Skrivet av zeiloth:

Kul att de fortsätter att komma med egen design. Inte alls lik iphone 6.

Har du sett Samsung Aktiv S? Släpptes 2012.. dvs före iPhone 6...

http://www.sammobile.com/wp-content/uploads/2012/08/ATIV-S-Pr...

Vilken va lik vilken sa du?

Visa signatur

MSI RTX 2070 Gaming z, Ryzen 5 2600x @4.2ghz 16gb LPX 3400mhz. osv | Plex, ubuntu, Transmission, pfsense, Nas-server virtualiserat på en G3220 m,m. Under Proxmox. https://www.skattbergdesign.se/

Permalänk
Medlem
Skrivet av Yoshman:

1280x720 på 5" har en PPI på ca 300PPI. Dubblar man upplösningen, d.v.s sätter PPI till 600 måste man upp till 2560x1440 d.v.s 4 gånger så många pixels.

Nej, du fyrdubblar upplösningen för att höja PPI i ditt exempel. PPI är inte ett mått på upplösning.

Skrivet av Yoshman:

LPDDR3 drar under last ca 83% (sida 16) av 1GB 800MT DDR3L som drar ca 1W (sida 3).

LPDDR4 förbättrar detta något, men det som är min huvudpoäng här är detta:
"Power is reduced in LPDDR4, but still proportional to bandwidth"

Och effekten som det pratas om här är enbart för minneskretsarna:
"Not including: Memory core power, address/control bus, PHY power, memory controller power... or any computation that the target system might be doing... operating the display... accessing the net... etc. "

Varför öka antal pixels med 80%, vilket då också ökar strömförbrukningen, när upplösningen redan från start var så hög att ytterst få ser någon skillnad?

hela ditt argument bygger fortfarande på att det är en tung last att ha hög upplösning. Apparater har fungerat utmärkt med hög upplösning på minimalt med RAM och bandbredd i alla tider. Ska du "swipea" eller något så klart att det kan hacka till på sämre GPU:er, men det är ingen minnesbelastning.

Skrivet av Yoshman:

Den är värdelös om målet är att reda ut exakt hur upplösningen påverkar strömförbrukning, allt annat lika.

Ja, men det är förbannat osakligt av dig att gång på gång låtsas som att vi behöver reda ut exakt skillnad. Man ser klart och tydligt att det inte är avgörande stora skillnader när det överlag skiljer ganska lite. Du försöker ge sken av att RAM har en avgörande del av strömförbrukningen, och mer eller mindre all RAM-belastning kommer från upplösning. Båda dessa påståenden är felaktiga. Om de hade stämt hade det varit smått omöjligt att kompensera upp den effektförbrukning som hög upplösning hade gett. Att vi inte ser förhöjd förbrukning, utan istället ser SÄNKT förbrukning mellan S5 FHD och S5 QHD bevisar att minst ett av följande är sant, antingen att höjd upplösning inte leder till nämnvärt höjd RAM-belastning, eller att RAM inte står för någon avgörande del av effektförbrukningen i telefonen. Hade upplösning varit avgörande för RAM-belastning och RAM-belastning varit avgörande för strömförbrukning hade vi sett markant sänkt batteritid även om det skiljer lite i övrig hårdvara. Du kan inte förneka detta. Och du kan inte sopa det under mattan genom osakligt låtsas att vi måste veta exakta värden.

Skrivet av Yoshman:

Att göra något grafisk som innefattar 3.5M pixels drar resurser. En PC-grafikkort gör naturligtvis betydligt mer komplicerade beräkningar per pixels, men den har å andra sidan brutalt mycket mer "head-room" i form av bandbredd och spenderad ström gör att göra detta är inte superrelevant. Att göra ens relativt triviala saker i 2560x1440 äter en icke-försumbar andel av en dual-channel 32-bitars buss. Målet med "project butter" är att UI-delen ska renderas i 60FPS, den absolut mest triviala scenen, overdraw på 1 (något som även saker som webbläsare och andra appar överskrider) genererar (minst, ska multipliceras med faktiskt "overdraw") 844MB/s data i 2560x1440 i 60FPS. Samma FPS med 1920x1080 tar 475MB/s och Iphone6 klarar detta med 234MB/s.

Min egentliga poäng här är att 2560x1440 på skärmstorleken vi pratar om här är meningslös (högre PPI än vad man kan se skillnad på) och upplösningen har negativa effekt både på användarupplevelse och batteritid.

Galaxy S6 har 25,6GB/s RAM-bandbredd. Tvivlar på att RAM-minnet drar märkbart mer effekt för att skyffla lite större minnesbuffert.

Sedan återigen, rent empiriskt har vi sett att hög upplösning inte fördärvat batteritider på OLED-telefoner innan. Varken Note 4 eller S5 drabbades mätbart negativt. Det är ganska begränsat hur mycket man kan förklara bort med annan hårdvara, bevisligen så kan inte QHD påverka batteritid särskilt mycket, om man inte kör LCD. Tror folk kör fast i ett tänk på grund av LCD och sedan sitter de fast där.

Permalänk
Datavetare
Skrivet av Aleshi:

Nej, du fyrdubblar upplösningen för att höja PPI i ditt exempel. PPI är inte ett mått på upplösning.

Ok, låt oss använda Windows definition på dubbla upplösningen då. Min laptop har 3200x1800, när jag sätter "resolution zoom level" till x2 så motsvarar det 1600x900 vilket är en fjärdedel så många pixels. Så Windows verkar också anse att fördubbling av upplösning betyder att man fördubblar antal pixels på båda axlar vilket betyder att antal pixels ökar kvadratiskt med upplösning.

Skrivet av Aleshi:

hela ditt argument bygger fortfarande på att det är en tung last att ha hög upplösning. Apparater har fungerat utmärkt med hög upplösning på minimalt med RAM och bandbredd i alla tider. Ska du "swipea" eller något så klart att det kan hacka till på sämre GPU:er, men det är ingen minnesbelastning.
Ja, men det är förbannat osakligt av dig att gång på gång låtsas som att vi behöver reda ut exakt skillnad. Man ser klart och tydligt att det inte är avgörande stora skillnader när det överlag skiljer ganska lite. Du försöker ge sken av att RAM har en avgörande del av strömförbrukningen, och mer eller mindre all RAM-belastning kommer från upplösning. Båda dessa påståenden är felaktiga. Om de hade stämt hade det varit smått omöjligt att kompensera upp den effektförbrukning som hög upplösning hade gett. Att vi inte ser förhöjd förbrukning, utan istället ser SÄNKT förbrukning mellan S5 FHD och S5 QHD bevisar att minst ett av följande är sant, antingen att höjd upplösning inte leder till nämnvärt höjd RAM-belastning, eller att RAM inte står för någon avgörande del av effektförbrukningen i telefonen. Hade upplösning varit avgörande för RAM-belastning och RAM-belastning varit avgörande för strömförbrukning hade vi sett markant sänkt batteritid även om det skiljer lite i övrig hårdvara. Du kan inte förneka detta. Och du kan inte sopa det under mattan genom osakligt låtsas att vi måste veta exakta värden.

Galaxy S6 har 25,6GB/s RAM-bandbredd. Tvivlar på att RAM-minnet drar märkbart mer effekt för att skyffla lite större minnesbuffert.

Sedan återigen, rent empiriskt har vi sett att hög upplösning inte fördärvat batteritider på OLED-telefoner innan. Varken Note 4 eller S5 drabbades mätbart negativt. Det är ganska begränsat hur mycket man kan förklara bort med annan hårdvara, bevisligen så kan inte QHD påverka batteritid särskilt mycket, om man inte kör LCD. Tror folk kör fast i ett tänk på grund av LCD och sedan sitter de fast där.

Läs kommentarerna på t.ex. AnandTech, många pekar på detta problem med den höga upplösning. OLED i sig påverkas inte alls lika mycket som LCD av upplösning, möjligen kan man se den skillnaden som försumbar på en OLED skärm. Men lasten på GPU-delen ökar och moderna systemkretsar har relativt hög last under arbete, hela designkriteriet för att de ska kunna sitta i en liten telefon bygger på att det nästan hela tiden är i "idle". Strömförbrukning vid last har inte förbättras speciellt mycket på senare tid, det som förbättrats rejält är strömförbrukning när kretsen tar relativt korta pauser.

Mängden RAM är också ett problem ur strömförbrukningsperspektiv (gissa varför t.ex. ARM lägger så mycket krut på att ge alla möjlig tips om hur RAM bör användas och konfigurerar för att minska strömförbrukning), att dagens lurar inte har mer RAM än vad som är fallet är långt mer en strömförbrukningsfråga än vad det är en kostnadsfråga (påverkar statiskt strömförbrukning). Ovanpå det tillkommer dynamisk strömförbrukning av RAM som är i stort sätt helt linjärt med den bandbredd man använder mot RAM.

Även om maximal bandbredd är långt högre än vad som behövs för att köra GUI i 60FPS så är det ~1GB/s för göra rent triviala saker som att scrolla (kan vara mer än 1GB/s för "overdraw" på x1 existerar inte i ett modernt UI). RAM och logiken kring RAM är relativt sett en av de mest strömslukande delarna i en mobil-CPU och den mängd data som ska hanteras här har inte en chans att få plats i cache (som både är snabbare men i mobilfallet framförallt rejält mycket strömsnålare).

Även om man totalt skiter i batteriargumentet så är det fortfarande 80% mer last och kan någon hävda att 1920x1080 inte är mer än tillräckligt på ~5"? Vad är då vinsten med att lägga 80% mer last på systemet, framförallt när många verkar lägga väldigt mycket fokus på att det ska vara "lagg-fritt". Har faktiskt aldrig hört någon klaga på pixeldensiteten i Iphone6 trots att det endast är 1366x750 på 4.7".

Personligen fördrar jag Android, men är trist att se att de flesta tillverkarna, framförallt Samsung, göra så korkade designbeslut. Apple lägger krut på rätt saker, de inte har vansinnigt hög upplösning, starka kärnor i stället för massor med kärnor, de har dedikerat väldigt mycket transistorer till en extra nivå cache som främst hjälper GPU-delen dels med bandbredd men främst faktiskt med att minska strömförbrukning. Inte konstigt att Iphone känns väldigt silkeslent i sitt UI, Samsungs telefon måste utföra 80% mer jämfört med Iphone6+ och 3.7 gånger så mycket mot Iphone6 bara för att generera samma resultat.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Det är otroligt att klantarna på Samsungs designavdelning fortfarande inte gett Galaxy-kameran en förhöjd kappa runt linsen, det är FORTFARANDE linsen som är den högsta punkten på baksidan, vilket garanterar att den får repor när man lägger telefonen på en yta och råkar putta den så den glider. Nu har jag visserligen ett Otterbox Defender-skal så den är ordentligt skyddad, men jag tycker fortfarande det är sanslöst att dom inte fixar det.

Det skulle räcka med en plastkant på 0.2 mm för att glaset plötsligt inte skulle nudda underlaget...

Visa signatur

CPU: AMD Ryzen 5 5600X 3.7GHz
MOBO: MSI B550 Gaming+
RAM: Corsair DDR4-3200/PC4-25600 1600MHz 16Gb
GPU: AMD Sapphire Radeon R9 290 4Gb + 2 st 120mm Noctua-fläktar
MONITOR: Dell U2414H 24" - HD: Kingston A2000 - PSU: Seasonic Focus GX 650W - CHASSIS: Fractal Design Focus G

Permalänk
Medlem
Skrivet av Yoshman:

Ok, låt oss använda Windows definition på dubbla upplösningen då. Min laptop har 3200x1800, när jag sätter "resolution zoom level" till x2 så motsvarar det 1600x900 vilket är en fjärdedel så många pixels. Så Windows verkar också anse att fördubbling av upplösning betyder att man fördubblar antal pixels på båda axlar vilket betyder att antal pixels ökar kvadratiskt med upplösning.

xD Nej! Det är "Zoom level" som är 2x. 2x är ett mått på zoomen! Upplösning definieras genom antalet pixlar.
http://en.wikipedia.org/wiki/Display_resolution
Lägg ner tramset. Jag förväntar mig mer från dig. Att du ska hålla på att spela dum i hopp om att luras är mest bara förolämpande. Du vet mer än väl att upplösning anges i pixlar, och att det därmed är synonymt med pixelantalet. Man kan ange upplösningen antingen genom antal pixlar i X- och Y-led, eller genom enheten megapixel.

Skrivet av Yoshman:

Läs kommentarerna på t.ex. AnandTech, många pekar på detta problem med den höga upplösning. OLED i sig påverkas inte alls lika mycket som LCD av upplösning, möjligen kan man se den skillnaden som försumbar på en OLED skärm. Men lasten på GPU-delen ökar och moderna systemkretsar har relativt hög last under arbete, hela designkriteriet för att de ska kunna sitta i en liten telefon bygger på att det nästan hela tiden är i "idle". Strömförbrukning vid last har inte förbättras speciellt mycket på senare tid, det som förbättrats rejält är strömförbrukning när kretsen tar relativt korta pauser.

Det som framförallt förbättras är prestanda/watt. Det som var tung last 2010 är nästan idle idag. Återigen osaklig vridning från din sida. Det är helt sant att strömförbrukning vid last inte förbättras nämnvärt, eller rent av försämras, men prestandan och vad som kan drivas vid den givna strömförbrukningen ökar markant.

Skrivet av Yoshman:

Mängden RAM är också ett problem ur strömförbrukningsperspektiv (gissa varför t.ex. ARM lägger så mycket krut på att ge alla möjlig tips om hur RAM bör användas och konfigurerar för att minska strömförbrukning), att dagens lurar inte har mer RAM än vad som är fallet är långt mer en strömförbrukningsfråga än vad det är en kostnadsfråga (påverkar statiskt strömförbrukning). Ovanpå det tillkommer dynamisk strömförbrukning av RAM som är i stort sätt helt linjärt med den bandbredd man använder mot RAM.

Återigen, även om du inte gör annat än att scrolla så ligger man på en bråkdel av total bandbredd, mer eller mindre idle. Sedan är du osaklig när du talar om RAM-mängd. Helt okomprimerad data för en frame vid QHD är runt 11MB, hur många frames tror du man har i en buffer? Att leda in snacket på RAM-mängd är bara ett sätt att leda oss bort från sakfrågan.

Skrivet av Yoshman:

Även om maximal bandbredd är långt högre än vad som behövs för att köra GUI i 60FPS så är det ~1GB/s för göra rent triviala saker som att scrolla (kan vara mer än 1GB/s för "overdraw" på x1 existerar inte i ett modernt UI). RAM och logiken kring RAM är relativt sett en av de mest strömslukande delarna i en mobil-CPU och den mängd data som ska hanteras här har inte en chans att få plats i cache (som både är snabbare men i mobilfallet framförallt rejält mycket strömsnålare).

Ja man ska ta overdraw i åtanke, därför låter jag dig komma undan med att du räknar 32-bitars färg och avrundar uppåt, även fast 24-bitars färg är det som är relevant för vad som ska renderas på skärmen. Men med ditt sätt att räkna så skiljer det väl 400MB/s mellan FHD och QHD. Då snackar vi en höjning med 1,5 procentenheter i belastning av RAM. Linjär skalning med använd bandbredd sa du? Hur mycket till eller från på total energiförbrukning talar vi om då?

Återigen. Du säger ordagrant:"RAM och logiken kring RAM är relativt sett en av de mest strömslukande delarna i en mobil-CPU". Om det påståendet var sant kombinerat med ditt snack om hur otroligt mycket bandbredd det tar med högre upplösning. Så skulle vi att Note 4 och S5 QHD skulle dra märkbart mer än Note 3 och S5 FHD, du säger ju dessutom att skärmen ska dra mer och att vi inte gör några besparingar i load med modernare komponenter.
Sanningen är helt enkelt den att inverkan på total batteritid är mycket liten, det kommer man fram till när man räknar, även när man väljer att räkna dina siffror. Och man ser det i praktiken, då inget riktigt kan kompensera upp den ökade förbrukningen du förutspår under de premisser du sätter upp. Det går inte att med att peka på små skillnader i övriga komponenter förklara bort detta stora hål i energiförbrukningen som du förutspår. Hålet uteblir på telefoner med OLED-skärm, detta för att OLED-skärm av sin natur inte har LCD:ns nackdel vid hög upplösning, och dels för att belastningen på övrig hårdvara inte skalar som du påstår.

Det tråkiga är att du tagit till så många fulknep i diskussionen. Du låtsas att lasten skalar i kvadrat med upplösning i hopp om att inte bli genomskådad för att sedan försöka förklara bort det med fulsemantik. Du drar till att bandbredden på moderna 256-bitars grafikkort med GDDR5 är vad som krävs för höga upplösningar, i hopp om att jag inte ska genomskåda tankefelet där heller. Du försöker leda bort samtalet genom att snacka om RAM-mängd istället osv. Jag tycker att det är fult. Den ökade belastningen på RAM är liten sett till tillgängliga bandbredden. Och du själv säger den rörlige effektförbrukningen skalar linjärt med bandbreddsnyttjandet. Detta UTÖVER den statiska effektförbrukningen. Utöver det så finns det en rad andra komponenter som drar ström i en telefon. Skärm, CPU och nät inte minst. Hur stor är den totala skillnaden då vid QHD?

Permalänk
Datavetare
Skrivet av Aleshi:

xD Nej! Det är "Zoom level" som är 2x. 2x är ett mått på zoomen! Upplösning definieras genom antalet pixlar.
http://en.wikipedia.org/wiki/Display_resolution
Lägg ner tramset. Jag förväntar mig mer från dig. Att du ska hålla på att spela dum i hopp om att luras är mest bara förolämpande. Du vet mer än väl att upplösning anges i pixlar, och att det därmed är synonymt med pixelantalet. Man kan ange upplösningen antingen genom antal pixlar i X- och Y-led, eller genom enheten megapixel.

Om du har en textur på 100x100 och dubblar dess upplösning, hur många pixels tycker du rimligen den nya texturen ska ha? Om du ska dubbla antal pixels blir den nya geometrin 142x142 vilket tvivlar någon kommer tänka på, med fördubbling menar man 200x200 vilket ger 4 gånger fler pixels. Visst kan man bara öka en axel men det leder till rektangulära pixels så i praktiken ökar man alltid båda axlar relativt sett lika mycket och då blir ökningen kvadratisk.

Men varför diskuterar vi ens detta? Det enda relevanta var hur många fler pixels 2560x1440 ger över mer rimliga upplösningar på ~5" och jobbet GPUn ska utföra och mängden data som ska skyfflas är (ignorerat cache-effekter) linjärt med antal pixels. Och är vi inte överens om att strömförbrukningen ökar i stort sätt linjärt med den mängd bandbredd som används, för GPU-delen ökar strömförbrukningen snabbare än linjärt med last då högre last betyder högre klockfrekvens och strömförbrukningen ökar kvadratiskt med spänning och spänningen ökas vid högre frekvens (det förra står i klartext i dokumenten jag länkade ovan och det senare är grundläggande fysik).

Då RAM ligger på hela Watt under last är det en komponent som bidrar till total strömförbrukning på samma nivå som saker som skärm och CPU/GPU, i det stora perspektivet är det mesta andra irrelevant (radio drar också en del men har ingen koppling till upplösning). Att då öka lasten på både RAM och GPU för något som ändå inte har någon relevant skillnad är korkad design i.m.n.s.h.o, det är min enda egentliga invändning och förstår faktiskt inte varför det ska generera någon irritation från din sida då det borde vara uppenbart. Eller finns det verkligen folk som anser att t.ex. Iphone6 och MotoX har för låg upplösning, om inte varför höja upplösningen då det finns uppenbara nackdelar med det?

D.v.s. min enda poäng är: 2560x1440 på ~5" är korkad design då det inte ger någon relevant fördel men ger (signifikant) högre strömförbrukning samt försämrar upplevelsen då dagens mobiler inte har GPUer starka nog att hantera dessa upplösningar helt utan att svettas.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Om du har en textur på 100x100 och dubblar dess upplösning, hur många pixels tycker du rimligen den nya texturen ska ha? Om du ska dubbla antal pixels blir den nya geometrin 142x142 vilket tvivlar någon kommer tänka på, med fördubbling menar man 200x200 vilket ger 4 gånger fler pixels. Visst kan man bara öka en axel men det leder till rektangulära pixels så i praktiken ökar man alltid båda axlar relativt sett lika mycket och då blir ökningen kvadratisk.

Men varför diskuterar vi ens detta? Det enda relevanta var hur många fler pixels 2560x1440 ger över mer rimliga upplösningar på ~5" och jobbet GPUn ska utföra och mängden data som ska skyfflas är (ignorerat cache-effekter) linjärt med antal pixels. Och är vi inte överens om att strömförbrukningen ökar i stort sätt linjärt med den mängd bandbredd som används, för GPU-delen ökar strömförbrukningen snabbare än linjärt med last då högre last betyder högre klockfrekvens och strömförbrukningen ökar kvadratiskt med spänning och spänningen ökas vid högre frekvens (det förra står i klartext i dokumenten jag länkade ovan och det senare är grundläggande fysik).

Då RAM ligger på hela Watt under last är det en komponent som bidrar till total strömförbrukning på samma nivå som saker som skärm och CPU/GPU, i det stora perspektivet är det mesta andra irrelevant (radio drar också en del men har ingen koppling till upplösning). Att då öka lasten på både RAM och GPU för något som ändå inte har någon relevant skillnad är korkad design i.m.n.s.h.o, det är min enda egentliga invändning och förstår faktiskt inte varför det ska generera någon irritation från din sida då det borde vara uppenbart. Eller finns det verkligen folk som anser att t.ex. Iphone6 och MotoX har för låg upplösning, om inte varför höja upplösningen då det finns uppenbara nackdelar med det?

D.v.s. min enda poäng är: 2560x1440 på ~5" är korkad design då det inte ger någon relevant fördel men ger (signifikant) högre strömförbrukning samt försämrar upplevelsen då dagens mobiler inte har GPUer starka nog att hantera dessa upplösningar helt utan att svettas.

Jag hade ökat upplösningen med 10000 pixlar, eller 0,01MP till 0,02MP. Att det är klumpigt att öka upplösningen med bestämda procentsatser utan att det blir avrundningar ibland är inte ett argument för någonting. Återigen, QuadHD är 4 gånger så hög upplösning som 1280x1440. 8MP är dubbel upplösning mot 4MP. Det är synonymt med detaljnivå, varje fördubbling av pixlar fördubblar mängden möjlig data i en bild.
Om man tycker det är värt eller inte med högre upplösning är ju fullkomligt subjektivt. Som du kanske märker så diskuterar jag inte ens det, det är upp till var och en. Det jag diskuterar är objektiv fakta. 1,5 procentenheter ökning i bandbreddskrav är inte ett stort hål i effektbudgeten för telefonen totalt, det är försumbart, vilket bevisas av att S5 QHD drar mindre än S5 FHD. Enbart en försumbar ökning i effekt kan negligeras av övriga skillnader i hårdvara. En betydande skillnad hade inte kunnat slätas över så enkelt.
Det är först när man har koll på sådant som man kan ta ställning till det subjektiva sedan.