Inlägg

Inlägg som EntropyQ3 har skrivit i forumet
Av EntropyQ3
Skrivet av Herr Andersson:

När kommer The Witcher MMORPG?

Det skulle kunna ge World of Warcraft välbehövlig konkurrens.

Elder Scrolls Online.....

De egenskaper som gör ett single player RPG intressant att spela, är svåra att överföra till MMO form.

Skickades från m.sweclockers.com

Av EntropyQ3
Skrivet av Stenfan:

4K skulle bli aldeles för dyrt att hålla 90fps i för genene man.

Ett problem är ju också interfacet. 4k i 90 Hz skulle kräva DP1.3 som, trots att det är bakåtkompatibelt, fortfarande inte har introducerats på grafikkorten. (Delvis för att grafikkorten egentligen är 3,5 år gamla produkter i en del fall...)
Vi får hoppas att det nya interfacet får ett snabbt genomslag, och att nästa generation av VR-produkter utnyttjar sig av de möjligheter som då erbjuds.

Vi kommer ju att ha grafikkort byggda på 14/16nm FinFet och med HBM nästa år, och 10nm verkar introduceras av både Samsung och TSMC med knappt två års eftersläpning, så att driva nästa generation av VR-headsets skall nog gå bra även om de skruvar upp upplösningen rejält.

Av EntropyQ3
Skrivet av voidkahn:

Hmm, suddighet? Oavsett upplösning så skall det väl inte vara suddigt? Du kanske behöver linser eller glasögon och har inte märkt det förut då du aldrig behövt titta på en skärm så pass nära som man gör med OR?

Självklart menar han "suddighet" i bemärkelsen brist på information - som en alltför långt förstorad bild. Som sagt, titta på en TV så nära att du har en betraktningsvinkel på 100-110 grader, så får du en grov uppfattning av vad ett VR headset ger för detaljintryck.
Och öga-till-skärm avståndet spelar ingen roll eftersom man inte fokuserar på det avståndet, utan optiken ser till att du kan fokusera på oändligheten, dvs ha avslappnad fokuseringsmuskel i ögat.

Jag hoppas att CV2 innebär att Oculus kan använda DP1.3 som interface och att man därmed väljer att lyfta upplösningen till 4000x2000 eller något i den stilen.

Jag kommer att köpa CV1 eller Valves motsvarighet trots att upplösningen är lite kass. Men det innebär att det inte får kosta fullt så mycket, för jag vet att jag inte kommer att behålla den här lösningen någon längre tid, och kanske bara kommer att köpa-testa-sälja under loppet av några månader. Ett sånt test får inte kosta mer än någon tusenlapp totalt. En bättre skärm, som hade kunnat användas inte bara för spel, utan hade funkat bra som biosalong för en person, eller för virtual travelling som verkligen kräver upplösning, eller.... Ja, det hade kunnat bli en långsiktigare investering.

Av EntropyQ3
Skrivet av Lessismore:

Systemkrav på GTX 970 osv. Då kommer inte ens 2% av marknaden kunna köra den.
Hur tänkte de där?

Skickades från m.sweclockers.com

Riften är ute om ett år, ungefär i samma veva som 14/16nm GPUerna med HBM börjar säljas. Vad kostar AMD 290 prestanda då? Ett år senare?
Det har sålts 2560x1440 120/144 Hz skärmar ett tag som kräver dubbla prestandan mot vad Riften kommer att kräva om ett år för att drivas väl....

Jag hade hellre sett 4k upplösning. Man kan alltid använda uppskalning och grafiksettings om man har otillräcklig grafikprestanda, och all annan VR som virtual travelling, filmvisning osv skulle vara bättre.

Av EntropyQ3

90 Hz för varje öga?

Så de tänker alltså köra 90 Hz per öga.
Upplösningen är för låg med tanke på betrakningsvinkeln och en stor besvikelse. Jag antar att de har en anständig lösning på screen-door problematiken den måttliga upplösningen till trots, men pixlarna kommer fortfarande att vara gigantiska.

Skit också.

Skickades från m.sweclockers.com

Av EntropyQ3
Skrivet av Hulle:

Jag gissar på att de behåller samma paneler som i Crescent Bay, alltså två stycken skärmar på 1200x1080. Men de har ju sagt att hårdvaruspecen släpps de närmaste veckorna så vi behöver inte vänta så länge.

Q1 2016 har det gått ett och ett halvt år sedan Crescent Bay. Jag vågar nog hoppas på lite utveckling däremellan.

Av EntropyQ3
Skrivet av cheben:

4K med scaling till 1080p hade varit det bästa. Sen, får man drömma vill man ju gärna få med 120Hz och freesync/Gsync med ^^ JAg är fortfarande taggad på VR. Bättre att det får ta sin tid så det faktiskt fungerar. Släpp för stora massan har nog bara 1 chans, sen får vi vänta 6-8 år igen innan någon vågar prova igen. Hoppas hoppas!

4k med hög fill-factor är vad jag hoppas på. Ser inte grafikhårdvara som något större problem, under 2016 kommer både AMD och nVidia att släppa grafikkort på 14/16nm FinFet och 1TB/s HBM-minne (TSMC läckte att de hade 16nmFF nVidia kretsar med 1TB/s HBM minne på senaste conference callen). Dessutom kan man ju rendrera i lägre upplösning och skala upp om grafikkortet inte orkar med, vinsten både med avseende på minskad screen door effekt och marginaler för framtida grafikhårdvara kvarstår. Förhoppningsvis kör de med DP1.3 som (bakåtkompatibelt) interface.

Av EntropyQ3
Skrivet av Dallebull:

Fast att Apple släpper något betyder ju inte att andra tillverkare kommer kunna släppa 8k skärmar, iallafall inte om Apple kör med något egetdesignat gränsnitt för att kunna driva skärmen, vilket antagligen är enda sättet då varken DP eller HDMI kan leverera 8k i någon vettig refreshrate vad jag vet.
Just därför det är en AIO lösning där dom kan dra vilken kabel det vill.

Det kommer nog ta ett tag innan det finns kontakter och kablar som orkar 8k i 60hz, om ens denna gör det eller om den går i nerskalat läge, fortfarande samma pixlar man inte en 8k bild...

eDP 1.4a
Gissningsvis är det interfacet som kommer att användas.

Av EntropyQ3
Skrivet av junkan:

Du är medveten om att det är 2GB i senaste iPaden va?
1GB var oanbändbart om man gillade att använda tabs i browsern, kraschade vilt!

Öh, jag skriver detta på en orginal iPad Air med 1GB, som alltid har 20+ browsertabs öppna i safari. Den har aldrig kraschat på ett och ett halvt år. Det värsta som händer är att den kan få ladda om innehållet i browsertabben när man byter.

Av EntropyQ3
Skrivet av demon_speed:

En normal bild kan ju ligga på 8k eller 9k när man tar med en systemkamera, så då är det ju första gången man får full upplösning på bild för det!

Kom ihåg att kamerorna använder ett Bayer-filter, så varje pixel är antingen röd, grön, eller blå, med dubbelt så många gröna pixlar som de andra. På datorskärmen är varje pixel fullfärg. Man kan grovt dela Bayer-upplösningen med roten ur två (1,4) för att få en känsla för vad det skulle motsvara med fullfärgspixlar, men det beror på färg och så vidare.
Fast det är få kameror som har mer än 4320 pixlar i höjdled för närvarande i vilket fall som helst. Beror på om man har bilden orienterad vertikalt eller horisontellt hur mycket man får ut, men för horisontellt orienterad bilder lär upplösningen räcka under överskådlig framtid - och den är ju rent faktiskt retinamässig. Så man måste upp rejält i outputformat för att skärmen inte skall räcka till för utvärdering av fulla bilden.

Av EntropyQ3
Skrivet av Raffe:

Well, imac är väl egentligen den enda dator jag kan tänkta mig i dagsläget som detta kan fungera på. Något många inte tänker på är att en imac används inte för gaming, att driva runt 8k i skrivbordsmiljö är avsevärt mycket lättare än ens det simplaste spelet. Kan tänka mig att denna fungerar fint till photoshop, tänk att redigera i 100%.

Detta vore fantastiskt för många fotografer, redan 5k-modellen är mycket attraktiv. Och skärmkvaliteten vid fotobetraktande/redigerande var anledningen att jag 2009 pyntade upp för den då nya 2560x1440 IPS-iMacen. Still going strong med sin 4C8T-Nehalem och HD4850, förresten.

De skulle kunna öka skärmstorleken till 32 tum och fortfarande ligga i närheten av 300 dpi. Så man skulle för liggande bilder ha A2+ format för hela sitt bildarkiv i (högre än) tryckt kvalitet.
Skulle nog helst se en GPU på 14/16nm FinFET och med 8-16GB HBM innan jag högg. Men jag sparar redan till en 5k-lösning med en sådan GPU, så den spargrisen kan väl lika gärna knäckas på 8k-altaret.

Gaming? Skalad, självklart. En nVidia Pascal GPU med HBM, på 16nmFF+, och nedklockad till knappt 100W borde vara lite raskare än en Titan X. Borde funka bra den här konsolgenerationen ut......

Av EntropyQ3
Skrivet av MaloW:

Du säger "Detta är inte korrekt", vad är det som jag skrev som inte är korrekt, och på vilket sätt är resten av vad du skriver på nåt sätt relevant till vad jag skrev?

Det är skillnad på "funkar inte" och "väljer att inte stödja". Det är självklart att skärmtillverkare som t.ex. Asus eller Eizo föredrar en standard som dels inte kostar dem något, och dels går att sälja till alla konsumenter oavsett om deras grafik drivs av intel. AMD eller nVidia. Konsumenterna är inte de enda med åsikter i frågan. Därmed är det rimligt att anta stt nVidia kommer att stödja det öppna alternativet inom en rimlg framtid. Så om man föredrar nVidia som grafikleverantör, men behöver köpa en skärm NU, kan den här varjha intressant. Den stödjer ju höga refresh rates, och när man sedan köper sin Pascal nästa år lär FreeSync gå hur bra som helst att driva.

Av EntropyQ3
Skrivet av MaloW:

Självklart vet jag vad det är, men senast jag kollade funkar inte det på Nvidia, vilket gör det helt useless för mig.

Detta är inte korrekt. NVidia väljer för närvarande att inte stödja standarden, men kan när de så önskar, och kommer nog att göra det när de skärmtillverkare som använder deras lösning inte längre sitter på osålda lager. Det är ingen tvekan om vilken lösning alla andra komponenttillverkare föredrar.

Av EntropyQ3

Angående priset på Apples A8x vs Broadwell-Y som ligger från drygt 3000SEK och uppåt:
Apples A8x är 128mm2. Man får in drygt 450 kretsar per 300mm wafer. Det blir, med en rimlig aktuell prisuppgift drygt $10/krets. Justera lite uppåt för defekta kretsar, lite till uppåt för lite av varje och du landar på i runda slängar $15 per krets. En tjugondedel (!!!) av vad intel tar för Broadwell-Y. (Design, tape-outs och så vidare kostar naturligtvis, men med Apples volymer kan vi nog räkna in det i slaskmarginalen ovan.)
Om man betänker de marginaler som Apple, tull och skatter gör från komponentkostnad till slutkund så är det lätt att se hur mycket attraktivare den nya iBooken skulle vara för konsumenter ur prishänseende med en annan krets. Å andra sidan skulle den ju då inte kunna köra OSX programvara med god prestanda, alltså...

Men med rådande dollarkurs är det ingen tvekan om att Apples intresse för att pressa ner sina komponentkostnader ökar. Hur det påverkar OSX produkterna i framtiden återstår att se. Detta hade varit en idealisk produkt att introducera ARM-kretsar i, och eftersom de inte gjorde det, misstänker jag att det inte lär ske i rappet.

Av EntropyQ3

John McCalpin arbetade på University of Texas, hade en period som Alumni på IBM, och arbetar nu på University of Austin (också Texas). Han har varit aktiv i HPC i decennier, och blivit känd för sina analyser av minnessystem, och naturligtvis, STREAM.

STREAM är i dag, på i stort sett alla system, oberoende av flyttalsprestanda och är ett rent minnessystembenchmark. Geekbench arbetar efter filosofin att separera core/ALU tester och tester för minnessystem. Detta tillåter dem att jämföra processorkärnor enskilt och hur de skalar tillsammans, och sedan också att uppskatta hur minnesbegränsade applikationer kommer att bete sig (grafik hamnar ju ofta där numera, t.ex.). Man saknar bandbredd vs. footprint och latenstester till exempel, men benchmarket är vettigt utformat för vad det försöker göra. Man kan med fördel gå in och till exempel utesluta kryptografitesterna om man så önskar eftersom alla enskilda delresultat är tillgängliga.

På äldre superdatorsystem var FLOPs/bandwidth kvoten mycket mycket lägre än vad som är typiskt idag. Det är fortfarande en önskvärd, och dyr, egenskap. Inte alla intressanta problem låter sig köras ur L1-cachen....

Av EntropyQ3
Skrivet av Yoshman:

Svårt att se hur "ungefär lika snabb" kan vara på sin plats när det skiljer nästa en faktor 2 i grafik och nästan en faktor 3 i CPU (om vi använder 3DMark).

Om du betalar för Geekbench så du går tillgång till källkoden så borde det vara rätt uppenbart hur meningslös denna benchmark är, det finns benchmarks, det finns mikrobenchmarks och sedan finns GeekBench. Ett deltest ser (Stream scale) ser bokstavligen ut så här

uint32_t * dst = ... uint32_t * src = ... for (...) { // det här är själva "testet" *dst++ = scale * (*src++); }

WTF!

Flaskhalsarna i lite mer "vanliga" program brukar komma från saker som hur snabbt det går att följa pekare (länkade listor och de flesta typer av träd-strukturer), hur effektivt CPUn hanterar villkorad körning etc. GeekBench testar överhuvudtaget inte detta. Jobbar en hel del med ARM och har därför lagt mycket krut på att förstå styrkor och svagheter i de mest populära designerna, rent generellt kan man säga att just hantering av oregelbunden minnesaccess (typiskt vid hantering av listor/träd) är något som både AMDs och framförallt Intels x86 designer totalt kör över existerande ARM, Apple är ändå den ARM-tillverkare som gör detta klart bäst.

Vad det gäller prisskillnad: hur vet du att det är en faktor 10 då Apple inte säljer A8X... Tillverkningsmässigt undrar jag vilken som är billigast då A8X faktiskt innehåller runt dubbelt så många transistorer som Core M (~3 miljarder mot ~1.5 miljard).

Hur är klockfrekvens relevant? Det enda som spelar roll i detta segment är perf/W och det kan man nå på många olika sätt, Apple har valt en väldigt "bred" design med relativt kort pipeline, det medför att det inte kommer gå att klocka speciellt högt, Intel har designat lite annorlunda vilket gör det möjligt att klocka mycket högre med likvärdig TDP.

Vad av detta är inte "balaserad diskussion"? Är det bättre att bara hitta på lite resultat?

Stream är inte ett CPU-benchmark, de deltesten mäter MINNESBANDBREDD!
Och John McCalpin vet mer om det än du.

Praktexempel på att du konsekvent skevar den tillgängliga informationen. Grovt.

Av EntropyQ3
Skrivet av beh:

Jag skulle gärna sett en upplösning närmare PPI upplösningen på Macbook Air 11", som är 135 PPI vilket hade blivit ca 270 PPI i retina. Som det är nu har MacBook 12" 226 PPI. Om Apple istället ökat upplösningen till 2560x1600 hade den haft 251 PPI, som ligger mer i linje med hur mycket som ryms på en MBA11.

Man måste komma i håg att det är större skärmyta på MB12 (417,54 cm^2) jämfört med MBA11 (370,86 cm^2) och att det är mindre än 2x pixlarna i Y och X led.

Men det finns ju skalning till den upplösningen, synd bara att man inte kan få det som native. Antagligen ger det lägre ljusgenomsläppet för hög strömförbrukning.

Det är ganska stor skillnad mellan A8X och Core M-5Y70 mätt i ren CPU prestanda med Geekbench. Tänk då också på att Geekbench ger högre tal på OSX än på Windows.

Har ju inget med en jämförelse mellan A8x (iOS) och Core M-5Y70 (OSX) att göra när väl de data är inne. Vi får se.
A8x/Core M-5Y70 ger: 1800/2500 =0,72 72% av single core, och 4450/4200 (bästa x86!, många resultat mycket lägre)=1.05 105% av multi core.
Då är att märka att Core M-5Y70 som har en 4,5W rating har nästan exakt samma turbo klockor som 15W varianterna av processorerna och därmed ungefär samma geekbench scores. Så elefanten i rummet är att annat än i små kodsnuttar som geekbench kommer 4,5W varianterna att klocka ner sig rejält, vilket alla recensioner som kollar det också entydigt visar. Vi har också problemet att CPUn och GPUn konkurrerar om samma effektresurs, vilket lägger sig som en våt duk över spelprestanda utöver problemet med thermal throttling.

Vad gäller grafikprestanda har Core M-5Y70 något högre teoretisk 32-bitars FP prestanda, medan GX6850 dessutom har ungefär dubbla FP16, när det är tillämpbart. De har samma minnesbandbredd, GX6850 använder den effektivare enligt GfxBenchs subtester. De borde ge liknande prestanda med en liten fördel till A8x vilket vi också ser i GFxBench. 3DMark är en anomali i sammanhanget, till den grad att FutureMark själva har skrivit en artikel i ämnet.

Återigen, throttling i situationer utanför någon minuts benchmarking är den riktiga svagheten prestandamässigt hos Core M-5Y70, vi får se hur den nya MacBooken klarar sig i tester.

Som sagt - processorerna är ungefär jämförbara. anledningen att den nya MacBooken har en Broadwell handlar om mjukvarukompatibilitet, inte teoretiska prestanda.

Av EntropyQ3
Skrivet av Yoshman:

3Dmark Ice Storm Unlimited (som är offscreen så alla kör samma last) resultatet för A8X verkar ligga runt 21k totalt och runt 31k för enbart grafik medan det ligger på runt 50k resp 56k för Core M-5Y70.

GeekBench är en hopplöst usel benchmark för x86 då den kraftigt undervärderar prestanda i x86 "big-core" modeller, ska man gå enligt den benchmarken är det rätt liten skillnad mellan Atom och Haswell vid liknande frekvens medan "riktiga" program typiskt är dubbelt så snabb på den senare. Samma sak verkar NetbookCheck visa för A8X mot 5Y70, d.v.s. jämt skägg i GeekBench medan Core M är mycket snabbare i allt annat.

Suck, Yosman, har du inte kört detta till leda nu?
Titta på individuella scores på Geekbench om du nu inte gillar aggregate.
Varför ignorera
GfxBench som har mer transparans och inte bara en score?
Varför ignorera CPU vs GPU klockkonflikterna i Broadwell ULV?
Varför ignorera "ungefär"?
Varför ignorera en prisskillnad på bra över en faktor tio?

Du vill helt enkelt blockera varje balanserad diskussion i ämnet.

Av EntropyQ3
Skrivet av SeF.Typh00n:

Core M är långt, långt bättre.

Uhm, det beror på vilken variant du pratar om.
Apples A8x i iPad Air2 har ungefär samma grafikprestanda i GfxBench och 3DMark. x86 CPUn har 25% bättre single core prestanda i Geekbench (throttling är en fråga dock) men ungefär lika mycket SÄMRE prestanda i multi-core.

Så Core M-5Y70 som sitter i den nya MacBooken är ungefär jämförbar med A8x, trots Intels processtechnologi, och prislappen på 3000kr för processorn.....

Av EntropyQ3

Till ovanstående vill jag lägga Pikmin 3