Inlägg

Inlägg som GilbertG har skrivit i forumet
Av GilbertG
Skrivet av m4gnify:

Jag säger inte att det är OK på något sätt, men det jobbar människor på PostNord. Dom tar emot flera miljoner paket om året. Bara från Black Friday-helgen i år var det 4 miljoner paket som svenskarna beställt, från svenska återförsäljare. Misstag sker, men sett till helheten är det en väldigt, väldigt liten andel.

Har själv aldrig haft problem med PostNord.

Samtidigt är det ju deras verksamhet. Är det mycket att göra får de väl anställa fler, eller? Finns ju viss förutsägbarhet i topparna, jul brukar hända varje år liksom. Post(en) uppför sig nu som om de inte vill ha med paket att göra alls.

Av GilbertG
Skrivet av improwise:

Hade annars tänkt att det är kul med ett krig så det händer något men om det påverkar när jag får min nya 100" OLED så är det kris!!

Du kommer nog få dina fiskar varma så småningom.

Skrivet av Treant:

Roligt att du tänker på elektronikbranchen... för mig som totalt oinsatt så finns det två scenarion:

1. Vi lyckas avsätta regimen i NK och ta beslag på alla kärnvapen. Allt är frid och fröjd (inte direkt, men ja).

2. NK avfyrar kärnvapen och helvetet bryter lös.

Tror personligen att om 2 inträffar så är mänskligheten så vi känner den körd.

Så många kärnvapen har inte Nordkorea, och det krävs några stycken för att ödelägga en stad byggd av tegel och betong.

Av GilbertG
Skrivet av anon56869:

Eller så har dem helt enkelt inte möjlighet till att utöka produktionen. Att bygga en ny fabrik är inget man gör bara sådär och det kan även gälla brist på komponenter som man inte har kontroll över.

Stora kunder som sony, microsoft och andra har kontrakt på X antal levererade enheter. Dessa måste såklart gå före små konsumenter annars blir det stora skadestånd för kontraktbrott.

APU:n i både Xbox One inklusive X och Playstation 4 inklusive Pro tillverkas av TSMC, medan AMD:s "egna" slutprodukter tillverkas av Global foundries, så det påverkar inte. Global Foundries har enorm kapacitet och inga problem med att tillverka Ryzen, ej heller Polaris vad jag vet. Vega-chippet går väl ok, det är främst ihopsättningen med HBM2 som strular samt tillgången på HBM2. Polaris-baserade grafikkort fanns väl tillgängliga förut. Bristen kommer samtidigt som det blir rusning bland kryptovalutor, främst etherium.

Så om det inte är något jag missat så är det snarare så att AMD inte vågar öka produktionen av grafikchip då de blivit brända av scenariot med Bitcoin 2014, där brytning blev mycket populärt men över en natt togs över av ASICs och gjorde grafikkorten värdelösa för Bitcoin. Följden blev en översvämmad andrahandsmarknad och stora lager osäljbara kort. Men jag tror inte det kommer att krascha, dels för att kryptovalutor är här för att stanna, dels för att de nya populära valutorna är designade för att vara immuna mot ASICs.

Oavsett tycker jag det verkar dumt av AMD, för de säljer ju chippen, inte kort, och så lång ledtid är det väl inte på det. Eller får AMD betalt först när korten är sålda? De borde kunna skruva upp tillverkningen åtminstone lite grand, för detta är inte bra för varumärket. Fast de kanske inväntar den nya 12 nm Leading performance-processen från GloFlo.

Av GilbertG
Skrivet av star-affinity:

Så klart. Men sett till antalet användare undrar jag om det inte borde finnas mer malware för MacOS än det faktiskt gör. Det finns inget än (mig veterligen) som klassas som virus eller mask, utan mjukvaran måste lura dig att skriva in ett administratörslösen för att kunna ställa till det ordentligt. Så att dra slutsatsen att exempelvis macOS kontra Windows är exakt lika säkra/osäkra och allt bara handlar om antalet användare tror jag är en förenklad slutsats. Dessutom är det hela knappast statiskt – operativsystemen förändras när nya versioner släpps och det kommer nya säkerhetsfunktioner, säkerhetsfixar och sen upptäcks så klar nya hål kontinuerligt också.

Både kör OS X/macOS (mer avskalad variant för iOS naturligtvis), så det borde vara ungefär lika prioriterat kan jag tycka. Men visst – långt färre användare på macOS-sidan än iOS.

Mig veterligen har det funnits en del skadlig kod som kunnat ta sig in utan adminlösen.

Av GilbertG
Skrivet av Navicula:

Innan du drar slutsatser, installera RealTemp och se vilka resultat du får. Det är den enda programvara som gett sanna resultat vid mina tester. Har kört det sedan 2011 på massor av datorer, undvik t.ex HW monitor och Speedfan. Finns massor av trådar på Swec där programvaran inte fungerar.

Tack för tipset av RealTemp SpeedFan kan vara lite rörigt att läsa av

Av GilbertG
Skrivet av Blirsåless:

Alltså det här är ju löjligt jag kan ju knappast vara den första eller sista? Ska jag behöva skriva om allt igen?

Nej, det är du inte, men vi som var med på den gamla onda tiden fick lära oss den hårda vägen att ta kopior och spara på mer än ett ställe

Skrivet av Blirsåless:

Bokstavligen 1 felklick. Fan kan det inte bara komma upp en ruta "är du säker" så KANSKE jag hade insett vad jag höll på göra. Håller med om att det finns väl inget dåligt med backup men det känns som hängslen och livrem. Första gången jag råkar göra det här misstaget.

Att bli av med arbete för att man trycker "spara" är verkligen till att rigga en fälla för sig själv, då just processen att trycka på spara-knappen i grunden är något bra och bör så förbli. Enkla repetitiva manövrer måste vara konsekventa i sitt resultat, annars kommer man förr eller senare göra bort sig. Det ska vara enkelt att göra rätt, det är grunden till all form av säkerhet. Du hade kunnat rädda dig själv genom direkt efter att du öppnat dokumentet valt "spara som…" så hade du därigenom arbetat på en separat fil och då varit säker. Därefter kunde du så att säga aktiverat din normala skrivrutin och jobbat som vanligt utan att behöva ha i huvudet att inte trycka på spara.

Jag har ett antal gånger blivit av med arbete för att jag tryckt på spara-knappen för sällan och mellan varven gjort något annat med datorn som fått den att krascha. Och oavsett så måste du spara saker på andra (fysiska) platser ifall du tappar datorn i sjön.

Och du… sitter man på Mac OS så finns det en versionhantering inbyggd just för sådana här scenarion

Av GilbertG
Skrivet av wowsers:

Tycker fysiskt media borde finnas åt minståne 10 år till för konsoler, faktum är att nintendos "SD kort" till switchen fungerar bra och behöver inte vara bundet till ett konto. Om 5-10 år kanske andra tillverkare också hoppar på denna trend, då kan de ju dessutom tillverka ultra slim konsoler utan optiska läsare.

Detta är ju så klart bara vad jag hoppas på att hända, men i tiden när en microSD kan hålla 128 GB och ha 90 MB/s läshastigheter låter blu-ray ganska uråldigt förutom prisklassen de ligger i (ett sd/micros kort kostar ca 10x så mycket för vanlig konsument).

Om man räknar att de kör med ROM för större delen av datan (kanske allt) borde prised rimligtvis gå ner, hur mycket vet jag ej, men det är nog mycket för att nintendo klarar av att släppa spel vid normalpris.

Med ultra HD blu-ray ryms 100 GB per skiva, så det är ännu relevant. Och i värsta fall kan man faktiskt använda mer än en skiva.

Skrivet av serverfel:

Tycker fysisk media tappade charmen när big box spelen ersattes av dvd fodral spel. Vilket skit.

Sen håller jag med om att det har blivit för många klienter som steam, ubiplay och helvetet origin.

Skickades från m.sweclockers.com

I USA fortsatte de med stora lådor långt efter att det övergavs i Europa.

Skrivet av cdx873v:

Men hur ska spelen kunna "gå guld" utan skivor?!

Skickades från m.sweclockers.com

Det sista spelet som gick guld var Duke Nukem Forever. Nuförtiden blir spel aldrig riktigt färdiga. Ironin alltså…

Skrivet av Ness:

Konsol utgör inte den tveklöst största marknadsandelen? Det är mobil som leder nu mig veterligen, och där säljs ju givetvis 0% fysisk media (PC och Konsol ligger hyfsat lika i marknadsandelar). Att MS fick backa handlade främst om att dom redan innan klivit i klaveret gällande en del andra beslut, så när dom ville förhindra andrahandsförsäljning så högg folk direkt utan att egentligen förstå vad man gick miste om. Hade MS fått göra som dom ville hade du kunnat dela ditt spelbibliotek digitalt med vänner gratis, vilket hade varit en jävla fördel.

Andrahandsförsäljning har aldrig varit så låg som nu, och det sabbar i slutändan bara för utvecklare eftersom dom inte tjänar något när deras spel säljs i andrahand. Digital försäljning är en av anledningarna till varför Steam kan sälja spel med 80%+ rea. Alla tjänar på det, DU slipper köpa en repig skiva till smått överpris och utvecklaren får sina pengar.

Som jag ser det är vi i en övergångsperiod. Framtiden kommer vara digital av många skäl, bekvämlighet, miljö osv. Av nostalgiska skäl kan det vara svårt att släppa greppet om ex fysisk media, men precis som fossila bränslen så kommer det fasas ut. Generellt alltså, sedan finns ju alltid nischade marknader. Nästa stora steg blir nog flashminne som du säger, Nintendo är redan där.

Andrahandsförsäljning gör ju att äldre spel fortfarande går att spela och inte bara försvinner från historien. Vet ganska många spel som försvunnit för att utgivaren tappat intresset, blivit uppköpt av en konkurrent eller licenser gått ut. Shoot many robots, Dirt: Showdown, The Simpsons Arcade Game, Plants vs. Zombies för Playstation Vita (bästa versionen, så jäkla synd) och Scott Pilgrim vs. the World: The Game kommer jag på på rak arm. Nu när jag tittar i ämnet ser jag att Marvel vs. Capcom Origins samt under åtminstone en period har Uno mött samma öde. I fallet PvZ så försvann det även från ens ägolista, så blev man av med installationen så var man rökt.

Jag är övertygad om att andrahandsförsäljningen inte gör så stor skada i det långa loppet, särskilt inte jämfört med gråmarknadssidor som G2A och liknande där åtminstone delar av innehållet är köpta med stulna betalkort eller olagliga distributionskanaler. Många spel täcker upp andrahandsförlusten genom att kräva en särskild licens som löses in med en kod för att få tillgång till onlinedelen. Koden medföljer förstahandsköpet men funkar bara en gång. Andrahandsköpare får köpa en separat kod/licens, en väldigt bra kompromiss tycker jag.

Fysiska spel är ju också "gratis reklam".

Sen är distributionskostnaden för digitala spel nästan lika dyra som fysiska för utvecklaren då utgivaren och framför allt distributören istället tar pengarna som sparas in i frakt och tillverkning.

Så det finns inget självklart val här.

För övrigt är jag hedrad av att ha fått äran att möta ännu en gammal medlem som varit väldigt sparsam med inläggen. Jag bugar djupt.

Av GilbertG

@FredrikMH Tack! Jag kanske aldrig hade DC++, kanske bara mina polare. Eller så var det så kort tid jag hade den. Jag har glömt en del som var under den installationen, tror jag slutade med Direct Connect redan 2005. Jag använde det mest för att skicka videoinspelningar över det istället för FTP som funkade dåligt.

Av GilbertG
Skrivet av Peppar2014:

Kanske körde du något annat än just DC(++) programmet? Fanns ju en del kloner om jag inte minns fel t.ex ApexDC++.

Mycket möjligt. Jag körde med originalet rätt länge. Kan inte hitta ikonen för den dock. Jag har kvar datorn jag körde det med med installationen kvar, den står dock långt inmurad bland annat crap. Får återkomma om några år när jag grävt fram den.

Skrivet av superegg:

@GilbertG:

Hmm strongdc++ använde jag för i tiden och denna har den här som ikon https://i.ytimg.com/vi/UOYQEcKVFa8/hqdefault.jpg.

Client FOSS Software license Active Release date (latest version) AirDC++ Yes GNU GPLv2 or later Yes 2017-10-13 (v3.42) ApexDC++ Yes GNU GPLv2 or later Yes 2017-02-06 (v1.64) DC++ Yes GNU GPLv2 or later Yes 2017-10-12 (v0.867) EiskaltDC++ Yes GNU GPLv3 or later Yes 2013-08-29 (v2.2.9) FlylinkDC++ Yes GNU GPLv2 or later Yes 2017-01-20 (r504) LinuxDC++ Yes GNU GPLv2 or later No 2011-04-17 (v1.1.0) RSX++ Yes GNU GPLv2 or later No 2011-04-14 (v1.21) StrongDC++ Yes GNU GPLv2 or later No 2010-12-27 (v2.42) TkDC++ Yes GNU GPLv2 or later No 2010-11-29 (v1.3) Client FOSS Software license Active Release date (latest version)

Känns inte igen. Men tack för listan.

Av GilbertG

Det finns en annan värld utanför Sverige och särskilt Europa. Stora delar av världen har uselt Internet, att ladda ner gigabyte är bara att glömma. Skivor kommer finnas kvar länge än, fast kanske inte i Sverige.

Av GilbertG
Skrivet av Ordith:

9/10 Missade DC++ symbolen

Skrivet av FredrikMH:

Samma här. Den har en annan mer ikonisk ikon om du frågar mig

Skrivet av MiLeS:

9/10, hur fan kunde jag missa DC++ :'D

Skrivet av Squallie:

9/10.

Missade DC++, den kunde väl inte haft den där ikonen från början eller?

Skrivet av hultron:

Har verkligen inget minne av DC++ ikonen.... aja, man är väl ingen äkta pirat trots allt.

Skrivet av Falcon:

9/10, missade på samma.

Skrivet av Shinzou:

9/10. Missade DC++, men tror jag råkade se något om näst sista frågan i kommentarsfältet utan o tänka på det i början (skyller allt på dig #Ryvwern ). Så egentligen borde jag väll haft 8/10

Skrivet av Shudnawz:

8/10.
Missade DC++ (jag var på den och fingrade, men ångrade mig) och Photoshop. Kan verkligen inte minnas att den såg ut så.

Skrivet av Vasa1:

7/10, missade DC++ bland annat.

Skickades från m.sweclockers.com

Skrivet av LaoLao:

8/10. Missade också DC++ men när jag såg svaret fick jag en vag aning om att jag har sett ikonen... har dock för mig att det fanns en annan som såg annorlunda ut? Sen missade jag även Daemon tools, men det vet jag knappt vad det är.

Skrivet av Dreijer:

9/10, bommade på DC++. Jag börjar bli gammal.

Skrivet av Flinken123:

8/10
Hade fel på DC++ och Photoshop

Skrivet av KplSteiner:

Conquistador, inte spanska inkvisitionen, det är något annat.

Fråga 6 var lurig, hade för mig att rätt svar hade en annan logga?

Skickades från m.sweclockers.com

Skrivet av Pierre232:

Missade DC++ och Photoshop som jag trodde var Illustrator. Slarvfel men inte så tokigt trots allt. Kommer inte ens ihåg när jag använde DC++ & limewire.

Skickades från m.sweclockers.com

Skrivet av test0r:

8/10

Lite missnöjd faktiskt, hade helt glömt att det var så DC++ ikonen faktiskt såg ut. Var väl aldrig en stor DC användare direkt men brukade ha det installerat för att använda på LAN.
Missade PS också men har aldrig använt varken PS eller Illustrator så gissade fel.

Skrivet av Stormrwlr:

9/10 Korrekta svar!
Fel på DC++ som många andra

Skrivet av Stefflo:

Missade också på Photoshop och DC++ även om jag använt programmen.
8/10 är ok ändå tycker jag.

Skrivet av m3tr0:

9/10 rätt! Missade på DC++. Använde det för väldigt länge sen. Hade helt glömt bort ikonen.

Skickades från m.sweclockers.com

Skrivet av Azureye:

@m3tr0: Jag hade då inte den ikonen när jag körde DC++, så fick också fel på den. :/

Skönt att vara i gott sällskap. Jag minns inte alls den där DC++-ikonen, ingen klocka ringer över huvud taget. Jag minns DC(++) som något med två datorer på sned med snöre emellan eller nåt sånt.

Av GilbertG
Skrivet av sebbeharry:

Jag måste slänga ut en fråga här då jag personligen trodde att sp-spel inte var lika populärt längre. Vad är det som gör att ni spelar single player? Är det storyn? Eller något annat jag missar? Avkopplande?

Alla är vi ju väldigt olika när det kommer till spel men jag själv har sjukt svårt att spela ett spel där jag inte kan mäta mig med andra människor(bortse nu från speedrun etc), med andra ord så är jag väldigt tävlingsinriktad.

Ingen pajkastning nu utan jag är genuint nyfiken!

Du svarade i stort sett själv på det

Skrivet av Olle P:

Till att börja med så gäller det genre.
Jag föredrar spel med ganska lågt tempo där man får tid att tänka och reflektera i stället för att inom 20 sekunder bli ihjälskjuten av någon motståndare.

De i dag vanligaste typerna av MP är bara kul om man som spelare ligger på ungefär samma nivå som övriga deltagare. Jag har inte hittat något spel som är bra på att matcha deltagarna efter färdighet, från total nybörjare till veteran/elit.
MMO typ WoW faller bort eftersom det är prenumerationstjänster som inte passar för mig som vill kunna spela sporadiskt med väldigt växlande aktivitet (timmar per dag/vecka).
Jag tyckte MP var kul på den tiden (15-20 år sedan) då man var ett kompisgäng som ville spela tillsammans och någon deltagares dator fick agera server. Nu är man hänvisad till servrar som drivs av tredje part, och allt som oftast inte ens längre är tillgängliga när jag kan tänka mig prova (sisådär fem-tio år efter att spelet släpptes).

Jag är dig helt enig.

Av GilbertG
Skrivet av Paddanx:

Lustigt sätt att se på det. Jag förväntar mig att standarder ska släppas ett år, och sedan implementeras inom ett år eller två. Att det ska ta 4 år att göra HDMI, och ändå göra den bristfällig när den släpps, var inte direkt bra.

HDMI standarden designades redan 2002 så tog 4 år att släppas. Displayport designades 2006, och kom 2008. Och här skyller du på att HDMI är bättre för att? Den tog 2x så lång tid att implementera? Eller att DP gjordes pga HDMI när den väl kom hade enorma brister? (vilket var fallet).

HDMI har utan tvekan blivit bättre, men där är fortfarande saker i den som behövs fixas imho.

Som jag sagt innan, alla är besatta av att "kablarna är så bra" att de verkar missa vad man ska plugga in kablarna i. Håller dock med till 100%... HMDI kablarna är mycket bättre.

Vill du vara vänlig och läsa detta igen, och kanske betänka vad detta gör för... "certifiering, och garanterad funktion"?
Enda det du citerat säger är... du får lov att lägga till stödet och använda dem, om du vill. Tack... det hjälper, nada.

Du kan köra Gigabit genom Cat 5 och 100Mbit genom en telefonlinje. Jag vet för jag har gjort det. Men det är inget jag skulle certifierat som "pålitligt". Detta är problemet som jag ryter mot här. Då dessa 144Hz mm inte är standarder inom HDMI, sitter du där i båten att kabeln klarar det... men enheterna inte klarar det... IGEN.

Standardisera dem, eller gtfo.

Ahh den hatade skit upplösningarna som bråkar som fan. Svaret ovan visar att du verkligen saknar erfarenhen av detta.

Jag jobbar med en kollega på konferens anläggning ibland och HDMI fungerar klockrent där... så länge du inte kör 1360x768. Den 100kkrs utrustning där som klarar DP, VGA, DVI och HDMI (nativt), med scaleing och ljud inbyggt har helvete med denna icke standard (trots att 1080p och 4k går bra).

Vi hade samma problem med tidigare utrustning och äldre system också, om HDMI användes rakt in i projektorn. Kör man VGA/DVI fungerar de kanon... DP också... konstigt nog.

Så nej... dessa fungerar inte med HDMI system. Lösningen är att sätta det till 1280x720... då fungerar allt klockrent. Därför säger jag detta jag gör ovan, då med 5+ års erfarenhet av detta problem, i verkligheten, med 100+ laptops genom åren... är dessa icke standarder ett helvete.

Åter:
Standardisera dem, eller gtfo.

Så... HDMI 2.2 om den får dessa, är jag med er. Tills dess stannar DP som har stöd för det, tack.

Eh, HDMI kom ut brett år 2004 och var definitivt etablerat år 2005

Upplösningen jag nämnde var ett dåligt exempel just pga skalningen som du fick svar på. Jag använder den till en TV som köra i just dessa upplösningar "inhemskt". Det är rätt kassa upplösningar i övrigt, bara påhittad för att tillverkarna ville spara pengar och bara använda billiga knappt modifierade kretsar som var designade för 1024x768 istället för att designa nya.

Skrivet av Barsk66:

Wow, detta var ny information som rör om i grytan rejält. Jag har levat med tron att negativen på bio-film skulle motsvara 6-8K enligt annan information på nätet. Har du nån mer källa för detta annat än din egen erfarenhet? Jag kan tänka mig att det kan finnas en massa olika felkällor som kan påverka slutresultatet av en skanning. Optiken på skannern och sensorns kvalitet t.ex. Även om du kanske använt "det bästa" som finns på marknaden så innebär det ju inte att det inte går att få ut mer i framtiden med bättre hårdvara och teknik.
Steget upp till 4K är ju relativt nytt i branschen som ju jobbar med 2 MP för DI i många år. Så behovet av att skanna med så hög noggrannhet har ju inte funnits förut - och därmed har inte hårdvaran optimerats för det. Än.

Skulle man önska nåt av filmbranschen så vore det väl att de tog steget upp till 8 eller t.om 10K på digitalsidan (inkl kameror) redan nu - för att täcka in behovet i framtiden. Annars kommer man se tillbaka på de här åren som nån sorts low-fi tidsålder. Digitala kameror ligger ju inte ens på 4K på biosidan! Åren tidigare fanns filmnegativ som man kan få ut bra kvalitet från. Visst datamängderna som 8 eller 10K okomprimerad dogital video kräver är astronomiska. Men det är sett ur dagens perspektiv. Om några år är det fullt hanterbart. Garanterat.

Skrivet av Barsk66:

Ja, suddiga visningskopior har man ju sett på bio. Men det är ju inte dom man har som källa vid en skanning till digital kopia. Utan det är ju orginal-filmnegativen som kommer ifråga här. Såg nån kommentar på nätet nånstans om att att så gammal film som Wizard of the Oz, skulle kunna skannas om och få ut upp till motsvarande 8 eller 10K upplösning. Men de negativen kanske är större än 70 mm? Fanns ju en massa olika filmvarianter förr i världen.

Har tyvärr ingen vetenskaplig källa att hänvisa till, bara mina egna godtyckliga observationer. Kornen är inte större än att man ganska enkelt kan se efter scanning. Många som inte vet något om analogt tror att det är oändlig upplösning eller i vart fall extremt hög, men så är det inte.

Det är hur som helst svårt att översätta analog film till digitala termer och tänkande. Mängden bildinformation är mycket mindre än vad folk tror. Men just för att kornen är "mjuka" så upplevs det högre. Och i den digitala rymden kan just gradienterna användas till att perceptionellt höja upplösningen. Över huvud taget måste digitala tekniker sampla i långt högre upplösning än vad det analoga egentligen kan återge för att få med alla detaljer korrekt. Att man bör scanna i 5-6 megapixlar är inte samma sak som att det finns bildinformation för 5-6 megapixlar.

Wizard of Oz från 1939 är inspelad på 135-film och sist jag såg den var den ganska risig. Gammal film är mycket sämre än vad den är idag, alltså att film tillverkad idag har mycket bättre egenskaper än film för decennier sedan. Men jag är rätt säker på att man nått maximala möjliga kvalitet med fotografisk film. Varför filmbranschen fortfarande håller kvar vid det analoga i så stor utsträckning vet jag inte. Jag har bara pysslat med stillbild. Kvalitetsmässigt har det digitala sprungit om det analoga på alla plan för längesedan. Verkar finnas en hel del konservativa regissörer, men det känns löjligt när allting ändå efterbehandlas digitalt in absurdum.

För övrigt jobbigt att film och film är olika saker inom samma område.

Skrivet av mpat:

Eller på att det är tortyrmässigt att använda 30Hz till vanligt arbete. Har en KVM hemma som ibland strular med att jag bara får 30Hz från PCn, och det känns som att ögonen blöder varje gång man rör muspekaren.

Kan användas för dagligt arbete, dvs vanlig desktop-jobb. Apple körde upplösningar högre än vad HDMI kunde klara från Retina-MBP 2012. Det är fyra år som HDMI inte kunde göra något som var en standard-funktion från en de större OEMerna.

Vad jag inte fattar är varför HDMI satt och sov. Åtminstone Intel och AMD var tydliga med att de skulle börja stödja 4K-upplösningar fr.o.m 2012, och då tog det ändå 4 år till innan HDMI var framme.

Mja. Det ingick i standarden, men implementerades inte va någon. Men visst, om vi talat om vad som finns i verkliga produkter under resten av diskussion, så OK.

1. Under fyra år kunde HDMI inte göra något som var en standardfunktion från en OEM, något som kunderna (alltså OEMer) direkt efterfrågade och något som DP klarade. Att det tog minst 4 och sannolikt 6 år från att alla roadmappar var offentliga till att problemet var löst är under all kritik.
2. Kretsarna för att generera signalen tar mer plats, eftersom de analoga kretsarna inte kan krympas på samma sätt. Det är därför HDMI inte längre ingår i iGPUn från Intel, utan det krävs ett externt chip.
3. Systemet är mindre effektivt, och behöver därför mer komplexa kablar och mer energi för att göra samma sak som DP klarar.

Mitt största problem med HDMI är inte grejorna - de är sämre, men de är inte viktigt - utan hur organisationen bakom har agerat. De plockade en standard de inte utvecklat (DVI från VESA), ändrade formen på porten och skulle ta ut en licensavgift. De snackar alltid om hur deras nya standard skall vara så bra, men sen kommer grejerna inte ut på marknaden förrän år senare. Enda fördelen är att det kan vara billigare. Om HDMI fortsätter att vara billigare med 2.1 och börjar fungera tillfredställande - utmärkt. Men jag tror det när jag ser det, för den underliggande teknologin är sämre, och de nya kablarna ser dyra ut.

Känner att diskussionen är tämligen semantisk. HDMI har alltid räck för allt utom extremt få fall. Att datorbranchen fokuserat på DP istället är för att det är VESA och typ "det ska va så". Det har åtminstone tidigare funnits en informell överenskommelse mellan VESA och HDMI Founders om att VESA sköter datordelen medan HDMI fokuserar på hemelektronik, vilket nog är en stor anledning till att HDMI inte gått så fort fram. Hade DP inte funnits hade samma energi inom datorspektrumet lagts på HDMI istället, det hade med all säkerhet kommit chip baserad på nya specifikationer fortare och förmodligen hade utvecklingsarbetet också gått fortare.

Vilka analoga kretsar syftar du på?

Skrivet av Laxpudding:

Själva upplösning 4K (och 8K etc.) är bara den minst viktiga detaljen av de förändringar som sker nu. De ökade bandbredderna och funktionerna som det handlar om är det som lyfter oss från 60-talets färg-tv-standard som fortfarande är grunden för allt vi tittar på, inklusive skärmen där du läser detta på. Jag är då glad över att 50 år av väntan och årtionden av försök att förändra bildmöjligheterna äntligen blir av.

Vad syftar du på? Färgrymder?

Skrivet av JonHolstein:

Sen skulle jag gärna se Full4K-3D.
Tycker det är ironiskt att industrin för hemmaunderhållning slopar stödet för 3D lagom till att VR glasögon som faktiskt är mycket bättre format för 3D visning börjar få genombrott.
(finns dock inte glasögon som jag sett som ger ens 1080p per öga, och dessutom kan dom ju inte ta emot 3D BluRay signaler... och så vill man ju se officiella splitters för just VR glasögon, så fler personer skulle kunna titta på 3D film samtidigt.)

(OT, men ändå delvis relevant; jag önskar att google hade smart bildsökning där försök till att uppskatta detaljupplösningen gjordes, för det är ju detaljupplösning som är det relevanta, idag kan man hitta bilder på 20MP tagna i dåligt ljus som har VGA nivå när det kommer till fångade detaljer... Det är ett bra exempel på att det faktiskt är detaljupplösning som är det relevanta och bildens specificerade upplösning)

Skickades från m.sweclockers.com

Ja, detta håller jag med om. Riktigt underligt att branschen dumpar 3D precis när upplösningen höjs ett steg och bandbredderna också möjliggör högre bildhastighet, två väsentliga saker som borde göra 3D mycket mer attraktivt.

Jag har köpt mig några 3D-filmer som mestadels samlarobjekt medan de fortfarande finns kvar. Insåg att det är påväg bort för ett litet tag sedan. Finns ju en del spel med stöd för 3D också. Hade gärna haft en 3D OLED i 4K med HDR, det är enda rimliga steget för en uppgradering från LCD enligt mig, men det blir väl ingen 3D tyvärr.

Av GilbertG

@maxen85 Kan du lägga upp bilder?

Av GilbertG
Skrivet av Mr.Pro:

Bor 5 min bort ifrån Elgiganten och ska ändå dit för att köpa mig ett graffe. Jag erbjuder mig gärna att köpa på mig ett par grafikkort mot dem som vill ha ett grafikkort men som inte bor i sthlm. Hör av er på PM isåfall.

EDIT: Trodde 1-2 pers skulle skriva PM och nu är jag uppe i 12 stycken och kommer tyvärr inte att orka köpa 12 grafikkort och skicka dem. Tar dem 2 första som skrev i PM. Mvh//Mr.pro

Vad hade du väntat dig?
Ja, det står ju där. Men hur kunde du ta miste på en nolla sådär?

Av GilbertG

Båda alternativ är dåliga, för att inte säga usla. RX 400-korten kostar väl fortfarande en förhållandevis hög slant begagnat pga kryptovalutabrytningen, och 1070 är knappt en uppgradering och ett av historiens minst prisvärda grafikkort relativt sin generation. Har du för mycket pengar på fickan, så visst. Kanske lutar en aning lite över till ett extra 480 om du vill leka och pilla. Annars är det bättre du väntar med att köpa något till åtminstone en bit in på nästa år. Det har aldrig varit ett sämre läge att köpa grafikkort än nu.

Av GilbertG
Skrivet av Bernd_P1:

i för sig finns ju nuförtiden också 15/14 mm tunna fläktar från Noctua:
http://noctua.at/en/products/fan/nf-a12x15-pwm/specification
http://noctua.at/en/products/fan/nf-a9x14-pwm/review

så man skulle ju kunna tar av plasten och smacka dit 2 stycken av dessa istället.

Jag har en A12x15, den är najs Eller ja, det är väl den enda tunna 12 cm-fläkten som går att få tag på.

Skrivet av Lordsqueak:

Ser inte lovande ut
https://youtu.be/mYdQNifQ7Q8?t=192 . . . vilken miss

Ojdå. Synd, ser ut som en bra kylare. Men alla har väl detta problem egentligen.

Skrivet av DjZaxon:

Powercolor har redan fixsat den missen.

Källa?

Av GilbertG

…och alla använder de maskiner från Philips gamla litografibolag ASML

Av GilbertG
Skrivet av VadSaDu:

Miners sitter redo med att köpa lastpallar efter lastpallar så vi ''gamers'' får vänta tills det blir litet överskott på dessa Vega grafikkort.

Jo, jag har en liten grudge mot de som bryter digital valuta..inget illa menat, men enligt mig är de giriga svinpälsar..och nej, det är inget fel på att tjäna lite pengar, men lämna lite grafikkort i mellanklassen åt oss dödliga också.

När det finns hundratusentals kronor att tjäna så… nä

Skrivet av serverfel:

Om det du säger stämmer, har jag många oskyldiga ankliv på mitt samvete...

Skickades från m.sweclockers.com

Skrivet av Ozzed:

Dör gör de nog inte, men det är inte nyttigt för dem http://mama.nu/artiklar/darfor-ska-du-inte-mata-ander-med-bro...

I slutändan så dör de ju av undernäring om de knappt äter något annat, det har faktiskt hänt. I Malmö gick kommunen för några år sedan ut med information om att sluta brödmata ankor av just den anledningen.

Av GilbertG

Hejdå Displayport! VESA kan gå hem.

Skrivet av Laxpudding:

HDMI-versionen syftar på specifikationen, inte på hårdvaran som sådan. En produkt kan ha ett urval av funktioner ur en given specifikation. Är hårdvaran tillräckligt välgjord och flexibel kan de också uppdateras till funktioner som är beskrivna i framtida specifikationer.

Den klassiska blanka PS3:n är ett tydligast exempl på hur det blir snurrigt att tala om HDMI-versioner på produkter. PS3 kom när HDMI 1.3 var aktuell version. Fast denna PS3:a saknade till exempel en viktig funktion i HDMI 1.3-specen: bitströmmning av de nya Dts-MA och Dolby TrueHD-formaten från Blu-Ray-filmer. Så det blev en sanslös diskussion om huruvida det verkligen var HDMI 1.3 på PS3:n eller inte.

Sedan kom 3D-fjärten lite senare och 3D-bild är beskriven i HDMI 1.4-specen. Eftersom PS3 kunde uppdateras fick den också funktioner för 3D-bild. Då diskuterades det igen, var den verkligen HDMI 1.4? Eller HDMI 1.3? Fast denna PS3:a var ju inte ens HDMI 1.3 tycker vissa. Och så fortsatte diskussionen om exakt färg på hundens päls.

Det enkla svaret är förstås att sluta diskutera vilka versioner en pryl har och fråga efter funktioner. Så även denna gång. Så när ni om ett år funderar över "...har prylen HDMI 2.1?" ska ni istället fråga efter...

  • Klarar prylen en bandbredd för 4K/120? (eller vad ni nu behöver)

  • Är kabeln kabeln certifierad för 48 Gbps? Alltså Ultra High Speed Cable och inte "2.1-kablar" (för bövelen!)

  • Klarar mojängen dynamisk HDR?

  • Finns Game Mode Variable Refresh Rate?

  • ... och allt annat i HDMI 2.1-specen

Därför blir det väldigt lurigt när Microsoft svamlade om att X Box One X ska certifieras för HDMI 2.1 när specifikationen var klar efter att folk frågat om VRR…

Skrivet av Paddanx:

Okej... måste fråga. Var är nu problemet med DP?
DP har ju legat långt före i teknik och möjlighet länge.

Enda gången jag haft bråk är det med HDMI som aldrig verkar vara utskrivet vilken version/funktion på hälften av produkterna, eller vad de stöder, så man kan veta hur och om det går, och de fusk-överklockar chippen för att stöda saker, så det slutar med buggar. Enda anledning vill varför den finns är pga TVn... i övrigt ser jag inte fördelen.

Men... jag kanske har missat något?

Skrivet av mpat:

Bägge två går att köra över USB-C, så att standardporten är något mindre ser jag inte som väsentligt. Sen är det synd att de flesta skrivbordsdatorer fastnade för den stora DisplayPorten och inte den lilla, det hade varit bättre för alla inblandade.

DisplayPort är tekniskt bättre på egentligen allt. Att det är effektivare märks nu när bägge går i samma USB-C kabel och DisplayPort får plats med 25% mer data - och då är det gamla DisplayPort 1.2 som går mot väsentligt nyare HDMI 2.0. Jämför man standarder av samma datum och tar DisplayPort 1.4 istället blir skillnaden ännu större. HDMI kör fortfarande bildsignalen över DDC från 1985, med enda väsentliga ändringen att signalen nu är digital. DisplayPorts paket-baserade överföring är bättre på att utnyttja den fysiska bandbredden utan störningar.

Licenskostnaden för HDMI var väsentligt högre innan DisplayPort kom. Det var introduktionen av den standarden som fick HDMI Licensing att sänka priserna och ta bort regeln om att alla HDMI-kablar måste ha HDMI i bägge ändarna (dvs, så att man måste köpa både kabel och en lös adapter för att byta från DVI till HDMI - de fick licensavgifter per port, nämligen, och porten på adaptern räknades).

Överhuvudtaget blir HDMI alltid klara med standarden en stund efter att den behövs. DisplayPort hade grejer som klarade 4K ute på marknaden och färdiga 2012, medan HDMI 2.0 kom i produkter först 2016. Variabel uppdateringsfrekvens har ingått i standarden sen 2009, nån MST har väl HDMI fortfarande inte, osv.

Sen får vi se hur mycket de nya kablarna kommer att kosta i slutänden. Specen på kablarna tittar ju mycket framåt, så risken är att de blir dyra till en början.

Produkter med DP lanserades inte förrän 2008. HDMI klarade 4K redan 2006, om än bara i 30hz. Att sedan ingen använde sig av det kan ju bero på att det inte fanns några skärmar med den upplösningen… DP hade ett tekniskt försprång kring 2010-2013 där det var att möjligt att köra 4K i 60hz. Men grafikkorten då kunde ju knappast driva 3D-grafik i den upplösningen, så det är ju i praktiken bara för video och bildarbete som 4K användes, och till det räcker ju 30hz.

Angående variabel frekvens så var det bara för inbäddade system. Externt kom det inte förrän med FreeSync såatteh…

Jag vidhåller att DP är en helt onödig standard som inte löser något reellt problem.

Skrivet av Paddanx:

Vet och förstår detta, men det hindrar inte hur det förenklar när man ska reda ut hur det ska kopplas mellan enhet till förstärkare, till splitter eller till ljud-system, för att sen gå via TVn. Hela problemet är inte bara kabeln, utan samspelet mellan dessa också.

Kabeln mao... är som många säger, bara koppar. Men djungeln på vf som stöder vad i enheterna, skulle verkligen också behöva standardiseras med just versionsnummer. För det är här HDMI faller platt för mig. Detta är var DP versioner är tydliga och följsamma, och jag önskar HDMI hade gjort samma.

Detta är ett bra exempel på en anledning till varför jag kan tänka mig anamma HDMI istället. Certifiering är guld värt när det bara ska fungera. Problemet som jag sa ovan är just att istället för en spec... måste man kolla 20-tal "individuella" i varje sabla enhet i slingan. Och ofta skrivs inte ens hälften av dessa ut.

Längden dock är bra poäng, även jag HDMI kablar på de längderna är plånboks-tömmande.

Så HDMI kabel är guld... HDMI enheter är ospecificerat mög (imo).
Och DP kablar är ospecificerat mög, men enheterna är exakt specificerade.
WTB HDMI kabel, med DP enheter tack.

Nu skulle ju DP 1.5 vara ute redan i år, varför de är efter vet jag inte. Men då hade HDMI inte varit ikapp heller. Så vi får se hur länge det håller i sig.

Problemet är snarare synsättet att folk förväntar sig att en viss pryl tillverkad ett visst årtal ska ha stöd för alla funktioner som var uppfunna det året.

Skrivet av Paddanx:

Vilket är exakt varför jag ifråga sätter HDMI som "ska ersätta DP". Tom närmare 200Hz är något som efterfrågas, och då gör HDMI en standard, som inte ens klarar detta? DP för alla sina problem har trots allt haft detta teoretiskt möjligt till 240Hz rätt länge på 1440p.

Varför om vi bara skickar signal i koppar, kan man då inte reda ut detta i deras standarder? Bandbredden borde ju finnas i 48Gbit/s för tom 4k 144Hz eller 240Hz 1440p.

Tills dess att HDMI faktiskt sluta varar endast optimerade för TVns frekvenser... ja.
Först nu har de ju ens haft variabel frame-rate vilket är något som funnits i satans många år på DP.

Dagen HDMI börjar optimeras för datorn, och även skärmarna och teknikerna vi har där, kan jag gärna hänga på. Men tills dess stannar jag hellre på DP och får 144Hz möjlighet.

Skrivet av Vangen:

Då är frågan om eftersom HDMI 2.1 kan ge max 120Hz i 4K, och att många tillverkare ändå satsar på 144Hz för 4K om det är DP 1.??
som ligger steget före?

Skrivet av atego:

IDIOT hdmi haha.. klarar 10K men inte 144 hz??? lägg ner..

Synd inte allt kunde vara Displayport.

Citerar Wikipedia som har källhänvisningar:
"HDMI 1.2 and all later versions allow any arbitrary resolution and frame rate (within the bandwidth limit); any formats that are not supported by the HDMI Specification (i.e. no standardized timings defined) may be implemented as a vendor-specific format. Although successive versions of the HDMI Specification continue to add support for additional formats (such as 4K resolutions), the added support is to establish standardized timings to ensure interoperability between products, not to establish what formats are and aren't permitted, and video formats do not require explicit support from the HDMI Specification in order to be displayed.[93](§6.1)"

1366x768 samt 1360x768 är inga standardiserade upplösningar i HDMI men går ändå utmärkt att överföra.

Skrivet av Chromatic:

Nån som vet hur hög upplösning man kan få ut ur lite äldre filmer? Blev ju förvånad när man insåg att filmer som Ghostbusters osv fanns i 4k, trots att 4k inte ens fanns på marknaden när filmen gjordes, men finns den även i 10k? Eller hur funkar det? mvh

Skrivet av GuessWho:

Jag har för mig att någon skrev att många analoga biofilmer motsvarade ca 5K.
Om det nu stämmer...
att man då kan göra 5K utgåvor eller lägre av gamla filmer om det finns fysiska filmer i tillräckligt bra skick.

Vem som skrev det minns jag inte och huruvida det stämmer eller inte vet jag inte heller.
Eftersom det verkar fungera att göra digitala 4K filmer av gamla analoga filmer så låter det rimligt.
Men jag är inte säker på om det stämmer eller inte. Så ta det som ett rykte.

Jag har jobbat lite med film och kan säga att verklig bildinformation i 135-film motsvarar ca 1 megapixel beroende på typ av film. Och det är för stillbilder som ligger brett på filmen. Video spelas in stående för att fler bildrutor ska få plats. Dock så scannas stillbilder gärna i 6 megapixlar för att få med alla detaljer och övergångar då kornen som utgör "pixlarna" inte är orienterade exakt och är relativt ojämnt fördelade. Med lite fin efterbehandling så kan det se ut som 2 megapixlar.

Blu-ray kan alltså redan visa film inspelad på 135-film i sin fulla prakt. UHD kommer i praktiken bara vara uppskalat för nästan all film.

Skrivet av Alpha77:

Hittade denna listan.

18K = IMAX 15-perf (or 36K?)
12-13K = 70MM 5-perf
6K = 35MM 4-perf
3K = 35MM 2-perf
1.8K = S16MM
1.5K = 16MM
720p = S8MM
480 = 8MM

"This is of course the best possible scenario of each format. "

Problemet är filmer med digitala special effekter, som måste renderas om eller helt återskapas om originalen inte finns kvar.
Det kan bli ganska dyrt, men gjordes ju med exempelvis Star Trek från 1960-talet.

Någon har räknat kornen, dvs de kemiska molekyler som utgör "pixlarna" och slängt ihop det i en lista. I verkligheten funkar det inte så då kornen inte är orienterade exakt och är relativt ojämnt fördelade.