Panasonic gör spelare för 4K UHD Blu-ray

Permalänk
Inaktiv

Att dem orkar. Det är ju helt uppenbart att skivorna borde bytas ut till någon form av kort som aldrig hackar, låter eller repas.

Men det är ju klart, ett kort kostar väl mer än den kronan blueray skivan kostar. Man måste ha 2-300.000% profit per såld skiva, annars fan....

Och det ska vara synd om hollywood som dessutom får pengar från varje svensk mobil, dator och surfplattköpare tack vare landets lobbade och korrupta politiker?

Permalänk
Medlem
Skrivet av anon56869:

Att dem orkar. Det är ju helt uppenbart att skivorna borde bytas ut till någon form av kort som aldrig hackar, låter eller repas.

Men det är ju klart, ett kort kostar väl mer än den kronan blueray skivan kostar. Man måste ha 2-300.000% profit per såld skiva, annars fan....

Och det ska vara synd om hollywood som dessutom får pengar från varje svensk mobil, dator och surfplattköpare tack vare landets lobbade och korrupta politiker?

Alternativet hade ju varit band. Flash-minne är för dyrt medium. Du kan inte ha fyndlådans film för 29kr på ett medium som kostar flera hundra att tillverka. Poängen med det är ju att det ska klarar film som inte är sönderkomprimerad. Copyswede betalar inte ut till filmskapare för att du köper datorer i något direkt samband. De betalar bara ut för den inspelning från tv de antar finns, filmer på blu-ray och detta framtida format innehåller åtgärder som gör att det inte får kopieras och piratkopiering ersätter de inte. Tittar du på vad digitala tjänster som itunes kostar så är det mer än fysiska dito och där är distribution bara någon krona totalt sett.

Permalänk
Medlem

Bra. Blir lagom att kanske skaffa en 2017 eller så.

Permalänk
Medlem

Om vi har blu ray filmer som är 30GB video idag för 1080p upplösning, borde det inte då behövas 120GB för 4K logiskt sätt?

"finesser" såsom utökad färgrymd eller High framerate bör ju kräva ännu mer plats ovanpå detta sen.

Smått relaterat kollade jag med Netflix support igår vad de har för bitrate på sin 1080p ström som de hävdar är hög kvalitet. Svaret jag fick var "upp till" 3GB / timma = 6.67Mbit/s vilket är sämre än youtube ( som har 8Mbit/s ).

Visst att det kan vara OK för att se film på sin telefon eller så, men på din hembio? Rent lurendrejeri att de på sin hemsida och genom kundtjänst hävdar att de har hög kvalitet på filmerna och att de leverar "Super HD".

Dessutom skalar de dynamiskt ned upplösningen både efter din och sin egen bandbredd, så när man börjar titta inleds strömmen med låg kvalitet för att hinna buffra istället för väntetid. Om någon av hastigheterna inte räcker till reduceras upplösningen istället, allt för att slippa laddtider.

Permalänk
Medlem

Netflix sänder 4K i 15Mbit har jag för mig. Det är bra mycket lägre än en vanlig bluray. Dock så använder de h.265 istället vilket är mycket effektivare än h.264.

4K bluray med h.265 borde funka på 60 alt 80GB skivor. Vi får se vad det blir när de börjar släppa filmer i det nya formatet.

Permalänk
Medlem
Skrivet av Ixos:

Om vi har blu ray filmer som är 30GB video idag för 1080p upplösning, borde det inte då behövas 120GB för 4K logiskt sätt?

"finesser" såsom utökad färgrymd eller High framerate bör ju kräva ännu mer plats ovanpå detta sen.

Smått relaterat kollade jag med Netflix support igår vad de har för bitrate på sin 1080p ström som de hävdar är hög kvalitet. Svaret jag fick var "upp till" 3GB / timma = 6.67Mbit/s vilket är sämre än youtube ( som har 8Mbit/s ).

Vart har du sett att youtube har 8Mbps för 1080p? Vad jag vet så är det vad dom rekommenderar för export innan man laddar upp, vad jag vet så ligger deras encode sen på mellan 3-4mbps, vilket är hälften av vad netflix erbjuder. Sen tillkommer även ljud och där erbjuder även netflix 5.1

Angående 4k så skalar inte upplösning och bitrate linjärt, sen kommer de mesta 4k materialet komma i ett effektivare format. Efter vad jag har sett så krävs ungefär lite över dubbla bitraten.

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av sKRUVARN:

Vart har du sett att youtube har 8Mbps för 1080p? Vad jag vet så är det vad dom rekommenderar för export innan man laddar upp, vad jag vet så ligger deras encode sen på mellan 3-4mbps, vilket är hälften av vad netflix erbjuder. Sen tillkommer även ljud och där erbjuder även netflix 5.1

Då är det möjligt att jag missförstått informationen om youtube.

Svaret jag fick från Netflix var att total bitrate från både ljud och bild låg på 3GB / timme.

Permalänk
Medlem

Köpte min första blu ray nyligen, shaun of the dead. Inser att den har ett kopieringsskydd som gör det krångligt att kolla på den med en blu ray läsare i datorn vilket var vad jag avsåg göra. Det lär inte bli mindre besvärligt antar jag
Med dvder är det ju relativt enkelt iaf.

Visa signatur

No man is free who is not master of himself

Permalänk
Medlem
Skrivet av Ixos:

Om vi har blu ray filmer som är 30GB video idag för 1080p upplösning, borde det inte då behövas 120GB för 4K logiskt sätt?

???????? Logiskt SETT menar du väl?
Stör mig på att det är ett av de vanligaste stavfelen idag ( "sett" och "verkar" felstavas med ä, vilket är heelt fel) Löjligt att irritera sig på det jag vet, men det är sååå vanligt att man undrar vad som missats i skolan

Visa signatur

Chassie Louqe Ghost S1 MKIII Limestone, Moderkort Gigabyte B550I AORUS PRO AX, RAM minnen G.SKill Trident Z Neo RGB 32GB, CPU AMD Ryzen 7 5800X, KylareNoctua Ghost S1 Edition, GPU Powercolor Radeon RX 6800 16GB, Systemdisk Samsung 970 EVO Plus series 500GB M.2, Sel/programdisk SSD 2x Samsung 850 EVO 120/500 GB, PSU Corsair sf750w, Skärm Samsung c32hg70 144hz,Mus Logitech g603 wireless gamingmouse, Tangentbord Logitech g613 wireless gaming keyboard

Permalänk
Skrivet av Alling:

Det är väl 4K DCI (4096x2160) på bio?

Beror på, om du orkar släpa dig till en IMAX biograf så är det 16K som mest. =3

Permalänk
Skrivet av Petterk:

Nuvarande HEVC-avkodare i apparaterna varierar i features och har ingenting med deras tv-mottagare för dvb-s, dvb-t eller dvb-c att göra. Det finns t.ex. TVs som spelar upp H.264 i MKV, men inte klarar DVB-T2 (marksänt i mpeg4). De standarder för tv-sändningar vi har lär inte uppdateras med HEVC den närmsta tiden. Bolag kan köra demos, men de har inte haft någon hårdvara bestående av standardkomponenter för att visa upp demosändningarna, men det börjar komma komponenter det går att bygga på. När TV-sändningarna tog steget till H.264 så hade vi haft H.264 på blu-ray i 3-4 år, samt varit standardiserat/finaliserat i 5-7 år. På datorer har du behövt överklockad quad-core Ivy-bridge/Haswell eller hexa-core för de tidiga HEVC-avkodarna nu när det blev standard och en period efter, och det som skeppas i konsumentprodukter (typ avkodare från divx) har liknande prestanda. Där börjar hybrid-lösningar som delvis utnyttjar dedikerade block/acceleration i GPU nu med Maxwell och Broadwell genom bland annat shaders. Det tar därför ett par år innan det börjar sprida sig till någon större krets. Om en TV stödjer Netflix 4k har inget att göra med om den kommer klara TV-sändningar att göra. Bolag som testar har pratat om 2020 för att ersätta nuvarande sändningsstandarder. Just satellit-sändningar ligger lite före i tidsschemat, där börjar de få plats CA/CI och en variant av DVB-S2. Det möjliggör också betalkanaler. Om straxt över ett år kanske vi kan börja se det inbyggt på kommersiella modeller. UHD-1 Phase 2 väntas 2017/18. DVB-organisationen räknar med att några av de asiatiska länderna har kommersiella försök 2016, för early adopters på sändarsidan. Är först med Phase 2 du lär få rec.2020 osv.

Ser vi standarder under DVB för UHD någorlunda färdiga 2017-2018, så kanske vi kan börja se kommersiella sändningar något år senare här. Så handlar ändå för runt en femårs-period för de som hoppar på tidigt. Vi har ingen draft-standard där. UHD-1 Phase 1 är inte färdiga förändringar i standarder som det bara är att rulla ut. DVB-S2X är det som ligger närmast till hands/längst fram. Det finns också annan infrastruktur ute hos TV-bolagen som tar tid och behöver bytas ut om de t.ex. ska producera 2160p/60 – mer än att få in kameror. Baka in en videoström på högre upplösning i etern har de demonstrerat ett tag däremot. Event har sänds i det. Att bara koppla i och köra är utanför webb-sändningar nog 4-5 år bort i den här delen av världen. I dagsläget har få UHD-apparater ens haft stöd för HDMI2.0 på ett vettigt sätt, vilket behövs för att en extern framtida box ska lira som tänkt. Det börjar ramla på plats däremot. Internetbaserade tjänsterna är de som får gå före den här gången, ett nytt optiskt format är delvist positivt, vi får se hur snabbt produktionsbolag/distributörer hoppar på det. På datorer är det främst annat än högre upplösning HEVC skulle hjälpa till med, men det är ändå några år bort innan vi kör det som förstaval där så som H.264 är idag. Standarder och kommersialisering brukar skilja med år i mellan så det är viktigt att de faller på plats och faktiskt ersätter/kompletterar nuvarande standarder och blir färdiga, det tar ett tag innan nya mottagare och allt faller på plats. Just nu är det på förslagsstadiumet när det gäller sändningar, och de kommer implementera sina förslag för att se vilka som kommer med senare i processen och vad de behöver ta hänsyn till. De tidiga demonstrationerna kommer innan det stadiet. Inte ens de apparater som kommer med HEVC-avkodare kommer gå att uppgradera här. De nya standarderna behövs också för att du ska sända 1080p och garantera att mottagaren ska klara av det. Det är svårt att göra tillägg i teknik och rulla ut dessa när den nuvarande redan har så stor bas.

Jag personligen bryr mig inte så mycket om vad sändningen har för kvalité, tycker den jag i alla fall har inom bredbands TV funkar dugligt (är ungefär som Netflix webb streaming i kvalité). Vill man njuta av 4k precis som med 1080P är det film och vissa serier man ska köra från valfri mediespelare, som t.ex HTPC/blu-ray spelare. Inte vanliga TV sändningen, bara SVT som ligger lite i framkant kör visst material med 5,1 ljud (om jag inte har fel), men tittar aldrig på den kanalen bara hänt någon enstaka gång jag sett det när jag bläddrat förbi.

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Medlem
Skrivet av Wasted Hobbit:

Beror på, om du orkar släpa dig till en IMAX biograf så är det 16K som mest. =3

IMAX-kedjor brukade till ganska nyligen köra två 2K-projektorer. Icke IMAX-biografer brukar ha kvar sina 70mm projektorer vid sidan av deras 4K. IMAX egna digitala filmkameror har upplösning upp till 4K. Konkurrerande kameror kan oftast filma i 5K eller 6K och har funnits tillgängliga på marknaden en längre tid. Inget filmat på 70mm är redigerat och mastrat i 16K DI. Du måste tillbaka till negativklippningens era för att få kvalité motsvarande cirka 16K. Du behöver inte heller använda IMAX-kameror för 65 eller 70mm. Panavision har deras egna 65 mm kameror, ARRI har också deras egna 65 mm kameror, dessa är hyfsat vanliga för 70mm prints. De har också används inom filmer som distribuerats digitalt. Ingestion/skanning sker oftast inte till högre än 8K DI däremot.

Permalänk
Skrivet av Petterk:

IMAX-kedjor brukade till ganska nyligen köra två 2K-projektorer. Icke IMAX-biografer brukar ha kvar sina 70mm projektorer vid sidan av deras 4K. IMAX egna digitala filmkameror har upplösning upp till 4K. Konkurrerande kameror kan oftast filma i 5K eller 6K och har funnits tillgängliga på marknaden en längre tid. Inget filmat på 70mm är redigerat och mastrat i 16K DI. Du måste tillbaka till negativklippningens era för att få kvalité motsvarande cirka 16K. Du behöver inte heller använda IMAX-kameror för 65 eller 70mm. Panavision har deras egna 65 mm kameror, ARRI har också deras egna 65 mm kameror, dessa är hyfsat vanliga för 70mm prints. De har också används inom filmer som distribuerats digitalt. Ingestion/skanning sker oftast inte till högre än 8K DI däremot.

Okej då vet ja ^^. Tänkte mest på att de största standarden som IMAX stödjer är 16K om jag minns rätt. Hade dock ingen bra översikt på hur man kör med IMAX, kan bero på att vi bara har två ställen som har IMAX projektorer i Sverige om jag mins rätt, ena av dem är väl Cosmonova?

Permalänk
Medlem
Skrivet av Wasted Hobbit:

Okej då vet ja ^^. Tänkte mest på att de största standarden som IMAX stödjer är 16K om jag minns rätt. Hade dock ingen bra översikt på hur man kör med IMAX, kan bero på att vi bara har två ställen som har IMAX projektorer i Sverige om jag mins rätt, ena av dem är väl Cosmonova?

SF ska öppna en IMAX-salong och den lär ha 2st 4K Barco-projektorer (2 st behövs för deras 3D-system) som är deras leverantör sedan ett par år tillbaka, grejen är att den kan spela upp exakt samma filmer/filer (plus en egen variant av samma format) som en salong som inte kallar sig IMAX och att vanliga salonger som vissa av SFs var före med övergången till 4K än IMAX-kedjan. Så IMAX är ingen kvalitetsstämpel i sig, andra kör dock oftast 3D-system med hjälp av en projektor. 3D i DCI-formatet stödjer dock bara 2K vilket som. Naturhistoriska har OMNIMAX. Där har de 70mm projektor som tar 15/70 vilket är den mest högupplösta varianten som finns och icke platt bild/dome genom fish-eye objektiv, men saken är om dessa prints/70mm tryck/positiv skapats/behandlas digitalt så kan maskinerna som skriver ut till film (film-out) från DI inte köra ut mer än 8K-upplösning i vilket fall som helst. Beroende på märke så kan du begränsas till 4K. Så det är bara källmaterialet 15/70 (egentligen 65mm) negativ från filmkameran som motsvarar 16K. Sen skannas det i lägre upplösning (12K eller 8K brukar fungera), redigeras, färggraderas och färdigställs oftast i någon lägre upplösning från dessa digitala filer än så och kan inte köras ut tillbaka på film (detta system är inte digitalt utan behöver film) i mer än 8K. Många av dessa filmer har film-out i 4K. Du kan få samma kvalité på 5/70 systemet som finns i ett gäng svenska salonger sedan tidigare men som tappat i popularitet. Just p.g.a. att film-out-processen begränsar.

En så kallad IMAX-film (idag, som du hittar hos biografkedjan/nätverket) är filmer som på något sett anpassats för IMAX-kedjan och är alltså inte producerad i 16K och distribueras inte som 70mm prints. Utan är för det mesta 2K och 4K DCI eller deras egna variant av DCI som heter IDF. När det är digital distribution. Vissa scener kan dock vara fångade med 70mm IMAX-kameror, men en sk IMAX-film är oftast fångad helt i hållet i något annat. En IMAX-film är bara något där IMAX varit inblandat på något sett, de brukar kalla det DMR eller IMAX Digital Media Remastering – oavsett om det gäller en digital film i 2K (alternativt 4K) eller om det körs ut på 70mm rullar. Står det inte att det är en 65/70 mm IMAX-kopia på filmstaden Scandinavia så är det vanliga digitala projektorer upp till 4K. I praktiken är skillnaden mellan IMAX 65 och vanliga 65mm system som är ganska vanliga (flertalet svenska installationer) är att filmen i IMAX-systemet löper på en annan ledd än vanlig 65/70 och 35mm. Det skulle kunna vara skillnad i grynighet mellan 5/70 och IMAX 15/70, så kanske inte ska säga att det är exakt samma, men högre bildupplösning från film-out får du inte så är det skillnad har det inte med upplösningen att göra.

Interstellar som är en ny film producerad på 70mm IMAX-kameror (66 minuter av den i.a.f.) använder (4K och) 8K skanning. Mastrades i 4K. Bättre än så så får du jobba med negativklippning och fotokemiska processer istället för digitalt i princip. Du har inga 16K digitala projektorer (även om chip inte finns i 16K så kan man använda flera med lägre upplösning och skjuta på duken) ute i kommersiella salonger. Det vore poänglöst på en film där lägsta gemensamma givaren är 4K också, och så gott som aldrig är högre än 8K till källan. Utvecklingen går nog inte så mycket i att distribuera i högre upplösning, de nya systemen ger också andra möjligheter som HFR och som möjligheten att fånga digitalt med större färgrymd och färgdjup än tidigare, utan förstörande komprimering. 8K dome kommer komma/har kommit digitalt till planetarium, men eftersom det är fulldome går upplösningen ner från 67Mp till 38Mp på projektorsystemet och det består av 6 st projektorer. 8K sensorer inom kameror (8Kx4K så inte dome) som håller på att utvecklas är främst tänkta för 4K-material. Förutom demos om 8K för TVs som de också tagit fram 8K-kameror till. Men det rakt igenom producerat och projicerat är ju inte ens något biografer tagit ställning till. De har i praktiken oftast inte kommit upp till 8K med 70mm systemet, så har svårt att se vad vitsen att satsa på 8K projektor och 8K material/källa/distribution är där. Att forskningen sen sker är ju en sak.

Sen även om mobiltelefoner får stöd att fånga 8K UHD om några år så är ju inte det förknippat med kvalité och betyder att biografer måste bli 32K. På mobiltelefoner kommer dock den utvecklingen att ske för bildsensorerna är i den högre klassen redan ~40Mp. Mer än så kommer däremot troligen inte ske p.g.a. att du inte kan göra subpixlarna mindre och få ut något mer av det. Sen ska du ju kunna fånga/återge färger också. Du kommer i mindre system aldrig ha bandbredd nog att fånga rå 12-bit 8K ner till lagringen t.ex. De professionella systemen finns av en anledning.

Permalänk
Skrivet av Petterk:

SF ska öppna en IMAX-salong och den lär ha 2st 4K Barco-projektorer (2 st behövs för deras 3D-system) som är deras leverantör sedan ett par år tillbaka, grejen är att den kan spela upp exakt samma filmer/filer (plus en egen variant av samma format) som en salong som inte kallar sig IMAX och att vanliga salonger som vissa av SFs var före med övergången till 4K än IMAX-kedjan. Så IMAX är ingen kvalitetsstämpel i sig, andra kör dock oftast 3D-system med hjälp av en projektor. 3D i DCI-formatet stödjer dock bara 2K vilket som. Naturhistoriska har OMNIMAX. Där har de 70mm projektor som tar 15/70 vilket är den mest högupplösta varianten som finns och icke platt bild/dome genom fish-eye objektiv, men saken är om dessa prints/70mm tryck/positiv skapats/behandlas digitalt så kan maskinerna som skriver ut till film (film-out) från DI inte köra ut mer än 8K-upplösning i vilket fall som helst. Beroende på märke så kan du begränsas till 4K. Så det är bara källmaterialet 15/70 (egentligen 65mm) negativ från filmkameran som motsvarar 16K. Sen skannas det i lägre upplösning (12K eller 8K brukar fungera), redigeras, färggraderas och färdigställs oftast i någon lägre upplösning från dessa digitala filer än så och kan inte köras ut tillbaka på film (detta system är inte digitalt utan behöver film) i mer än 8K. Många av dessa filmer har film-out i 4K. Du kan få samma kvalité på 5/70 systemet som finns i ett gäng svenska salonger sedan tidigare men som tappat i popularitet. Just p.g.a. att film-out-processen begränsar.

En så kallad IMAX-film (idag, som du hittar hos biografkedjan/nätverket) är filmer som på något sett anpassats för IMAX-kedjan och är alltså inte producerad i 16K och distribueras inte som 70mm prints. Utan är för det mesta 2K och 4K DCI eller deras egna variant av DCI som heter IDF. När det är digital distribution. Vissa scener kan dock vara fångade med 70mm IMAX-kameror, men en sk IMAX-film är oftast fångad helt i hållet i något annat. En IMAX-film är bara något där IMAX varit inblandat på något sett, de brukar kalla det DMR eller IMAX Digital Media Remastering – oavsett om det gäller en digital film i 2K (alternativt 4K) eller om det körs ut på 70mm rullar. Står det inte att det är en 65/70 mm IMAX-kopia på filmstaden Scandinavia så är det vanliga digitala projektorer upp till 4K. I praktiken är skillnaden mellan IMAX 65 och vanliga 65mm system som är ganska vanliga (flertalet svenska installationer) är att filmen i IMAX-systemet löper på en annan ledd än vanlig 65/70 och 35mm. Det skulle kunna vara skillnad i grynighet mellan 5/70 och IMAX 15/70, så kanske inte ska säga att det är exakt samma, men högre bildupplösning från film-out får du inte så är det skillnad har det inte med upplösningen att göra.

Interstellar som är en ny film producerad på 70mm IMAX-kameror (66 minuter av den i.a.f.) använder (4K och) 8K skanning. Mastrades i 4K. Bättre än så så får du jobba med negativklippning och fotokemiska processer istället för digitalt i princip. Du har inga 16K digitala projektorer (även om chip inte finns i 16K så kan man använda flera med lägre upplösning och skjuta på duken) ute i kommersiella salonger. Det vore poänglöst på en film där lägsta gemensamma givaren är 4K också, och så gott som aldrig är högre än 8K till källan. Utvecklingen går nog inte så mycket i att distribuera i högre upplösning, de nya systemen ger också andra möjligheter som HFR och som möjligheten att fånga digitalt med större färgrymd och färgdjup än tidigare, utan förstörande komprimering. 8K dome kommer komma/har kommit digitalt till planetarium, men eftersom det är fulldome går upplösningen ner från 67Mp till 38Mp på projektorsystemet och det består av 6 st projektorer. 8K sensorer inom kameror (8Kx4K så inte dome) som håller på att utvecklas är främst tänkta för 4K-material. Förutom demos om 8K för TVs som de också tagit fram 8K-kameror till. Men det rakt igenom producerat och projicerat är ju inte ens något biografer tagit ställning till. De har i praktiken oftast inte kommit upp till 8K med 70mm systemet, så har svårt att se vad vitsen att satsa på 8K projektor och 8K material/källa/distribution är där. Att forskningen sen sker är ju en sak.

Sen även om mobiltelefoner får stöd att fånga 8K UHD om några år så är ju inte det förknippat med kvalité och betyder att biografer måste bli 32K. På mobiltelefoner kommer dock den utvecklingen att ske för bildsensorerna är i den högre klassen redan ~40Mp. Mer än så kommer däremot troligen inte ske p.g.a. att du inte kan göra subpixlarna mindre och få ut något mer av det. Sen ska du ju kunna fånga/återge färger också. Du kommer i mindre system aldrig ha bandbredd nog att fånga rå 12-bit 8K ner till lagringen t.ex. De professionella systemen finns av en anledning.

Okej, tack för informationen ^^ Så man skulle kunna säga att skillnaden är en analog "bitrate" typ?

På telefoner är ju ett stort problem med stor upplösning men kvalitén på bilden i jämförelse med upplösningen är ganska löjlig.

Gud ja på forskningsnivåer handlar det om helt andra saker och andra gränser och andra budgetar samt användnings områden.

Nja förr eller senare så kommer nog en telefon klara av det med, fast då kommer ju professionell utrustning vara ännu bättre, man måste komma ihåg att det är en liten storleks och pris skillnad på några hundratusen. Ett exempel skulle kunna vara att köra med krympta ssd enheter i motsvarande krympt pci-e 4.0 port körandes i raid 0 med memeristorer eller hbm kretsar. Sen vill ju forskarna få ut fult fungerande kvantdatorer mellan 2020-2040 och sen är ju biologiska enheter på väg någon gång det med, så att en telefon inte skulle klara av 12.bit 8K video/foto någon gång i framtiden, speciellt baserat på bandbredd tvivlar jag på. När det kommer till just linser osv har jag ingen kunskap så där håller jag mig ifrån att säga något.

Permalänk
Medlem
Skrivet av Wasted Hobbit:

Okej, tack för informationen ^^ Så man skulle kunna säga att skillnaden är en analog "bitrate" typ?

På telefoner är ju ett stort problem med stor upplösning men kvalitén på bilden i jämförelse med upplösningen är ganska löjlig.

Gud ja på forskningsnivåer handlar det om helt andra saker och andra gränser och andra budgetar samt användnings områden.

Nja förr eller senare så kommer nog en telefon klara av det med, fast då kommer ju professionell utrustning vara ännu bättre, man måste komma ihåg att det är en liten storleks och pris skillnad på några hundratusen. Ett exempel skulle kunna vara att köra med krympta ssd enheter i motsvarande krympt pci-e 4.0 port körandes i raid 0 med memeristorer eller hbm kretsar. Sen vill ju forskarna få ut fult fungerande kvantdatorer mellan 2020-2040 och sen är ju biologiska enheter på väg någon gång det med, så att en telefon inte skulle klara av 12.bit 8K video/foto någon gång i framtiden, speciellt baserat på bandbredd tvivlar jag på. När det kommer till just linser osv har jag ingen kunskap så där håller jag mig ifrån att säga något.

RED 6K är t.ex. lossykomprimerad RAW (8:1) på 88MB/s, NAND/eMMC (nuvarande standard klarar upp till 400MB/s) klarar av det men skrivhastigheten i mobiltelefoner är inte riktigt där än. Lossless RAW med kompression kräver nog lite mer, okomprimerad ganska mycket mer 8K UHD 12-bit 4:4:4/RGB 24 bildrutor/sekunden är runt 3500MB/s. Det är mer än x1 PCI-e 4.0 klarar. Att bära med sig en hel SAN/Raid-array drar ström. Att bygga jätte mycket större kretsar/staplade kretsar går inte om du ska driva det på batteri. DRAM är inte problemet. De kan inte utvinna vakuumenergi i LiPo-cellerna, kretsar går fysiskt inte att krympa mycket mer och varje generation NAND blir större eller ungefär lika stor efter krympningen för att kompensera för andra effekter. Foto är en annan sak.

Det handlar snarare om 8K UHD i HEVC 8-bit 4:2:0 när telefonerna börjar spela in "8K". Vad är ännu bättre än 6K-8K okomprimerad 12/16-bit? Inom skannad film har det legat på samma nivå senaste 20 åren, och de modernaste maskinerna kör ibland hårdvara från 90-talet och spöar maskiner som utvecklats senare. För 8K scans av 70mm film använder du förmodligen en variant av samma format som du gjorde på 90-talet. För okomprimerat gör ju att det är precis samma sak du ska spara ner idag. 3-färgkanaler upp till 16-bit vardera. Det ny teknik kan göra där är t.ex. att skanna fler bilder/minut än de äldre. I/O och lagringsbehoven är en av anledningarna att du inte sitter och offline-redigerar i realtid i 8K DPX. Sen är det ändå fotoner, och optikelement det handlar om. Sensorer och kameror kanske blir bättre på brus osv, samt objektiven ger fortfarande samma begränsningar, men när det väl ska sparas ner till okomprimerade bilder är det samma typ data. Man kan givetvis öka sensorstorleken ännu mer, men det kombinerat med objektiv blir till slut till en begränsning i sig. Optiska vetenskapen kommer ha kvar sina begränsningar och omfattar redan kvantmekaniken. De nya digitala systemen är anpassade för att använda äldre objektiv och objektivfattning, ett 40 år gammalt kan vara guld värt i den branschen. I/O är fortfarande ett bekymmer i proffssystemen. De måste använda flash idag, och får relativt lite utrymme. I framtiden kanske de kan gå över till okomprimerat utan att vara uppkopplad till ett lagringssystem däremot. Fast man kan inte tro att allt löser sig med ny teknik i framtiden. Det finns många områden det inte kommer hända något märkvärdigt på.

Naturens begränsningar är de samma i framtiden. Kvantmekanik är fortfarande begränsat av att du måste ha atomer att utgå från och en qubit kan fortfarande bara hålla upp till två värden och först måste vi börja placera ut atomer med sveptunnelmikroskåp som fortfarande har traditionell användning inom halvledarvetenskapen och nanovetenskapen innan vi kommer till qubits. Det hela har inte så mycket med I/O att göra.

Analog bitrate? Skillnaden mellan vad? Filmrullar och video hanteras båda digitalt.

Permalänk
Skrivet av Petterk:

RED 6K är t.ex. lossykomprimerad RAW (8:1) på 88MB/s, NAND/eMMC (nuvarande standard klarar upp till 400MB/s) klarar av det men skrivhastigheten i mobiltelefoner är inte riktigt där än. Lossless RAW med kompression kräver nog lite mer, okomprimerad ganska mycket mer 8K UHD 12-bit 4:4:4/RGB 24 bildrutor/sekunden är runt 3500MB/s. Det är mer än x1 PCI-e 4.0 klarar. Att bära med sig en hel SAN/Raid-array drar ström. Att bygga jätte mycket större kretsar/staplade kretsar går inte om du ska driva det på batteri. DRAM är inte problemet. De kan inte utvinna vakuumenergi i LiPo-cellerna, kretsar går fysiskt inte att krympa mycket mer och varje generation NAND blir större eller ungefär lika stor efter krympningen för att kompensera för andra effekter. Foto är en annan sak.

Det handlar snarare om 8K UHD i HEVC 8-bit 4:2:0 när telefonerna börjar spela in "8K". Vad är ännu bättre än 6K-8K okomprimerad 12/16-bit? Inom skannad film har det legat på samma nivå senaste 20 åren, och de modernaste maskinerna kör ibland hårdvara från 90-talet och spöar maskiner som utvecklats senare. För 8K scans av 70mm film använder du förmodligen en variant av samma format som du gjorde på 90-talet. För okomprimerat gör ju att det är precis samma sak du ska spara ner idag. 3-färgkanaler upp till 16-bit vardera. Sen är det ändå fotoner, och optikelement det handlar om. Sensorer och kameror kanske blir bättre på brus osv, samt objektiven ger fortfarande samma begränsningar, men när det väl ska sparas ner till okomprimerade bilder är det samma typ data. Man kan givetvis öka sensorstorleken ännu mer, men det kombinerat med objektiv blir till slut till en begränsning i sig. Optiska vetenskapen kommer ha kvar sina begränsningar och omfattar redan kvantmekaniken. De nya digitala systemen är anpassade för att använda äldre objektiv och objektivfattning, ett 40 år gammalt kan vara guld värt i den branschen. I/O är fortfarande ett bekymmer i proffssystemen. De måste använda flash idag, och får relativt lite utrymme. I framtiden kanske de kan gå över till okomprimerat utan att vara uppkopplad till ett lagringssystem däremot. Naturens begränsningar är de samma i framtiden. Kvantmekanik är fortfarande begränsat av att du måste ha atomer att utgå från och en qubit kan fortfarande bara hålla upp till två värden och först måste vi börja placera ut atomer med sveptunnelmikroskåp som fortfarande har traditionell användning inom halvledarvetenskapen och nanovetenskapen innan vi kommer till qubits.

Analog bitrate? Skillnaden mellan vad? Filmrullar och video hanteras båda digitalt.

Tänkte mest på det med skillnad på grynigheten mellan IMAX och det andra formatet du skrev om, då drog ja lite paralleller på mängden relevant information för varje frame. Så kort sagt drog jag en litet parallell då jag inte har koll på film. Kanske bättre att säga att den ena har mindre skräpdata och störningar än den andra?

Som jag sa tidigare, jag har ingen koll på lins tekniker och analoga kameror, eller nästa ingen kamerateknik över huvud taget, bara saker som är väldigt basic, dock förstår även jag att det är andra hinder när det handlar analoga system och funktioner än den digitala även om de har saker gemensamt. Men tack för informationen, det är intressant.

Jo mena inte att det skulle bara släppas en telefon som klarar av det nästa år utan mer i en oförutsägbar framtid som lika gärna skulle kunna vara om hundra år. Sen har de något annat som de inte ens vet om det har någon tillämpning, det är en teknik som man tar ett par "syskon" partiklar av något slag, sen när man flyttar den ena så kommer den andra att röra sig lika dant i princip på en gång, oavsett distans mellan varandra. Finns grymt mycket man skulle kunna göra med det teoretiskt med minnen eller någon typ av kommunikation, kanske latensfria cacheminnen. Dock är det i så tidigt stadium att man vet inte ens om det skulle gå att använda till något och om det väl går så finns det ingen som vet när det skulle kunna gå att använda.

Om man bara kollar på hur utvecklingen har gått ifrån vakuumrörs datorerna och deras banbredd och funktion till datorer idag så är det en världsskillnad på en sådan nivå att ingen skulle kunna ha förutspått det. Lite det jag mena med att man inte ska säga aldrig.

Men jag får tacka för informationen, mycket trevlig läsning.

Edit: Dock när det kommer till batteriteknik så kan det mycket väl dyka upp något en hel del bättre men när är det nog inte många som vet. Lagringsmängden på biologiska "drives" är det enda vi vet vid det här laget, ingen banbredds information eller hur det ska drivas rent energimässigt, är svårt att säga i dagens läge. Det svåraste just när är väl krympning där ingen egentligen vet hur vi ska lösa det då rent vad vi vet idag är ju atomstorlek gränsen för vad man kan göra, men man ska inte vara så hundra procent säker på att det alltid kommer vara så men i den närmaste 30 åren? Antagligen.

Permalänk
Medlem
Skrivet av Wasted Hobbit:

Tänkte mest på det med skillnad på grynigheten mellan IMAX och det andra formatet du skrev om, då drog ja lite paralleller på mängden relevant information för varje frame. Så kort sagt drog jag en litet parallell då jag inte har koll på film. Kanske bättre att säga att den ena har mindre skräpdata och störningar än den andra?

Som jag sa tidigare, jag har ingen koll på lins tekniker och analoga kameror, eller nästa ingen kamerateknik över huvud taget, bara saker som är väldigt basic, dock förstår även jag att det är andra hinder när det handlar analoga system och funktioner än den digitala även om de har saker gemensamt. Men tack för informationen, det är intressant.

Jo mena inte att det skulle bara släppas en telefon som klarar av det nästa år utan mer i en oförutsägbar framtid som lika gärna skulle kunna vara om hundra år. Sen har de något annat som de inte ens vet om det har någon tillämpning, det är en teknik som man tar ett par "syskon" partiklar av något slag, sen när man flyttar den ena så kommer den andra att röra sig lika dant i princip på en gång, oavsett distans mellan varandra. Finns grymt mycket man skulle kunna göra med det teoretiskt med minnen eller någon typ av kommunikation, kanske latensfria cacheminnen. Dock är det i så tidigt stadium att man vet inte ens om det skulle gå att använda till något och om det väl går så finns det ingen som vet när det skulle kunna gå att använda.

Om man bara kollar på hur utvecklingen har gått ifrån vakuumrörs datorerna och deras banbredd och funktion till datorer idag så är det en världsskillnad på en sådan nivå att ingen skulle kunna ha förutspått det. Lite det jag mena med att man inte ska säga aldrig.

Men jag får tacka för informationen, mycket trevlig läsning.

Kvantmekanisk sammanflätning har inget med bandbredd att göra och kan inte användas för att överföra information snabbare än ljusets hastighet. Det är åtminstone en tes som inte är bevisad. Den gällande teorin är att det inte går att använda för att föra över information snabbare än ljusets hastighet.

Du pratade om 5-30 år, det är en fullt överblickbar framtid. För trettio år sedan hade vi mobiltelefoner och digitala kameror t.ex. Problemen är delvis I/O-bandbredd inte DRAM. Även mobila enheter klarar flera GB/s (ska man behandla data i cpun, flytta till gpun osv kan det bli svårare att få det räcka till) i minnesbandbredd, diskreta GPUer har flera hundra GB/s. ENIAC kanske hade bara 500 flops, men dess motsvarighet till transistorer var inte 14 nm. Bara vakuumrör är flera cm stora, kräver utrymme för kablage och kylning utöver det. En väteatom är 0.1nm och atomer finns i storlekar upp till ca 0.5nm. Halvledare blir svårt när de kommer ner till 5-10nm. Finns inte miljontals magnituder kvar. Ungefär som att du inte kan bygga ett kärnkraftverk som producerar flera miljoner eller ens tiotals gånger effekten av dagens (40 år gamla) och lösa energiförsörjningen på det sättet, finns det gott om begränsningar här i världen. Fysiken och dess lagar har hängt med länge nu. Utan att helt ersättas av något annat. För 30 år sedan hade vi redan mikrochip och Moores lag. Problemet är att den inte fortsätter efter ~10nm. Även med sveptunnelmikroskåp kan man inte gå jättemycket längre. Nu kan vi inte gå mycket längre än chip som är ungefär halva storleken (om man tänker att ett chip skulle krympas med kommande teknik), samtidigt ökar läckströmmar och annat som gör att man skulle öka storleken för att kompensera och inte automatiskt spara in något på effektförbrukningen. Men vi hade redan en teori om hur kraftig elektronik kunde bli årtionden framåt när det gäller 30 år sedan. I dag är det betydligt mer tveksamt att utvecklingen inom det området skulle gå i sådan rasande takt.

Sen kunde man byggt in kompression eller liknande för att komma runt sådana I/O-problem, grafikkort har börjat göra det t.ex. T-forden var t.ex. långt från effektiv och låg inte nära den teoretiska termodynamiska gränsen för en motor i stål, därför kan du med motsvarande bränsleförbrukning driva en motor på mer än 10 gånger effekten idag, men när du nått gränsen (ca 35% verkningsgrad för den typen) är den nådd. Sen måste man öka bränsleförbrukningen för mer effekt. På mobila prylar kan du i motsats däremot inte öka effektförbrukningen på, gör du det så måste processorn ändå trottla ner sig. Tar NAND för mycket effekt så tar batteriet slut innan du hinner spela in någon filmsnutt (eller åtminstone behöver du byta batteriet efter) och för att få in kraftigare grejer har de ökat storleken för att få plats med större batterier. En RED-kameras batteri är på 37Wh per pack för minsta batteriet och 89Wh för en kraftigare variant, och du kan köra flera till kameran, där gäller upp till 4 st för de mindre och 2 st för de större, de första kamerorna hade ett stort på 153Wh, en mobiltefon har 5-11Wh att röra sig på. Där har du inget utrymme för processor, skärm plus högprestanda SSD. Även om allt blir mycket bättre i framtiden så finns det nog inte de närmsta åren utrymme så att det passar användningsområdet om de skulle ha de funktionerna. Komprimerad skakig högupplöst video som gimmick däremot, absolut.

Permalänk
Medlem

Litiumjon-tekniken har en utveckling sedan 70-talet och har spöat konkurrerande teknik på marknaden. Problemet med att stoppa in mer energi i cellerna är säkerheten också. Vi pratar ju samma energi som sprängmedel om vi ökar energidensitet några gånger till. Det ska ju dessutom gå att ladda cellerna, inte bara använda kemisk energi som stoppats in i dem som t.ex. engångsbatterier. Redan idag så tillåter inte flertalet länder att man postar/fraktar litiumjon-batterier med flygpost p.g.a säkerhetsrisken. Nu har ju inte batterier något att göra med 4K Blu-ray i vilket fall, inte fören de eventuellt tillåter laptops spela upp det åtminstone.

Permalänk
Skrivet av Petterk:

Kvantmekanisk sammanflätning har inget med bandbredd att göra och kan inte användas för att överföra information snabbare än ljusets hastighet. Det är åtminstone en tes som inte är bevisad. Den gällande teorin är att det inte går att använda för att föra över information snabbare än ljusets hastighet.

Du pratade om 5-30 år, det är en fullt överblickbar framtid. För trettio år sedan hade vi mobiltelefoner och digitala kameror t.ex. Problemen är delvis I/O-bandbredd inte DRAM. Även mobila enheter klarar flera GB/s (ska man behandla data i cpun, flytta till gpun osv kan det bli svårare att få det räcka till) i minnesbandbredd, diskreta GPUer har flera hundra GB/s. ENIAC kanske hade bara 500 flops, men dess motsvarighet till transistorer var inte 14 nm. Bara vakuumrör är flera cm stora, kräver utrymme för kablage och kylning utöver det. En väteatom är 0.1nm och atomer finns i storlekar upp till ca 0.5nm. Halvledare blir svårt när de kommer ner till 5-10nm. Finns inte miljontals magnituder kvar. Ungefär som att du inte kan bygga ett kärnkraftverk som producerar flera miljoner eller ens tiotals gånger effekten av dagens (40 år gamla) och lösa energiförsörjningen på det sättet, finns det gott om begränsningar här i världen. Fysiken och dess lagar har hängt med länge nu. Utan att helt ersättas av något annat. För 30 år sedan hade vi redan mikrochip och Moores lag. Problemet är att den inte fortsätter efter ~10nm. Även med sveptunnelmikroskåp kan man inte gå jättemycket längre. Nu kan vi inte gå mycket längre än chip som är ungefär halva storleken (om man tänker att ett chip skulle krympas med kommande teknik), samtidigt ökar läckströmmar och annat som gör att man skulle öka storleken för att kompensera och inte automatiskt spara in något på effektförbrukningen. Men vi hade redan en teori om hur kraftig elektronik kunde bli årtionden framåt när det gäller 30 år sedan. I dag är det betydligt mer tveksamt att utvecklingen inom det området skulle gå i sådan rasande takt.

Sen kunde man byggt in kompression eller liknande för att komma runt sådana I/O-problem, grafikkort har börjat göra det t.ex. T-forden var t.ex. långt från effektiv och låg inte nära den teoretiska termodynamiska gränsen för en motor i stål, därför kan du med motsvarande bränsleförbrukning driva en motor på mer än 10 gånger effekten idag, men när du nått gränsen (ca 35% verkningsgrad för den typen) är den nådd. Sen måste man öka bränsleförbrukningen för mer effekt. På mobila prylar kan du i motsats däremot inte öka effektförbrukningen på, gör du det så måste processorn ändå trottla ner sig. Tar NAND för mycket effekt så tar batteriet slut innan du hinner spela in någon filmsnutt (eller åtminstone behöver du byta batteriet efter) och för att få in kraftigare grejer har de ökat storleken för att få plats med större batterier. En RED-kameras batteri är på 37Wh per pack för minsta batteriet och 89Wh för en kraftigare variant, och du kan köra flera till kameran, där gäller upp till 4 st för de mindre och 2 st för de större, de första kamerorna hade ett stort på 153Wh, en mobiltefon har 5-11Wh att röra sig på. Där har du inget utrymme för processor, skärm plus högprestanda SSD. Även om allt blir mycket bättre i framtiden så finns det nog inte de närmsta åren utrymme så att det passar användningsområdet om de skulle ha de funktionerna. Komprimerad skakig högupplöst video som gimmick däremot, absolut.

Jag skrev aldrig om enbart 5-30år, påpeka bara att forskare vill kunna få funktionella kvantdatorer mellan 2020-2040 och tog sedan upp ett par tekniker som inom en relativt nära framtid kan göra stora förändringar. Jag skrev generellt mest om det som ett svar på att du skrev "aldrig", aldrig i sammanhang med obestämd framtid skulle jag säga inte direkt är den bästa kombon.

Kvantmekanisk sammanflätning var ett dålig exempel av mig då jag inte har följt det särskilt bra, det mesta jag vet är av en gammal dokumentär som handlade om "teleportering" då det togs upp av någon anledning.

Sen är ju en förbränningsmotor inte direkt supereffektiv i sig självt och inte heller är de 40 år gamla kärnreaktorerna, sen att även dagens kärnkraftverk genererar energi med vattenångor och en turbin är inte direkt det mest effektiva det heller. Sen om man ska jämföra effektivitet på gamla och nya reaktorer så kan man se att de nya kan återanvända majoriteten av bränslet vilket är helt omöjligt för de gamla, speciellt de som byggdes för att framställa bränsle till kärnvapen.

Sen vet jag att krympningen är ett enormt problem, vid 2025 förväntas man att man har nått sin gräns om inte tidigare och hur vi löser det är fortfarande helt okänt. Kvantdatorer ska kunna hjälpa med vissa saker men krympningsproblemen blir densamma. Sen är det ju problemet med ljusets hastighet, och det är något som kan bli ännu mer svårknäckt.

Och när det kommer till fysiken säger nja, visst de grunder och en hel del avancerade grejer har varit densamma väldigt länge och kommer nog fortsätta att vara så bra länge till men forskning i fysik stöter på nya saker hela tiden, mycket som bara är på papper och är stora kansken och annat som vi "vet" hur det är på papper men har ingen tillämpning utanför det. Saker som negativ massa, böjning av tid och rum. Så nya saker hittas i de fälten hela tiden, om vi kommer ha nytta utav dem eller inte är omöjligt att säga förens man är där. Sen har vi den teknologiska singulariteten som är ett stort kanske som kan förändra allt, men om det är ens möjligt vet vi inte. Den förväntas inträffa emellan 2045-2100.

För om vi stannar vi att krympningen blir omöjlig och ljuset inte är snabbt nog och att allt slutar med det, då kommer all teknik bli ganska tråkig efter vi har kommit dit. Allting har sin gräns och när vi kommer dit så byter man teknik och löser de problemen, jag tror knappast vi har nått slutstationen på vad som är möjligt rent tekniskt.

Permalänk
Medlem
Skrivet av Wasted Hobbit:

Jag skrev aldrig om enbart 5-30år, påpeka bara att forskare vill kunna få funktionella kvantdatorer mellan 2020-2040 och tog sedan upp ett par tekniker som inom en relativt nära framtid kan göra stora förändringar. Jag skrev generellt mest om det som ett svar på att du skrev "aldrig", aldrig i sammanhang med obestämd framtid skulle jag säga inte direkt är den bästa kombon.

Kvantmekanisk sammanflätning var ett dålig exempel av mig då jag inte har följt det särskilt bra, det mesta jag vet är av en gammal dokumentär som handlade om "teleportering" då det togs upp av någon anledning.

Sen är ju en förbränningsmotor inte direkt supereffektiv i sig självt och inte heller är de 40 år gamla kärnreaktorerna, sen att även dagens kärnkraftverk genererar energi med vattenångor och en turbin är inte direkt det mest effektiva det heller. Sen om man ska jämföra effektivitet på gamla och nya reaktorer så kan man se att de nya kan återanvända majoriteten av bränslet vilket är helt omöjligt för de gamla, speciellt de som byggdes för att framställa bränsle till kärnvapen.

Sen vet jag att krympningen är ett enormt problem, vid 2025 förväntas man att man har nått sin gräns om inte tidigare och hur vi löser det är fortfarande helt okänt. Kvantdatorer ska kunna hjälpa med vissa saker men krympningsproblemen blir densamma. Sen är det ju problemet med ljusets hastighet, och det är något som kan bli ännu mer svårknäckt.

Och när det kommer till fysiken säger nja, visst de grunder och en hel del avancerade grejer har varit densamma väldigt länge och kommer nog fortsätta att vara så bra länge till men forskning i fysik stöter på nya saker hela tiden, mycket som bara är på papper och är stora kansken och annat som vi "vet" hur det är på papper men har ingen tillämpning utanför det. Saker som negativ massa, böjning av tid och rum. Så nya saker hittas i de fälten hela tiden, om vi kommer ha nytta utav dem eller inte är omöjligt att säga förens man är där. Sen har vi den teknologiska singulariteten som är ett stort kanske som kan förändra allt, men om det är ens möjligt vet vi inte.

För om vi stannar vi att krympningen blir omöjlig och ljuset inte är snabbt nog och att allt slutar med det, då kommer all teknik bli ganska tråkig efter vi har kommit dit. Allting har sin gräns och när vi kommer dit så byter man teknik och löser de problemen, jag tror knappast vi har nått slutstationen på vad som är möjligt rent tekniskt.

Kvantprickar som TVs har börjat använda nu för att förbättra LED-belysningen upptäcktes t.ex. 81. Det var tidigare inte ett känt/prövat kvantmekanisk fenomen. Teknik är oftast känt långt innan det kan användas till mer än att säga att något är möjligt. Om hundra år kommer dagens standarder ha ersatts och vi kommer inte förhålla oss till UHD-standarder, då kanske det är möjligt med en portabel enhet som spelar in så pass högupplöst video i rå-format, men troligen inte okomprimerat. T.ex. kanske de har snabbladdning via induktion som du kommer åt överallt som du kan använda om du filmar för mycket med den hypotetiska produkten. 35mm film har hängt med sedan 1800-talet, färgfilm på 35mm 80 år. Utvecklingen har inte varit mer magisk än så. Du kommer nog inte leva om hundra år och ha tillgång till hittepåtekniken, alltså är det relevant till den förväntade livslängden, ytterst få av de som lever idag kommer uppleva 2105 års teknik, aldrig i universums begränsade tid gav jag inget uttryck för :). På halvledarteknik t.ex. nere på 5nm så vore det troligen en ganska stor nackdel att göra på det sättet både onödigt mycket I/O-bandbredd som behövs och onödigt mycket lagring, och säkert en hel del batteri.

Inte förväntar jag mig att kvantdatorer och annan kvantmekanik skulle ersätta halvledare så som vi känner de idag den närmsta tiden, experimentella chip så som D-wave Two använder traditionell halvledarteknik som agerar I/O till ett gitter om 512 Qubits som kräver att kretsen kyls till -273°C, och är alltså en supraledare. Potentiella användningsområden är för lite andra saker och det krävs såklart att du skriver speciella algoritmer. Något inom generella kvantdatorer har inte hänt än. Det är i princip ett teoretiskt fällt som inte är bevisade teorier eller modeller. Även om man upptäcker något så är det lång tid mellan upptäckt och applikation. Vanliga halvledare byggda för ett specifikt problem (asic) är också för ett specifikt problem såklart mycket snabbare än att göra beräkningar på CPU eller GPU, men sånt hjälper inte I/O-begränsningar om vi t.ex. ska spara ut okomprimerad data. Däremot ger det mycket utveckling att komma. Även om vi inte kan krympa kretsar.

Ångturbiner är termiskt väldigt effektiva, du kan få ut 45% av effekten till el resterande kan du använda till fjärrvärme. Vilket gör en del äldre reaktorer sett till den termiska effekten effektivare än de nya som byggs idag. Då vissa användes till fjärrvärme. Vi kör till viss del MOX i våra 30-40 åriga verk i Sverige redan och kommersiella reaktorer som bränner betydligt mer av bränslet finns inte. Den kommande fjärde generationen förväntas också ha lägre termisk effekt och alltså lägre elproduktion per verk. Bara en av kategorin fjärde generation är breeder som bränner det mesta bränslet. Den andra gör det inte. Ska vi lösa till stor del världens energibehov behöver vi gå från ca 350 kärnkraftverk till tiotusentals. 85% av energiförbrukningen är fossil på den primära sidan. Det är rimligt att säga att vi inte kan ersätta den med annan produktion. Vi har inte ens löst problemen på större skala, och nanovetenskap har sin gräns när det gäller åt det mindre. Även om du kan arrangera ut enskilda atomer så behöver de sitta på ett substrat och vi behöver oftast grupper av atomer för att göra något, som i sin tur sitter ihop till transistor som i sin tur utgör grindar osv. Ungefär som det finns en gräns för hur mycket kraft du får ut av att bränna raketbränsle när du ska ut med en last utanför atmosfären, och du inte kemiskt kan stoppa in mer kraft i bränslet per kubik, så finns det mycket som inte kommer ha någon större utveckling i grunden. Inom rymdindustrin går de tillbaka till 60-talet för att hämta teknik.

Varför du tror dig vara begränsad av ljusets hastighet har jag ingen aning om, kretsar fungerar fint under/i ljusets hastighet och det är inga sträckor som utgör något problem. Latenser är oftast för att det tar ett antal cykler för att beräkna/göra något. Tvåvägs i realtid till andra planeter med minuter fördröjning kanske inte är något kul, men det har inget med halvledare att göra och sker bara till maskiner ändå. När det gäller konsumentelektronik måste den vara praktisk också. Subatomära fenomen kanske inte har så stor roll där.

Permalänk
Skrivet av Petterk:

Kvantprickar som TVs har börjat använda nu för att förbättra LED-belysningen upptäcktes t.ex. 81. Det var tidigare inte ett känt/prövat kvantmekanisk fenomen. Teknik är oftast känt långt innan det kan användas till mer än att säga att något är möjligt. Om hundra år kommer dagens standarder ha ersatts och vi kommer inte förhålla oss till UHD-standarder, då kanske det är möjligt med en portabel enhet som spelar in så pass högupplöst video i rå-format, men troligen inte okomprimerat. T.ex. kanske de har snabbladdning via induktion som du kommer åt överallt som du kan använda om du filmar för mycket med den hypotetiska produkten. 35mm film har hängt med sedan 1800-talet, färgfilm på 35mm 80 år. Utvecklingen har inte varit mer magisk än så. Du kommer nog inte leva om hundra år och ha tillgång till hittepåtekniken, alltså är det relevant till den förväntade livslängden, ytterst få av de som lever idag kommer uppleva 2105 års teknik, aldrig i universums begränsade tid gav jag inget uttryck för :). På halvledarteknik t.ex. nere på 5nm så vore det troligen en ganska stor nackdel att göra på det sättet både onödigt mycket I/O-bandbredd som behövs och onödigt mycket lagring, och säkert en hel del batteri.

Inte förväntar jag mig att kvantdatorer och annan kvantmekanik skulle ersätta halvledare så som vi känner de idag den närmsta tiden, experimentella chip så som D-wave Two använder traditionell halvledarteknik som agerar I/O till ett gitter om 512 Qubits som kräver att kretsen kyls till -273°C, och är alltså en supraledare. Potentiella användningsområden är för lite andra saker och det krävs såklart att du skriver speciella algoritmer. Något inom generella kvantdatorer har inte hänt än. Det är i princip ett teoretiskt fällt som inte är bevisade teorier eller modeller. Även om man upptäcker något så är det lång tid mellan upptäckt och applikation. Vanliga halvledare byggda för ett specifikt problem (asic) är också för ett specifikt problem såklart mycket snabbare än att göra beräkningar på CPU eller GPU, men sånt hjälper inte I/O-begränsningar om vi t.ex. ska spara ut okomprimerad data. Däremot ger det mycket utveckling att komma. Även om vi inte kan krympa kretsar.

Ångturbiner är termiskt väldigt effektiva, du kan få ut 45% av effekten till el resterande kan du använda till fjärrvärme. Vilket gör en del äldre reaktorer sett till den termiska effekten effektivare än de nya som byggs idag. Då vissa användes till fjärrvärme. Vi kör till viss del MOX i våra 30-40 åriga verk i Sverige redan och kommersiella reaktorer som bränner betydligt mer av bränslet finns inte. Den kommande fjärde generationen förväntas också ha lägre termisk effekt och alltså lägre elproduktion per verk. Bara en av kategorin fjärde generation är breeder som bränner det mesta bränslet. Den andra gör det inte. Ska vi lösa till stor del världens energibehov behöver vi gå från ca 350 kärnkraftverk till tiotusentals. 85% av energiförbrukningen är fossil på den primära sidan. Det är rimligt att säga att vi inte kan ersätta den med annan produktion. Vi har inte ens löst problemen på större skala, och nanovetenskap har sin gräns när det gäller åt det mindre. Även om du kan arrangera ut enskilda atomer så behöver de sitta på ett substrat och vi behöver oftast grupper av atomer för att göra något, som i sin tur sitter ihop till transistor som i sin tur utgör grindar osv. Ungefär som det finns en gräns för hur mycket kraft du får ut av att bränna raketbränsle när du ska ut med en last utanför atmosfären, och du inte kemiskt kan stoppa in mer kraft i bränslet per kubik, så finns det mycket som inte kommer ha någon större utveckling i grunden. Inom rymdindustrin går de tillbaka till 60-talet för att hämta teknik.

Varför du tror dig vara begränsad av ljusets hastighet har jag ingen aning om, kretsar fungerar fint under/i ljusets hastighet och det är inga sträckor som utgör något problem. Latenser är oftast för att det tar ett antal cykler för att beräkna/göra något. Tvåvägs i realtid till andra planeter med minuter fördröjning kanske inte är något kul, men det har inget med halvledare att göra och sker bara till maskiner ändå. När det gäller konsumentelektronik måste den vara praktisk också. Subatomära fenomen kanske inte har så stor roll där.

Då är vi på helt samma bana. =3 Fusions teknik är något de jobbar febrilt på men just nu kall fusion inget mer än en dröm och vi har inget material som skulle kunna hantera en var fusion men om de skulle kunna få fart på något liknande så skulle det vara toppen.

Ja de kollar igen på saker som "atombombs" drivna motorer fast i annat stuk, samt massa annat roligt, de försöker även se om man kan framställa negativ massa för att böja tid och rum för att ta sig fram, fast även om det visar sig att existera tror jag knappast jag får leva tills de har ett fungerande fordon som drivs på det sättet.

Ljusets hastighet har mindre påverkan som gräns för kretsarna i sig men mer på långdistans kommunikation, av den anledningen kan man t.ex ha en grymt lätt apparat som alla tunga realtids kalkyleringar körs i vad man kan kalla "super moln", Samma anledning som att den enda lösningen till att ha streamade speltjänster och liknande är att ha ytterst många servar så nära kunderna som möjligt och relativt låg bitrate och därför ingen nämnvärd bildkvalité, vilket inte direkt är en toppen lösning men är ett måste. Visst banbredden kan uppgraderas men inte hastigheterna på signalerna. Av samma anledning kan det vara kast att lira med kompisar i Australien.

När jag tänkte effektivitet så tänkte jag i jämförelse med 100% teoretisk effektivitet med 0% energi förlust. Tekniken har blivit bra mycket bättre än för länge sedan men långt kvar innan vi undviker att saker går till spillo. Finns säkert effektivare sätt än just turbiner men om de ekonomiska eller praktiska i det här fallet är en annan fråga. Sen där har man en teknik som har följt med länge, turbiner. Sen när det gäller nya och gamla kärnkraftsverk så är det även en trade off med säkerhet som är något av huvudpunktera. När det är säkrare kan man ha fler. Visst skulle de säkert kunna göra större reaktorer som brassar på mer men tror att säkerheten kom först i det fallet. De riktigt gamla reaktorerna är designade för ubåtar och liknande men som de förstorade upp vilket ledde till problem som investerarna inte vill veta av, samma reaktor som Tjernobyl körde med var också lite rolig, de var inte särskilt super säkra i jämförelse med de var inte heller poängen, de skulle vara lätt att komma åt stavarna så man skulle kunna massproducera kärnvapen så snabbt som möjligt. Sen var ju reaktor 4 ett special fall som var felkonstruerad av byråkratiska anledningar. Men som energianvändandet ser ut idag finns det ingen ensam lösning, speciellt om U länder börja närma sig vår levnadsstandard.

Sen när man snackar fossilt så vet jag mycket väl att majoriteten av all världsenergi körs på det fast det är ju något som kommer inom en snar framtid slå hårt i väggen, mycket begränsade resurser och bara kostnaden i människoliv årligen för fossila bränslen är lagom stor så att säga. Sen har vi gått förbi en "point of no return" på vissa miljöproblem som vi har skapat och som vi inte vet hur någonsin ska kunna lösa.

Klart det är helt nytt, var väl inte allt för länge sedan de för "första" gången kunde flytta runt en atom i "real tid" och ha allt på skärm och kunde skriva texter osv med dem. Subatomär teknik kommer nog lämpa sig fint till konsument elektronik i sinom tid när det har blivit "billigt" att massproducera och de har hittat en alldaglig funktion för det som är praktisk, nog långt kvar dit dock. Inte något direkt man ska vänta på. =P
Väldigt få grejer utvecklas från grunden med all sin teknik med inriktning vanlig konsument, utan det blir ju oftast bra många år senare när någon har hittat något användbart för gemene man med tekniken och kan se till att den blir billig nog för Svensson att köpa.

Sedan hur länge vi kommer leva är en medicinsk fråga, det kan jag ännu mindre om, dock ska den första personen som ska 150år redan blivit född tror de ju, sen om man kan 3d printar organ och ersätta kroppsdelar till höger och vänster vilket jobbar på nu så är hjärnan största hindret för framtiden, det blir nog inte lite svårare skulle jag gissa på.

Edit: Sen just en sak som kan göra framtiden väldigt grumlig är AI, om vi är kapabel till att skapa självmedveten AI som kanske med någon möjlighet vara "smartare" och effektivare än oss kan vad som helst hända, vi har ingen aning vad det skulle leda till. Vi har redan AI som kan lära sig själv och genom det göra enstaka uppgifter mycket snabbare och bättre än vad vi kan. Stephen Hawking beskrev utvecklingen av AI i dagens läge som om utomjordingar skickade en signal och sa "hej vi kommer och hälsar på om 40 år" och vårat svar var i princip "okej" och sedan fortsatte vi med det vi höll på med, precis som om det problemet skulle vi ta hand om när de väl kom fram.

Permalänk
Medlem

Förväntad medellivslängd är ändå ett hyfsat mått och gäller de som föds idag. Det finns andra prognoser för de som föds idag också. Även om varannan person som föds idag blir ~100 år så väntar jag mig i.a.f. att de som skriver på sweclockers forum levt i några år i alla fall. Förväntad livslängd för män idag är över 80 år, men var under 75 när jag föddes, och låg väl på runt 70 i 40-50 år.

Han som mer eller mindre orsaka Tjernobylkatastrofen hade också varit inblandad i en olycka med en reaktor i en ubåt och fått en stor strålningsdos tidigare, hade han inte gjort detta test så hade säkert reaktorn stått kvar och varit i drift idag. Sista RBMK i Litauen stängdes ju så sent som 31 december 2009, då med påtryckningar från EU. Ser dock inte vad RBMK har med deras marina system att göra. De har inte ens samma moderator som RBMK. VVER anses däremot ha viss koppling till de marina designerna och utvecklades av samma designbyrå som många av de mer olycksbenägna flytande metallkylda för ubåtar, och är en mycket respekterad reaktordesign idag. Finnarna överväger den igen. Sen producerade Sverige troligen en viss mängd vapenplutonium (upparbetat) från en av våra tidiga reaktorer, som vi inte gjorde oss av med fören 2007, trotts att vi skrev under icke-spridningsavtalet 68. Icke-spridning är ingen bra ursäkt för att neka länder tillgång till kommersiella verk däremot. Mindre reaktorer producerar bränsle mycket finare än kommersiella verk. Hur som helst är det bara fossila bränslen som kvarstår när inte en pipedream om att kärnkraft ska driva allt uppnås. Även vi som har bäst förutsättningar i världen som Sverige och Norge använder relativt mycket fossila bränslen. Många länder har nästan inga förutsättningar för vattenkraft och väldigt lite skog att bränna upp. Verkningsgrad på kärnkraftverk är helt enkelt elproduktion / termisk effekt, plus eventuell användningen av värmen, nya reaktortyper ändrar egentligen inget där. Gamla verk får dessutom utbytta/nya ångturbiner och generatorer.

Ångturbiner är effektiva och ångturbin tillsammans med gasturbiner i samma kraftverk utgör bland de mest effektiva kraftverken vi kan bygga, där 60% blir el och vi kan nå en verkningsgrad närmare 90% vid utnyttjade av fjärrvärme/värme utöver el. Även om de bygger fjärde generationens übermoderna kärnkraftverk så är termisk effekt > el densamma som dagens anläggningar, och det är inte så stor sannolikhet att värmen används till fjärrvärme/processvärme. Effektivare värmemotor än ångturbinen hittar du inte för jobbet, åtminstone inte när du inte har något bränsle att bränna. Även inom solkraft är några av de mest effektiva systemen utrustade med ångturbin. Största termiska solkraftverket (tar upp 14 km2) hittills försågs med ångturbiner från Finspång. Halvledarlösning trotts att Seebeck-effekten varit känd sedan 1821 är långt ifrån att kunna tävla här. Ny teknik kanske gör att de kan få kommersiella lösningar inom kraftgeneration, men det är inget omvälvande som är effektivare än konkurrenterna.

Kärnkraft står för några procent av energibehovet i världen, t.ex. biomassa har inte ens teoretisk potential att ersätta kol, olja och gas. Förbrukningen av de senare ökar fortfarande samtidigt som energikonsumtionen i helhet går upp.

Sen är inte ljusets hastighet anledningen att du får flera hundra ms i ping till Australien. Däremot anledningen till att du inte kan spela på satellitbaserat internet.

Permalänk
Medlem
Skrivet av Ixos:

Då är det möjligt att jag missförstått informationen om youtube.

Svaret jag fick från Netflix var att total bitrate från både ljud och bild låg på 3GB / timme.

Det får iaf jag till över 6mpbs (6.8 för att vara exakt, men beror på om man räknar på GB eller GiB), låter rimligt, runt 6mpbs för bild och runt 0.5 för ljud.

Skickades från m.sweclockers.com

Permalänk
Skrivet av Petterk:

Förväntad medellivslängd är ändå ett hyfsat mått och gäller de som föds idag. Det finns andra prognoser för de som föds idag också. Även om varannan person som föds idag blir ~100 år så väntar jag mig i.a.f. att de som skriver på sweclockers forum levt i några år i alla fall. Förväntad livslängd för män idag är över 80 år, men var under 75 när jag föddes, och låg väl på runt 70 i 40-50 år.

Han som mer eller mindre orsaka Tjernobylkatastrofen hade också varit inblandad i en olycka med en reaktor i en ubåt och fått en stor strålningsdos tidigare, hade han inte gjort detta test så hade säkert reaktorn stått kvar och varit i drift idag. Sista RBMK i Litauen stängdes ju så sent som 31 december 2009, då med påtryckningar från EU. Ser dock inte vad RBMK har med deras marina system att göra. De har inte ens samma moderator som RBMK. VVER anses däremot ha viss koppling till de marina designerna och utvecklades av samma designbyrå som många av de mer olycksbenägna flytande metallkylda för ubåtar, och är en mycket respekterad reaktordesign idag. Finnarna överväger den igen. Sen producerade Sverige troligen en viss mängd vapenplutonium (upparbetat) från en av våra tidiga reaktorer, som vi inte gjorde oss av med fören 2007, trotts att vi skrev under icke-spridningsavtalet 68. Icke-spridning är ingen bra ursäkt för att neka länder tillgång till kommersiella verk däremot. Mindre reaktorer producerar bränsle mycket finare än kommersiella verk. Hur som helst är det bara fossila bränslen som kvarstår när inte en pipedream om att kärnkraft ska driva allt uppnås. Även vi som har bäst förutsättningar i världen som Sverige och Norge använder relativt mycket fossila bränslen. Många länder har nästan inga förutsättningar för vattenkraft och väldigt lite skog att bränna upp. Verkningsgrad på kärnkraftverk är helt enkelt elproduktion / termisk effekt, plus eventuell användningen av värmen, nya reaktortyper ändrar egentligen inget där. Gamla verk får dessutom utbytta/nya ångturbiner och generatorer.

Ångturbiner är effektiva och ångturbin tillsammans med gasturbiner i samma kraftverk utgör bland de mest effektiva kraftverken vi kan bygga, där 60% blir el och vi kan nå en verkningsgrad närmare 90% vid utnyttjade av fjärrvärme/värme utöver el. Även om de bygger fjärde generationens übermoderna kärnkraftverk så är termisk effekt > el densamma som dagens anläggningar, och det är inte så stor sannolikhet att värmen används till fjärrvärme/processvärme. Effektivare värmemotor än ångturbinen hittar du inte för jobbet, åtminstone inte när du inte har något bränsle att bränna. Även inom solkraft är några av de mest effektiva systemen utrustade med ångturbin. Största termiska solkraftverket (tar upp 14 km2) hittills försågs med ångturbiner från Finspång. Halvledarlösning trotts att Seebeck-effekten varit känd sedan 1821 är långt ifrån att kunna tävla här. Ny teknik kanske gör att de kan få kommersiella lösningar inom kraftgeneration, men det är inget omvälvande som är effektivare än konkurrenterna.

Kärnkraft står för några procent av energibehovet i världen, t.ex. biomassa har inte ens teoretisk potential att ersätta kol, olja och gas. Förbrukningen av de senare ökar fortfarande samtidigt som energikonsumtionen i helhet går upp.

Sen är inte ljusets hastighet anledningen att du får flera hundra ms i ping till Australien. Däremot anledningen till att du inte kan spela på satellitbaserat internet.

Oavsett om vi kan göra oss av med fossila bränslen eller inte så kommer det själv leda till sitt slut, den resursen är långt ifrån oändlig och som det ser ut nu kommer den i alla fall vara slut inom min livstid. Sen så är det andra enorma problem med fossila bränslen så även om den resursen var oändlig skulle vi ta död på oss själva till slut.

De tidigaste Amerikanska kärnkraftverken var baserade på modellen som var i ubåtar. De som va i ubåtarna var det inge fel på, otroligt stabila men när det skulle skalas upp för att användas i kärnkraftverk så skalade man upp först och säkerheten kom i efterhand för att det skulle gå fort, de kärnkraftverken är inte direkt super stabila alla gånger.

Tjernobyl hade så många problem rent tekniskt med fusk byggen och mycket annat, även om inte han var där så skulle det lika gärna kunna hända någon annan. Samt att säga emot sin överordnad var inget man gjorde i Soviet om du inte var bered på att förlora jobbet och om du hade otur, ditt liv. Sen var ju bromsmekaniken riktigt dumt konstruerad och kunde absolut inte stoppa en härdsmälta.

Han som sa åt dem att göra det mer extrema testet och som har fått skulden gjorde egentligen inget fel på det sättet, kärnkraftverkets specifikationer kände han väl till och han visste att det skulle klara av testet, men den var felkonstruerad och saker gick snabbt åt helvete.

Dock ser det ut som fusionskraft är lite på G när man ser saker som ITER som ska ha fullskaliga tester runt 2027 som ska kunna leda in till riktigt kraftverk.

Sen en liten rolig grej, läste en artikel för någon dag sedan och såg att så sent som i somras/höstas så lyckades dom överföra en qubit med hjälp av kvant sammanflätning över en distans på 3 meter, testet kunde återupprepas med 100% säkerhet.

Permalänk
Medlem

Fossila bränslen är fortfarande i sin tillväxtfas. Olja har haft det svårare, men peak oil stämmer inte och har inte inträffat. När olja blir dyrare så har de också vänt sig till att exploatera andra källor som gas och kol som är svinbilligt. Vi kan först börja minska vår användning av fossila bränslen när vi börjar minska vår totala energianvändning i världen. Även länder som Sverige som i stort sett avvecklat eldningsoljan är ändå i hög grad beroende av fossila bränslen och transportsystemet skulle inte fungera utan det. Det är bara tåg, trådbussar och spårvagnar vi kan driva på el och med vettig verkningsgrad.

Alla ryska RBMK körs fortfarande, sista i Ignalina (Litauen) stängdes 31 december 2009. Det var inget speciellt med just Tjernobyl 4. De tre andra Tjernobylverken fortsatte köras i några år till. Sista stängde 2000. Bristande kunskap och rutiner var däremot tillräckligt för att skapa olyckan. Kyl och säkerhetssystem är uppgraderade sen dess däremot. Nödstoppet var så konstruerat att det ökade effekten initialt, så det är ingen reaktor man vill lämna utan kylning eller utan alla säkerhetssystem som de gjorde. Men testet som gjordes hade gått runt många säkerhetssystem de då hade och kontrollstavar hade manuellt dragits ur reaktorn. Att nödstopp kunde höja effekten kändes till däremot hade inte informationen spridits och inte skulle nödstoppet ha slagits på vid testet, han som utförde testet var inte särskilt väl insatt i typen. Han hävdar dock att det är p.g.a. konstruktionsfel, men det är ändå handhavandet som orsakade olyckan. Det var ett experiment så det fanns alltså okända variabler och var inget säkert kort. Lämnar du andra reaktortyper utan kylning så kommer de också gå ner i härdsmälta och explodera, så som Fukushima också gjorde. Går reaktorinneslutningen sönder så kommer det bli utsläpp, med en bra reaktorbyggnad ska de däremot inte hamna utanför och det saknade RBMK-typen.

Våra svenska reaktorer är baserade på amerikansk design eller är amerikanska reaktorer, de har ändå skalat väl och på senare år har flera också höjt effekten, inte bara med nya turbiner och generatorer utan också termiskt. Kan om investeringar görs ändå underhållas och byggas om under många år till. Med ytterligare moderniseringar. Trotts att de togs i drift för mellan 43 - 29 år sedan och alltså ritades på 60 och 70-talet. Verk som uppfördes på 50-talet är sedan länge avstängda. GE och Westinghouse byggde militära reaktorer, deras reaktorer från slutet av 60-talet har lyckats väl för det. Ryska VVER som kommer från designbyrån som byggde reaktorer för ubåtar har chans att lyckas även i fjärde generationen, så väl som 3+. Förutom högre temperatur och högre breeder-ratio som kommer i fjärde generationen främst så kommer passiva säkerhetssystem. I grunden har de däremot få nya idéer. Toshiba/Westinghouse har fortfarande förslag baserade på Aseas reaktorkonstruktion. Med takten vi bygger i kommer vi aldrig ha tusentals reaktorer. Vi lär ligga kvar kring 450 ett tag snarare. Ett par hundra fler aktiva på sikt kanske. Med tanke på att vi fortfarande ökar energikonsumtionen så lär snarare kärnkraftens betydelse minska.