Helgsnack: Dina förväntningar på framtidens komponenter?

Permalänk
Redaktion
Nyhetsredaktör
Skrivet av Omega5509:

drömmer om fortsatt utveckling på uppskalning. för att få ner temperaturen i lägenheten men ändå bibehålla prestanda/öka prestanda väsentligt. gamingdatorer drar så våldsamt mycket ström nuförtiden blir ju bastu hemma.

Tror också på den. Och att fokuset rent allmänt kommer ligga på att utveckla mer strömsnåla grejer. Osäker dock på hur prisutvecklingen kommer att se ut långsiktigt.

Permalänk
Medlem
Skrivet av Shane Vendrell:

Grafikkort med kylare som har standard 80/92/120/140 mm fläktar som enkelt går att byta.

Lagom stora skärmar med hög ppi > 220 typ och hög Hz.

Bra trådlösa spelmöss med aaa-batterier. Köper hellre med sladd än icke utbytbara batterier.

Körde mitt gamla 1080Ti med en eftermarknadskylare som körde 2x 120mm, håller helt med. Hade varit SÅ otroligt mycket lättare att bara byta en fläkt med sådana kylare + extremt mycket bättre kylförmåga.

Visa signatur

Ryzen 9 5900x 4.8ghz. 32GB DDR4 3600Mhz. Radeon 6800 XT. MSI Gaming Plus B550. 1000GB SN850 M.2. Noctua Nh-U14S. 1x 1024GB M.2 Kingston A2000. Seasonic Focus PX 850 Platinum. Fractal Design Define R6 USB-C. Predator XB273UGX.

Permalänk
Medlem

* ARM slår ut x86 på riktigt. Prestandaproblemen vi ser nu, åtgärdas av sig själva, efterhand Adobe och andra drakar bygger om sin mjukvara utan att luta sig på Intel MKL.

Övergången till ARM börjar med att man får samma laptop som idag, men lättare (mindre kyllösning) och med längre batteritid. Ganska snart märker dock marknadsförarna att journalisterna gärna sitter i solen på ett café när de testar maskinerna., och efter några iterationer, äter ljusstarka OLED-skärmar upp hela den ökade batteritiden.

* Ett efterföljande genombrott i batteriteknik (egentligen drivet av elbilsutvecklingen) återställer batteritiden. Laptoptillverkarna svarar med att öka skärmytan. Vikbara laptopskärmar dyker upp ~2026 och blir standard ~2029.

* Fler och mindre pixlar leder också till en omvälvning i hur man mäter prestanda för grafikkort. Kan man längre tala om grafikprestanda när pixlarna är interpolerade och "bara statistiskt sett rätt ("AI")?

Ett studentprojekt med ett "grafikkort" som visar "Myrornas krig" i 10000FPS på 20st 5k-skärmar, istället för vad-det-nu-var-för-spel-som-skulle-testas, illustrerar det absurda i att inte ha någon standard för acceptabla avvikelser.

* nVidia tar fram ett nytt 'retina'-liknande mått för prestanda. Specifikationen är 'öppen', men en del av kraven är en feature som bara finns på nVidia-kort och de nya N-sync-stämplade skärmarna.

* AMD tar fram en standard som är öppen på riktigt, och är baserad på input från JPEG och MPEG. Den sågas snabbt av förståsigpåare och nVidia-fans. En tung del i standarden baseras på hur ögat och hjärnan egentligen processar bildinformationen. Kritikerna skjuter i huvudsak ner den genom att hänvisa till att olika människor har olika bra syn, och bortser från att det missar poängen, när standarden ska appliceras på maskinen, inte på människan.

* Drivrutiner baserade på den nya standarden kan köra på laptop-APUer, men AMD har gjort misstaget att inkludera stöd även för äldre generationers APUer, med otillräcklig NPU-prestanda, så när de första verkliga prestandatesterna lanseras, verkar AMD på efterkälken, eftersom deras startfält (till stora delar 2 år gammalt) är långt efter nVidias mångdubbelt dyrare setups.

* Logitech hakar på Microsoft Recall och lanserar "AI"-tangentbord. Det är en glorifierad keylogger som kan spela upp tangenttryckningar.

* Konsument-backlash mot att de stora drakarna ser det som en produkt att studera vad vi redan gör, och sedan sälja det tillbaka till oss.

Fritt fabulerat. Var kul att låta tankarna vandra litet.

Visa signatur

Gammal och gnällig

Permalänk

Grafenlager med the magic angle för supraledande effekt i processorer eller photonic computation där optik används istället, gärna som PCIe-kort så det blir användbart för befintliga datorer.