Krönika: Mäktig början på den stora stagnationen

Permalänk
Medlem
Skrivet av Erik_T:

Nya tillverkningsnoder blir inte billigare om de inte används.
Den teknik och utrustning som behövs för nya tillverkningsnoder kostar väldigt att ta fram och konstruera i sig. De pengarna behöver företagen (i alla led) få tillbaka på något sätt. Om köper in utrustning för nya noder så finns det inte pengar att utveckla kommande generationer. Om utrustningen köps in men inte används så är massa pengar kastade i sjön.

Tyvärr har vi nog nått en punkt i datorutvecklingen (liksom i många andra teknikområden) där om det skall bli signifikant bättre så blir det dyrare.
För att komma runt det så krävs det någon slags ganska fundamentalt tekniskt/vetenskapligt genombrott. Något i stil med uppfinnandet av integrerade kretsar på sin tid.

Då antar vi ju i så fall att arkitekturerna i sig har nått en punkt där de inte kan bli så mycket bättre men det tror jag är fel. En bättre arkitektur borde vara en bättre arkitektur oavsett nod. Och i så fall borde det väl vara vettigare att låta konsumenterna släpa en nod eller två tills man sånt tillräckligt till server-kunder för att investeringen ska betala sig tänker jag.

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Medlem
Skrivet av Ozzed:

Då antar vi ju i så fall att arkitekturerna i sig har nått en punkt där de inte kan bli så mycket bättre men det tror jag är fel. En bättre arkitektur borde vara en bättre arkitektur oavsett nod. Och i så fall borde det väl vara vettigare att låta konsumenterna släpa en nod eller två tills man sånt tillräckligt till server-kunder för att investeringen ska betala sig tänker jag.

Förbättringar går alltid att göra, men det finns nog inte så himla mycket kvar att göra på arkitekturnivå heller. Inte utan att tänka om helt från början.

Om konsumenter tycker att nya produkter är för dyra så får de väl låta bli att köpa dem. Det är ingen som tvingar någon att köpa svindyra grafikkort, men ändå så verkar det alltid finnas folk som är villiga att stå i kö för att få betala begärda priser.

Permalänk
Medlem

Det känns som det kommer få bli mer "Work smarter not harder" framöver. Sen tror jag lite stagnation kan vara bra också för då får man längre livslängd på saker som annars hade blivit slött och gammalt efter 1-2år så mindre slit och släng vilket är bättre för miljön.

Det ju pengar och företag som driver utvecklingen så när den här "lätta" vägen tar slut så öppnar det ju verkligen upp för innovation vilket ska bli spännande att se.

Permalänk
Datavetare
Skrivet av Ozzed:

Då antar vi ju i så fall att arkitekturerna i sig har nått en punkt där de inte kan bli så mycket bättre men det tror jag är fel. En bättre arkitektur borde vara en bättre arkitektur oavsett nod. Och i så fall borde det väl vara vettigare att låta konsumenterna släpa en nod eller två tills man sånt tillräckligt till server-kunder för att investeringen ska betala sig tänker jag.

Fast här finns rätt starka kopplingar!

Ett aktuellt exempel är Intels bakportering av Sunny Cove (designad för 10 nm) till Cyprus Cove (Sunny Cove på 14 nm). Huvudanledningen att man kan designa mikroarkitekturer som gör mer per cykel är att man kan "slänga fler transistorer på problemet".

En förutsättning att kunna bygga mer komplexa mikroarkitekturer är ju att transistordensiteten ökar så inte kretsen blir för stor. I fallet Rocket Lake (Cyprus Cove) minskade man maximala antalet kärnor från 10 till 8, men det blev ändå den största desktop CPU-kretsen på mycket länge.

Så länge Moores lag var i full effekt var priset per area-enhet rätt konstant samtidigt som densiteten fördubblades var 18-24 månad.

Först havererade Dennard-scaling, man fick då börja utnyttja den högre densiteten till att stoppa in fler CPU-kärnor i stället för att skruva upp frekvensen.

Men redan tidigt i "multicore-eran" noterande man att en fördubbling av antalet kärnor hade inte i närheten samma effekt som att fördubbla prestanda per CPU-kärna.

En tummregel här är att det är mer värt att öka prestanda per kärna jämfört med att fördubbla antalet kärnor om man inom samma transistorbudget kan skruva upp prestanda per kärna 20 % eller mer (en cutoff som rimligen minskar för desktop allt eftersom antalet kärnor kryper uppåt, på "molnsidan" skalar det bättre då man ändå delar upp varje CPU i rätt små isolerade instanser).

Vi har redan passerat en otrevlig milstolpe i "death of Moore's law". Priset per area-enhet ökar numera rätt snabbt, det är betydligt dyrare att bygga en 100 mm² krets på TSMC 5 nm är det var att bygga den på TSMC 7 nm.

Nästa milstolpe, som nu ligger väldigt nära i tid, blir ännu mer otrevlig. Det är när priset räknat per transistor inte längre minskar vid nyare noder. I det läget är Moores lag ur alla rimliga aspekter stendöd.

Under dessa förutsättningar blir det då väldigt svårt att bygga snabbare kretsar utan att också göra dem dyrare. Visst kan man göra lite småförbättringar av mikroarkitetur inom ramen av konstant transistorbudget, men det blir minimala skillnader.

Tittar vi på dagens mikroarkitekturer har det ju krävts rejäla ökningar i transistorbudget för att nå 10-20 % IPC-ökningar. Det är långt ifrån någon linjär skalning!

Personligen värderar jag ändå fortsatt utveckling långt högre än att priset hålls lågt. Är forfarande ett frivilligt val att lägga pengarna. Vidare, när dessa snabbare saker finns kommer idéerna därifrån med tiden ramla ned i billigare segment.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Närmar oss fordonsindustrin där en förbränningsdrivlina med 6% förbättring är en gigantisk investering. De kommer fortfarande men tar 5 år och är dyrare att tillverka. Inte riktigt så illa ännu men det är nog där vi är runt 2030, en generation varar 5+ år.

Håller med andra att Apples M1 satsning är det största som skett på länge. Kanske finns några liknande förbättringar som kan införas och sedan kommer kräva stora mjukvaruuppdatering för att kunna utnyttja det utan ett emuleringslager. Efter det känns det som det behövs något helt nytt för att komma vidare.

Permalänk
Medlem

Jag tycker det är fascinerande hur stor en standard PC fortfarande är vs en Xbox eller PS5, där har man verkligen optimerat.

Då när de lanserades var de hyfsat i paritet med dåtida PC prestanda. Konsoler är väldigt prisvärda om man jämför med PC som man skulle köpa motsvarande komponenter för att spela samma spel.

Egentligen är det grafikkorten som tar upp mest plats i dagens PC, i mitt chassi så är det ca 45% tomt och öppet utrymme (av naturliga skäl). Bärbara PC är väldigt optimerade vs stationär.

Just nu tycker jag grafikkorten har blivit så starka så jag skulle hellre se fysisk minskning och lägre strömförbrukning mellan varje generation. Tycker DLSS tekniken kan lösa en hel del prestanda grejer.

Visa signatur

AMD Ryzen 7 5700X 3,4GHz
Asus GeForce RTX 4070 Dual OC 12GB
Asus ROG Strix X570-E Gaming
G.Skill Trident Z Neo DDR4 3600MHz 32GB
Samsung 980 Pro Series 1TB

Permalänk
Medlem
Skrivet av medbor:

Om man ser till vad Apple gör med sina processorer så ser man ju att nytänk kan nå långt både sett till prestanda och effektivitet

Den viktiga skillnaden är nog att Apples prylar kostar dubbelt så mycket som mycket annat. Deras inslagna väg handlar om att klämma in hög prestanda i bärbara enheter, helst med bibehållen batteritid, och det är nog inte så relevant att lägga stora summor på när det kommer till stationära datorer eller servrar.

Allt detta skedde dessutom i ett väldigt avgränsat ekosystem, helt olikt x86.

I övrigt är det mest sannolika att Jensen bluffar hårt eftersom han fått upp ögonen för att det finns dollar i att upplåta produktionskapacitet för att först sälja produkter till kryptominers och nu "AI"-boomers [sic]. Tycker bara det känns trist att vi som hjälpt Nvidia att bli stora nu ska betala ett extra stort premium för att de har kunder som tjänar pengar på deras produkter.

Permalänk
Medlem
Skrivet av Xverminator:

Tycker DLSS tekniken kan lösa en hel del prestanda grejer.

DLSS är dock inget annat än en snygg förfulning och kommer aldrig bli något alternativ för de som bryr sig om visuell kvalitet då "gissningarna" alltid resulterar i olika former av smärre artefakter.

Permalänk
Medlem
Skrivet av Sveklockarn:

DLSS är dock inget annat än en snygg förfulning och kommer aldrig bli något alternativ för de som bryr sig om visuell kvalitet då "gissningarna" alltid resulterar i olika former av smärre artefakter.

DLSS och DLAA utvecklas hela tiden och det ser redan rätt ok ut, men det är olika på titel och upplösning. I vissa fall ser tex DLAA lika bra ut som native.

Visa signatur

AMD Ryzen 7 5700X 3,4GHz
Asus GeForce RTX 4070 Dual OC 12GB
Asus ROG Strix X570-E Gaming
G.Skill Trident Z Neo DDR4 3600MHz 32GB
Samsung 980 Pro Series 1TB

Permalänk
Medlem
Skrivet av Xverminator:

DLSS och DLAA utvecklas hela tiden och det ser redan rätt ok ut, men det är olika på titel och upplösning. I vissa fall ser tex DLAA lika bra ut som native.

Det är ju det det inte gör när saker rör på sig p.g.a. att det hela bygger på en kvalificerad gissning om vad som ska renderas på varje pixel. Somliga kommer naturligtvis att acceptera den trade off'en, jag bara påpekar att det inte är den silverkula som marknadsförare försöker göra det till.

Permalänk
Medlem
Skrivet av Sveklockarn:

Den viktiga skillnaden är nog att Apples prylar kostar dubbelt så mycket som mycket annat. Deras inslagna väg handlar om att klämma in hög prestanda i bärbara enheter, helst med bibehållen batteritid, och det är nog inte så relevant att lägga stora summor på när det kommer till stationära datorer eller servrar.

Allt detta skedde dessutom i ett väldigt avgränsat ekosystem, helt olikt x86.

I övrigt är det mest sannolika att Jensen bluffar hårt eftersom han fått upp ögonen för att det finns dollar i att upplåta produktionskapacitet för att först sälja produkter till kryptominers och nu "AI"-boomers [sic]. Tycker bara det känns trist att vi som hjälpt Nvidia att bli stora nu ska betala ett extra stort premium för att de har kunder som tjänar pengar på deras produkter.

ARM64 är redan gigantiskt när det kommer till servrar, och kommer bara växa

X86 kommer leva kvar för spelande och windows ett tag till, men har nog allmänt förlorat kriget

Permalänk
Medlem
Skrivet av Sveklockarn:

Det är ju det det inte gör när saker rör på sig p.g.a. att det hela bygger på en kvalificerad gissning om vad som ska renderas på varje pixel. Somliga kommer naturligtvis att acceptera den trade off'en, jag bara påpekar att det inte är den silverkula som marknadsförare försöker göra det till.

Jag vet att det inte ser lika bra ut men det är i närheten, jag använder DLAA i lägre upplösningar, ibland ser det faktiskt bättre ut i vissa spel än native, men det beror på titel, vissa saker ser mjukare ut, medans det blir skarpare i native.

Bilspel där allt är i rörelse tex är inte skärpa över hela bilden det viktigaste, där kan man få väldigt bra resultat med DLAA och DLSS, och bättre blir det för varje år. Man kan få typ nästan identiska resultat med ett 3060 Ti som ett betydligt starkare kort om man kör 1440p och 60 fps.

Visa signatur

AMD Ryzen 7 5700X 3,4GHz
Asus GeForce RTX 4070 Dual OC 12GB
Asus ROG Strix X570-E Gaming
G.Skill Trident Z Neo DDR4 3600MHz 32GB
Samsung 980 Pro Series 1TB

Permalänk
Medlem
Skrivet av medbor:

ARM64 är redan gigantiskt när det kommer till servrar, och kommer bara växa

X86 kommer leva kvar för spelande och windows ett tag till, men har nog allmänt förlorat kriget

Ja, särskilt om man ser till det s.k. molnet så är det ju tydligt att den stora övergången till arm64 för serverbruk är i full gång; x86-64 blir alltmer reserverat för att köra legacyapplikationer.

Samma princip gäller väl skrivbordet även om det än så länge rört sig mindre än serversidan (i princip bara i Applekskrud än så länge).

Visa signatur

Desktop: Ryzen 5800X3D || MSI X570S Edge Max Wifi || Sapphire Pulse RX 7900 XTX || Gskill Trident Z 3600 64GB || Kingston KC3000 2TB || Samsung 970 EVO Plus 2TB || Samsung 960 Pro 1TB || Fractal Torrent || Asus PG42UQ 4K OLED
Proxmox server: Ryzen 5900X || Asrock Rack X570D4I-2T || Kingston 64GB ECC || WD Red SN700 1TB || Blandning av WD Red / Seagate Ironwolf för lagring || Fractal Node 304

Permalänk

Kan ju hoppas på att ray-tracing, eller något annat jag inte känner till, kan nå de facto-standard för 3d rendering.
Så länge man bygger hårdvara för att lösa i botten samma problem år ut och in når man såklart snabbare ett stagnerat tillstånd.

Permalänk
Medlem
Skrivet av Xverminator:

Jag tycker det är fascinerande hur stor en standard PC fortfarande är vs en Xbox eller PS5, där har man verkligen optimerat.

Blir det för smått så kan slutanvändare inte längre komma åt komponenterna. Priset vi betalar för att kunna byta grafikkort är att det finns utrymme nog så att vi kan byta grafikkort.

Permalänk
Medlem
Skrivet av Sosseres:

Närmar oss fordonsindustrin där en förbränningsdrivlina med 6% förbättring är en gigantisk investering. De kommer fortfarande men tar 5 år och är dyrare att tillverka. Inte riktigt så illa ännu men det är nog där vi är runt 2030, en generation varar 5+ år.

Håller med andra att Apples M1 satsning är det största som skett på länge. Kanske finns några liknande förbättringar som kan införas och sedan kommer kräva stora mjukvaruuppdatering för att kunna utnyttja det utan ett emuleringslager. Efter det känns det som det behövs något helt nytt för att komma vidare.

Apples lösning är att sätta ett mobilchip (dock kraftfullt) i en dator är inte speciellt innovativt egentligen. Det är dock väldigt smart eftersom deras kunder är vana (och förlåtande till) att bli överkörda genom att helt skifta arkitektur emellanåt. Den absolut största vinsten är Apple tjänar mycket mycket mer dollars på att tillverka chipen själva istället för att köpa från någon annan. De vill tillverka allt i sina produkter själva, fast det har de inte möjlighet till ännu, och även bestämma över vem som ska ha möjlighet att reparera produkterna, eller rättare sagt själva ta hutlöst betalt för reparationerna så kunderna köper nytt i stället. Enligt mig är de det största äckelföretaget i hela techsektorn som aldrig kommer få en krona från mig, men det är bara min åsikt.

Permalänk
Medlem
Skrivet av Ceji:

Apples lösning är att sätta ett mobilchip (dock kraftfullt) i en dator är inte speciellt innovativt egentligen. Det är dock väldigt smart eftersom deras kunder är vana (och förlåtande till) att bli överkörda genom att helt skifta arkitektur emellanåt. Den absolut största vinsten är Apple tjänar mycket mycket mer dollars på att tillverka chipen själva istället för att köpa från någon annan. De vill tillverka allt i sina produkter själva, fast det har de inte möjlighet till ännu, och även bestämma över vem som ska ha möjlighet att reparera produkterna, eller rättare sagt själva ta hutlöst betalt för reparationerna så kunderna köper nytt i stället. Enligt mig är de det största äckelföretaget i hela techsektorn som aldrig kommer få en krona från mig, men det är bara min åsikt.

Det som sticker ut är ju dock att faktiskt ha ett förvuxet "mobilchip" som är så kraftfullt att det fungerar att göra så.
För bortsett från extrajobb orsakat av själva övergången så får jag ändå säga att gräset nog faktiskt visade sig vara grönare på andra sidan ur ett rent användarperspektiv. Snabba tysta laptops t.ex...

Visa signatur

Desktop: Ryzen 5800X3D || MSI X570S Edge Max Wifi || Sapphire Pulse RX 7900 XTX || Gskill Trident Z 3600 64GB || Kingston KC3000 2TB || Samsung 970 EVO Plus 2TB || Samsung 960 Pro 1TB || Fractal Torrent || Asus PG42UQ 4K OLED
Proxmox server: Ryzen 5900X || Asrock Rack X570D4I-2T || Kingston 64GB ECC || WD Red SN700 1TB || Blandning av WD Red / Seagate Ironwolf för lagring || Fractal Node 304

Permalänk
Medlem
Skrivet av medbor:

X86 kommer leva kvar för spelande och windows ett tag till, men har nog allmänt förlorat kriget

Fast det finns inget "krig", och kommer aldrig komma någon arkitektur som kommer ersätta alla andra.

Servrar kan såklart köra vad som helst, vad som är rationellt där påverkar eller påverkas dock inte vad som är rationellt för användaren att använda.

Permalänk
Medlem
Skrivet av Sveklockarn:

Fast det finns inget "krig", och kommer aldrig komma någon arkitektur som kommer ersätta alla andra.

Servrar kan såklart köra vad som helst, vad som är rationellt där påverkar eller påverkas dock inte vad som är rationellt för användaren att använda.

Många som kör Sparc och Itanium idag alltså? Eller kanske PowerPC… självklart konkurrerar olika plattformar och arkitekturer

Pris, energieffektivitet och prestanda. X86 ligger efter i alla. Utom möjligen överklockad singlecore (intels p-kärnor i 5.5+GHz)

Permalänk
Inaktiv

Goda nyheter.

Förhoppningsvis stagnerar det så hårt att gammal hårdvara hålls relevant länge och man kan sitta på samma hårdvara i tio år utan problem (Det vore bra för både plånbok och miljö).

Permalänk
Quizmaster Malmö 22

Det känns overkligt att utvecklingen inom transistorer skulle avstanna. Har ju pågått hela mitt liv.

Skrivet av Sveklockarn:

Det är ju det det inte gör när saker rör på sig p.g.a. att det hela bygger på en kvalificerad gissning om vad som ska renderas på varje pixel. Somliga kommer naturligtvis att acceptera den trade off'en, jag bara påpekar att det inte är den silverkula som marknadsförare försöker göra det till.

Nvidia är bra på A.I så de kommer säkerligen göra det så bra de kan.
Nu när transistorutvecklingen avstannar så kommer uppskalnings grejer som DLSS bli ÄN mer värdefulla.

Visa signatur

[Gigabyte EP35-DS4][Intel Core 2 Duo E8400 3.0 Ghz][2x2GB Corsair XMS 2][Gainward GTX 570][Sandisk Extreme II 480GB][Corsair HX 620W][Fractal Design Define XL R4][Acer GD245HQBID]

Permalänk
Medlem
Skrivet av medbor:

Många som kör Sparc och Itanium idag alltså? Eller kanske PowerPC… självklart konkurrerar olika plattformar och arkitekturer

Pris, energieffektivitet och prestanda. X86 ligger efter i alla. Utom möjligen överklockad singlecore (intels p-kärnor i 5.5+GHz)

Sanningen är inte så enkel när jag tänker på det. Hur ser det ut prestandamäsdigt mellan en 7950X strypt till 65W jämfört med en M1 Max med liknande strömbudget givet att de är tillverkade på samma nod? Rätt likt, inte sant? 7950X3D är löjligt energieffektiv under spellaster (enligt LTT) osv. Vad är transistorbudgeten för M1 kontra Zen 4, är det där vinsten finns för ARM?

Bara för att Intel och AMD gått all in på att toppa listorna betyder det inte att just x86 är problemet. Men sedan är jag inte tillräckligt kunnig egentligen, tittar på siffrorna, läser tester och drar slutsatser från det.

Edit: Kanske är M1 Ultra som det ska jämföras med?

Permalänk
Medlem
Skrivet av medbor:

Många som kör Sparc och Itanium idag alltså? Eller kanske PowerPC… självklart konkurrerar olika plattformar och arkitekturer

Pris, energieffektivitet och prestanda. X86 ligger efter i alla. Utom möjligen överklockad singlecore (intels p-kärnor i 5.5+GHz)

Jo, vid högtidliga tillfällen kan jag dra igång min dubbelprocessor-itanium. Den har 2GB minne, 2x36 GB disk o drar 300W, prestanda motsvarar en raspberry-pi 4 ungefär.

Permalänk
Medlem
Skrivet av Novdid:

Sanningen är inte så enkel när jag tänker på det. Hur ser det ut prestandamäsdigt mellan en 7950X strypt till 65W jämfört med en M1 Max med liknande strömbudget givet att de är tillverkade på samma nod? Rätt likt, inte sant? 7950X3D är löjligt energieffektiv under spellaster (enligt LTT) osv. Vad är transistorbudgeten för M1 kontra Zen 4, är det där vinsten finns för ARM?

Bara för att Intel och AMD gått all in på att toppa listorna betyder det inte att just x86 är problemet. Men sedan är jag inte tillräckligt kunnig egentligen, tittar på siffrorna, läser tester och drar slutsatser från det.

Edit: Kanske är M1 Ultra som det ska jämföras med?

M1 Ultra har 16+4 kärnor och ca 60W, så CPU-mässigt ser de liknande ut på ytan. Dock lite svårt att hitta bra jämförelser. En väldigt stor del av transistorbudget utgörs av en GPU som är avsevärt större också (och fler minneskanaler)

Permalänk
Medlem
Skrivet av medbor:

M1 Ultra har 16+4 kärnor och ca 60W, så CPU-mässigt ser de liknande ut på ytan. Dock lite svårt att hitta bra jämförelser. En väldigt stor del av transistorbudget utgörs av en GPU som är avsevärt större också (och fler minneskanaler)

@Yoshman har säkert bra siffror på detta. Men tittar man på ren CPU-prestanda med liknande strömbudget så ser det inte ut som att x86 är kört. Sedan är x86 "dött" om M1 gör det med hälften av antalet transistorer per CPU-kärna jämfört med Zen 4. Rensat för minneskontroller och liknande variabler.

Permalänk
Medlem
Skrivet av jeppe109:

Vi får väl se. 5090 ryktas få dubbla prestandan mot 4090.
Utan materialbyte är det kanske tveksamt att fortsätta med monoliter framöver dock.

Jag kommer faktiskt att vänta på 5090 innan jag bygger en ny dator.

Permalänk
Medlem

Vi förväntar oss avtagande nytta av allt, varför skulle datortekniken vara ett undantag? En 30 år gammal bil har runt 100 hästar. Idag ligger vi på samma nivå. Ett 30 år gammal hus ligger på 200 m2. Idag ligger nybyggda på samma storlek. Vi gifter oss med och lever fortfarande bara med en person.

Om det nu är så att utvecklingen av datortekniken om 10 eller 20 år planar ut fullständigt- är det verkligheten ett bekymmer? Kommer det finnas någonting som den inte är kapabel till för gemena man och gemene företag?

Permalänk
Medlem

Måste säga att jag tycker det e väldigt tråkigt att se hela grafik- och spelutvecklingsindustrin domineras av hårdvarutillverkarna och deras intressen. Det känns som att hela PC-världen har drivits in i ett tunnelseende som är så fullständigt så att endast ett totalt haveri från hårdvaruindustrin kan få folk att vakna till och inse att de har låtit sig bli förda som slädhundar.

Det finns ENORMT mycket mer prestandavinster att göra på mjukvarusidan än det troligen kommer finnas på hårdvarusidan på lång tid framöver om de inte snart byter till material så som galliumnitrid. Under flera decennier har mjukvaruutvecklare överlag blivit alltmer vårdslösa i hur de utnyttjar ett systems resurser, och detta fullständigt oacceptabla beteende har också möjliggjorts av en extremt självgod hårdvaruindustri som aldrig nöjer sig med någon nivå av överdådighet. Jämför spelutveckling på ett Nintendo Famicom (8-bit), där varje enskild databit spelade roll för att få ett spel att flyta perfekt på en potatis, med dagens spelutveckling via super-tungdrivna spelmotorer som knappt går att driva på hårdvara som i jämförelse måste liknas vid en hel uppsättning av superdatorer kapabla att ersätta de flesta typer av uppvärmning av boendeutrymmet.

Det behövs en fundamental förändring på mjukvarusidan om vi vill kunna förvänta oss några verkliga prestandaförbättringar inom kort utan att behöva sälja båda njurarna och dessutom överbelasta ställverk för att uppnå dem. Hela industrin har kört fast i ett spår som hela tiden har lett den raka vägen in i en återvändsgränd — nämligen att förlita sig på alltmer fläskig hårdvara och därigenom ta våghalsiga genvägar och rent ut sagt slarva med ett av de mest fundamentala koncepten i mjukvaruutveckling: Optimal användning av systemresurserna. Det är mer än någonsin dags för att gå back to basics!

Själv anser jag att Epic Games är den första stora aktören inom industrin som gjort ett betydelsefullt steg i rätt riktning med deras nya Unreal Engine 5. Man skulle kunna säga att UE 5 är ett exempel på hur man kan rendera extremt detaljerade 3D-världar på ett innovativt sätt och på så sätt ersätta flera av de mest resurskrävande momenten inom 3D-rendering. De är dock inte först med att göra något liknande. Jag har sett äldre demonstrationsvideor som ger exempel på 3D-rendering där man använt sig av (for lack of a better term) atom-baserade 3D-modeller. Minns tyvärr inte vad de kallar sig för eller vad deras metod kallas, men de kunde enkelt demonstrera hur de renderade världar i extremt hög detalj på relativt medioker hårdvara. En av fördelarna med deras metod var en steglös LOD, tack vare dynamisk och steglös nedskalning av modellerna med ökat avstånd och för att möta hårdvarubegränsningar. De demonstrerade till och med en del populära titlar som de hade konverterat till deras renderingsmetod. Måhända att Epic har anammat deras metodologi (kanske rentav förvärvat den) i UE 5.

Hur som helst är det precis den typen av utveckling som spelutvecklingsindustrin behöver växla spår till om det ska finnas någon nämnvärd utvecklingsprognos för ökad grafikprestanda ihop med ökad detaljrikedom inom de närmaste decennierna — åtminstone om spelare vill kunna undvika alltmer skamlösa prisnivåer för grundläggande hårdvara till deras egna små superdatorkomplex för att kunna driva framtidens titlar i adekvat fps.

Permalänk
Medlem
Skrivet av arex86:

Måste säga att jag tycker det e väldigt tråkigt att se hela grafik- och spelutvecklingsindustrin domineras av hårdvarutillverkarna och deras intressen. Det känns som att hela PC-världen har drivits in i ett tunnelseende som är så fullständigt så att endast ett totalt haveri från hårdvaruindustrin kan få folk att vakna till och inse att de har låtit sig bli förda som slädhundar.

Bra där! Det är märkligt när ett grafikkort kostar som en hel dator i övrigt och dessutom förbrukar mer ström än vad datorn gör i övrigt.

/ B

Permalänk
Medlem
Skrivet av Xverminator:

Jag tycker det är fascinerande hur stor en standard PC fortfarande är vs en Xbox eller PS5, där har man verkligen optimerat.

Då när de lanserades var de hyfsat i paritet med dåtida PC prestanda. Konsoler är väldigt prisvärda om man jämför med PC som man skulle köpa motsvarande komponenter för att spela samma spel.

Egentligen är det grafikkorten som tar upp mest plats i dagens PC, i mitt chassi så är det ca 45% tomt och öppet utrymme (av naturliga skäl). Bärbara PC är väldigt optimerade vs stationär.

Just nu tycker jag grafikkorten har blivit så starka så jag skulle hellre se fysisk minskning och lägre strömförbrukning mellan varje generation. Tycker DLSS tekniken kan lösa en hel del prestanda grejer.

Min PC är ca 5% större än en Xbox Series x och betydligt mindre än en ps5 även om jag inte orkade räkna ut volymen där.

Så handlar helt och hållet på vad man prioriterar.