Premiär! Fyndchans i SweClockers Månadens Drop

Nvidia tillkännager arkitekturen Volta

Permalänk
Medlem
Skrivet av Thunde:

Får hoppas vi får spel med bättre grafik och fysik då
Känns som den grafiska utvecklingen har gått med snigelfart sen 2008 och fysik i stora spel stått still.

Stöds inte i konsollmarknaden, därav har utvecklingen stått still...tyvärr. Det kommer väl bli ett skutt nu när en ny generation kommer ut men sedan kommer det nog gå trögt fram till nästa generationsskifte.

Konsoller stryper utvecklingen, men är bra för prestandautvecklingen då utvecklare tvingas optimera efter föråldrad arkitektur...

Visa signatur

Dator 1. MSI Z370 GAMING PRO CARBON, Intel Core i7 8700K 3.7 GHz 12MB, Gigabyte AORUS GeForce GTX 1080 Ti 11GB, Corsair 16GB (2x8GB) DDR4 3000Mhz CL15 Vengeance, passivt vattenkyld.

Dator 2. MK MSI X79A-GD45, Intel i7-3820 @ 4,0 GHz, EVGA 980Ti med vattenblock, 16 Gig DDR3, vattenkyld

Specialskärm: ~124 tum 3840 X 1080, 178° FOV (2 x BenQ 1070+)

Permalänk
Hedersmedlem

*Tråd rensad*
På offt.

Visa signatur

Nya Projektet!
Kontakta moderatorkåren via Kontaktformuläret om ni vill något.

Permalänk
Medlem
Skrivet av ZAIZAI:

Stöds inte i konsollmarknaden, därav har utvecklingen stått still...tyvärr. Det kommer väl bli ett skutt nu när en ny generation kommer ut men sedan kommer det nog gå trögt fram till nästa generationsskifte.

Konsoller stryper utvecklingen, men är bra för prestandautvecklingen då utvecklare tvingas optimera efter föråldrad arkitektur...

Optimering håller jag väl inte med om, alldeles för mycket programvara/spel som fungerat långt ifrån en optimerad upplevelse ijämförelse med vad hårdvaran igentligen klarar av. Men helt klart att Konsolerna haft ett riktigt strypgryp på prestandard. Och "Volta" känns som ett steg i rätt riktning för Gpu/IG kretsar. bara vänta spänt på vad AMD har att visa framöver.

Permalänk
Medlem
Skrivet av backfeed:

Någon som har bättre koll på Nvidias planer får gärna fylla i hur de tänkt sig att det "delade" minnet ska fungera? Historiskt sett har det ju alltid varit en ganska ordentlig flaskhals att dela minne mellan cpu och gpu, så de måste ju ha tagit fram någon helt annorlunda lösning om det ska vara något positivt med det?

Jag ser inte hur det ska gå till utan att cpu:n ska ha direkt stöd för det, och i så fall begriper jag inte hur Nvidia har tänkt sig att Intel eller AMD skulle lyssna på dem och göra sådana specialanpassningar?

Kan det vara så att minnet för användaren (programmeraren) bara ser ut att vara gemensamt för CPU och GPU, medan de är fysiskt separerade fast i bakgrunden synkas de två automatiskt när det behövs. Säg att jag gör beräkningar på en viss mängd data med CPU'n, men vill sen göra något med resultatet med GPU'n efteråt, för att igen använda det från CPU'n. Då vore det schysst om man inte behövde tänka på att kopiera minnet fram och tillbaka, eller ens tänka på att det faktiskt ligger på två platser. Dessutom kanske hårdvaran i vissa fall kan vara tillräckligt smart att bara flytta över den delmängd som faktiskt används, istället för ett stort allokerat block, vilket man oftast gör när man flyttar minne "för hand".

Den funktionaliteten skulle iaf jag vilja ha!