Har nVidia RTX slagit ut AMD o Intel?!

Permalänk
Inaktiv
Skrivet av Flopper:

Lite som PhysX då eller?
slog verkligen igenom.
ray tracing är tungdrivet.
en av orsakerna till att inga prestanda siffror presenterades.
all ny teknik tar år av utveckling innan spel har motorer som stödjer funktioner.
DX12 är fortfarande inte där

du köper kort idag för att spela spel idag, inte om 5 år.

Beräkningarna för både raytracing och Artificiell intelligens sker på egna separata kretsar för att bibehålla prestanda.
Det är väl därför som kortet har ett så saftig prislapp.. Det är flera 'kort' i ett paket.

Permalänk
Medlem
Skrivet av Flopper:

Lite som PhysX då eller?
slog verkligen igenom.
ray tracing är tungdrivet.
en av orsakerna till att inga prestanda siffror presenterades.
all ny teknik tar år av utveckling innan spel har motorer som stödjer funktioner.
DX12 är fortfarande inte där

du köper kort idag för att spela spel idag, inte om 5 år.

Inte alla spel behöver speciell fysik. Däremot alla spel där man vill ha bra grafik kommer kunna använda sig utav RT. RT verkar även vara mycket lättare att implementera än att fixa korrekt fysik.

RT är tungdrivet, exakt, därför som vi hade en presentation på 2 timmar som gick igenom varför Turing är så speciell. Den har RT Core för att hantera all RT, UTÖVER att den har normala CUDA kärnor för allt annat. PLUS att den har Tensor Core för AI. Just därför det är en väldigt stor krets med inte allt för många extra CUDA kärnor jämfört med 1080Ti.

Kommer vi se en prestandaförlust när man slår på RT? Visst, annars skulle jag nog säga halleluja! Men den största beräkningen kommer ligga på den extra RT Coren.

Visst, du kan inte spela med RT spel idag eller precis när man får sitt 2000-kort, men om du kollade så kommer det komma en hel drös med nya spel samt uppdateringar utav som kommer stödja RT med start om några månader. Knappast några 5 år som folk verkar tro. Däremot om 5 år kommer nog inget spel komma utan RT.

Permalänk
Medlem

Det är många belackare här som helt enkelt yrar i nattmössan.

Till att börja med måste man förstå att strålspårning i realtid är stort. Dagens spel kör med en enorm mängd kvalificerade fulhack för att försöka imitera effekterna av riktig strålspårning. Du har statiska imitationer av indirekt ljus som ser bra ut i stillbilder men inte hänger med dynamiskt när du spelar. Skuggor kan inte renderas realistiskt. Reflektioner är fejkade utav helvete och måste närmast byggas för hand, och då handlar riktiga reflektioner om så mycket mer än blanka ytor.

Det här är tekniker som funnits i åratal men varit för resurskrävande att köra i realtid. Det är ett mycket bättre sätt att göra saker på och nVidia löser resursfrågan genom hybridrendering och dedikerad hårdvara.

Jämförelser med PhysX är helt uppåt väggarna. De gör helt olika saker och fysik i spel är knappast en så central del som grafik. Vidare har PhysX varit väldigt lyckat. Deras fysikbibliotek är vida använda, men de funkar också bra att köra på processorn - det kommer aldrig hända med strålspårning i realtid.

DirectX 12 har sett en långsam implementering därför att det saknats incitament för spelutvecklarna att använda det. DXR är ett sådant incitament och vi har redan flertalet speltitlar på gång som använder det. Kritiken påminner snarare om när DirectX 11 introducerade hårdvarutesselering och ingen fattade vad det skulle vara bra för.

Hur tungdrivet detta blir återstår att se. Första generationen av ny teknik tenderar att lämna en del att önska. Samtidigt är det lätt för utvecklare att lägga detta uppepå redan befintliga spelmotorer och en del av hårdvaran är dedikerad för det - strålspårningen kan köras parallellt.

Permalänk
Inaktiv
Skrivet av goose007:

Några nyheter gällande prestandan för VR gällande 20.. serien?

https://blogs.nvidia.com/blog/2018/08/20/turing-vr-full-immer...

Permalänk
Medlem
Skrivet av Flopper:

Lite som PhysX då eller?
slog verkligen igenom.

PhysX har slutat utvecklas, för det har uppgått i ett större paket med fysikbaserade funktioner i Gameworks där flera delar mer moderna uppdaterade versioner av gamla PhysX. Bland annat spel som Witcher 3 och Ghost Recon Wildlands använder det, eller rättare sagt de nyare delar som inte längre bär namnet PhysX.

"ray tracing är tungdrivet."
Det är rätt fantastiskt att Nvidia ens lyckats utveckla RTX med den prestanda som visas nu. Kör Tomb Raider med RT aktiverat på en Pascal GPU och man skulle få ett stillbildspel.

"all ny teknik tar år av utveckling innan spel har motorer som stödjer funktioner."
Det har redan visats spel med funktionerna.

"du köper kort idag för att spela spel idag, inte om 5 år."
Någon måste ta initiativ och driva utvecklingen framåt. Klart att många kommer få bli early adopters och bara ha tillgång till fåtal spel, som dessutom har sämre prestanda med funktionerna påslagna. Men jag har sett lite på hur det används och jag tycker det är riktigt intressant. Ljussättning, skuggor och reflektioner bidrar till att göra inlevelsen betydligt bättre.

Nvidias stora problem är att få ut det till stora massan. Gissar att nästa generation baserat på 7nm kommer göra att även de billigare grafikkorten får stöd för RTX, DXR och VulkanRT.

Permalänk
Medlem

Jag har inte läst hela tråden men det verkar ju komma spel med detta relativt snabbt, jag kollade bara lite grann på Twitch och hann se Metro Exodus, nya Tomb Raider och Battlefield som alla stödde RTX i spel som kommer snart. Jag tror att många kommer att vilja ha detta, och som någon sa så är det en förutsättning för lifelike VR. Svindyrt, ja, men så är det alltid med nya saker.

Visa signatur

|| R9 7950X MSI PRO X670-P WIFI 32GB-DDR5-6400c32 MSI RTX4080 Ventus 3X OC || CORE i9 12900KF MSI Z690 Tomahawk WIFI DDR4 32GB-3600c16 Gear1 TUF RTX3080 OC V2 || R7 5800X3D X570S CH8 Extreme 32GB-3800c18 Gigabyte RTX3080 GAMING OC || R9 5900X(B2) B550-F 32GB-3800c18 EVGA RTX3070 FTW Ultra || R9 3900X X470-Prime Pro 32GB-3200c16 MSI RTX2070 Super ||

Permalänk
Medlem

Tror personligen inte AMD är så långt efter i teorin som många tror. Vilket inte nödvändigtvis betyder att AMD kan brygga igen gapet i praktiken.
GCN och Kepler är rätt lika, sedan dess har nVidia fått tre stora övertag:

1. TBR, Tile Based Rendering. Gör att GPUn behöver arbeta mindre för samma jobb. Därför 900-serien är så mycket snabbare och svalare än motsvarande 700-seriekort.

2. Tillverkningsprocess. Det pekar på att TSMC's 16nm är bättre än GloFos 14nm. nVidia kör sina budgetkort från 1000-serien på Samsungs 14nm medan de kör resten på TSMC. I tidigare serier har de haft ungefär samma frekvenser över hela sitt sortiment, från budgetkort till toppkort. Men med Pascal ser man ordentligt lägre frekvenser på Samsung-tillverkade kretsar. Framförallt basfrekvensen, men även vanliga boost-frekvensen. Max Boost är satt till ungefär samma, men det är svårt att veta hur stor skillnaden är i hur ofta de når så högt. nVídia tappar mycket riktigt också mycket av sitt övertag på dessa kort. Även om bland annat TBR såklart fortfarande ger nVidia vinnande handen. Men sett till Gflops och kretsyta så är inte nVidias övertag alls samma sak på budgetkretsarna som man ser med 1080/Ti vs. Vega. Man ser även på Apples A9 som tillverkats hos båda att TSMC är bättre.

3. Raytraycing.

Dessa tre tillsammans lämnar AMD i kölvattnet. Vilket i sin tur säkerligen varit en faktor i AMDs lite passiva approach på sistone. Att investera där man inte kan vinna på det är slöseri med resurser. Men samtidigt, Vega som var en flopp för spelmarknaden indikerar lite ändå. Vega skulle ha massa nya tekniker som skulle öka effektivitet. Vi fick inte se mycket av det vilket ledde till snacket om att drivrutiner skulle laga Vega. Det hände aldrig. En av dessa saknade funktioner skulle vara DSBR, vilket liknar nVidias TBR. Detta är inget som vi fick nytta av i praktiken, dock och det spekuleras i att det beror på att det är beroende av en annan teknik som är trasig i Vega. Primitive Shaders. Detta och lite annat som inte verkar vara deaktiverat i Vega borgar för att AMD kan ta igen en hel del i "IPC" om de kan fixa det.
Samtidigt som de kan ta igen IPC, så kan de också brygga igen frekvensövertaget något. Det finns en hård frekvensvägg där Glofo's 14nm börjar dra mycket mer ström. AMD pressar den väggen med både Vega och Polaris. På lägre frekvenser där de inte pressar väggen är de rätt snåla redan. TSMC verkar inte bara sakna denna vägg och dess branta stigning i effekt, den verkar också medge bättre prestanda och effektivitet överlag.
Sedan är det då Raytraycing. Tror inte AMD är så efter där som man kan tro, andra inlägget i tråden tar ju upp AMDs realtidsrendering av raytracing i våras.

Så, med lite tur kan saker vara fixat till Vega 7nm eller Navi. Bara för att dra lite siffror ur baken här, låt säga att de ökar 10-15% IPC och samtidigt ökar till att bara vara några få procent efter i frekvens vid motsvarande värmeutveckling per mm² och Hz tack vare samma process. Då ser det inte lika brunt ut.
Sedan så efter Navi ska de komma med ny arkitektur från grunden. Förhoppningsvis inte samma stela design med hårdvaruscheduler som i GCN. Kan det vara en Zen för Radeon?

Detta är ju ganska spekulativt. Vill inte att någon ska lägga för mycket vikt vid det jag säger här. Men AMD var självsäkra med Vega innan det blev försenat för att till slut lanseras i trasig form. Kan vara en anledning till att de var självsäkra i början. Kanske inte är så illa som det ser ut när man tittar på ett trasigt Vega.
Spekulera och hoppas kan man.

Permalänk
Medlem

https://www.pcgamesn.com/nvidia-rtx-2080-ti-hands-on?amp

Hoppas inte den här artikeln ger en korrekt indikation av 2080 TIs prestanda med raytraycing. Vem vill betala 15000 för att backa tillbaka till 1080p och under 60 fps?

Permalänk
Medlem

Raytracing verkar vara framtidens melodi men som vanligt med första generationen av någonting så är det nästan bäst och skippa. De lär bli för klena FÖR fort då raytracing-implementering har nått mogen status inom några år och då hare redan nästa generation RTX-kort släppts. Jag kan nog leva utan Raytracing tills dess att kort som stödjer det har blivit prissatta för vanliga dödliga. En halv månadslön för high-end, b*tch please....

Permalänk
Medlem
Skrivet av anon162230:

Låt oss säga att det företaget med realtids ray tracing har 70-75% av spelmarknaden. Som spelutvecklare skulle jag vara väldigt intresserad att att utveckla spel till den plattformen.

Helt ärligt tror jag inte många förstår vilken stor grej realtids ray tracing egentligen är.

Du går från tecknad 3D till foto realistisk 3D i realtid. Det du ser i spelen idag är barnlek jämfört med vad ray tracing i realtid kommer att erbjuda i framtiden och den framtiden början här och nu.

Visst kommer det ta några år innan spel som verkligen utnyttjar tekningen i stor skala kommer, som med allt annat tar det tid, men utveckling av hårdvaran kommer gå i rasande tempo de närmaste åren.

Du kommer i framtiden titta tillbaka på vanliga DX12 spel som något förgånget o retro ungefär som vi ser på 2D spel idag.

Verkar skit coolt, är dock jävligt skeptisk till första generationen, som helt saknar siffror på prestandan.
Problemet är fortfarande konsolerna som de flesta spelen idag utvecklas mot i första hand, att utveckla spel till en mikroskopisk grupp nördar som kan lägga 10k på en GPU är fullständigt idiotiskt.

Är säkert framtiden, men all teknik måste komma över puckeln.

Permalänk
Inofficiell ambassadör
Skrivet av addman:

Raytracing verkar vara framtidens melodi men som vanligt med första generationen av någonting så är det nästan bäst och skippa. De lär bli för klena FÖR fort då raytracing-implementering har nått mogen status inom några år och då hare redan nästa generation RTX-kort släppts. Jag kan nog leva utan Raytracing tills dess att kort som stödjer det har blivit prissatta för vanliga dödliga. En halv månadslön för high-end, b*tch please....

Jag är inne på samma spår. Det blir ungefär som med AMDs x64 processorer. (jag att de på teknisk grund inte har några likheter, men "bear with me" som man säger). Jag hade en AMD Athlon 64 3000+ . Det var en väldigt bra processor, men en av AMDs huvudsakliga pitchar med den var att den var "redo att köra" 64-bitars program. När processorn kom fanns det knappt några program alls med 64-bitars stöd. När 64-bitars stöd väl började bli ett krav var processorn så otroligt långsam jämfört med allt annat som fanns att den var värdelös...

Jag tänker mig att något liknande kan komma att inträffa den här gången.

Visa signatur

Mobo Aorus B550 Pro V2 CPU Ryzen 5600X RAM Corsair Vengance 16GB @ 36000 MHZ
GPU MSI GTX 1080 ti Gaming X Skärm Acer X34A

Permalänk
Medlem

@anon162230 För allting som står i press meddelanden är alltid sant och aldrig överdrivet. Vem behöver riktiga oberoende tester när nvidia talar om för oss hur vi ska tänka.

Visa signatur

Du behöver inte vaccinera dina barn, bara dom du vill behålla.

Permalänk
Medlem
Skrivet av anon162230:

Låt oss säga att det företaget med realtids ray tracing har 70-75% av spelmarknaden. Som spelutvecklare skulle jag vara väldigt intresserad att att utveckla spel till den plattformen.

Helt ärligt tror jag inte många förstår vilken stor grej realtids ray tracing egentligen är.

Du går från tecknad 3D till foto realistisk 3D i realtid. Det du ser i spelen idag är barnlek jämfört med vad ray tracing i realtid kommer att erbjuda i framtiden och den framtiden början här och nu.

Visst kommer det ta några år innan spel som verkligen utnyttjar tekningen i stor skala kommer, som med allt annat tar det tid, men utveckling av hårdvaran kommer gå i rasande tempo de närmaste åren.

Du kommer i framtiden titta tillbaka på vanliga DX12 spel som något förgånget o retro ungefär som vi ser på 2D spel idag.

Det är väl under 10% av användarna på steam som har 1070 eller bättre. Och ray tracing skulle väl bara ges till 2070 och uppåt. Det lär med andra ord dröja ett tag innan 80% sitter med ett kort som klarar ray tracing. Men visst om 3050 och uppåt klarar ray tracing så är det betydeligt fler som har tillgång till det, men fortfarande långt från 80%.

Jag drar till med gissning att när vi är halvvägs genom 5000-serien så är det vanligt att spelarna sitter med kort som klarar ray tracing.

https://store.steampowered.com/hwsurvey/videocard/

Skickades från m.sweclockers.com

Permalänk
Hjälpsam
Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

För att följa upp om PhysX, här är ett svar i en blog från en utvecklare på Nvidia.
http://www.codercorner.com/blog/?p=2013

Citat:

“Nobody uses PhysX”: wrong.

PhysX is the default physics engine in both Unity and Unreal. Which means it is used in tons of games, on a lot of different platforms (PC, Xbox, PS4, Switch, mobile phones, you name it).

“PhysX” is not just the GPU effects you once saw in Borderlands. It has also always been a regular CPU-based physics engine (similar to Bullet or Havok).

When your character does not fall through the ground in Fortnite, it’s PhysX. When you shoot a bullet in PayDay 2, it’s PhysX. Ragdolls? Vehicles? AI? PhysX does all that in a lot of games. It is used everywhere and it is not going away.

Citat:

“GPU PhysX is dead“: debatable.

“GPU PhysX” can mean different things, and admittedly the differences are not always clear or obvious.

If we’re talking GPU particles or cloth, they have indeed been deprecated in recent PhysX versions, replaced with FLEX (an entirely different engine, unrelated to PhysX so far). The FLEX implementation is better, so there was no need to keep supporting both.

If we’re talking GPU rigid bodies, it is wrong. PhysX 3.4 (the most recent public version of PhysX) even introduced a brand new GPU rigid body codepath - the most efficient we ever built. So it is the opposite of dead: that new version was basically just born yesterday.

However it is fair to say that the GPU stuff is not used much (although a bunch of projects do so). I suspect this is both for the obvious reason everybody points out (it would only run on Nvidia hardware) and because the CPU stuff is fast enough for regular physics in regular games.

Permalänk
Moderator
Testpilot

AMD har redan exakt samma teknik. De kallar det för AMD Radeon ProRender.

Ett litet utkast;

"This new process fuses the speed of rasterization with the physically-based realism that users of Radeon ProRender expect for their workflows. At a high level, the process achieves these results by using rasterization to draw basic structures and surfaces before a ray tracing process is used to compute advanced light-effects like reflections, shadows and transparency. The flexibility of the process allows users to decide when these advanced light effects are actually necessary and add noticeable new dimensions of realism to their renders."

Jag är övertygad om att AMD jobbar stenhårt på att utveckla denna tekniken och titta på hur de kan skapa ett öppet bibliotek, kontra ett stängt som Nvidia erbjuder. Detta har de alltid gjort och jag ser ingen anledning att de inte skulle göra samma sak denna gången.

Den stora frågan som jag ser det, är Nvidias RT-cores såklart. Vad är de? Hur speciella är de? Nvidia kan ju göra Ray Tracing beräkningar på deras CUDA-cores med men en enorm prestandaförlust kontra de kommande RT-cores.

Inget säger ju att AMD inte kan kopiera exakt samma set-up som Nvidia och förmodligen är de redan på väg.

Personligen tror jag att Nvidias Ray Tracing teknologi är fortfarande för krävande för att göra en större skillnad i dagens och nästa års spel. Jag tror att nästa generation från Nvidia kommer vara den som kommer bringa RTX på allvar. Det är för mycket som tyder på att till och med 2080 Ti blir helt sänkt även i 1080p men vi får se.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem

Personligen bryr jag mig inte om RTX. Men däremot tror jag att Nvidia kommer äga spelmarknaden i flera år framöver. Änsålänge verkar inte AMD ha några bra alternativ och konkurrera med. Mer strömtörstiga kort som inte hänger med ti serien alls i prestanda/watt.

Hoppas att Intel kan röra om ordentligt istället.
Och hoppas AMD kan komma tillbaka!

Visa signatur

Corsair 7000D Airflow > 2x Alphacool NexXxus 420mm Rads > EK Quantum Kinetic TBE 300 >
AMD 5900X > Aorus X570 Master > G.Skill 32gb @ 3733mhz CL14 > 6900XT Liquid Devil Ultimate
Skärmar: > Acer 31,5" 2160p@144hz > 27" 1440p@60hz
Garaget.org > Ford Focus ST mk3 Stage 2

Permalänk
Moderator
Testpilot
Skrivet av TaunyTiger:

Personligen bryr jag mig inte om RTX. Men däremot tror jag att Nvidia kommer äga spelmarknaden i flera år framöver. Änsålänge verkar inte AMD ha några bra alternativ och konkurrera med. Mer strömtörstiga kort som inte hänger med ti serien alls i prestanda/watt.

Hoppas att Intel kan röra om ordentligt istället.
Och hoppas AMD kan komma tillbaka!

Problemet AMD har är inte enbart "market share" utan det allra största problemet är "mind share". Det är så många jag känner som har gått på marknadsföringstricket om att Nvidia, "bara fungerar" och "har bättre drivrutiner och stöd" än AMD.

Även om AMD skulle leverara en produkt som är lika bra P/Watt eller till och med bättre så spelar det ingen roll för Nvidia har ett sådant järngrepp över många människors uppfattning om de som företag och de bara är "bättre" än AMD.

Jag tror personligen att Navi kan ha en chans att komma ikapp men frågan kommer ju bli om RTX förändrar marknaden och om AMDs ProRender kan vara ett alternativ.

RT-cores är ju essentiellt "bara" en ASIC och magin ligger mycket i trixet som Nvidias mjukvara gör tillsammans med dessa, "enkla" kärnor. Jag ser inte hur detta skulle vara några svårigheter för AMD att efterapa.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem
Skrivet av Dinoman:

Problemet AMD har är inte enbart "market share" utan det allra största problemet är "mind share". Det är så många jag känner som har gått på marknadsföringstricket om att Nvidia, "bara fungerar" och "har bättre drivrutiner och stöd" än AMD.

Även om AMD skulle leverara en produkt som är lika bra P/Watt eller till och med bättre så spelar det ingen roll för Nvidia har ett sådant järngrepp över många människors uppfattning om de som företag och de bara är "bättre" än AMD.

Jag tror personligen att Navi kan ha en chans att komma ikapp men frågan kommer ju bli om RTX förändrar marknaden och om AMDs ProRender kan vara ett alternativ.

RT-cores är ju essentiellt "bara" en ASIC och magin ligger mycket i trixet som Nvidias mjukvara gör tillsammans med dessa, "enkla" kärnor. Jag ser inte hur detta skulle vara några svårigheter för AMD att efterapa.

Jag hoppas såklart på en comeback av AMD. Hade själv AMD förr och körde både 4850 och 4890 i crossfireX uppsättning. Kan inte minnas att jag haft några jätte problem med drivrutiner från varken AMD eller Nvidia, men förstår vad du menar. Folk verkar ha haft mer problem än mig iaf.

När jag skulle uppgradera gpu blev valet 1080. Vega64 hade inte släppts ännu, och hade inte varit ett alternativ pga förbrukningen. En lägre förbrukning, och en konkurrenskraftig prislapp, så får AMD gärna prestera lite sämre än Nvidia, då skulle jag köpa AMD.

Visa signatur

Corsair 7000D Airflow > 2x Alphacool NexXxus 420mm Rads > EK Quantum Kinetic TBE 300 >
AMD 5900X > Aorus X570 Master > G.Skill 32gb @ 3733mhz CL14 > 6900XT Liquid Devil Ultimate
Skärmar: > Acer 31,5" 2160p@144hz > 27" 1440p@60hz
Garaget.org > Ford Focus ST mk3 Stage 2

Permalänk
Medlem

Du har missat en poäng i din analys. Marknaden avgör, inte nvidia vad som kommer bli standard. Är tekniken för dyr, så köper ingen... så enkelt är det. Många klarar sig bra med nintendo switch som är baserad på något som skulle kunnat vara en gammal pensionerad tegra vid det här laget.

Visa signatur

Gilla min Guide till sweclockers tävlingen! :D : #12510535

Min Sweclockers-låt som aldrig deltog i Jultävlingen. Enjoy! https://www.youtube.com/watch?feature=player_embedded&v=g7gof...

Permalänk
Medlem

raytracing är imponerande ja, men i stadiet tekniken är just nu så är det lite mindre skoj, baserat på intels tidigare gpuer som dom utvecklat men inte lanserat så ser jag fram emot 2020 väldigt mycket

Permalänk
Medlem

Vissa vill alltid ha det bästa komponenterna oavsett om dom behöver eller inte, man måste inte spela i 4k 120Hz och strålspårning för att få en bra spelupplevelse, inse faktum att systemet måste processa en bildyta motsvarande 4st bildskärmar i storleken HD 1080p, folk skriver att det gått för långt och dom tänker sälja riggen och köra konsol istället när det kostar att ligga på topp, är det rädslan att e-penisen ska slakna i klubben för inbördes beundran? Både AMD, nVidia och kanske Intel kommer naturligtvis släppa produkter som passar det flestas behov om man skalar ner ens ambitioner lite, man kan inte räkna med att kunna köpa dom senaste och kraftfullaste teknik prylarna som finns i världen för småpengar.

Visa signatur

CPU: Intel i9-12900K Cooler: Asus TUF Gaming LC 240 ARGB MB: Asus TUF Gaming Z690 Plus Wifi D4 GPU: Asus TUF GeForce RTX 3080 Ti 12GB Case: In Win D-Frame HD: Intel Optane 900P 280GB, WD Black SN850 1TB Mem: Kingston Fury Beast RGB 3600MHz CL17 32GB PSU: Corsair AX760 OS: Win11 Pro

Permalänk
Medlem
Skrivet av Dinoman:

Problemet AMD har är inte enbart "market share" utan det allra största problemet är "mind share". Det är så många jag känner som har gått på marknadsföringstricket om att Nvidia, "bara fungerar" och "har bättre drivrutiner och stöd" än AMD.

Även om AMD skulle leverara en produkt som är lika bra P/Watt eller till och med bättre så spelar det ingen roll för Nvidia har ett sådant järngrepp över många människors uppfattning om de som företag och de bara är "bättre" än AMD.

Jag tror personligen att Navi kan ha en chans att komma ikapp men frågan kommer ju bli om RTX förändrar marknaden och om AMDs ProRender kan vara ett alternativ.

RT-cores är ju essentiellt "bara" en ASIC och magin ligger mycket i trixet som Nvidias mjukvara gör tillsammans med dessa, "enkla" kärnor. Jag ser inte hur detta skulle vara några svårigheter för AMD att efterapa.

Bra inlägg!

Många gör också följande. När AMD släpper ett kort som kan konkurrera med nVidia så att nVidia sänker priserna så köper man inte AMD utan nVidia.

Visa signatur

Ryzen 9 5950X, 32GB 3600MHz CL16, SN850 500GB SN750 2TB, B550 ROG, 3090 24 GB
Har haft dessa GPUer: Tseng ET6000, Matrox M3D, 3DFX Voodoo 1-3, nVidia Riva 128, TNT, TNT2, Geforce 256 SDR+DDR, Geforce 2mx, 3, GT 8600m, GTX460 SLI, GTX580, GTX670 SLI, 1080 ti, 2080 ti, 3090 AMD Radeon 9200, 4850 CF, 6950@70, 6870 CF, 7850 CF, R9 390, R9 Nano, Vega 64, RX 6800 XT
Lista beg. priser GPUer ESD for dummies

Permalänk
Datavetare
Skrivet av Dinoman:

Problemet AMD har är inte enbart "market share" utan det allra största problemet är "mind share". Det är så många jag känner som har gått på marknadsföringstricket om att Nvidia, "bara fungerar" och "har bättre drivrutiner och stöd" än AMD.

Även om AMD skulle leverara en produkt som är lika bra P/Watt eller till och med bättre så spelar det ingen roll för Nvidia har ett sådant järngrepp över många människors uppfattning om de som företag och de bara är "bättre" än AMD.

Jag tror personligen att Navi kan ha en chans att komma ikapp men frågan kommer ju bli om RTX förändrar marknaden och om AMDs ProRender kan vara ett alternativ.

RT-cores är ju essentiellt "bara" en ASIC och magin ligger mycket i trixet som Nvidias mjukvara gör tillsammans med dessa, "enkla" kärnor. Jag ser inte hur detta skulle vara några svårigheter för AMD att efterapa.

Även om RT-cores "bara" är en ASIC (vilket rent krasst kan sägas för allt i en GPU) så finns några rätt starka kort i den hand Nvidia just nu sitter med

  • efter lite grävande hittade jag ett patent (edit: lyckades länka fel patent, här är rätt samt en rad andra som jag också hittat från Nvidia) på den grundläggande tekniken i RT-core, det betyder att AMD och Intel endera måste licensiera tekniken (inte alls säker att Nvidia är intresserad av det) alt. måste man hitta en annan metod som även den kan implementeras effektivt i HW

  • RT-cores är ett rätt stort avsteg från vad en GPU tidigare kunnat hantera med stor effektivitet. GPUer har tidigare "bara" kunna hanterat data-parallella problem med riktigt hög effektivitet (gäller även tensor-cores).
    RT-cores hanterar i.o.f.s. ett extremt specifikt problem, men det är ett uppgiftsparallellt problem, inte ett data-parallellt problem, något som kräver en rätt rejält annorlunda HW-design mot andra delar i en GPU!

  • utanför spel befäster CUDA sig allt mer som APIet med stort "A" för GPGPU-programmering, under senaste året pågick ett diskussion kring om man överhuvudtaget skulle fortsätta utveckla OpenCL eller om det skulle gå upp i Vulkan på något sätt. En diskussion som knappast stärker OpenCL som relevant API för datacenter...
    Nu har man ändå bestämt sig att man ska fortsätta med OpenCL (fanns flera fall som är vettiga för OpenCL men helt irrelevanta för Vulkan). På sikt kan SyCL bli en verklig konkurrent till CUDA, men det är fortfarande rätt mycket "work-in-progress"

Förhoppningsvis sitter konkurrenterna med teknik som kan utmana Nvidia, men det är inte alls något som känns som speciellt bombsäkert (i alla fall inte i närtid).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Dinoman:

AMD har redan exakt samma teknik. De kallar det för AMD Radeon ProRender.

Ett litet utkast;

"This new process fuses the speed of rasterization with the physically-based realism that users of Radeon ProRender expect for their workflows. At a high level, the process achieves these results by using rasterization to draw basic structures and surfaces before a ray tracing process is used to compute advanced light-effects like reflections, shadows and transparency. The flexibility of the process allows users to decide when these advanced light effects are actually necessary and add noticeable new dimensions of realism to their renders."

Jag är övertygad om att AMD jobbar stenhårt på att utveckla denna tekniken och titta på hur de kan skapa ett öppet bibliotek, kontra ett stängt som Nvidia erbjuder. Detta har de alltid gjort och jag ser ingen anledning att de inte skulle göra samma sak denna gången.

Den stora frågan som jag ser det, är Nvidias RT-cores såklart. Vad är de? Hur speciella är de? Nvidia kan ju göra Ray Tracing beräkningar på deras CUDA-cores med men en enorm prestandaförlust kontra de kommande RT-cores.

Inget säger ju att AMD inte kan kopiera exakt samma set-up som Nvidia och förmodligen är de redan på väg.

Personligen tror jag att Nvidias Ray Tracing teknologi är fortfarande för krävande för att göra en större skillnad i dagens och nästa års spel. Jag tror att nästa generation från Nvidia kommer vara den som kommer bringa RTX på allvar. Det är för mycket som tyder på att till och med 2080 Ti blir helt sänkt även i 1080p men vi får se.

Det vore mer korrekt att säga att AMD har en hybrid-renderare, vilket i sig inte är något unikt - det finns flera olika varianter på det (MentalRay, V-Ray och Renderman t.ex.). Skillnaderna ligger i hur teknikerna implementerats. Där har nVidia kommit långt med att erbjuda specifikt hårdvarustöd.

RT-cores är förmodligen en specialiserad variant av Tensor-cores. Neurala nätverk och strålspårning kan båda köras som rekursiva matriser, och Tensor-cores jobbar just med multiply-accumulate operationer på matriser. Jag är ingen datavetare så min förståelse för det är inte särskilt djup, men det förefaller i varje fall som att båda processerna kan accelereras med snarlika operationer.

En annan sak som är oerhört viktig för Turing är just AI;n. Den gör det möjligt att utföra färre beräkningar men ändå få en ren bild utan flimmer. Utan den delen hade det inte blivit någon Turing.

Permalänk
Medlem
Skrivet av Dinoman:

Problemet AMD har är inte enbart "market share" utan det allra största problemet är "mind share". Det är så många jag känner som har gått på marknadsföringstricket om att Nvidia, "bara fungerar" och "har bättre drivrutiner och stöd" än AMD.

Jag tycker att AMDs rykte är välförtjänt i förhållande till det antal supporttimmar jag personligen fått lägga på ATI/AMD-GPUer genom åren jämfört med Nvidia. Jag kan ju såklart bara ha haft en extrem tur att råkat ha fått ihop alla stationära Nvidia-baserade system på första försöket utan några särskilda procedurer, medan AMD (och framförallt ATI!) krävt massa manuella ingrepp i systemet både för och efter installation.

Det är också stor skillnad i attityd mellan användarna. Att behöva hacka registret för att alla Windows-menyer blev vita efter drivrutinsuppdatering är tydligen "helt normalt" för somliga, medan det för andra är ett tydligt tecken på att drivrutinerna är ett brinnande skeppsvrak av papper som försöker navigera i en ocean av petroleum utrustat med brandsläckare fyllda av napalm med vit fosfor.

Permalänk
Hjälpsam

@Sveklockarn: Själv har jag aldrig haft några problem, inte sedan jag skaffade Vista 64 våren 2007, men jag överklockar inte och kör inte heller CF, det kan vara orsaken.

On Topic: tror att spelande med RTX, är en biprodukt från Pro Turing, där är AI och strålspårning guld värt och Turing Pro kommer att generera guld.
Är dock tveksam till att tekniken är mogen till spel, strålspårning är otroligt krävande, vi får se.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

Som en person som ser realistisk grafik som det generellt sett minst viktiga i spel så ser jag det som mest negativt för de närmsta tiden, hur mycket av kretserna kommer vara dedikerade till att bara kunna användas till ray tracing? Hur mycket extra prestanda hade man kunnat haft som nu inte kan användas för majoriteten av spel?

Rätta mig om jag har fel men vad jag förstått så är det dedikerad del av kretsen som jobbar med ray tracing enbart, inte en mjukvaru lösning som gör att den kan switcha samma del från vanlig rendering till ray tracing.

Visst är det coolt att se super fancy grafik, men det finns inte ett enda spel jag kör aktivt idag där jag ser det som en viktig feature i spelet, hell jag drar oftast ner settings för att det är i vägen mer än det lägger till ofta, eller för att få mer eller stabilare framerate.

Så hur mycket extra betalar man för korten för en feature jag antagligen inte kommer använda? Hur mycket bättre prestanda kunde kortet haft under "normal" användning om det inte hade haft den tekniken? Det är så mycket fokus på realistisk grafik men jag tycker det generellt sett inte gör spel bra, ofta har det t.om. en negativ effekt där för mycket kraft läggs på grafiken sen finns inte pengar kvar till att faktiskt göra ett underhållande spel...

Är intressant att se vart det hela leder så klart, känns som att det är i VR där det skulle passa mest men med tanke på kraven på VR i upplösning och framerate så är det inte nått vi kommer se på många många år än.

Visa signatur

AMD Ryzen 7 7800X3D | Noctua NH-U12A | Gigabyte B650 Aorus Elite AX | Corsair 2x16GB DDR5 6000MHz CL30 Vengeance RGB | PowerColor Radeon RX 6800 XT 16GB Red Dragon | Fractal Design Torrent Compact | Seasonic Prime GX 1300W | MSI Optix MAG274QRF-QD + HP ZR24w | WD Black SN850X 2TB | Windows 11 Home 64-Bit |

Permalänk
Medlem
Skrivet av Sveklockarn:

Jag tycker att AMDs rykte är välförtjänt i förhållande till det antal supporttimmar jag personligen fått lägga på ATI/AMD-GPUer genom åren jämfört med Nvidia. Jag kan ju såklart bara ha haft en extrem tur att råkat ha fått ihop alla stationära Nvidia-baserade system på första försöket utan några särskilda procedurer, medan AMD (och framförallt ATI!) krävt massa manuella ingrepp i systemet både för och efter installation.

Det är också stor skillnad i attityd mellan användarna. Att behöva hacka registret för att alla Windows-menyer blev vita efter drivrutinsuppdatering är tydligen "helt normalt" för somliga, medan det för andra är ett tydligt tecken på att drivrutinerna är ett brinnande skeppsvrak av papper som försöker navigera i en ocean av petroleum utrustat med brandsläckare fyllda av napalm med vit fosfor.

Har själv levt i PC-världen sedan dinosaurierna vandrade på jorden och min upplevelse är samma. Har ägt och satt ihop mängder med system från bägge lagen och Nvidia är normalt några klasser problemfriare.

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av Yoshman:

[li]RT-cores är ett rätt stort avsteg från vad en GPU tidigare kunnat hantera med stor effektivitet. GPUer har tidigare "bara" kunna hanterat data-parallella problem med riktigt hög effektivitet (gäller även tensor-cores).
RT-cores hanterar i.o.f.s. ett extremt specifikt problem, men det är ett uppgiftsparallellt problem, inte ett data-parallellt problem, något som kräver en rätt rejält annorlunda HW-design mot andra delar i en GPU![/li]

Har du lust att utveckla det lite? Är jag ute och cyklar i mitt inlägg?