Nvidia Geforce 3000 sägs få hjälpprocessor för ray tracing

Permalänk
Melding Plague

Nvidia Geforce 3000 sägs få hjälpprocessor för ray tracing

Ny teori anger att kylardesignen med fläktar på båda sidor av grafikkortet pekar på att Geforce RTX 3000 får en hjälpprocessor.

Läs hela artikeln här

Permalänk
Medlem

Det är väl inte helt otänkbart, det kan innebära mindre yta per chip och därför bättre yield och konkurrenskraftiga priser. Gissar dock på att båda chippen i så fall kommer sitta på samma substrat. Så jag tvivlar på att kyllösningen har något med detta att göra.

Permalänk
Discokungen

Det hade varit väldigt trevligt sett till kostnaden att ha dedikerade raytracingkretsar och även instickskort. Här tycker jag också att det är betydligt mer rimligt att ha det uppdelat än det någonsin var för PhysX. Enda nackdelen jag skulle kunna tänka mig för det är att det i så fall bara kommer fungera för Nvidia, om man ser till deras historia. En gemensam standard hade inte varit dumt.

Permalänk
Lyxfällan 🎮

@Flamso: Om Nvidia tillämpar denna hjälpprocessor lär den dock vara kompatibel med DXR och Vulkan-API:er, så att utvecklare inte behöver "uppfinna hjulet på nytt" när de ska utveckla RT-innehåll.

Permalänk
Discokungen

@loevet javisst! Jag tänker mer i stil med att instickskorten enbart skulle fungera med Nvidias grafikkort i samma system, som det var på PhysX-tiden.

Permalänk
Medlem

Intressant ide' , men inte särskilt trolig.

Kollar man på GA100 så har den galet hög transistordensitet, det finns plats för en hel del transistorer särskilt som det ryktas bli stora chip.

Problemet med att lägga så intensiva beräkningar i ett separat chip är att man måste ha en buss emellan och blir då kraftigt bandbredds/latency begränsad. Det är viktigt, Ampere ryktas tex få ett rejält mycket större cache just för att få ner latency vid fler typer av beräkningar.

Skulle kunna vara meningsfullt på lägre kort, men inte på flaggskeppskorten. Om tekniken vore så bra skulle GA100 också vara modulär eftersom priset betyder mycket mindre där.

edit. en annan sak som talar emot det är att det finns ingen motsvarande läcka angående RDNA2, och RDNA2 ryktas ju ha brutalt bra RT prestanda.

Permalänk
Lyxfällan 🎮

@Flamso: jo men här handlar det ju om en hjälpprocessor som sitter på GPU:ns mönsterkort, så det skulle ju inte vara instickskort som kan installeras i systemet. Ska jag ta på mig spekulerar-hatten tror jag inte den sortens specialiserade instickskort kommer göra en återkomst i första taget

Permalänk
Medlem

Varför säljer man inte strålspårnings kretskort separat, grafikkorten är ju större volymmässigt och dyrare än moderkort i dagsläget.

Permalänk
Medlem
Skrivet av Fenrisulvfan:

Varför säljer man inte strålspårnings kretskort separat, grafikkorten är ju större volymmässigt och dyrare än moderkort i dagsläget.

Det är nog tekniskt svårt, SLI/Crossfire har aldrig slagit riktigt stort och där är uppgiften ändå såpass enkel som att fläta två bilder till en. Tänk att integrera RT ljussättning i en befintlig spelvärd, över PCIE, bara tanken låter tekniskt svårt. Phys X är oändligt mycket mer primitivt än RT.

Permalänk
Medlem
Skrivet av Fenrisulvfan:

Varför säljer man inte strålspårnings kretskort separat, grafikkorten är ju större volymmässigt och dyrare än moderkort i dagsläget.

För att kommunikationen mellan den vanliga GPUn och det dedikerade kortet måste vara blixtsnabb för att att inte tappa prestanda. NVLink skulle säkert kunna lösa det. Men Nvidia vill såklart också att så många som möjligt har tillgång till den här tekniken, de vill inte att man ska kunna välja bort den.

Permalänk
Medlem
Skrivet av dlq84:

Nvidia vill såklart också att så många som möjligt har tillgång till den här tekniken, de vill inte att man ska kunna välja bort den.

Inte bara Nvidia, även speltillverkarna lär kräva det för att göra sig besväret att implementera tekniken i spel.

Permalänk
Medlem

Heh, Ageia, det namnet har jag inte hört på väldigt länge.

Permalänk
Medlem

Ärligt talat tror jag inte stenhårt på detta, det finns nämligen ingen tjock fläns på baksidan PCB'n, kikar man på hur flänsen är monterad så ligger PCB'n på kylaren & en fläkt riktas rakt mot GPU'n medans den andra fläkten blåser genom flänsen och kortet i bakändan, det som täcker baksidan på kortet är bara en backplate.

Här har jag ritat in vart PCB hamnar på den fläns som används (Ni får leva med mindre än perfekt bild...)

Det är alltså under den flänsen som PCB'n sitter, det kan se ut som det är inritat ovanför den men det är bara för att påvisa hur pcb sitter lite mer synligt, det som sitter i hålet där är fläkten, fläkten i bakändan blåser sedan underifrån genom hela flänsen. Det man ser i fläkthålet i framändan (mot kortets bildanslutningar) är ovansidan av en vapor chamber antagligen

Permalänk
Medlem

Skriker fejk om detta. Hittade en teknisk förklaring som komplement till Tellus:

The interpretation of that patent makes no sense for the context of RTRT in current Windows DirectX environment.
Imagine doing inline RT and your shader launch a ray query, it goes offchip ..

No amount of power and BW will save this.

Talk about people complaining that RT being BW intensive and being very divergent with bigger scenes when tons of boxes needed to be tested for intersection on the ray path.
Don't even know what this shader which launch the ray query will do. Who will resync the result.

It is just wild.

A more realistic interpretation is that the co-processor sits aside the SM or along side the other ALUs and has an idea of the context which shader is launching the ray query so that results can be passed back. ( quite similar to something ...)

Permalänk
Medlem

När det även talas om rejält tilltagna strömbudgetar för kommande kort i toppklassen hos både Nvidia och AMD så lär designen också behövas bara för det vanliga. En design som verkar för dyr att ha till mellanklassen.

Permalänk
Medlem

Här ser man tydligare att det är en helt vanlig backplate på baksidan kortet som dessutom inte har heatpipe anslutning till kylaren, backplaten täcker endast kretskortet (knappt)

Permalänk
Medlem

Detta är ju en lika galen teori som VRM kortet som skulle sitta i kylflänsen under fläkten som blåser neråt.

Folk har alldeles för mycket tid just nu.

Permalänk
Medlem

Seriöst, Coreteks som källa?

Är ju till och med ett steg värre än Wccftech.

Permalänk
Medlem
Permalänk
Medlem

En sak som irriterar mig över denna kylardesign är att i ett normalt chassi så kommer luften från den "bakre" fläkten (änden mot framsidan på chassit) som blåser genom hela kyalren att studsa mot botten av chassit, troligtvis blåsas bakåt av de främre fläktarna i chassit för att sugas in i den fläkt som sitter direkt mot själva GPU'n.

I min (inte alltid smarta) hjärna hade det varit bättre om den bakre fläkten haft samma orientering som de främre, då hade luften blåst upp genom kortet mot CPU sektionen av lådan och kan evakueras av de bakre & övre chassifläktarna, fläkten hade då inte blåst varm luft nedåt chassits botten och således inte fört värme mot fläkten direkt på GPU'n. Inte helt optimalt för normala luftkylare på CPU'n men samtidigt den väg som luften normalt tar i en modern låda.

Möjligt att jag missar något men för mig ser det jävligt underligt ut i det scenario som en absolut merpart av alla moderna datorlådor har.

Permalänk
Medlem

@tellus82: Tror inte det är något närmare problem, då det är mer storleken på kylaren som spelar mer roll.
Är väl lite samma som t.ex. en Noctua D-15, den främre kylflänsen värmer ju inte upp den bakre så att kylningen blir lika med noll, eller?
Så länge det finns tillräckligt med chassiventilation så spelar det ingen större roll.

Värmeöverföringen mellan kylfläns och luft är ju inte 100%, det vill säga att luften blir lika varm som kylflänsen utan mer kanske höjer sig ett par grader, vilket gör att det fortfarande finns kyleffekt kvar till nästa kylfläns.

Permalänk
Lyxfällan 🎮

@The Kristoffer: Mmm, just att anropen skulle behöva lämna grafikkretsen för att nå hjälpprocessorn gör denna teori något osannolik. Att en hjälpprocessor skulle avlasta och ge mer utrymme till traditionell renderingsprestanda är förvisso sund, men den praktiska innebörden av en separat krets gör detta ganska osannolikt.

Permalänk
Medlem
Skrivet av loefet:

@tellus82: Tror inte det är något närmare problem, då det är mer storleken på kylaren som spelar mer roll.
Är väl lite samma som t.ex. en Noctua D-15, den främre kylflänsen värmer ju inte upp den bakre så att kylningen blir lika med noll, eller?

Värmeöverföringen mellan kylfläns och luft är ju inte 100%, det vill säga att luften blir lika varm som kylflänsen utan mer kanske höjer sig ett par grader, vilket gör att det fortfarande finns kyleffekt kvar till nästa kylfläns.

Fast varför skulle man inte orientera fläkten på samma sätt som den främre? Enda anledningen jag kan komma på är att man inte vill blåsa upp varm luft mot cpu sektionen av en låda men för min del hade nog det varit mest optimala lösningen

Permalänk
Lyxfällan 🎮

@hg: vi är också tydliga med att det handlar om en teori från Coreteks, som baseras på kylardesignen. Jag tror personligen inte på att Nvidia tillämpar detta, men teorin har en vettig grund i att en sådan lösning skulle ge huvudkretsen mer utrymme för att öka konventionell renderingsprestanda. Men problem med latenser i kommunikation mellan de två kretsarna gör nog detta praktiskt olämpligt.

Permalänk
Medlem
Skrivet av loevet:

@hg: vi är också tydliga med att det handlar om en teori från Coreteks, som baseras på kylardesignen. Jag tror personligen inte på att Nvidia tillämpar detta, men teorin har en vettig grund i att en sådan lösning skulle ge huvudkretsen mer utrymme för att öka konventionell renderingsprestanda. Men problem med latenser i kommunikation mellan de två kretsarna gör nog detta praktiskt olämpligt.

Sen saknar den (teoretiska) bakre kresten en kylare på det vi sett hitintills i så fall, en backplate agerar inte kylare mer än för någon enstaka watt, en krets av denna typ skulle sannolikt dra betydligt mer än någon watt.

Permalänk
Medlem
Skrivet av loevet:

@The Kristoffer: Mmm, just att anropen skulle behöva lämna grafikkretsen för att nå hjälpprocessorn gör denna teori något osannolik. Att en hjälpprocessor skulle avlasta och ge mer utrymme till traditionell renderingsprestanda är förvisso sund, men den praktiska innebörden av en separat krets gör detta ganska osannolikt.

Exakt, skulle det finnas behov av en, så är det kanske mer troligt att se lånar AMDs speciallim och sätter den bredvid GPUkretsen istället, behöver ju inte slösa kretskortutrymme med ett extra chipset.

Skrivet av tellus82:

Fast varför skulle man inte orientera fläkten på samma sätt som den främre? Enda anledningen jag kan komma på är att man inte vill blåsa upp varm luft mot cpu sektionen av en låda men för min del hade nog det varit mest optimala lösningen

Det är väl så de tänkt. Om kortet nu har en förbrukning på 300+W vilket vissa spekulerar i (vilket jag personligen har svårt att se då jag bara ser en PCI-e power kontakt på kortet), så vill man ju begränsa luftflödet bäst man kan.

Permalänk
Medlem
Skrivet av loefet:

Det är väl så de tänkt. Om kortet nu har en förbrukning på 300+W (vilket jag personligen har svårt att se då jag bara ser en PCI-e power kontakt på kortet), så vill man ju begränsa luftflödet bäst man kan.

Fast vart har man tänkt att den varma luften ska ta vägen och speciellt om det handlar om 300W+? Den kommer till slut hamna i den övre regionen runt själva cpun (efter att fläkt två på kortet sugit runt den en vända) men det som händer med denna design är att man skapar en hotbox under själva grafikkortet, en lösning är såklart att använda fläktar i botten av lådan som evakuerar luft direkt under grafikkortet men då skapar man samtidigt en sämre situation för den andra fläkten på kortet, som sagt, för mig haltar denna design betänkligt om man kikar på luftflöde i en normal modern låda.

Permalänk
Medlem

@tellus82: Hälften av luftflödet från fläkten närmast skärmuttagen är ju kylflänsarna riktade så att luften kommer att blåsas utåt. Så det hjälper ju en del. Man får ju hoppas att de har gjort tillräckligt många simuleringar och tester för att komma fram till att denna lösningen är den bästa. Får se när de lanserar produkten.

På detta kort tror i alla fall jag på en effektförbrukning av max 225W, 1x 8-pin på kortet plus det som finns i PCI-e slotten.
Uttaget står på högkant i en 45 gradig vinkel ungefär mitt på sidan av kortet (på den andra bilden), och ser ingenting som pekar mot något annat på bilden över kylflänsarna.

EDIT:

Där sitter den. Och på kortet är det ju bara en markering för ett uttag. Så om inte Nvidia lyckas med att införa en ny PCI-e power standard mer än 8-pins så kommer detta kort att stanna på 225W.

Permalänk
Medlem
Skrivet av loefet:

@tellus82: Hälften av luftflödet från fläkten närmast skärmuttagen är ju kylflänsarna riktade så att luften kommer att blåsas utåt. Så det hjälper ju en del. Man får ju hoppas att de har gjort tillräckligt många simuleringar och tester för att komma fram till att denna lösningen är den bästa. Får se när de lanserar produkten.

På detta kort tror i alla fall jag på en effektförbrukning av max 225W, 1x 8-pin på kortet plus det som finns i PCI-e slotten.
Uttaget står på högkant i en 45 gradig vinkel ungefär mitt på sidan av kortet (på den andra bilden), och ser ingenting som pekar mot något annat på bilden över kylflänsarna.

Ja nog får man hoppas att man har goda anledningar till denna design annat än att det ska se fränt ut, jag misstänker dock att det är huvudorsaken tyvärr men det kan vara skeptikern i mig bara...

Permalänk
Medlem

@tellus82: Bästa med en genomblåsande design är ju dock att kylningen i SLI eller andra täta konfigurationer blir ju så mycket bättre.