Att Nvidia storsatsar på artificiell intelligens (AI) i en mängd olika former är ingen nyhet. Det görs i form av hårdvara, likt serverinriktade processorn "Grace" och grafikarkitekturen "Hopper". Det återfinns även i olika typer av programvara, där AI spelar en central roll i allt från uppskalning i spel till att skapa digitala konstverk.

Sedan en tid tillbaka har grafikjätten tradition av att bjuda på en glimt av sina utvecklingsprocesser under mässan GTC, där årets föreläsning hölls av forskningschefen Bill Dally. I en sammanfattning från HPC Wire framgår det att Nvidia undersöker inte bara hur de kan utveckla AI, men även hur de kan vända på steken och låta AI utveckla grafikkretsar.

Enligt Dally har Nvidia identifierat fyra områden där AI kan användas för att effektivt förbättra och öka takten för designprocessen när det kommer till grafikkretsar. Det inkluderar bland annat processen att krympa en kretsdesign inför byte till en mindre tillverkningsnod och för att förutsäga och kartlägga spänningsfall.

For example, we have one that takes a map of where power is used in our GPUs, and predicts how far the voltage grid drops – what’s called IR drop for current times resistance drop. Running this on a conventional CAD tool takes three hours. Because it’s an iterative process, that becomes very problematic for us. What we’d like to do instead is train an AI model to take the same data; we do this over a bunch of designs, and then we can basically feed in the power map. The [resulting] inference time is just three seconds. Of course, it’s 18 minutes if you include the time for feature extraction. – Bill Dally, forskningschef på Nvidia

En del av strategin är att integrera element av maskininlärning eller AI-modeller i redan existerande verktyg och programvara, vilket gör att fler processer kan automatiseras. Vissa beräkningar som tidigare kunde ta flera timmar ska med hjälp av det ha komprimerats ned till knappa 20 minuter. Det frigör i sin tur tid för bolagets forskare att fokusera på mer avancerade delar av utvecklingen.

Huruvida AI-verktyg är något som aktivt använts i utvecklingen av exempelvis den kommande grafikarkitekturen "Ada Lovelace" och RTX 4000-serien framgår inte. Nvidia uttrycker dock en mycket positiv syn på AI som en del av utvecklings- och designprocessen framöver.