Nvidias nästa arkitektur kan döpas efter "datavetenskapens fader" – Alan Turing

Permalänk
Medlem

Borde den inte heta Babbage då?

Skickades från m.sweclockers.com

Visa signatur

A midget fortune-teller who escapes from prison is a small medium at large.
Canon 6D, Sigma 24-70/2.8, Canon EF 100/2.8 Macro, Canon EF 70-200/4L IS, Samyang 14/2.8 Canon EF 28/2.8, Tamron 150-600/5-6.3

Permalänk
Medlem

Har inte Nvidia tidigare sagt att de vill göra mer beräkningskort lämpade för AI? Turing låter som något sådant i min mening...

Permalänk
Medlem
Skrivet av Yoshman:

Ett eventuellt problem med att kalla en grafikkortsfamilj för "Ampere" är att ett gäng topp-chefer och ingenjörer från bl.a. Intel, AMD och Apple har gaddat ihop sig och startade för något år sedan Ampere Computing.

Förra vecka kom detta företag ut ur "stealth mode" när de presenterade sin kommande server-CPU Ampere (ARMv8 baserad, börjar bli rätt många företag med ARMv8 baserade server-kretsar nu...).

Tänkte på samma sak, kan vara att Nvidia beslutade att stryka namnet Ampère för att undvika möjlig stämning.

Skrivet av Asssor:

Ett tips, kolla på Imitation Game. En mycket bra och väl sevärd film som handlar om just Alan Turing.

Mycket bra film, kan starkt rekommenderas om man är nyfiken på Alan Turing.

Permalänk
Hedersmedlem
Skrivet av Buio:

Många spel skulle behöva bättre AI. Tyvärr verkar det inte prioriterat. Hoppas vi får i framtiden får AI cores även i spelkort, när utvecklare lärt sig använda dem.

Nu har du fått en del bra svar här men kan lägga till lite.

Det spel behöver är bättre algoritmer för AIn. Exempelvis som du nämner i strategispel. Men jag vill påstå att det inte kräver någon speciell beräkningskapacitet i speldatorerna för det här. Datakraften behövs snarare i en serverhall.
Dessa algoritmer kan tas fram från analys av mängder av spelrundor eller att datorn spelar mot sig själv igen och igen och igen och lär sig av det här för varje iteration. Denna process behöver bara göras en gång i grunden (well, inte egentligen men typ) vilket då görs av utvecklarna av spelet. Exempelvis blizzard kan köra AIinlärning med några tusen teslakort över en period för att ta fram bra AIalgoritmer. Det är inlärningsprocessen, repetitionerna och de enorma datamängderna som ska analyseras som kräver specialhårdvara.
När bättre algoritmer sedan är framtagna så kan våra hemdatorer använda sig av dessa algoritmer som ger oss smartare AI utan att vi behöver någon större datakraft. Värt att nämna är väl att denna AI sedan behöver anpassas för att inte bli för bra. Det här är någt man sedan starten har fått begränsa i exempelvis fightingspel och FPS-lir då vi inte har en suck som människor med vår dåliga aim/reaktionsförmåga annars.

Som exempel har detta gjorts med pokerbots. Dessa har fått spela kanske hundra miljoner partier mot varandra där de efterhand blivit bättre eller att de har analyserat miljontals spel från andra på nätet. Det kräver mängder av datakraft för att genomföra dessa analyser. När detta sedan är gjort har man fått ett gäng regler i from av algoritmer som kan tillämpas utan att behöva behandla tidigare data så en jättebra pokerbot kan sedan rulla på en ganska klen dator.

Edit:
Nu finns det väl ungefär en oändlig mängd grejer till man kan säga om det här. Började skriva på mer grejer men ämnet är ju svårt att sammanfatta haha. Får nog berga mig lite

Visa signatur

🎮 → Node 304 • Ryzen 5 2600 + Nh-D14 • Gainward RTX 2070 • 32GB DDR4 • MSI B450I Gaming Plus AC
🖥️ → Acer Nitro XV273K Pbmiipphzx • 🥽 → VR: Samsung HMD Odyssey+
🎧 → Steelseries arctic 7 2019
🖱️ → Logitech g603 | ⌨️ → Logitech MX Keys
💻 → Lenovo Yoga slim 7 pro 14" Oled

Permalänk
Medlem
Skrivet av Simonsky:

Förstår att du skämtar men tycker det är tråkigt att dra paralleller mellan en av Sveriges mest framstående matematiker och en nazist.

Trams!! Du verkar vara en sån där lättkränkt individ som ska slå ner på allting. Det var väl för böveln ett harmlöst skämt? Till och med du begrep ju att det var ett skämt så vad är problemet?

Visa signatur

Speldjävulen angrep mitt kranium...

Permalänk
Medlem
Skrivet av Buio:

Är du helt säker på att de i framtiden inte kan användas för AI i t.ex. strategispel? Eller gissar du bara?

Fast nu gör du bara vantolkningar av vad jag säger. Jag har inte sagt något om att det inte skulle komma i framtiden.
Däremot så sa jag att det är rätt långt bort innan vi har spel som använder sig av riktig maskininlärning som kan dra nytta av den typen av kretsar vi talar om här. Dagens grafikkort lär inte vara aktuella för detta.

Dessutom så har du en del problem när hela spelet beter sig annorlunda beroende på hur stark hårdvara du har. Jag tror att förbestämd AI utan självinlärning är det som gäller för den stora massan av spel en lång tid till.
Kommer säkert lite roliga och finurliga konceptspel innan dess såklart.

Permalänk
Medlem
Skrivet av Söderbäck:

Nu har du fått en del bra svar här men kan lägga till lite.

Det spel behöver är bättre algoritmer för AIn. Exempelvis som du nämner i strategispel. Men jag vill påstå att det inte kräver någon speciell beräkningskapacitet i speldatorerna för det här. Datakraften behövs snarare i en serverhall.

Det behövs datakraft också, jag har en modern dator och i många spel tar det lång tid med rundorna trots detta. Samtidigt som AI inte är speciellt bra.

Permalänk
Medlem

NVIDIA har ju genom åren som Intel oftast inte gått enligt planeringsschemat för dom kommande åren, t.ex Maxwell var ju planerat 2013 men vart 2014 istället.

Skrivet av Simonsky:

Förstår att du skämtar men tycker det är tråkigt att dra paralleller mellan en av Sveriges mest framstående matematiker och en nazist.

Du skriver precis som alla lättkränkta läsare på Aftonbladet.

Visa signatur

MSI X99A GODLIKE GAMING | i7-6950X 4.3GHz | 64GB RAM 3200MHz | RTX 2080

Nintendo Switch | PlayStation 5 | Xbox Series X

Min FZ Profil

Permalänk
Medlem

Står ju i källan att Volta blir nästa gaming kort, medans Turing kommer att presenteras nästa månad.

Permalänk
Medlem

Såg nu att Turing skulle vara gamingkort enligt reuters. Där ser man. Får se sedan, men vad korten heter är egentligen ganska irrelevant. Det som är relevant är det tekniska. Nvidia kan ju teoretiskt sett frångå namnschemat och kalla ett icke Volta-kort för Volta för att få det enhetligt. Samtidigt kan de byta namn på arkitekturer utan att byta egentlig teknik. Tror att nästa spelkort kan dela förbättringar med GV100 på vissa plan, men att arkitekturen avviker på mer beräkningsorienterade områden. Hursomhelst så har det varit ovanligt lite läckor tycker jag. Hur långt bort är lanseringen egentligen?

Permalänk
Medlem

Turing är en krets helt inriktad på Crypto mining som @crion skrev rätt tidigt i tråden
Blir troligen ett lönsamt grepp för Nvidia och i slutändan även lönsamt för den som vill få tag på ett grafikkort till ett bra pris...

Visa signatur

Engineer who prefer thinking out of the box and isn't fishing likes, fishing likes is like fishing proudness for those without ;-)
If U don't like it, bite the dust :D
--
I can Explain it to you, but I can't Understand it for you!

Permalänk
Medlem

Konrad Zuse var den elektroniska datorns fader och inte Turing även om Zuse använde en del av de teoretiska principerna som Turing hade i sin design. Zuse Z3 var världens första programmerbara elektroniska dator.
Turing var bara kring tjugo bast när Zuse satte ihop sin Z1.

"Thanks to this machine (Z3) and its predecessors, Konrad Zuse is often regarded as the inventor of the computer."

Visa signatur

2x Xeon E5-2699 v4, 256gb Quad Channel RAM, 2x nVIDIA 980ti
----
AMD Ryzen 5950X, 128gb Dual Channel RAM, 2x AMD 6900XT
----
Massiv amiga och 3dfx-samling.