Nästa generation ppu på bild?

Permalänk
Medlem

Jag ser det mer som ett tillägg till grafik korten, ungefärligen som flyttals processorn var för CPU en gång i tiden, med andra ord tror jag att PPU kommer att integreras med GPU (jag tycker redan se tendenser redan). Anledning varför jag tror att det kommer att bli så jag tror det är man måste förflytta data från PPU till GPU, via CPU och det API som finns för grafiken. vilket blir en flaskhals...

Visa signatur

"Gravity is a myth, the earth sucks."

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av x1zt
[B] Det är väldigt intressant hur du lyckades komma fram till att jag tycker så när allt jag skrev var att jag tycker separata fysikkort ska bort. Jag har läst igenom mitt inlägg igen och kan då inte tolka det på det sättet hur mycket än jag försöker. Vilken mening exakt är det du syftar på där jag skriver att jag vill fler än ett grafikkort i datorn?

Där däremot skrev du något som är precis vad jag menar med fysikkort. Jag vill inte behöva köpa ett extra och knappast billigt fysikkort till min dator som dessutom drar ström och värmer på mer i datorn, kolla bara här? Aktiv kylning på deras nya fysikkort samt dessutom extra strömkontakt?
Vi kanske ska gå mot trenden specialkort för allt, t ex extra ljudfysikkort? Ljudet måste givetvis låta rätt när det studsar omkring på väggar och liknande i spelet, vore givetvis befängt att kräva att ljudkortstillverkarna själva implementerar på sina ljudkort.
Kanske något ljuskort också vore något? Så grafikkorten ska slippa göra det också? Ett kort som bara räknar ut ljusberäkningar i spel vore väl trevligt va? Tänk på det extra naturliga ljuset du skulle kunna få med ett sånt kort. Fantastiskt.

Hur som helst så ska vi kanske sluta anta saker tagna direkt från tomma intet?
Sluta smutsa ner forumet nu.

Läs vad du själv skriver; vill du ens ha realistiska spel?
Och jag förstår inte heller hur det skulle bli billigare, svalare eller mindre om man implanterade allt på ett kort.

Visa signatur

I like my women how i like my coffee... In a plastic cup.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av erixon
Jag ser det mer som ett tillägg till grafik korten, ungefärligen som flyttals processorn var för CPU en gång i tiden, med andra ord tror jag att PPU kommer att integreras med GPU (jag tycker redan se tendenser redan). Anledning varför jag tror att det kommer att bli så jag tror det är man måste förflytta data från PPU till GPU, via CPU och det API som finns för grafiken. vilket blir en flaskhals...

Vilket är samma fel som många gör. PPUn hjälper CPUn att beräkna alla partiklars och föremåls positioner. Först när scenen är klar skickas den till grafikkortet som renderar och presenterar den på skärmen.
PPUn gör att scenen kan bli mycket mer komplex, och därmed tar den längre tid för grafikkortet att rendera, med sänkt prestanda som resultat.
Endast om spelen är CPU-begränsade, vilket är sällsynt, kommer man få högre prestanda med PPU.

Visa signatur

Vägra fx 3of4 Pi 1M 1.84 s Memory remapping
Minnen har ingen egen hastighet. Märkningen anger bara vilken hastighet minnena uppges klara

Permalänk
Medlem

Gnäll gnäll gnäll.
Jag kommer iaf införskaffa det där.
Att man får sämre FPS med fysikkortet aktiverat är ju inte så konstigt, det är som att klaga på att man får sämre FPS när man drar upp detaljnivåerna i spel eller ändrar i nån config-fil hur många objekt som får visas samtidigt på skärmen.

Jag har hellre en värld med många fler interaktiva objekt som kan deformeras och kastas runt och kanske lite sämre fps än en i jämförelse tom värld och högre fps.

Permalänk
Medlem

Vidare har det nya Physx-kortet Pci-express x8/x16-gränssnitt samt en extern molex-strömkontakt. Detta indikerar att kortet är mycket kraftfullt jämfört med tidigare generationen. <-- Indikerar att det drar mycket mer ström än tidigare kort iaf...

Visa signatur

MBP: 13" - M1
Stationär: Win11 - Ryzen 5900X - 128GB - GTX 4080
Server: Ubuntu - i5 4670k - 32GB - 4x5TB Raid-Z
Server: Rpi4 8GB, 1TB USB SSD

Permalänk
Medlem

Sätt en till processor, eller en med flera kärnor, på de nya grafikkorten som kan ägna sig åt "icke grafiska operationer".

Visa signatur

i7 920 | 12GB DDR3 | GTX 480 | GA-X58A-UD7 | 160GB SSD X25-M G2 | 1TB F3 HD103SJ | W7 64-bit | Mac Mini
Webb: bluekitestudios.com

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Buio
Fåniga kommentarer, och bakåtsträvande tankesätt.

Ageia har gjort något som de tror på och fortsätter att satsa på trots att de egentligen misslyckats rätt grovt med första generationen. Det är inte säkert att det är rätt det de gör, men de har iaf lite pionäranda.

Hur tror du marknaden hade sätt ut om alla tänkt som dig när de första 3d korten misslyckades? "Nä, vi behöver ingen 3d-acceleration, det kan skötas av processorn. Titta på Quake, de flesta kör ju det utan 3d-kort och det är nästan snyggare, allt blir så blurrigt med 3d kort."

Vem vet, om 10 år kanske all grym fysik sköts av massiva multicore cpu. Men jag är iaf positiv till nya ideer, även i framtiden.

Jag är också positiv till nya ideér när jag själv gynnas, när jag ska behöva slänga ut 2000:- extra eller vad det kommer gå på till datorn vid uppgradering för ett fysikkort så blir jag dock mindre positiv till det hela. Speciellt när detta är något som grafikkortstillverkarna lika gärna kan implementera mycket bättre i sina grafikkort.

Citat:

Ursprungligen inskrivet av jonathan82
Det finns redan i de nya ljudkorten.
Med EAX så beräknas faktiskt ljudet ungefär på det sättet du beskriver.
Allt från ekon till hur ljudet låter då det kommer från olika vinklar och om det studsar innan det kommer fram.

Jag vet, men jag ville bara ta upp exempel.
Poängen jag ville ta upp var att fysikstödet borde egentligen vara något vi ska se grafikkortstillverkarna lägga till, precis som ljudkortstillverkarna har lagt in EAX i sina ljudkort och vi inte har några extra ljudfysikkort idag.

Citat:

Ursprungligen inskrivet av Eson
Läs vad du själv skriver; vill du ens ha realistiska spel?
Och jag förstår inte heller hur det skulle bli billigare, svalare eller mindre om man implanterade allt på ett kort.

Givetvis vill jag ha mer realistiska spel. Sen tror du inte att ATI och Nvidia som har hur många år som helst erfarenhet i avancerad kretstillverkning jämfört mot AGEIA kan lösa det på ett snyggare sätt genom att slänga in lite fysikstöd i sina kort? ATI har redan visat att man kan köra ett extra grafikkort för fysik för att en GPU är väldigt bra lämpad för sånna uppgifter. Framtiden har gått mot multicore för processorer, kanske något för grafikkortstillverkarna också? Quadcore GPUs där en kärna sköter fysik t ex.
Att det inte skulle bli billigare, svalare och mindre som du skrev med allt på ett kort betvivlar jag. En dualcore processor idag är knappt mer energikrävande än en singlecore processor. Vi kan ta upp AMD Fusion som ett exempel också kanske, tror du också att Fusion kommer bli lika energikrävande och dyr som en CPU + GPU separat? Jag tror knappast det i varje fall.

Visa signatur

"Alla barn hade stabila datorer förutom Lidia för hon hade chipset från nvidia"

Permalänk
Medlem

Ja, jag tror AMDs Fusion kommer bli lika energikrävande och dyr som en processor och grafikkort separat.

Och jag tror AGEIA har större koll än ATI och Nivida på hur man gör hårdvara till sin fysik-motor.

Om grafikprocessorn ska ta hand om både fysik och grafik så kommer det knappast bli snabbare eller billigare. 1+1 är inte 1. Säg nu att vi har ett grafikkort som tar hand om allt från AI till grafik. När grafikkortet går på knäna pga nya spel så kan det hända att AI och fysik delen förfarande står sig. Men du måste köpa ett nytt kort för 8000kr. Om du hade haft 3 separata kort kunde du uppgradera bara grafikkortet för kanske 4000kr.

Modulsystem är det som är bäst för oss konsumenter. Mardrömmen vore ett moderkort med allt integrerat och om ram-minnet är för litet så måste du köpa ett nytt moderkort för 15000. Hur kul är det?

Som du säger så har ATI och Nivida visat lite fysik som de har kört på deras grafikkort. Detta är jättebra för du kan återanvända ditt gamla grafikkort. MEN jag tror det är både billigare och bättre med ett separat fysikkort som kanske räcker två generationer grafikkort.

Visa signatur

I like my women how i like my coffee... In a plastic cup.

Permalänk

Det skulle möjligen gå använda någon form av culling effekt där fysikkortet aktiverar de objekt som påverkas av fysiken och därmed slår över till extra polygon läge för att kunna deformeras. Men just nu är det lite knivigt för fysik då de flesta väljer grafik som flyter på bra istället. Unreal t 3 lär ju vilja ha lite gpu.

Visa signatur

dualsata2| A64 3500+ 2,7 ghz | Cruical ballistix 2 gig DDR 4000 | jag hatar Nvidia 8800GTS 100% buggar (nu 5% och gudomligt 660/1044)|Windows XP Pro | Proff deluxe - kungen av vattenkylning| 480 W Hiper typeR nätagg

Permalänk
Medlem

Jaha. Så nu ska man ha 2st Fysik kort och två stycken grafikkort. Snart kommer väl moderkorten bara ha PCI-E 16x platser

Visa signatur

Intel Core i7 965 EE @ 4 GHz
Foxconn BloodRage X58
ATI HD 4870 + Accelero S1 Rev2 + 2st Zalman 120mm

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Tjalve
Jaha. Så nu ska man ha 2st Fysik kort och två stycken grafikkort. Snart kommer väl moderkorten bara ha PCI-E 16x platser

Ja, jag tyckte väl att någon annan än jag skulle lägga märke till kontakten för paralellkoppling av PPU korten. Ganska överambitiöst tycker jag....

Permalänk
Medlem

Duskussionen i denna tråden fick mig att bli medlem för att svara. Jag kommer knappt ihåg hälften av vad jag irriterade mig på, men tänkte kommentera det jag minns iallafall.

En CPU är inte speciellt välanpassad för fysikberäkningar, oavsett antal kärnor. Detta är på grund av att fysikberäkningar är flyttalsberäkningar, och detta är en allprocessor som CPU:n inte jättegrymm på. Värt att nämna är att det är precis i detta område ett grafikkort utmärker sig. Detta är en av anledningarna jag ser fram emot vad NVIDIA och ATI kommer att erbjuda fysiken i framtiden.

Något fler nämnde, som inte hör till denna tråden egentligen är AI-kort, det vill säga kort anpassade för AI-beräkningar. Sådana kort vore intressanta att se, speciellt med dagens påtagligt primitiva AI i spel och dylikt. Det svåra i det sammanhanget blir nog att få spelen kul med detta system. Ett AI-kort behöver vara bra på att traversera trädstrukturer och övervaka tillstånd eftersom det mesta av dagens AI sköts av just sådant. Men det vore även kul att se kort specialiserade på neurala nätverk, där jag tror framtiden finns för AI. Hur väl diverse typer av processorer lämpar sig för detta vet jag tyvärr ej, men jag vet att en CPU är väldigt bra på neurala nätverk i dagens läge.

Något annat som är tråkigt att se med detta kortet är att den använder aktiv kylning (oljud) samt en extra molex. Jag hade föredragit att de gått åt andra hållet och släppt en ny version av nuvarande kort med modifikationer, med andra ord tystare och strömsnålt. En trevlig sak är den extra bryggan som syns, med lite tur så är detta början på ett samarbete mellan Ageia och ATI/NVIDIA, men jag vågar inte hoppas för tidigt.

En av svagheterna med det förra kortet (om man nu kan kalla det så) var att det inte gick att programmera i efterhand, som grafikkortens shaders. Detta är något jag hoppas de har åtgärdat med det nya kortet. Jag kan dock tänka mig att en av anledningarna denna lösningen valdes var för att hålla ner priset, vilket i och för sig är trevligt. (Samma tankegång som Nintendo har med sin Wii, bland annat.) Men jag tror att Ageia hade gynnats mer av en flexibel shaderliknande lösning.

En av de tråkiga sakerna som många inte tänkte på med det förra kortet från Ageia, var att ofta så gick frameraten ner i spel på grund av att många fler saker renderades, tack vare den mer advancerade fysiken som alla natruligtvis ville använda. Detta är nog för att få kortet att framstå så häftigt som möjligt, istället för att göra det mer praktiskt. Spelentusiaster vill tyvärr se mer flashiga saker när de köper ny hårdvara. Själv hade jag föredragit att kortet 'bara' lastade av CPU:n istället. Men det hade nog inte gått hem på marknaden speciellt bra, sämre än den rutten de tog som enligt vissa "floppade".

Flera konsoller stöder Ageias fysikmotor ja, men ej genom hårdvara, utan de har stöd för Ageias fysikAPI, som jag måste erkänna är väldigt mysigt att arbeta i och har en ganska trevlig licens. Iallafall jämfört med ODE som är det jag använde tidigare. Jag har fortfarande inte provat på HAVOK, jag har inte ens försökt undersöka vad den har för licenser, om någon, för hobbymarknaden. Men det är säkert en trevlig motor för övrigt.

Nu kan jag inte minnas det var mer jag ville kommentera, även om det säkert var det.

Adjö!

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Inian
Sketa lång text

Hej och välkommen. Jag tycker det var väldigt bra skrivet av dig och jag tycker du ska kika in på det här forumet lite då och då för det saknas folk som kan sina saker.

Du som verkar ha koll på detta, vad använder playstation för krets för dom har väl påstått att deras apparater klarar av absurda flyttals beräkningar?

Och jag tycker att både ageia, havok, ati och nvidia borde satsa på speciella kort för fysik.

För övrigt tycker jag att AI borde kunna implementeras på en "lättare" krets i grafikkorten. Med en slumpgenerator skulle man kunna få fram ett mycket mer avancerat AI

Jag tar bara tankar ur huvudet just nu och reserverar mig från eventuella fel då klockan är mycket.
Mvh

Visa signatur

Utbildad datortekniker/elektriker.
Pluggat Optoteknik.
Eget företag under konstruktion.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av agazza
Hej och välkommen. Jag tycker det var väldigt bra skrivet av dig och jag tycker du ska kika in på det här forumet lite då och då för det saknas folk som kan sina saker.

Du som verkar ha koll på detta, vad använder playstation för krets för dom har väl påstått att deras apparater klarar av absurda flyttals beräkningar?

Och jag tycker att både ageia, havok, ati och nvidia borde satsa på speciella kort för fysik.

För övrigt tycker jag att AI borde kunna implementeras på en "lättare" krets i grafikkorten. Med en slumpgenerator skulle man kunna få fram ett mycket mer avancerat AI

Jag tar bara tankar ur huvudet just nu och reserverar mig från eventuella fel då klockan är mycket.
Mvh

Snygg citation och tack för välkomnandet!

Jag antar att du undrar om PS3? Vad jag vet så sitter det en CELL processor utvecklad av IBM i den, det är dess CPU. Som GPU sitter det en NVIDIA krets, jag kommer dock ej ihåg just vilken. Men den motsvarar någon av de kretsar som NVIDIA kommer släppa till PC-marknaden i höst/vinter, om än något modifierad (Om jag inte minns helt fel).

Teoretisk så klarar en CELL-processor en väldigt hög mängd beräkningar, tyvärr kommer inte praktiken hinna ikapp teorin på många år förutom i väldigt extrema situationer. För att dra nytta av de speciella egenskaperna måste man tänka och programmera på ett sätt som spelutvecklare idag är väldigt dåliga på (många andra också för den delen). Vad jag vet jobbar IBM på en lösning som gör att man kan koda som man alltid gjort och sedan när man kompilerar så förvandlas allt automagiskt till lämplig maskinkod för CELL-arkitekturen. Men denna lösning kommer nog inte påverka oss på många år.

Oftast med dagens slumgeneratorlösning kan man få fram ett väldigt slumpmässigt beteende, trots svagheten i lösningen. Jag tror den nuvarande lösningen räcker till för allt vad spel och AI heter. Problemet ligger inte i slumpmässiga beteenden, utan mer intelligent beteende.

För att återgå mer till tråden, så hoppas jag på att NVIDIA och ATI ordnar så deras kort effektivt kan hantera fysik. Ett budgetkort i NVIDIAs 6000-serie borde lätt kunna hantera större delen av fysikarbetet i dagens spel, även om dagens spel inte skulle kunna dra nytta av det just nu. Men om någon kan komma överens om en standard borde det gå att koda spel som kan dra nytta av detta. Med denna lösning så skulle man i framtiden kunna låta sitt gamla grafikkort sitta kvar i datorn som PPU när man köper sig ett nytt grafikkort för att hantera shadermodel 5.0 (t.ex.). Billigt och kraftfullt, även om man går miste om att sälja sitt gamla grafikkort, men man slipper punga ut pengarna till en PPU iallafall.

Edit: Pinsam felstavning.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Inian
Men om någon kan komma överens om en standard borde det gå att koda spel som kan dra nytta av detta. Med denna lösning så skulle man i framtiden kunna låta sitt gamla grafikkort sitta kvar i datorn som PPU när man köper sig ett nytt grafikkort för att hantera shadermodel 5.0 (t.ex.). Billigt och kraftfullt, även om man går miste om att sälja sitt gamla grafikkort, men man slipper punga ut pengarna til en PPU iallafall.

Är inte detta vad dom jobbar imot? att kunna använda ett gammalt grafikkort som "ppu"?

Of:t vad sysslar du med som är så insatt i gpu arkitektur osv?

Visa signatur

Utbildad datortekniker/elektriker.
Pluggat Optoteknik.
Eget företag under konstruktion.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av agazza
Är inte detta vad dom jobbar imot? att kunna använda ett gammalt grafikkort som "ppu"?

Of:t vad sysslar du med som är så insatt i gpu arkitektur osv?

Jag vore ytterst nöjd om så är fallet. Det är inte riktigt den känslan jag fått när jag läst om GPU -> PPU lösningen, men det kan mycket väl vara jag som är ute och cyklar. Huruvida detta kommer gå vet jag dock inte, egentligen tycker jag de borde kunna använda kort ej avsedda för detta med lite drivrutinsmagi. Och i så fall borde de flesta mer eller mindre gamla kort gå att använda som PPU. Men just nu känns det mer i stil med att "framtidens monsterkort kommer även kunna användas till fysikberäkningar" för att citera en paranoid vrå av mitt huvud.

Jag är arbetslös dataingenjör med specialisering inom spelutveckling, anledningen jag är arbetslös är att jag precis blev klar med skolan. Under tiden jag bildade mig så tog jag mig friheten att läsa på om all hårdvara och mjukvara jag kunde hitta som var relaterat till spel.

(Antar att du syftade på mig med Of:t, inte för att jag vet vad det betyder, om inte så skyller jag på mitt ego.)

Permalänk
Medlem

ofT= offtopic

du har inte läst spelutveckling i kramfors va?

Jag har för mig att det var nyheter förut när sli och crossfire var nytt att man skulle kunna använda sitt gamla kort som fysik kort istället för att behöva köpa ett ageia kort. Men vi får väl se hur det blir.

Visa signatur

Utbildad datortekniker/elektriker.
Pluggat Optoteknik.
Eget företag under konstruktion.