Ageia svarar på ATI:s Triple Play

Permalänk

Sant att man vill uppgradera gpu oftare än både cpu och ppu men om man la allt ihop i ett skulle man kunna vinna hur mycket prestanda som helst på att man slipper massa långsamma bussar. Och om man tittar på atis lösning med tre kort så ser det onekligen ut som om man förlorar både massa felxibilitet och kylning, så man inte kan klocka så mycket.

CPUkylaren jag har på mitt graffe täcker 4 PCI-platser så när jag köper ett ljudkort kommer jag behöva använda den nedersta PCI-platsen och då får jag kasta ut trafon som står på chassibottnen och då får jag även byta chassifläktar och egentligen hela chassiet. Helt klart besvärligt med massa instickskort. Om man inte har en regelrätt dator så behöver man lite extra plats och luft här och var...

Visa signatur

Allting jag skriver är om inget annat utrycks, SANT! Ingenting är subjektivt, och du kan göra antaganden baserade på mina åsikter utan att överväga mer än bara just min åsikt.
wazzabi: Varför detta prat om AMD, har de något med grafikkort att göra som jag inte förstår?

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av maglar
Från länken i nyheten:
Mitt andra påstående, att det kräver betydligt fler beräkningar för att göra fysikberäkningar på en GPU än på en PPU känns ganska självklart. Det enda du kan göra i en pixel shader (jag utgår från att det är mestadels sådana som används, vertex shaders är ännu klumpigare till det här skulle jag tro) på en GPU är att få in interpolerade värden över en triangel och att läsa texlar. Du kan inte ens få resultatet av "grann-pixlarnas" värden. Svaret måste skrivas till en textur det också. Sedan så är en stor del av alla beräkningsenheter (om man kallar dem så) i en GPU uppbundet för mycket specifika användningsområden vilket är svårt att dra nytta av till annat än just grafik. Jag tänker då på till exempel textur-filtrering (särskilt anisotropisk), z-buffer-jämförelser, överdrivet många interpoleringsberäkningar osv osv.
Iofs har jag ingen som helst information om hur en PPU är uppbyggd (jag antar att Ageia håller det för sig själva, men om någon har en länk är jag mycket intresserad), man får nog utgå från att de designat den så att den utnyttjas så mycket som möjligt när man kör fysik på den.

Är inte så säker på att dagens GPUer är så olämpliga för fysik. De har ju blivit väldigt flexibla. Hämta data lagrat texturer är ju inte direkt något nytt eller nåt de är dåliga på Används ju flitigt nu för tiden, vid tex normalmapping. Jag tyckte det ATI skriver i sitt dokument låter vettigt, att deras GPU som sagt lämpar sig väl tack vare ration mellan antalet shader processors och texture units samt att deras effektiva dynamic braching gör att de slipper utföra många onödiga beräkningar.

Sen iom att detta är Ageia första produkt så kan man ju undra hur bra/effektiv den är rent tekniskt. ATI/nVidia har utvecklar sina processorer under många år och jag skulle bli förvånad om deras utvecklingsteam hade samma erfarenhet som ATIs eller nVidias. Så även om det är så att det behövs fler operationer på ATIs/nVidias GPU är det ju mycket möjligt att de faktiskt ändå är snabbare.

Håller dock med dig delvis angående det att man helst vill ha "riktigt fysik" men om jag kan få schysst "effekt fysik" genom att behålla mitt gamla grafikkort som fysikkort när jag uppgraderar mig så är det något som jag ser som väldigt intressant.

Permalänk
Medlem

asså jag tror de flesta har missuppfattat de här lite.. man behöver itne köpa 3 av de bästa grafikkorten.. nej utan man kan köpa ett grafikkort nu. ett till en månad senare kanske och eventuellt ett tredje då och köra de första som fysik samtidigt som man kör de andra två i crossfire.. eller så e de bara helt perfekt att behålla de gamla och bara köra med ett annat grafikkort. jag är då riktigt intresserad av hur detta kommer att påverka framtiden

Visa signatur

Athlon 3700+
Sapphire X1600XT Passive
Samsung SyncMaster 910n

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av S_Z
Är inte så säker på att dagens GPUer är så olämpliga för fysik. De har ju blivit väldigt flexibla. Hämta data lagrat texturer är ju inte direkt något nytt eller nåt de är dåliga på Används ju flitigt nu för tiden, vid tex normalmapping. Jag tyckte det ATI skriver i sitt dokument låter vettigt, att deras GPU som sagt lämpar sig väl tack vare ration mellan antalet shader processors och texture units samt att deras effektiva dynamic braching gör att de slipper utföra många onödiga beräkningar.

Sen iom att detta är Ageia första produkt så kan man ju undra hur bra/effektiv den är rent tekniskt. ATI/nVidia har utvecklar sina processorer under många år och jag skulle bli förvånad om deras utvecklingsteam hade samma erfarenhet som ATIs eller nVidias. Så även om det är så att det behövs fler operationer på ATIs/nVidias GPU är det ju mycket möjligt att de faktiskt ändå är snabbare.

Jag menar inte att dagens grafikkort är dåliga på det de sysslar med (som t ex att hämta filtrerad data från texturer eller att interpolera perspektiv-korrekta värden över trianglar), tvärt om är de ju gjorda för detta och utför det antagligen ganska nära så optimalt som det öht går. Jag säger bara att det knappast passar för fysiksimuleringar, vilket gör att en stor del av den teoretiska kraften på GPUn kommer vara oanvändbar när den används till det. Dessutom är det inte helt lätt att mappa in fysiksimuleringar till att hämta texlar och interpolerade värden, göra beräkningar på dessa och sedan skriva resultatet till en textur, varefter det hela upprepas ett antal gånger. Och det hela helt utan hjälp av CPUn. Detta är jag 100 % säker på att det leder till en mycket slösande med resurser.

Angående ATIs pratande om branch-enheter i varje pixel pipeline så är det nog framför allt Nvidia de vill trycka ner med detta, inte Ageia.

Såg förresten en del teorier på nätet om att PhysX-chippet kanske bara är något i stil med en Cell-processor i själva verket. Dvs bara massa enkla number crunchers samlade på ett ställe. Vet inte om det är sant, men helt omöjligt låter det ju inte. Skulle vara kul om Ageia kunde "öppna upp" APIet så man kunde få en närmare blick av vad chippet egentligen sysslar med. Skulle också vara kul om någon speltillverkare kunde visa lite benchmarks, PhysX-fysikmotorn ska ju gå att köra både på vanlig CPU, PhysX-chippet och på en Cell-processor vad jag förstått.

Sen håller jag med om att ATI och Nvidia kan vara effektivare i praktiken på det de klarar av (särskilt då i förhållande till kostnaden). Men om PhysX bara slår så är jag som sagt helt säker på att de relativt enkelt kan minska tillverkningsprocessen och samtidigt klocka upp chippet för att få det både billigare och snabbare (vilket Nvidia och ATI inte kan göra lika enkelt).

Men vi får helt enkelt vänta och se vad som händer, det är onekligen en mycket intressant utveckling vi står inför.

Permalänk
Avstängd

Det var någon här på forumet, som sade att ATIs fysiklösning inte kunde återkopplas till CPUn? Om det är så, vore det väl katastrof!!! Det skulle betyda att allt endast vore grafiskt lullull, och inte påverka spelet. Tunnan som föll ned, har ingen vikt och är inte farlig den är bara en effekt.

Någon som vet mera om detta påstående?

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av emilsson
Det var någon här på forumet, som sade att ATIs fysiklösning inte kunde återkopplas till CPUn? Om det är så, vore det väl katastrof!!! Det skulle betyda att allt endast vore grafiskt lullull, och inte påverka spelet. Tunnan som föll ned, har ingen vikt och är inte farlig den är bara en effekt.

Någon som vet mera om detta påstående?

Ja, precis så katastrofalt är det. Här är vad Havok har att säga om sin lösning: http://www.havok.com/content/view/187/77/

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Antonsson
Jag tycker det är jobigt att ha hela datorn full med massa instickskort så både aegias och atis lösningar är olämpliga för mig. Ska jag behöva slänga ut nåra av mina ghettomoddningar bara för att kunna köra fysik? Nä jag tycker PCB-tillverkarna ska göra kombinerade grafik och fysik-kort.

Det bästa vore ju helt enkelt att integrera gpu, ppu och cpu på samma kärna, gärna tillsammans med minne eller åtminståne minneskontroller.

Jag tycker du ska försöka sälja den där iden till Nintendo, de hade nog varit intreserade för 30 år sedan.

Visa signatur

Opteron 146 CABYE 0540 FPMW@2740Mhz | NCP 2x1GB | Asrock Dual Sata II | 6800GT@Ultra | Big Tyhpoon | Antec Trueblue 480W | NEC 3520 | WD 180GB

Permalänk
Citat:

Ursprungligen inskrivet av Antonsson
Det bästa vore ju helt enkelt att integrera gpu, ppu och cpu på samma kärna, gärna tillsammans med minne eller åtminståne minneskontroller.

Hur hade du tänkt att lösa bandbredden då?
Jag tror mer på att låta speciallösningar göra det som de är bäst på, fast att ha ett dedicerat fysikchip på ett grafikkort skulle nog kunna fungera. Att låta en volvo 740 plöja åkern tror jag nog är fullt möjligt, fast det känns inte som en optimal lösning

Visa signatur

/ SvSm
- Datorer ska synas men inte höras.
AMD Barton 2600+, 1024 DDRAM 400 @ 333, ASUS A7V880, Radeon 9800 Pro, Eizo FlexScan L557.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Gambit_2K
ASUS:
http://images.anandtech.com/graphs/asus%20physx_05040650504/1...
http://images.anandtech.com/graphs/asus%20physx_05040650504/1...
ASUS:
"We're still a little skeptical about how much the PhysX card is actually doing that couldn't be done on a CPU -- especially a dual core CPU. Hopefully this isn't the first "physics decellerator", rather like the first S3 Virge 3D chip was more of a step sideways for 3D than a true enhancement. The promise of high quality physics acceleration is still there, but we can't say for certain at this point how much faster a PhysX card really makes things - after all, we've only seen one shipping title, and it may simply be a matter of making better"

Vet inte vad Anandtech gör för fel men jag får helt annan upplevelse och siffror från GRAW med mitt PhysX-kort.

Tyvärr har jag inte hittat något bra sätt att testa korrekt än, eftersom allting blir lite slumpartat och olika varje gång man spelar. Men använde fraps och körde benchmark over time och jämförde sen med en session som jag hade disablat PhysX-kortet.

Över mitt test så var det en marginell skillnad i fps, och när jag spelar upplever jag inte så stora problem med dips i fps som det ser ut i Anands test.

Det är med GRAW 1.10 och senaste Ageia drivern, och speciellt 1.10 patchen för GRAW hade ett antal förändringar i spelet för PhysX.

Lite av mina åsikter;

Det är en cool utveckling med en dedikerad fysikprocessor och om Ageia kan få mer support i spel för kortet så ser jag fram emot att använda det. Effekterna i GRAW är inte omstörtande, men när man nu kört med det ett tag så tyckte jag det kändes fattigt när jag testade utan.

Det är förstås inte säkert att Ageia har den bästa lösningen och ATI/NVidia funderar säkert på någon variant. Dock tror jag inte alls på deras första ideer med ett extra grafikkort som används för detta, eller delad funktion på grafikkortet. Den första varianten är som att köpa en grym motorbåt och köra den på land istället för i vattnet där den gör sitt bästa. Den andra varianten tror jag inte alls på, grafikkorten behövs fullt ut för att maximera just grafiken .

Ageias kort är för dyrt och har för lite support i spel än så länge. Jag köpte det lite för att det var kul att testa något nytt och vara "early adopter" igen.

Btw, jag misstänkte förstås att fläkten skulle vara högljudd eftersom det är en liten fjuttfläkt och det sagts att kortet kan bli rätt varmt. Så jag skaffa en Zalman VF900-CU (för grafikkort) och monterade på den istället. Fungerade perfekt och den kyler bättre och låter mindre.

Som tur är har jag ett case med lite space nedanför moderkortet så jag kunde montera den i sista PCI-sloten så att fläkten inte snor en till PCI-slot.

Jag kollar på sätt att testa mer exakt och återkommer med test om jag hittar nåt.

Permalänk
Medlem

Jag är lite avundsjuk på dig Buio Vad har du för grafikkort och processor?

Ageia verkar inte ha några techdemos direkt? Har inte sett ett enda, fattar inte varför de inte gjort såna.

Permalänk

Har för mig att de gjorde en techdemo med en bil som blev besprutad av olika medium för ett tag sedan. Ånga och vatten vill jag minnas att det var, kan ha varit en till också.

Visa signatur

/ SvSm
- Datorer ska synas men inte höras.
AMD Barton 2600+, 1024 DDRAM 400 @ 333, ASUS A7V880, Radeon 9800 Pro, Eizo FlexScan L557.

Permalänk
Inaktiv

Fick äran att testa min kompis PhysX kort för någon vecka sedan.

Kört CellFaction tidigare utan kortet och först kände jag inte riktigt skillnaden. Men helt plötsligt!

Allt kändes mer verkligt när man sköt på torn av lådor och att flytta rör kändes som riktigt plockepin.

Har jag pengar över i slutet av sommaren ska jag fundera på ett PhysX kort. Unreal Tournament kommer bli riktigt imponerande.

Vill inte uttala mig om ATIs prestanda fören jag sett tester.

Permalänk
Moderator
Testpilot

Ja de blir bara fler och fler som vill komma åt kakan(oss konsumenter alltså).

Börjar bli trött och minst sagt förvirrad av alla lösningar som kommer, var inte längesedan jag hörde talas om dessa fysik-kort. Sen kan jag iof inte säga att jag har letat mig fördärvad eller varit särskilt intresserad för den delen.

Jag kan på sätt och viss hålla med i det resonemanget att ju fler saker som vi kan byta ut och individualisera desto större möjligheter för oss konsumenter att styra vad vi vill ha och vilka pengar vi vill lägga på det. Men är det ingen som ser mönstret? Det blir ju bara mer och mer instickskort och de blir bara mer och mer avancerade, det är väl kul med det kostar också en otrolig summa pengar. Om spelen börjar kräva state-of-the-art CPU, RAM, GPU, FYSIK-KORT(?), LJUD m.m. så kommer vi snart att gräva ordentliga gropar i våra plånböcker. Detta resulterar i att man får köpa mellansegment prylar för resten av sitt liv.

Ju mer avancerat och komplicerat det blir att bygga ihop en bra dator desto mindre folk kommer att vara insatta, desto bättre för företagen. Blir ju mycket lättare att finta bort konsumenterna med en massa siffror och blaj.

Min personliga åsikt är att det hade varit bättre om man satsade helhjärtat på att integrera fysikkoren i de redan existerande grafikkorten. Jag har samma åsikt om det här med SLI/CF, va fan ska man behöva köpa två grafikkort för? Processortillverkarna gick ju över till multi-CPU:er det är inte mer avancerat att göra multi-GPU:er så varför gör man inte detta istället? Spara plats och överföringshastighet. Sen kan man sätta dit en fysikprocessor också.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - LG 45GR95QE 45" UltraWide OLED 3440x1440p@240Hz - kalaset vattenkylt

Permalänk
Medlem

Jag håller inte med om att det blir fler och fler instickskort eller att datorer blir mer och mer komplicerade, faktiskt tycker jag det är precis tvärt om. Själv kommer jag ihåg min 486:a. På den tiden var man tvungen att köpa 4 st minnesmoduler i taget, man var tvungen att ha grafikkort och kontroller-/IO-kort (hårddisk, floppy, serie- och parallellport) och till det hade man ofta nätverkskort och ljudkort (dit man ofta kopplade CD-ROMen (som var specialgjord för ljudkortet) och joystick). Dessutom gjordes de flesta inställningar med jumprar på moderkortet, inte med ett användarvänligt BIOS som sköter allt automagiskt. Gjorde man fel riskerade man att bränna någon del. Det ändrades inte mycket till Pentium-tiden, med undantag av att man var tvungen att ha ytterligare ett (och senare kunde man även ha två) Voodoo-grafikkort, vilket även följde med till P2 (kanske även P3, kommer inte ihåg när kombinerade 2D- och 3D-kort blev vanliga).

Det är bara de allra extremaste speldatorerna som behöver SLI, ljudkort och/eller fysikkort i dagsläget. En vanlig dator har _aldrig_ varit enklare än idag för konsumenten att både köpa, bygga ihop (fast det går ju även att köpa ihopsatt) och äga. Vill man kunna spela och samtidigt ha det så enkelt så även barn fixar det så får man helt enkelt köpa en konsoll, så har det alltid varit.

De som gör spelen gör dem för att sälja så många som möjligt, därför gör de oftast så att det går att spela även utan den allra häftigaste (dyraste) hårdvaran på marknaden.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Dinoman
Min personliga åsikt är att det hade varit bättre om man satsade helhjärtat på att integrera fysikkoren i de redan existerande grafikkorten. Jag har samma åsikt om det här med SLI/CF, va fan ska man behöva köpa två grafikkort för? Processortillverkarna gick ju över till multi-CPU:er det är inte mer avancerat att göra multi-GPU:er så varför gör man inte detta istället? Spara plats och överföringshastighet. Sen kan man sätta dit en fysikprocessor också.

PPU - 125 miljoner transistorer, 182 mm^2 die size
GPU Nvidia - 278 miljoner transistorer, 196 mm^2 die size
GPU ATI - 384 miljoner transistorer, 352 mm^2 die size

Låter det som att en PPU får plats på samma kärna som en GPU? Hur många funktioner tror ni kommer att få offras från GPUn om Nvidia/ATI ska klämma dit en PPU också? Och varför ska de göra dual core GPUs när de kan använda samma utrymme till att göra en enkelkärna bra mycket snabbare, eller halva utrymmet till att göra den billigare. Och SLI ÄR FÖR DE SOM VILL HA DET, INTE FÖR ER GNÄLLIGA SNORUNGAR. Ingen tvingar er att köpa två grafikort.

Förövrig är min åsikt om detta kort samma som förut, så länge det kostar 3000kr så kommer inte tillräkligt många köpa det för att spelmakarna ska orka bekymra sig över att inkludera någon vettig fysik i spelen. Hur många spelare har grafikort för 3000kr? 5-10% ? Hade kortet kostat runt 1000kr hade det nog haft en chans att bli en hit.

Visa signatur

Opteron 146 CABYE 0540 FPMW@2740Mhz | NCP 2x1GB | Asrock Dual Sata II | 6800GT@Ultra | Big Tyhpoon | Antec Trueblue 480W | NEC 3520 | WD 180GB

Permalänk
Medlem

Håller med om allt du säger apanove, men kortet kostar tydligen bara 2000:- nu: http://www.buggy.nu/index.php?a=search&q=physx - 2360:- och då får man med ett spel för 400:-. Och man kan knappast säga att man hellre skulle köpa utan spelet eftersom GRAW är det enda spelet som stöder PhysX-kortet just nu Börjar klia ordentligt i köpfingrarna nu...

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av FrezoreR
ghost recon advanced warfighter stödjer kortet

Prova att plocka ut första bokstaven i varje ord

Permalänk
Medlem

Från Ageia faq

Q: Do I have to buy new hardware every year just to get new physics features?

A: No. The powerful, yet flexible, AGEIA PhysX processor is designed to enable future enhancements via software. This makes a PhysX accelerator a great investment because gamers will get not only new PhysX-enabled games now and in the future, but the new features that AGEIA delivers via regular driver updates will run on the hardware that's installed in PCs today.

Visa signatur

AMD Ryzen 9 5950X | 32GB DDR4 | Asus TUF RTX 3080ti OC

Permalänk
Medlem

"For all those AGEIA fans out there I have good news and bad news. The good news is that PCIe versions of PhysX are on the way this year. ASUS and BFG are the sole hardware providers in the US right now, but other tier 1 manufacturers have already confirmed to me that the exclusivity of ASUS and BFG will expire before the end of the year. Now the bad news: it's still going to cost $280. Engineers at all of the AGEIA partners seemed to hint that the PCI version of the PhysX card will come down in price at the time of the PCIe launch, but the results are conflicting as to whether or not AGEIA will adopt a new ASIC."

Från www.dailytech.com

Visa signatur

MSI MPG X870E Carbon WiFi| AMD Ryzen 9 9800X3D@5,4 GHz locked| MSI MAG Coreliquid A15 360| WD Black SN850X 1TB + WD Black SN850X 2TB| Corsair Vengeance, DDR5-6600 64GB (2 x 32GB) @6400MHz CL 30-37-37-50| MSI RTX 4090 Suprim X| Asus ROG PG32UCDM QD-OLED| MSI MPG A1000G PCIE5 1000W| Lian Li O-11 EVO|

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Gambit_2K
"For all those AGEIA fans out there I have good news and bad news. The good news is that PCIe versions of PhysX are on the way this year. ASUS and BFG are the sole hardware providers in the US right now, but other tier 1 manufacturers have already confirmed to me that the exclusivity of ASUS and BFG will expire before the end of the year. Now the bad news: it's still going to cost $280. Engineers at all of the AGEIA partners seemed to hint that the PCI version of the PhysX card will come down in price at the time of the PCIe launch, but the results are conflicting as to whether or not AGEIA will adopt a new ASIC."

Från www.dailytech.com

Det där avgjorde det för min del. Blir inget kort. Hade varit beredd att betala runt en 1500kr för det. Men nästan 3000kr är ju ett jävla skämt

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av MOrKiz
Det där avgjorde det för min del. Blir inget kort. Hade varit beredd att betala runt en 1500kr för det. Men nästan 3000kr är ju ett jävla skämt

Som sagt, de kostar 2000 idag (2360 inkl ett spel för 400). Men jag skulle nog rekommendera att vänta tills man ser hur andra spel utnyttjar kortet.

Permalänk
Moderator
Testpilot
Citat:

Ursprungligen inskrivet av apanove
PPU - 125 miljoner transistorer, 182 mm^2 die size
GPU Nvidia - 278 miljoner transistorer, 196 mm^2 die size
GPU ATI - 384 miljoner transistorer, 352 mm^2 die size

Låter det som att en PPU får plats på samma kärna som en GPU? Hur många funktioner tror ni kommer att få offras från GPUn om Nvidia/ATI ska klämma dit en PPU också? Och varför ska de göra dual core GPUs när de kan använda samma utrymme till att göra en enkelkärna bra mycket snabbare, eller halva utrymmet till att göra den billigare. Och SLI ÄR FÖR DE SOM VILL HA DET, INTE FÖR ER GNÄLLIGA SNORUNGAR. Ingen tvingar er att köpa två grafikort.

Oj oj oj, här har vi visst någon som blev förbannad för min åsikt. Vet inte riktigt vad jag har med gnälliga snorungar att göra, vet du? Tycker inte alls om din ton och har anmält ditt inlägg för att jag tycker inte att jag har förtjänat att du ska behandla mig på det otrevliga sättet.

För mig låter det som att stirra på siffror inte säger ett skit om det är en möjlighet eller inte, man kan ju ställa sig frågan hur både Intel och AMD har löst sina multi-cpu:er, om det nu ser så fruktansvärt omöjligt ut för grafikkorts-tillverkarna. Borde ju rimligtvis gå att lösa med gpu:er också, inte sant?

Åh, nej det är ingen alls som har tvingat mig till någonting, jag anser bara att det hade varit en smartare utveckling med multi-gpu:er istället för att behöva köpa två grafikkort. Visst är det jätte bra att man nu KAN köpa två grafikkort för att få ännu mer kräm men jag ser bara att det gynnar företagen.

Sen låter det väl inte som en dum idé att man skulle kunna använda ett gammalt uttjänt grafikkort till att hantera fysikmotorn?

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - LG 45GR95QE 45" UltraWide OLED 3440x1440p@240Hz - kalaset vattenkylt

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Dinoman
Oj oj oj, här har vi visst någon som blev förbannad för min åsikt. Vet inte riktigt vad jag har med gnälliga snorungar att göra, vet du? Tycker inte alls om din ton och har anmält ditt inlägg för att jag tycker inte att jag har förtjänat att du ska behandla mig på det otrevliga sättet.

För mig låter det som att stirra på siffror inte säger ett skit om det är en möjlighet eller inte, man kan ju ställa sig frågan hur både Intel och AMD har löst sina multi-cpu:er, om det nu ser så fruktansvärt omöjligt ut för grafikkorts-tillverkarna. Borde ju rimligtvis gå att lösa med gpu:er också, inte sant?

Åh, nej det är ingen alls som har tvingat mig till någonting, jag anser bara att det hade varit en smartare utveckling med multi-gpu:er istället för att behöva köpa två grafikkort. Visst är det jätte bra att man nu KAN köpa två grafikkort för att få ännu mer kräm men jag ser bara att det gynnar företagen.

Sen låter det väl inte som en dum idé att man skulle kunna använda ett gammalt uttjänt grafikkort till att hantera fysikmotorn?

Erhmm... helt ofT .. men varför anmälde du hans inlägg för en sådan kommentar. Jag får ta emot såna kommentarer dagligen och inte fan anmäler jag det..

Edit: Angående det du skrev om att använda ett gammalt graffe. Problemet blir att det kräver ström, utvecklarvärme, orsakar en jävla massa ljud samt att det kräver utrymme talar emot lösningen

Permalänk
Medlem

Det bästa skulle ju vara ett gemensamt API för havok/ageia så konsumenten fick välja den lösning de ville ha. Plugga in ditt gamla gfx så får du tillgång till de effekter som det finns stöd för eller köp ett physx så kan du använda det. Men det kommer antagligen aldrig att hända eftersom de är såpass olika...

Nackdelen med havok är (som säkert sagts tidigare) att det inte stöder game-play fysik utan bara effekt-fysik, dvs enbart ögongodis. Såg nyligen en demo hos ageia som jag inte sett tidigare. Fysiken som visas där är ett exempel på vad som inte är möjligt med havok om man vill kunna interagera med miljön och tex hoppa upp på lådorna som har förflyttat sig. Kolla på fluids men bending metal är också ganska läcker.

Det jag saknar nu är ett vettigt test som jämför prestandan mellan hårdvarustöd och enbart mjukvara (med full fysik påslagen). Skulle vara väldigt intressant att se om den fysiken som ageia skapar även går att räkna ut med en extra cpu/kärna. Det saknas ordentliga techdemos för fysik överlag tycker jag... Skulle väldigt gärna se en demo som försöker maxa ut fysikprestandan totalt i hårdvaran.

Hur som helst är det iaf på tiden att fysiken i spel utvecklas ordentligt, eller det kanske bara är jag som irriterar mig på saker som att när sjöodjuret i 3Dmark landar i vattnet så blir det bara ett vitt moln på vattenytan utan en enda krusning? Nej ge mig en ordentlig våg så man märker att det händer något!

Permalänk
Moderator
Testpilot
Citat:

Ursprungligen inskrivet av MOrKiz
Erhmm... helt ofT .. men varför anmälde du hans inlägg för en sådan kommentar. Jag får ta emot såna kommentarer dagligen och inte fan anmäler jag det..

Edit: Angående det du skrev om att använda ett gammalt graffe. Problemet blir att det kräver ström, utvecklarvärme, orsakar en jävla massa ljud samt att det kräver utrymme talar emot lösningen

Hur du blir bemött dagligen är för mig helt orellevant eller hur? Tycker du att det är en okej kommentar på mitt första inlägg så får det stå för dig, jag anser inte att jag ska behöva ta sådan skit.

Aegia PhysX kräver ström, utvecklar värme och dess fläkt låter alldeles säkert den också plus att kortet kräver en ledig PCI-slot. Så varför det kortet skulle vara smidigare än ett graikkort förstår jag inte. Dessutom kommer det grafikkort som inte kräver PCI-E 16x.

Saken är den att vi kan stöta och blöta det här till alla evinnerlighet men faktum är att än så länge vet ingen av oss hur det kommer att bli. Kanske ter det sig så att vi alla sitter med ett fysikkort i våra datorer i framtiden.

De som var med på den gamla Vodoo-tiden kommer väl antagligen ihåg 3DFX. Det började med ett företag som hårdvaru-accelererade 3D. Förändrade hela spelvärlden. Kanske är det detta vi står inför nu också. Men som vi alla vet så slutade det med att till slut så integrerades 3D-hårdvaruaccelereringen in i grafikkorten a la GeForce.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - LG 45GR95QE 45" UltraWide OLED 3440x1440p@240Hz - kalaset vattenkylt

Permalänk
Citat:

Ursprungligen inskrivet av apanove
PPU - 125 miljoner transistorer, 182 mm^2 die size
GPU Nvidia - 278 miljoner transistorer, 196 mm^2 die size
GPU ATI - 384 miljoner transistorer, 352 mm^2 die size

Låter det som att en PPU får plats på samma kärna som en GPU? Hur många funktioner tror ni kommer att få offras från GPUn om Nvidia/ATI ska klämma dit en PPU också? Och varför ska de göra dual core GPUs när de kan använda samma utrymme till att göra en enkelkärna bra mycket snabbare, eller halva utrymmet till att göra den billigare. Och SLI ÄR FÖR DE SOM VILL HA DET, INTE FÖR ER GNÄLLIGA SNORUNGAR. Ingen tvingar er att köpa två grafikort.

Fullgott motargument, men tror du inte att du kunde ha fått sagt det du ville utan snorungekommentaren?
Rätt så onödigt tillägg skulle jag vilja påstå.

Visa signatur

/ SvSm
- Datorer ska synas men inte höras.
AMD Barton 2600+, 1024 DDRAM 400 @ 333, ASUS A7V880, Radeon 9800 Pro, Eizo FlexScan L557.

Permalänk
Medlem

Som jag har sagt tidigare, max en tusenlapp är jag beredd att betala för en sån här leksak. Det är inte det att jag inte har råd med det om det kostar mer, men det känns som att man inte får mycket för pengarna (egentligen inte tillräckligt för en tusenlapp heller i och för sig).

Visa signatur

AMD Ryzen 7 5800X3D | ASUS ROG Strix X570-F Gaming | ASUS 3080 TUF | 32GB DDR4 3200MHz | Corsair HX1500i

Permalänk
Medlem

Först i och med UT2007 kommer lösningen antagligen börja användas flitigare, men i dagsläget är det ju totalt bortkastade riksdaler.

Visa signatur

C2D Q6600 || Gigabyte P31-DS3L || Corsair 6400 1GB*2 || 8800GT || Audigy2

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av HRN

....
Hur som helst är det iaf på tiden att fysiken i spel utvecklas ordentligt, eller det kanske bara är jag som irriterar mig på saker som att när sjöodjuret i 3Dmark landar i vattnet så blir det bara ett vitt moln på vattenytan utan en enda krusning? Nej ge mig en ordentlig våg så man märker att det händer något!

Det kommer ta ett par år till innan du kan simulera "riktigt" vatten, sedan handlar mkt om hur pass mycket precision du använder vid olika simuleringar.

Det krävs en oerhört stor mängd med partiklar för att få fram riktigt "finfördelat" vätska. Att fylla en enklare gemotrisk form, säg ett glas, med vätska som du sedan kastar runt kan ta åtskilliga timmar att beräkna beroende på precisionsnivån och då talar vi om en enklare animation på kanske 30sek.

Självklart kan du "fuska" och ta genvägar genom att sänka nivån på simuleringen.

Därför är det imo en väldigt roligt utveckling vi står framför och jag önskar verkligen att det här kommer att slå.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av meat4u
Det kommer ta ett par år till innan du kan simulera "riktigt" vatten, sedan handlar mkt om hur pass mycket precision du använder vid olika simuleringar.
...
Självklart kan du "fuska" och ta genvägar genom att sänka nivån på simuleringen.
...

Nej det ser inte ut som riktig vätska än, men det är en början iaf. Hellre en låg nivå på simuleringen av vätska än ingen interaktion alls Möjligheten till ökad interaktion med den virtuella miljön ökar nog imersionen rejält.

Det här är precis vad som behövs för spelen nu. Jag kan hålla med om att existerande spel inte imponerar med sin fysik men framtida spelmotorer kan nog utföra något mer. Det skulle inte förvåna mig om man får mer 'bang-for-the-buck' om ett år genom att köpa en PPU istället för ett nytt gfx (ja ja, det beror självklart vad man byter från...). Ska iaf bli spännande att se.

Hittade en till rolig film som visar simulering av tyg