Nvidia anklagas handikappa PhysX på CPU

Permalänk
Avstängd
Skrivet av astrob0y:

Och sen tar vi och ser spel som använder sig av physX... PhysX Games List

Mm 8st spel har physx! Resten har SDK men inga effekter.

§1
Visa signatur

AMD Phenom II X4 720 BE @ 3.61 GHz || MSI 790XT-G45 Crossfire || 800MHz 4GB Corsair|| Sapphire HD5850 1GB || Corsair 650W || BENQ G2400W 1920x1200

Permalänk
Medlem
Skrivet av Arzei:

Något folk verkar missa är att det verkar som att nVidia aktivt har sett till att systemet använder en förlegad instruktionsuppsättning om det körs utan GPU. Om de helt enkelt hade optimerat PhysX för sina egna GPUer så hade jag inte klagat, vilket företag optimerar inte sin mjukvara för sin hårdvara? Nu verkar det ju däremot som att de faktiskt har lagt ett antal arbetstimmar på att se till att det flyter sämre på konkurrenternas lösningar, vilket jag tycker är skitdåligt.

Hur kommer du fram till det? NVIDIA verkar ju bara ha kodat PhysX för CPU som vanligt, så som 99.9% av all programvara är skriven. Det är ju väldigt få programmerare som explicit använder SSE, och fortfarande rätt så få som använder flera trådar. Att utyttja SSE och liknande teknologier lämnas nästan alltid åt kompilatorn. Så förmodligen så har NVIDIA bara kodat ihop en vanlig implementation av PhysX, och eftersom de inte tjänar något på att sitta och lägga en massa tid på att optimera den så har de inte gjort det. Visst hade det varit bra om PhysX gick snabbare på CPU, men företag brukar inte ha för vana att hjälpa sin motståndare utan att tjäna något på det själva. Trisst, men det är ju så världen fungerar.

Permalänk
Medlem
Skrivet av Thxsen:

Räkna om du får detta till 8?

Alla spel som kör med PhysX.
...

Hur många av dom gör användning av en Nvidia GPU?

Permalänk
Medlem

Hur kan Xbox-spel ha physX? De är ju ATI kort i dom burkarna!?

Mig veterligen är det bara Mirror edge och nått batman-spel som har mycket och bra physX-effekter, alla andra spel i listan har i princip bara lagt till så få och små effekter så det knappt syns för att kunna marknadsföra det som physX-spel. Mass effect till exempel, inte såg jag nån skillnad med eller utan PhysX där inte...

Angående vad tråden igentligen handlar om... Väldigt fult av Nvidia att försämra prestandan för de som inte köper nvidikort. Men detta verkar ju tyvärr vara en vanlig metod i branschen... Intel och Nvidia fular sig flitigt iaf... AMD gör det säkert också när det lönar sig för dem.

Visa signatur

An expert is one who knows more and more about less and less until he knows everything about nothing.

Permalänk
Medlem
Skrivet av kriggus:

Hur kan Xbox-spel ha physX? De är ju ATI kort i dom burkarna!?

Är inte säker men dom stod med på listan över physX spel, men skulle gissa på att Xbox360 har ett Ageia kort

Permalänk
Medlem
Skrivet av kriggus:

Hur kan Xbox-spel ha physX? De är ju ATI kort i dom burkarna!?

Angående vad tråden igentligen handlar om... Väldigt fult av Nvidia att försämra prestandan för de som inte köper nvidikort. Men detta verkar ju tyvärr vara en vanlig metod i branschen... Intel och Nvidia fular sig flitigt iaf... AMD gör det säkert också när det lönar sig för dem.

Nya rön. Tjuvkoppla 360;n till din pc och få physX

Just försämringen för de som inte köper ett kort från en tillverkare är vad som stör mig så oerhört. Jag köpte Cryostatis för 2£ via Steam och kan bekräfta att spelet är så segt som youtube klippet visar med physX avslaget. Kommer detta leda till att jag köper ett Nvidia? Aldrig i livet att jag kommer stötta ett företag som försämrar branschen för vinst.

Visa signatur

Ominous Doctrines Of The Perpetual Mystical Macrocosm

Permalänk
Medlem
Skrivet av Mupp3n:

Hahahahaha, du förstod ju inte ens meningen jag skrev.

SDK = Software Development Kit.

Men att säga att dom bara har fullt stöd i 8 spel stämmer inte heller.

Permalänk
Medlem
Skrivet av mr_krut:

Jag har fruktansvärt rätt. En CPU kommer inte ens i närheten av samma SPS (Simulations Per Second) som en GPU. Varför tror du att Folding@Home har blivit GPU-anpassat? En CPU suger på att simulera.

Jag skrev inte att cpu är bättre än gpu, men att köra så simpla effekter som physx ger kräver inte mycket. Batman AA har ju körts på en i7a utan problem.

Visa signatur

i5 4670k 4.2Ghz 1.2v
AMD R9 290
Windows 10

Permalänk
Avstängd
Skrivet av Thxsen:

SDK = Software Development Kit.

Men att säga att dom bara har fullt stöd i 8 spel stämmer inte heller.

Fullt stöd är ju precis, 8 riktiga spel.
Resten har bara SDKn
Dags att provspela alla dessa spel?

Visa signatur

AMD Phenom II X4 720 BE @ 3.61 GHz || MSI 790XT-G45 Crossfire || 800MHz 4GB Corsair|| Sapphire HD5850 1GB || Corsair 650W || BENQ G2400W 1920x1200

Permalänk
Avstängd

Störtlöjligt att ens recensera en sådan här sak.
PhysX funkar utmärkt och det finns ingen anledning att ändra på det.
Det är bra som det är.

Permalänk
Medlem
Skrivet av Thxsen:

Är inte säker men dom stod med på listan över physX spel, men skulle gissa på att Xbox360 har ett Ageia kort

Sist jag kollade så hade Xbox 360 en grafikkrets från ATI och en 3-kärnig PPC-CPU. Däremot så finns som sagt Physx SDK tillgänglig för Xboxen.

Visa signatur

WS: AMD Ryzen 3700X | 16GB Corsair LPX 3733 | MSI RX 6800 | Samsung PM981a 1TB | Louqe Ghost S1
Laptop: ASUS UX32LN | i7-4510U | 12GB DDR3 | 13.3" FHD | 256GB SSD
Server: Intel Xeon E5-2660 | 32GB DDR3 | UnRaid

Permalänk
Medlem
Skrivet av pellen:

Sist jag kollade så hade Xbox 360 en grafikkrets från ATI och en 3-kärning PPC-CPU. Däremot så finns som sagt Physx SDK tillgänglig för Xboxen.

Du har nog rätt.
Jag googlade lite och fann denna text.
Xbox-Scene News: Ageia Withdraws Xbox 360 PhysX Claims

Permalänk
Medlem
Skrivet av cratzky:

Störtlöjligt att ens recensera en sådan här sak.
PhysX funkar utmärkt och det finns ingen anledning att ändra på det.
Det är bra som det är.

Japp den optimala fysikmotor den kommer aldrig att behöva ändras*ironi*

Det som gör mig upprörd är inte att det funkar sämre på konkurrerande hårdvara är faktiskt förvånad att det går alls. men att dom försöker mygla med prestandan hela tiden. T ex när man ser att "gtx 480 presterar så här mycket bättre med physx än i7 920." Ja det är väl inte så konstigt när dom inte konkurrerar på lika villkor (optimerade drivrutiner)

Permalänk
Medlem
Skrivet av nickhe:

vad är x87-instruktioner ?

Du kanske är för ung för att komma ihåg när man stoppade i en matteprocessor i datorn för att hotta upp den.

8086 var processorn, 8087 matteprocessorn, så x86/x87-instruktioner

Visa signatur

WS: Asus X570-E, Ryzen 5900x, 2x16GB Ballistix E-die, EVGA 3080 FTW3 Ultra
FS: Asus X370-F, Ryzen 3600, 4x8GB G.Skill Flare, GT710, CM Stacker
HTPC: Asus F2A85-M, A10-5800K, 2x4GB G.Skill 2133MHz

Permalänk
Medlem
Skrivet av cratzky:

Störtlöjligt att ens recensera en sådan här sak.
PhysX funkar utmärkt och det finns ingen anledning att ändra på det.
Det är bra som det är.

Det funkar inte utmärkt. Det är därför det tas upp - för att det fungerar sämre på cpu än det skulle kunna göra.

Visa signatur

i5 4670k 4.2Ghz 1.2v
AMD R9 290
Windows 10

Permalänk
Medlem

http://www.sweclockers.com/nyhet/10721-amd-fortsatter-arbeta-...

Ska bli intressant att se hur Bullet Physics kommer att slå. Synd nog lär det väl ta ett tag till innan det blir aktuellt. Vill känna samma känsla som när man spelade HL2 första gången, fysiken var ju totalt nyskapande.

Visa signatur

Asus P6T Deluxe V2 | i7 920 | PowerColor 5870 | Corsair 6Gb DDR3 1333mhz | Corsair 850W | Corsair Force 120 GB | 2xWD CB 640 GB | Obsidian 700D

Permalänk
Medlem

Hur kommer det sig att alla tror Nvidia uppfann Physx? De har inte kommit med något nytt förutom att just köpa ett företag som hade Fysik på CPU samt en FPU (Ageia PCI kort) sedan skrivit om koden lite för att kunna köra på CUDA.

Några uppdateringar senare visat fingret till alla Ageia ägare genom att blockera stöd för dem och sedan sätta in spärrar i varje uppdatering där folk med ex Nvidia kort inte får använda dem som FPU kort om de har ATI
Och inte nog med det så sabbar de supporten för CPU. Hur kan någon ens stödja detta? Samma PR var det när Batman kom ut utan något AA stöd för ATI?
Är alla så _blinda_ att gå på detta seriöst? Är ingen Fanboy utan köper det jag tycker är intressant. Har ägt 3 ATI kort samt 3 Nvidia kort i olika tider och bara se folk från båda sidor bråka om något så dumt som färger på sin GPU är bara idiotiskt. Skärp er!

Edit, Står det något om i deras användaravtal att om man använder någon annan GPU under tiden man har Nvidia kort som skall kunna ha physx inte får göra det? Kan man inte då ta detta som false marketing?

ps
People of earth, since you did not return the space cash your species and your planet is hereby blocked of and barred from the rest of the universe good bye!

Visa signatur

Arch - Makepkg, not war -||- Gigabyte X570 Aorus Master -||- GSkill 64GiB DDR4 14-14-15-35-1T 3600Mhz -||- AMD 5900x-||- Gigabyte RX6900XT -||- 2x Adata XPG sx8200 Pro 1TB -||- EVGA G2 750W -||- Corsair 570x -||- O2+ODAC-||- Sennheiser HD-650 -|| Boycott EA,2K,Activision,Ubisoft,WB,EGS
Arch Linux, one hell of a distribution.

Permalänk
Medlem

Jag gillar Sweclockers språk i sina artiklar, men ni har blivit lite kära i ordet 'rejält'. 'Mycket', 'relativt mycket', 'väsentlig/t', 'vidunderligt', 'väl tilltaget', 'potensfyllt', 'blodig'..äsch, ni förstår nog.

Visa signatur

| 212965 00 ] == :^D * ==)

Permalänk
Medlem

Synd att de inte lägger mer energi på PhysX, när det står skrivet såhär i en artikel låter det ju som om det är något de har slängt ihop på en eftermiddag ^^,

Permalänk

Hejsan hoppsan så var en till konspirationsteori om nVidia född bryr mig inte, tyck vad ni vill men ett företag finns för att gå med vinst och dem företag som inte tänker så är styrda av idioter eller inkompetenta idioter.

Permalänk
Medlem
Skrivet av Valiumballong:

Jag skrev inte att cpu är bättre än gpu, men att köra så simpla effekter som physx ger kräver inte mycket. Batman AA har ju körts på en i7a utan problem.

Batman utnyttjar inte PhysX's potential, långt ifrån. Batman har några papper som flyger runt, en cloth-kappa och rök i låg upplösning, såna saker klarar en CPU av, och sånt finns även i Havok som enbart använder sig av CPU.

PhysX stora potential ligger i att simulera partiklar och dess beteende. Med hjälp av partiklar kan man skapa enastående effekter för explosioner, eld, rök, vatten m.m.

Rigid body dynamics ("vanlig" fysik där objekt reagerar med varandra), som många tror är allt PhysX handlar om, är egentligen en väldigt liten del av PhysX.

En CPU skulle gå på knä om den skulle ge sig på nåt sånt här
YouTube - Real Time 3D Fluid and Particle Simulation and Rendering

Visa signatur

Intel i5 12600K | Asus TUF Gaming Z690-Plus D4 | Asus Geforce RTX 3060 Ti | 32 GB DDR4 | Fractal Design North | Corsair iCue Link H100i | Cooler Master V750 Gold i Multi

Permalänk
Medlem
Skrivet av Asheileon:

Hejsan hoppsan så var en till konspirationsteori om nVidia född bryr mig inte, tyck vad ni vill men ett företag finns för att gå med vinst och dem företag som inte tänker så är styrda av idioter eller inkompetenta idioter.

Jo, men du är inte företaget. Du är konsumenten. Du vill ha det så bra upplagt för dig som möjligt.

NVIDIA kan säker försvara sig med företagsekonomiska skäl, men som konsument så står jag inte på företagets sida i vått och torrt.

Men de som vill böja sig framåt och dra ner byxorna får väl göra det.

Gender Bender: Du menar allt det där som fortfarande inte implementerats i något spel? Min poäng är fortfarande att det som visats, i spel, med gpu-accelerering lika gärna kunde köras på cpun.

Visa signatur

i5 4670k 4.2Ghz 1.2v
AMD R9 290
Windows 10

Permalänk
Medlem

Riktigt ruttet av Nvidia. Visst kan jag se varför dom gjorde det, men det ändrar inte att det var riktigt ruttet gjort. Blä.

Permalänk

Hoppas hela PhysXgrejjen blir allvarligt knivhuggen och förblöder i en trång gränd någonstans.

Rättvis fysik åt folket! såväl som på CPU och andra GPUer än de från Nvidia!

Permalänk
Skrivet av Valiumballong:

Jo, men du är inte företaget. Du är konsumenten. Du vill ha det så bra upplagt för dig som möjligt.

NVIDIA kan säker försvara sig med företagsekonomiska skäl, men som konsument så står jag inte på företagets sida i vått och torrt.

Men de som vill böja sig framåt och dra ner byxorna får väl göra det.

Gender Bender: Du menar allt det där som fortfarande inte implementerats i något spel? Min poäng är fortfarande att det som visats, i spel, med gpu-accelerering lika gärna kunde köras på cpun.

Det jag sa var att jag inte bryr mig för jag vet att varken jag eller nån annan här kommer göra nåt åt detta, "oh, jag ska inte köpa nVidia pga detta!!" *pft* säkert som om det skulle hjälpa. Dem som vill eller har tänkt köpa ett nytt vga kommer nog inte byta åsikt för den här nyheten.... trotsallt så händer sånt här hela tiden ju.

Permalänk
Medlem
Skrivet av Valiumballong:

Jo, men du är inte företaget. Du är konsumenten. Du vill ha det så bra upplagt för dig som möjligt.

NVIDIA kan säker försvara sig med företagsekonomiska skäl, men som konsument så står jag inte på företagets sida i vått och torrt.

Men de som vill böja sig framåt och dra ner byxorna får väl göra det.

Gender Bender: Du menar allt det där som fortfarande inte implementerats i något spel? Min poäng är fortfarande att det som visats, i spel, med gpu-accelerering lika gärna kunde köras på cpun.

Det har inte funnits GPU-kraft för det förens nu när 400-serien har släppts, har man velat haft dessa effekter så har man varit illa tvungen att ha ett dedikerat PhysX-kort, vilket inte många har. Dark Void är nog det spel där PhysX används flitigast. Där kan det komma upp till 120k partiklar samtidigt.

PhysX kommer garanterat att bli vanligare framöver, till höst så kommer ju Mafia som vad det ser ut som kommer utnyttja PhysX någorlunda bra. Det blir första stora titel som använder sig av tekniken, och förmodligen leder de till att fler hoppar på PhysX-tåget.

Dock så kan jag hålla med om att det verkligen är brist på spel som använder sig utav PhysX's potential, men man får som sagt se hur tekniken etablerar sig i framtiden. En öppen GPU-fysik standard skulle ju dock inte sitta fel.

Visa signatur

Intel i5 12600K | Asus TUF Gaming Z690-Plus D4 | Asus Geforce RTX 3060 Ti | 32 GB DDR4 | Fractal Design North | Corsair iCue Link H100i | Cooler Master V750 Gold i Multi

Permalänk
Avstängd
Skrivet av Asheileon:

Hejsan hoppsan så var en till konspirationsteori om nVidia född bryr mig inte, tyck vad ni vill men ett företag finns för att gå med vinst och dem företag som inte tänker så är styrda av idioter eller inkompetenta idioter.

Tänker du möjligtvis på Media Markt!? Dom har välle aldrig gått med någon direkt vinnst!? iaf inte vad jar har läst

Permalänk
Medlem

Ja härregud, får man någonsin höra nått gott om Nvidia? Det känns som att de tattarna inte gör annat än luras. Nä, håll er till Ati, dom förtjänar kunderna.. Det gör inte Nvidia.

Permalänk
Medlem
Skrivet av InluZion:

Tänker du möjligtvis på Media Markt!? Dom har välle aldrig gått med någon direkt vinnst!? iaf inte vad jar har läst

+1 för att du berömmer Media Markt.

-1 därför att du refererar till dem i den här argumentationen. Media Markt är en andra part, en återförsäljare. De behöver inte hålla sin egen hårdvara/mjukvara exklusiv för att gå med vinst, därför att de inte besitter någon.

nVidia tillverkar däremot sin egna hårdvara, och PhysX är ett argument till varför folk bör investera i en utav deras produkter, via en återförsäljare.

Själv anser jag att nVidia gör rätt som försvarar sin mjukvara (även om de bara köpt upp den), men att inte bara nedprioritera utan även medvetet handikappa PhysX på CPU är lite surt. Men anledningen är fortfarande solklar.

Go Havok!

Visa signatur

Chassi: Cooler Master NR200 CPU: AMD Ryzen 9 5950X CPU-Kylare: NZXT Kraken X63 w. 2x Noctua NF-A14 Moderkort: ASUS Crosshair VIII Impact RAM:G.Skill 32Gb DDR4 3600MHz @14.14.14.36 1.45V GPU: ASUS ROG STRIX RTX 3090 OC SSD: 2x WD Black 850 SN850 1TB PSU: Corsair SF750 750W Platinum

Permalänk
Medlem
Skrivet av TompiQ:

nVidia tillverkar däremot sin egna hårdvara

TSCM tillverkar Nvidias hårdvara.

Visa signatur

i5 4670k 4.2Ghz 1.2v
AMD R9 290
Windows 10