PhysX kan komma till Radeon

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av antee89
Asså, ni får gärna såga mig, men... jag hade för mig att ATI-kort var bättre för Folding@Home pga att de har fler stream(?)processorer.

Behöver inte såga dig, men ditt minne sviker dig när det gäller foldingprestanda Mina 8800GTX (som ju knappast kan kallas det häftigaste nVidia har att komma med) smiskar brorsans HD4870 med god marginal i princip jämt..
Nu är jag inte jätteinsatt i gpuernas uppbyggnad och funktion, men jag vet att när man klockar korten för bättre prestanda i folding, så är det shaders man ska ge sig på först..
Sen kan man ju spekulera i om nVidia läser mina inlägg och tycker dem är så smarta att de faktiskt gör så, eller om det faktiskt var planerat

Permalänk
Medlem

Jag gillar denna meningen skarpt "Detta möjliggör mer realistiska effekter i spel eftersom grafikprocessorer med hundratals kärnor är mer lämpade till parallelliserbara beräkningar än vanliga CPU."

Sen när började grafikkort ha hundratals kärnor? Skulle sett rätt komiskt ut med ett grafikkort med flera hundra kärnor och snacka om vilken nätdel man måste ha för att driva detta monsterkort

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Xtenzion
Jag gillar denna meningen skarpt "Detta möjliggör mer realistiska effekter i spel eftersom grafikprocessorer med hundratals kärnor är mer lämpade till parallelliserbara beräkningar än vanliga CPU."

Sen när började grafikkort ha hundratals kärnor? Skulle sett rätt komiskt ut med ett grafikkort med flera hundra kärnor och snacka om vilken nätdel man måste ha för att driva detta monsterkort

Shader processor! HD4870x2 har 1600st, t.ex. Mitt grafikkort, 8600GT, har 32 st.

Visa signatur

🖥️ IQUNIX ZX-1 - i5-10600K - Z490I Unify - GTX 1070 - 16 GB 3600 MHz - SF750 - ASUS PG279QZ
💻 Lenovo Ideapad 720s-14
📺 LG B1 55 - Dali Concept 6 - Pioneer VSX-923
🎮 AYN Odin Lite
📞 Google Pixel 4a

Permalänk
Avstängd

"That probably reflects the fact that their GPU computing solution is probably a couple of generations behind ours."

Hahahha, ja fantasivärlden är en fin plats

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av KlavKalashj
Trevligt trevligt... Kasta ut DirectX och satsa på OpenGL också? Hade vart nåt!

Herregud vilken kille... Om jag sa så omogna saker i media skulle jag inte kunna sova om nätterna...

Livsfarligt för speltillverkare att inte använda DirectX, då blir Microsoft jättearga och sura och helt plötsligt kan spel portas lättare till andra plattformar och MS's "gaming"-monopol sprängs

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av miFFhoe
Hahahah, älskar denna - "That probably reflects the fact that their GPU computing solution is probably a couple of generations behind ours."

det är väll bara för dom att göra en "Dålig" portning så kommer PhysX ge tillräckligt dålig prestanda på ati korten. medans cuda körs på nividias kort för en förbättrad prestanda? dom kommer då också kunna optimera kod till olika GeForce kort?

*dock spekulerar jag mer nu?*

Citat:

Ursprungligen inskrivet av McVit
bevisa det.

Nvidia var först ...varför skulle dom inte ligga före?

nvidia va ju ganska mycket efter i Folding så vad pratar du om? dom tog ju upp folding som ett exempel på att ati var "efter" så jag tror att så länge jag inte mins fel är det väll egentligen nivida som va sist? =/

Citat:

Ursprungligen inskrivet av Isengrim
Hur antalet streamprocessorer (unified shaders) påverkar grafikkortets foldingprestanda är jag osäker på, i dagsläget presterar dock ATI:s grafikkort sämre i f@h än nVidia.

teoretiskt sett (orkar inte kolla upp numrena nu men mins att förut iallafall så gav ati korten mer krut per kort än the green teams gjorde)

men att nvidia skulle kunna ge mer points kan ju också vara för att nvidida skulle kunna få mer poäng per sak gjort (nu säger jag inte att det är så utan bara att bara för att jag gör en spicifik sak och får mer poäng så behöver inte det alltid betyda att jag är bättre för det går att fuska hoppas folk förstod att jag bara tog ett "proof of concept" (eller hur det nu stavas) och att jag inte har någon som helst koll på om det är så eller inte.

så no need to tell me jag tror på konspirationer (A)

*sorry dålig stavning*

Visa signatur

| ASUS P8Z77-V DELUXE | Intel Core i7 2700K @ 4.7Ghz | 16GB Corsair Vengeance 1600Mhz @ 8-8-8-24 |
| ATi Radeon HD 6950@6970 (900|1350Mhz @ 1.14v) | Corsair Force GT 120GB | Corsair HX 650W |
| Nvidia's GT300 yields are less than 2% | Min ArmA2 YouTube Kanal |

Permalänk
Medlem

Får väl se om detta mynnar ut i något gott

Permalänk
Citat:

Ursprungligen inskrivet av Fire_Ice
"If we start using OpenCL, then there’s a chance that the features would work on ATI, but I have no idea what the performance would be like. Previously, looking at things like Folding@home, ATI GPU computing performance seems to be behind Nvidia. That probably reflects the fact that their GPU computing solution is probably a couple of generations behind ours."

Ren bullshit.

nVidia är mer effektivare när det gäller prestanda/watt/PPD ( point per day) i F@H. Detta är bevisat mer än flera gånger.

Att sedan han påstår att AMD's GPU arkitektur halkar efter är givetviss vridet men saken är att AMD's GPU reflekterar inte alls den teoretiska prestandan som den verkliga. Så alltingen är AMD's GPU ej opimerade, vilket jag tror är inte fallet eftersom AMD har haft nästan 3 år på sig sedan R600 är få ut all prestanda från deras arkitektur. Eller så de teoretiska prestanda siffror enbart teoretiska och kommer aldrig att vara nära de verkliga.

F@H ger en bra fingenriktning på hur GPU hanterar GPGPU applikationer.

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Camper
Det finns nog mer sanning i det än vad du verkar vara medveten om. Medans Nvidia och Intel bitchfightas som ett gäng tonårsflickor om certifikatklausuler så sitter AMD på en helt separat plattform och är ensam om att kunna erbjuda CPU, styrkretsar och GPU

Exakt dom ser framåt kommer nog löna sig bra i framtiden

Visa signatur

ASUS Maximus III Formula || Intel i5-760@4.0Ghz || Noctua NH-D14 || Gigabyte GTX480 || 2x1TB sataIII raid0 || Corsair Dominator 1600Mhz@1800Mhz || Sound Blaster X-Fi Titanium - Fatal1ty Champion Series || Corsair HX850W || Logitech Z-5500 || AOC 619VH 26" || Obsidian 800D || Logitech G19 || Razer Copperhead 3G ||

Permalänk
Medlem

Det var nästan lit skumt att detta kom ut just nu när ATi visat upp sitt, PhysX till alla... säkerligen för att PhysX står med ena foten i graven.

Permalänk
Medlem

Frågan är om det här egentligen betyder någonting alls? Jag tvivlar på att AMD/Intel verkligen kommer att vilja stöda PhysX före Havok (eftersom Nvidia alltid kommer att göra dem till "nummer två" prestandamässigt), och sålänge som inte alla samarbetar så kommer vi knappast att se någon braschstandard inom fysiken. Några titlar med lite extra lull-lull i PhysX, några titlar med lite extra lull-lull i Havok...

Permalänk

Mycket bra det känns skönt med ett gemensamt fysik system

Visa signatur

Ryzen 3700x, 32 Gb Corsair Vengence 3000 Mhz CL16, MSI X570 Gaming Edge, Silicon Power 1TB NVMe SSD, 750 Gb Seagate Momentus XT, Seagate Barracuda 4 TB, Fractal Design Defice C TG,
LG 29EA93 2560x1080, Logitech G933, Razer Deathadder Respawn, Corsair Strafe RGB

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av DataNusse
nVidia är mer effektivare när det gäller prestanda/watt/PPD ( point per day) i F@H. Detta är bevisat mer än flera gånger.

Att sedan han påstår att AMD's GPU arkitektur halkar efter är givetviss vridet men saken är att AMD's GPU reflekterar inte alls den teoretiska prestandan som den verkliga. Så alltingen är AMD's GPU ej opimerade, vilket jag tror är inte fallet eftersom AMD har haft nästan 3 år på sig sedan R600 är få ut all prestanda från deras arkitektur. Eller så de teoretiska prestanda siffror enbart teoretiska och kommer aldrig att vara nära de verkliga.

F@H ger en bra fingenriktning på hur GPU hanterar GPGPU applikationer.

Det beror antagligen på den rena mängden shaders. RV770 har som bekant 160 shaders i 750MHz. GT200B kommer med 240 shaders i 1476MHz. Men RV770 kan under mycket gynnsamma förhållanden räkna upp till 5 beräkningar per shader och tick. Vilket gör att de oftast räknas som 800 st.

Med andra ord är den mycket effektivare per faktisk shader, men den effektiviteten kan i många fall vara svår att få ut. Arkitekturen har helt enkelt högre tak till sin maximala prestanda.

Permalänk
Medlem

Kommer aldrig att hända!

Visa signatur

| CPU i7-11700KF @ 5GHz | Mobo MSI Z490-A Pro | Ram 32Gb 3600Mhz cl17 DDR4 | GFX RTX 3080 | HDD 2x 1024Gb M.2 SSD | Corsair 850W | Playstation 5 | Xbox Series X |
"Om allt verkar gå bra vet du förmodligen inte alls vad som pågår."

Permalänk
Medlem

That probably reflects the fact that their GPU computing solution is probably a couple of generations behind ours.

säger mr.nvidia och går och spelar på sitt gddr3 kort...dåligt uttalande

Visa signatur

i9-11900F | RTX 3070 ti

Permalänk
Medlem

Intel äger väl Havok? Kommer nog sluta med att de ser till att det fungerar bäst på deras nya grafikkort. Nvidia kommer göra samma sak. Amd måste få igång en öppen standard.

Visa signatur

Antec 182b | Intel Quad Q6600 @ 3 GHz| Thermalright Ultra 120 | Gigabyte P35 DS3 | Corsair PC6400 CL4 4x1024 MB | 8800 GTS 320 | Raptor 36 GB | Samsung SpinPoint 320 GB | Corsair Powersupply 520W | Eizo S2201W

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Limo
That probably reflects the fact that their GPU computing solution is probably a couple of generations behind ours.

säger mr.nvidia och går och spelar på sitt gddr3 kort...dåligt uttalande

och ändå så lyckas dom bättre än AMD...dåligt uttalande.

Visa signatur

Stationär: Ryzen9 5900x | DDR4 3200MHz 2x16GB | Geforce GTX1080 | Asus x570-F | Samsung 980 pro 512GB | Samsung 70 pro 256GB | Corsair AX 1200W |
Server: Ryzen9 5950x | 128GB RAM |

Permalänk
Citat:

Ursprungligen inskrivet av -Boris-
Det beror antagligen på den rena mängden shaders. RV770 har som bekant 160 shaders i 750MHz. GT200B kommer med 240 shaders i 1476MHz. Men RV770 kan under mycket gynnsamma förhållanden räkna upp till 5 beräkningar per shader och tick. Vilket gör att de oftast räknas som 800 st.

Med andra ord är den mycket effektivare per faktisk shader, men den effektiviteten kan i många fall vara svår att få ut. Arkitekturen har helt enkelt högre tak till sin maximala prestanda.

AMD's GPU arkitektur klarar av bättre tunga beräkningar än nVidia om man tittar på F@H tackvare 5 beräkningar per shader som AMD's GPU har. När de tunga Work Units kom så behöll AMD kort sin position av PPD medans nVidia PPD föll på samma nivå som AMD's. Och när lätta WU kom så ökade nVidia kort sin PPD och AMD behöll sin produktion av PPD.

Inget man kan slå domarklubban i bordet på men det ger en viss insikt i nVidia's respektive AMD's GPU arkitekturer och hur den kan reflektera på GPGPU tillämpningar. Detta kan också antyda på hur prestanda på övriga GPGPU tillämpningar kan se ut.

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av DataNusse
Inget man kan slå domarklubban i bordet på men det ger en viss insikt i nVidia's respektive AMD's GPU arkitekturer och hur den kan reflektera på GPGPU tillämpningar. Detta kan också antyda på hur prestanda på övriga GPGPU tillämpningar kan se ut.

Att säga att F@H är ett riktmärke för varenda GPGPU application är som att säga att 3DMark är det enda man tittar på för prestandan i spel. Vilket man såklart inte gör. Det är helt upp till programmeraren att optimera koden för respektive grafik kort.

Nu är det bara så att Nvidia har plöjt ner mycket pengar i CUDA och framförallt F@H till skillnad mot AMD. Så det är AMDs fel att de presterar lite sämre i F@H. Vad jag vet så kör F@H fortfarande med det första API som man kunde programmera GPUer med på ATI kort. ATI har ju bytt standard 3-4 gånger så hade de gjort en klient med dagens API så skulle vi nog se en stor skillnad.

Men du kan ju ge dig fan på att AMD kommer att vara bättre än Nvidia med OpenCL Havoc och Nvidia bättre än AMD med PhysX nu i början.

Visa signatur

I like my women how i like my coffee... In a plastic cup.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Eson
Att säga att F@H är ett riktmärke för varenda GPGPU application är som att säga att 3DMark är det enda man tittar på för prestandan i spel. Vilket man såklart inte gör. Det är helt upp till programmeraren att optimera koden för respektive grafik kort.

Nu är det bara så att Nvidia har plöjt ner mycket pengar i CUDA och framförallt F@H till skillnad mot AMD. Så det är AMDs fel att de presterar lite sämre i F@H. Vad jag vet så kör F@H fortfarande med det första API som man kunde programmera GPUer med på ATI kort. ATI har ju bytt standard 3-4 gånger så hade de gjort en klient med dagens API så skulle vi nog se en stor skillnad.

Men du kan ju ge dig fan på att AMD kommer att vara bättre än Nvidia med OpenCL Havoc och Nvidia bättre än AMD med PhysX nu i början.

Han har ändå en poäng, visst kan inte F@H ge en rättvis bild av hur andra program kommer prestera. Men det ger en bild av vad de olika arkitekturerna har för styrkor.

Permalänk
Citat:

Ursprungligen inskrivet av Eson
Att säga att F@H är ett riktmärke för varenda GPGPU application är som att säga att 3DMark är det enda man tittar på för prestandan i spel. Vilket man såklart inte gör. Det är helt upp till programmeraren att optimera koden för respektive grafik kort.

Nu är det bara så att Nvidia har plöjt ner mycket pengar i CUDA och framförallt F@H till skillnad mot AMD. Så det är AMDs fel att de presterar lite sämre i F@H. Vad jag vet så kör F@H fortfarande med det första API som man kunde programmera GPUer med på ATI kort. ATI har ju bytt standard 3-4 gånger så hade de gjort en klient med dagens API så skulle vi nog se en stor skillnad.

Men du kan ju ge dig fan på att AMD kommer att vara bättre än Nvidia med OpenCL Havoc och Nvidia bättre än AMD med PhysX nu i början.

AMD kort har genom gått fler tal Core F@H uppdateringar sedan de börjat köra F@H, presic som nVidia kort har fått flera Core F@H uppdateringar. Att nVidia skulle vara på något sett favoritiserade av Standfords Folding projekt grupp finer jag inga belägg för.

nVidia har lagt ner mycket pengar på CUDA är väl naturligt, och vi ser att det har givit väldigt bra resultat då CUDA är känt och används flitigt av de som behöver denna sort applikation för deras arbete eller/och projekt. nVidia ger såna grupper support när frågor tillkommer. F@H är en av de. På CUDA's hemsida kan man se att denna applikation används för ekonomisk beräkning, strukturellpåfrestnings simulatorer till att vicka proteiner.

Du vet väl att OpenCL utveklades på nVidia's hårdvara.

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av _Segas+
"Stå emot AMD", ja det verkar ju svårt... *host, host*

Du väljer vad du vill läsa va? amd _OCH_ intel SAMTIDIGT, BÅDA TVÅ på en gång!

Visa signatur
Permalänk
Medlem
Citat:

Ursprungligen inskrivet av McVit
och ändå så lyckas dom bättre än AMD..

... genom att uppgradera redan släppta kort samt slänga ihop 2 kort, flera månader efter dessutom, bra det!

Är det verkligen så kul att avguda ett företag?

Visa signatur

Silverstone FT03B | Dell U2711 | Be-quiet E9 580w CM | ASUS GENE-Z | AMD 7970 | Intel 2500k @ 4,4 Ghz| Corsair H80i | 8GB Corsair LP

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Whiip
... genom att uppgradera redan släppta kort samt slänga ihop 2 kort, flera månader efter dessutom, bra det!

Är det verkligen så kul att avguda ett företag?

Säger mannen med den neutrala avataren ^^

För övrigt är det väl inget fel i att slänga ihop 2 kort till ett? Om kärnorna sitter på samma bräda eller på 2 olika kvittar väl. Tar ändå inte upp mer plats än ett X2 t.ex?
295 är snabbaste singelslot kortet idag så det fungerar ju uppenbarligen...

Visa signatur

Intel 7700K @ 5,1ghz (Binned) | Custom H2O Loop | Asus Maximus IX Hero | 32GB Corsair @ 3200mhz | GTX 3080 | Samsung 960 EVO 500GB | Samsung 870 EVO 500GB | Samsung 860 EVO 2TB | Soundblaster Z-Xr | Asus ROG Swift PG279Q | Corsair 850W-HX | Thermaltake The Tower 900

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Whiip
... genom att uppgradera redan släppta kort samt slänga ihop 2 kort, flera månader efter dessutom, bra det!

Är det verkligen så kul att avguda ett företag?

bra fråga...du kan väll berätta för oss.

jag är inte särskilt objektiv då jag kan se fördelarna i att välja Nvidia över AMD.

"genom att uppgradera redan släppta kort samt slänga ihop 2 kort"

det funkar...så varför inte? gå tillbaka till skolan.

______________________________________

295 är snabbaste singelslot kortet idag så det fungerar ju uppenbarligen...

enda nackdelen är att det blir dyrare att tillverka ... och sen är det en liten % som faktiskt väljer att byta kylare och då är detta kort lite problematiskt igen....men Standard Kylaren är löjligt bra för sin konstruktion.

Visa signatur

Stationär: Ryzen9 5900x | DDR4 3200MHz 2x16GB | Geforce GTX1080 | Asus x570-F | Samsung 980 pro 512GB | Samsung 70 pro 256GB | Corsair AX 1200W |
Server: Ryzen9 5950x | 128GB RAM |

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av stege99
That probably reflects the fact that their GPU computing solution is probably a couple of generations behind ours.

Två "probably" i samma mening. Han låter väldigt säker på sin sak.

Hakade också upp mig på detta uttalande, nog fan ligger inte ATI ett par eller ens en genereation efter. ATi är likvärdiga motståndare till nVidia hur mkt den senare parten än vill att det inte ska framstå som så.

Visa signatur

Chassi: Xigmatek Elysium | PSU: EVGA Supernova G2 750W | MB: ASUS Strix Z390-F GAMING | CPU: INTEL i9-9900K & Corsair H60 | GPU: Asus Strix RTX 2080 OC | SSD: Samsung 970 EVO 500 GB | RAM: HyperX Fury 4x8 GB CL16 2666 Mhz | Ljudkort: Asus Xonar D2X | Nätverkskort: Asus PCE-AC68

Tangentbord: Keychron K8 Pro | Switchar: Boba U4 | stabilizers: AEboards Staebis V2

|| Citera för svar! ||

Permalänk
Medlem

Vad är OpenCL för något?

Visa signatur

Laptop: Asus N76VZ 17,3''|Specs: CPU: Intel i7 3610QM 2.4 Ghz|Minne: 8Gb|HDD: 750GB 7200rpm|GPU: Nvidia Geforce GT 650M|OS: Windows 7 Ultimate 64-bit|Övrigt: 1920x1080p

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av DataNusse
Du vet väl att OpenCL utveklades på nVidia's hårdvara.

Utveckla gärna. Är inte OpenCL en öppen standard som tagits fram av The Khronos Group som bland annat Nvidia, AMD och Intel är medlemmar i?

Visa signatur

I like my women how i like my coffee... In a plastic cup.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av McVit
och ändå så lyckas dom bättre än AMD...dåligt uttalande.

ännu en gång: "a couple of generations behind ours."
sen när?

Visa signatur

i9-11900F | RTX 3070 ti

Permalänk
Citat:

Ursprungligen inskrivet av Eson
Utveckla gärna. Är inte OpenCL en öppen standard som tagits fram av The Khronos Group som bland annat Nvidia, AMD och Intel är medlemmar i?

OpenCL är en öppenstandar och nVidia har sakt att dem uppmuntrar och stödjer OpenCL. nVidia arbetade nära Apple med utvecklingen av OpenCL och implementering. CUDA och OpenCL har många likheter, båda använder PTX kod för att tala mellan mjukvaran och hårdvaran (gpu). Varför AMD inte gick djupare i samarbete och utvecklingen är okänt för alla som inte har en insikt i projektet.

AMD har demonsterar OpenCL demo på sina CPU och GPU. Och nVidia visade en OpenCL demo på sina GPU. Detta är glädjande tycker jag för att då kan OpenCL kanske bli en standar som för samman Havok och CUDA även om de två kommer stå mot varandra. OpenCL blir neutral mark om man får utrycka sig så.

Bra läsning för den kuriöse:
http://www.behardware.com/articles/744-1/opencl-democracy-for...

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."