AMD: Spelutvecklare använder endast PhysX för pengarna

Permalänk
Medlem

Antagligen för att DMM använder sig av OpenCL för att utföra funktionerna på GPU.

Permalänk
Hjälpsam

En intressant sak med videon är att den visar fysik för stela kroppar och fysik på stela kroppar, tror jag alltid körs på CPU:n (eller PPU:n) för PhysX alldrig GPU:n.
Tyg, mjuka kroppar, vätskor och partiklar kan däremot köras på GPU:n.

Har Bullit mindre begränsningar än så?

Visa signatur

AMD Ryzen 7 5700X | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/51gntq | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/gwcxfs
HTPC | https://valid.x86.fr/gqtxws |

Permalänk
Inaktiv
Citat:

Ursprungligen inskrivet av DataNusse
Det är en deja vu. Samman sak nämnes när AMD (gamla ATI) börjar samarbeta med Havok, och sedan sades samma sak när AMD började samarbeta med Bullet Physics. Av det har absolut inget konkrett presenterats, och de hade fyra år på sig att leverera något annat än simpla techdemos. Och nu säger AMD att de ska samarbeta med Pixelux Entertainment.

Tredje gången gillt hoppas man, annars börjar detta bli en Duke Nukem Forever historia om inte redan.

Minst sagt. Sammarbetet mellan ATI och Havok fördördes väl ändå delvis av Intels uppköp av Havok och att AMD köpte upp ATI?

Techdemos är kul, oavsett om det är fladdrande tyg som snabba farkoster, men något resultat vill ju även vi konsumenter ha. Om jag fattar det hela rätt så är AMD's jobb att få Bullet att köras över OpenCL. Får hoppas det inte är för mycket jobb bara.

Det är ändå andra försöket? AMD, Bullet och Pixelux sammarbetar ju vad jag förstår det?

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av DataNusse
mycket prat men ingen verkstad. Verkar vara AMDs motto.

Som t.ex. att hålla tidsramar för grafikkortssläpp? hosthost

Ingen idé att du sitter och försöka slunga skit på AMD varje gång de nämns, jag tror ingen vettig människa läser det du skriver och gör din slutsats till sin egen.

Visa signatur

i5 4670k 4.2Ghz 1.2v
AMD RX 580
Windows 10

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av DataNusse
Det är en deja vu. Samman sak nämnes när AMD (gamla ATI) börjar samarbeta med Havok, och sedan sades samma sak när AMD började samarbeta med Bullet Physics. Av det har absolut inget konkrett presenterats, och de hade fyra år på sig att leverera något annat än simpla techdemos. Och nu säger AMD att de ska samarbeta med Pixelux Entertainment.

Tredje gången gillt hoppas man, annars börjar detta bli en Duke Nukem Forever historia om inte redan.

Har du typ SweC största AMD/ATi hatar!?? man läser ju inte så mkt mer än skitsnack om dom från dig... Hur våre det med lite fakta ist, så som ditt förra inlägga om att mkt snack och lite verkstad är deras MOTTO!???

Herre gud, dom har ju fått ut hur mkt kort som helst medan nVidia knappt fått ut sin FERMI serie ännu..

Är välle mer nVidia som har det mottot, OM någon har det (säger inte att någon har det)

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av InluZion
Har du typ SweC största AMD/ATi hatar!?? man läser ju inte så mkt mer än skitsnack om dom från dig... Hur våre det med lite fakta ist, så som ditt förra inlägga om att mkt snack och lite verkstad är deras MOTTO!???

Herre gud, dom har ju fått ut hur mkt kort som helst medan nVidia knappt fått ut sin FERMI serie ännu..

Är välle mer nVidia som har det mottot, OM någon har det (säger inte att någon har det)

Vet du vad du snackar om?

Han snackar inte om vem som får ut mest kort utan vem som får ut saker som är till förmån för konsumenterna.

Visa signatur

"Maybe one day you will learn that your way, is not the only way"

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Buio
Det dementerades av av Nvidia;

http://www.xbitlabs.com/news/multimedia/display/2010012105393...

Ja, fast ska man vara konspirationsteoretisk, och det ska man väl :), så säger egentligen mr Mohammed från Nvidia ordagrant det här:
"Our PhysX SDK API is designed such that thread control is done explicitly by the application developer, not by the SDK functions themselves."

Om man då kopplar det till vad AMD hävdar, det som frågan handlar om och som verkar vara en realitet, dvs att PhysX-implementeringen i de spel som marknadsförs som speciella "PhysX för CUDA"-spel görs av Nvidias egna programmerare eller med stark hjälp av dessa under TWIMTBP-programmets paraply, ja, då är man tillbaks till ruta 1. I dessa spel är det ju Nvidia som är "application developer" - vilket bl a framgår tydligt i den här reklamen för Just Cause 2:
http://ve3d.ign.com/videos/63453/PC/Just-Cause-2/Trailer/Nvid...

Det som Tom's Hardware visade, det som jag antar bl a låg till grund för dessa anklagelser från början, var ju att implementeringen av PhysX i de speciella "CUDA-effekterna" inte var särskilt bra trådade för cpu.

Att säga att PhysX SDK API i sig inte begränsar stödet på cpu är därför helt oväsentligt i sammanhanget, det var inte det frågan gällde. Dementin duckar. Svaret är i sig korrekt, men bara en halvsanning. Frågan om varför PhysX-effekterna i de spel som marknadsförs med "PhysX för CUDA" inte är bättre trådade för cpu är faktiskt obesvarad - trots dementin. Eller, svaret kanske snarare är uppenbart...?

Permalänk
Hjälpsam

Till saken hör att PhysX var ganska bra trådad innan Nvidia köpte Ageia.
Inte bara trådningen som är dålig, man använder tydligen inte heller SSE, på PC, trots att det används i konsoller.

Visa signatur

AMD Ryzen 7 5700X | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/51gntq | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/gwcxfs
HTPC | https://valid.x86.fr/gqtxws |

Permalänk
Avstängd

Har inte koll på detta så frågar.

Är physx ngt hårdvarubaserat på nvidia korten dvs finns det ett extra litet chip som tar hand om detta eller är det mjukvaran i spelet/programet som belastar den vanliga gpun för att beräkna fysik effekterna.

Om så är fallet går det väl lika bra att använda cpu eller är en cpu mycket sämre på detta?

Och om det är gpun som arbetar med detta, blir det inte då på bekostnad utav prestandan på den övriga grafiken?

Om det nu är gpun som belastas, varför kan man inte skriva programet så att även gpun på ett ati kort kan beräkna fysik?

Hoppas att man slipper bli idiot förklarad, skulle gärna få ett bra svar på detta så slipper man vara dum även imorgon.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av bingobelle
Har inte koll på detta så frågar.

Är physx ngt hårdvarubaserat på nvidia korten dvs finns det ett extra litet chip som tar hand om detta eller är det mjukvaran i spelet/programet som belastar den vanliga gpun för att beräkna fysik effekterna.

Om så är fallet går det väl lika bra att använda cpu eller är en cpu mycket sämre på detta?

Och om det är gpun som arbetar med detta, blir det inte då på bekostnad utav prestandan på den övriga grafiken?

Om det nu är gpun som belastas, varför kan man inte skriva programet så att även gpun på ett ati kort kan beräkna fysik?

Hoppas att man slipper bli idiot förklarad, skulle gärna få ett bra svar på detta så slipper man vara dum även imorgon.

Citat:

PPU
A physics processing unit (PPU) is a processor specially designed to alleviate calculations from the CPU, specifically calculations involving physics. Soon after the release of Ageia's PPU, graphics card manufacturers announced plans to implement similar functionality via the GPU. Support for the Ageia PPU solution was dropped for Windows 7.
-----

GPU

A graphics processing unit or GPU (also occasionally called visual processing unit or VPU) is a dedicated graphics rendering device for a personal computer, workstation, or game console. Modern GPUs are very efficient at manipulating and displaying computer graphics, and their highly parallel structure makes them more effective than general-purpose CPUs for a range of complex algorithms such as accelerating physics using PhysX

-----

Any CUDA-ready GeForce graphics card (series 8 and newer, having 32 or more cores and 256MB or more of video memory[11]) can take advantage of PhysX without the need to install a dedicated PhysX card.

-----

källa: http://en.wikipedia.org/wiki/PhysX

Visa signatur

Beställ aldrig soppa från en enbent servitör.

Permalänk

Efter läst igenom inläggen i den här tråden börjar jag bli riktigt trött på alla små ungar med stora bokstäver, utrops och frågetecken.
Det är inte kul att diskutera saker på swec forum längre. Det är fullt av okunniga gapiga individer med attityd problem.

Det behövs fler admins att röja upp den denna dagisgård swec forum har blivit!

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av bingobelle
Har inte koll på detta så frågar.

Är physx ngt hårdvarubaserat på nvidia korten dvs finns det ett extra litet chip som tar hand om detta eller är det mjukvaran i spelet/programet som belastar den vanliga gpun för att beräkna fysik effekterna.

Om så är fallet går det väl lika bra att använda cpu eller är en cpu mycket sämre på detta?

Och om det är gpun som arbetar med detta, blir det inte då på bekostnad utav prestandan på den övriga grafiken?

Om det nu är gpun som belastas, varför kan man inte skriva programet så att även gpun på ett ati kort kan beräkna fysik?

Hoppas att man slipper bli idiot förklarad, skulle gärna få ett bra svar på detta så slipper man vara dum även imorgon.

1 Physx är en mjukvara som körs på nvidias grafikkort (vanliga grafikkort). Cpun är betydligt sämre på detta.

2 En överklockad I7a motsvarar ett gammal nvidia 8800 i physx-prestanda. Physx går alltså att köra på cpu. Aktiverar man physx med ati kort så körs fysiken på cpun, med ganska dåliga resultat.

3 Jo, när physx aktiveras sjunker grafikkortens prestanda ganska mycket faktiskt. Det bästa är att ha ett bra grafikkort som sköter grafiken, och sedan ha ett till (typ nvidia 8600-8800) som sköter fysiken, alltså 2 stycken separata kort - En för grafik och en för fysik.

4 Det finns folk som har fått physx fungera bra på atis kort (4850 t.ex). Men det tystades ned ganska snabbt (Undrar om nvidias mutor har med saken att göra?:P)

Visa signatur

Intel I7 2600K, 4gb ddr3, gtx 560ti + geforce 9800gt physx. Ocz modxtream 700w nätagg

Permalänk
Medlem

AMD har faktiskt haft möjligheten att implementera stöd för PhysX på sina kort men valde att avstå. Så det är ju AMDs fel att PhysX endast finns på nVidia-kort...

Visa signatur

System: AMD Ryzen 7 9800X3D, 64 GB RAM, RTX 5080
Shitlist: Asus, NZXT

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av jonathan82
Det behövs fler admins att röja upp den denna dagisgård swec forum har blivit! [/B]

I second that!

Visa signatur

System: AMD Ryzen 7 9800X3D, 64 GB RAM, RTX 5080
Shitlist: Asus, NZXT

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Devrer
1 Physx är en mjukvara som körs på nvidias grafikkort (vanliga grafikkort). Cpun är betydligt sämre på detta.

2 En överklockad I7a motsvarar ett gammal nvidia 8800 i physx-prestanda. Physx går alltså att köra på cpu. Aktiverar man physx med ati kort så körs fysiken på cpun, med ganska dåliga resultat.

3 Jo, när physx aktiveras sjunker grafikkortens prestanda ganska mycket faktiskt. Det bästa är att ha ett bra grafikkort som sköter grafiken, och sedan ha ett till (typ nvidia 8600-8800) som sköter fysiken, alltså 2 stycken separata kort - En för grafik och en för fysik.

4 Det finns folk som har fått physx fungera bra på atis kort (4850 t.ex). Men det tystades ned ganska snabbt (Undrar om nvidias mutor har med saken att göra?:P)

Tackar för ett bra svar.

Med andra ord så är physx ingen hårdvara på grafikkortet utan helt enkelt mjukvara som använder sig utav gpun på grafikkortet.

Då borde ju ati kunna också kunna tillverka ett program som uttnyttjar deras gpuer för att kunna beräkna fysik effekter. Då känns det inte som om det är ngt extra speciellt med nvidia korten utan helt enkelt mer mjukvara som finns till dem. ( I o för sig inget minus att det finns som jag ser det )

Ligger denna mjukvara i drivrutinerna eller måste dem impletteras i varje individuellt program?

Sedan finns det ju ngt som de kallar för cuda också men det kanske inte har ngt med detta att göra.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av FredrikMH
AMD har faktiskt haft möjligheten att implementera stöd för PhysX på sina kort men valde att avstå. Så det är ju AMDs fel att PhysX endast finns på nVidia-kort...

Va när?

Vad jag vet så var det någon hackare som kom på hur man körade physx på ati kort och ville ha hjälp av ati dvs att de skulle skicka kort och hjälpa till med drivrutiner osv. Tror inte att det är precis lagligt att göra så så förstår om ati avstod

Sen sa ju nvidia att de skulle släppa physx för alla, vilket bara var fjäsk. Självklart vill de hålla det för sig själva då de lagt ner sin egen tid och pengar i det (framför allt pengar, då de köpte projektet färdigt i princip). Varför ska ati få åka snålskjuss..

Sen hade det sett dåligt ut för ati om de visade att de inte klarar sig själva utan att nvidia får hjälpa dem. Antagligen hade nvidia gjort allt för att få physx att prestera så dåligt som möjligt på Atis kort med..

Visa signatur

Intel I7 2600K, 4gb ddr3, gtx 560ti + geforce 9800gt physx. Ocz modxtream 700w nätagg

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Mupp3n
Din signatur passar till denna text.

OpenCL > PhysX. Då det gynnar konsumenterna och inte Nvidia.
Sedan finns det ju dessa Nvidia fanboys som älskar den lilla PhysX support som finns ute i spel! Hela 6-8st spel som faktiskt använder PhysX, (under kanske 6 års tid?) sedan finns det spel med PhysX paketet, men inga effekter.

Det är för att sälja nvidia grafikkort! Och det finns rätt många P14 som går på allt som skrivs i spel-intros.
"Nvidia, the way its meant to be played"

överansträng dig inte. konsoller har alltid haft det i princip bästa som finns på marknaden vid tillfället de släpps. De ska ju trotts allt hålla i en 5-6 år Nästa generation kommer väll runt 2011-2012 och att kunna beräkna fysik på grafikkortet lär nog väga en hel del. Inte för att det lär vara jättevanligt då men för att det har framtiden för sig. Om microsoft eller sony kommer att köra med nvidia eller ATI vet ingen, men de skadar nog inte att ha någonting att visa upp förutom massa utalanden om att konkurenten igentligen suger och att när de minnsan får ut sina grejer kommer det vara så jävla bra.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av FredrikMH
AMD har faktiskt haft möjligheten att implementera stöd för PhysX på sina kort men valde att avstå. Så det är ju AMDs fel att PhysX endast finns på nVidia-kort...

mycklet mystikt att man inte ville ge upp utan en fajt och sätta sig i licensklistret.

Permalänk
Citat:

Ursprungligen inskrivet av ARICE
vi gråter inte, vi gnäller...

att använda två kort som du gör är bra men det är ett fix som en nisse har gjort och ingen oficiell drivrutin från nvidia eftersom nvidia slutade stödje det när de insåg att man kunde använda deras kort som en slav åt ati kortet

Jag orkar inte läsa längre än hit... dessa eviga skitkastningar mellan AMD och nVidia anhängarna.
Jag ha köpt och kört båda grafikkorten utan att drabbas av hjärnblödning för det.

Vad jag däremot inte gillar är att nVidia 'straffar' ut de som väljer att köra med extra grafikkort i datorn,
oavsett om detta görs för att utnyttja PhysX eller bara att kunna ansluta flera bildskärmar.

När de sedan tvingar spelföretagen att installera nVidia PhysX drivrutin i min dator,
oavsett om jag har kort med stöd för detta eller inte, är övermäkta förmätet gjort.
Ett exempel på detta är spelet Batman som vägrar starta utan PhysX drivrutinen.

Visa signatur

Windows 10 Pro x64 | inwin A1 Plus White | AMD Ryzen 9 3900X | Asus ROG Strix X570-I Gaming | Corsair 3600MHz 16GB | Sapphire Radeon RX 5700XT | Samsung SSD M.2. 960 Pro. 1TB | LG 4K OLED55C9PLA

Permalänk
Hjälpsam
Citat:

Ursprungligen inskrivet av bingobelle
Tackar för ett bra svar.

Med andra ord så är physx ingen hårdvara på grafikkortet utan helt enkelt mjukvara som använder sig utav gpun på grafikkortet.

Ja.

Citat:

Ursprungligen inskrivet av bingobelle

Då borde ju ati kunna också kunna tillverka ett program som uttnyttjar deras gpuer för att kunna beräkna fysik effekter. Då känns det inte som om det är ngt extra speciellt med nvidia korten utan helt enkelt mer mjukvara som finns till dem. ( I o för sig inget minus att det finns som jag ser det )

Ja.

Citat:

Ursprungligen inskrivet av bingobelle

Ligger denna mjukvara i drivrutinerna eller måste dem impletteras i varje individuellt program?

Den ligger i ett speciellt program som speltillverkarna får del av, en så kallad fysikmotor.
Denna fysikmotor anropar i sin tur ett speciellt programbibliotek som intalleras på datorn, ett gemensamt för alla program som använder PhysX.
Detta programbibliotek kan i sin tur köras på CPU:n eller GPU:n.

Citat:

Ursprungligen inskrivet av bingobelle

Sedan finns det ju ngt som de kallar för cuda också men det kanske inte har ngt med detta att göra.

Cuda är ett sätt att kunna köra specialskrivna program på Nvidias GPU:er, PhysX körs via CUDA när det körs på GPU:n.

Visa signatur

AMD Ryzen 7 5700X | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/51gntq | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/gwcxfs
HTPC | https://valid.x86.fr/gqtxws |

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av bingobelle
Tackar för ett bra svar.

Med andra ord så är physx ingen hårdvara på grafikkortet utan helt enkelt mjukvara som använder sig utav gpun på grafikkortet.

Då borde ju ati kunna också kunna tillverka ett program som uttnyttjar deras gpuer för att kunna beräkna fysik effekter. Då känns det inte som om det är ngt extra speciellt med nvidia korten utan helt enkelt mer mjukvara som finns till dem. ( I o för sig inget minus att det finns som jag ser det )

Ligger denna mjukvara i drivrutinerna eller måste dem impletteras i varje individuellt program?

Sedan finns det ju ngt som de kallar för cuda också men det kanske inte har ngt med detta att göra.

1 Ja

2 Det är precis det amd håller på att göra nu (Läs sweclockers nyheter, där finns även en demostrationsvideo av fysikmotorn). Dock köpte nvidia upp physx av agia, så de fick i princip en färdig fysikmotor och han ut före amd, dom fortfarande håller på med sin. Btw så höll ju amd på med att få havok (en annan bra fysikmotor) att fungera på sina kort, i sammarbete med ägarna av havok. Men precis när de lyckades så köpte intel upp havok och amd fick börja om från början. Så iof inte så konstigt att de ligger efter.

3 Det är ju en färdig motor som bara byggs in i valfritt spel.

4 Cuda är väll programmeringsspråket som physx är skrivet i om jag inte tar fel? Dvs nvidias egna programmeringsspråk som endast deras egna kort kan läsa.

Amd jobbar ju i uppförsbacke både med sina cpus och gpus. Eftersom majoriteten använder intel och nvidia för att de tror att det är bättre så anpassas ju alla program för dessa. De har även mycket mer pengar så kan ge speltillverkarna "mutor" för att anpassa spelen till deras hårdvaror.
Alltså måste amds gpus och cpus vara snabbare för att prestera lika bra som nvidias/Intels i de flesta program..

Även när amd är ensamma om en teknik (Tex i assasins crees med direct x 10.1, som gav en stor prestanda boost för atis kort som stödde tekniken). Men eftersom nvidia inte hade orkat fixa tekniken så betalade de skaparna till spelet för att ta bort dx10.1 stödet för att försöra för AMD/ATI.

Visa signatur

Intel I7 2600K, 4gb ddr3, gtx 560ti + geforce 9800gt physx. Ocz modxtream 700w nätagg

Permalänk
Hjälpsam
Citat:

Ursprungligen inskrivet av sykes90
överansträng dig inte. konsoller har alltid haft det i princip bästa som finns på marknaden vid tillfället de släpps. De ska ju trotts allt hålla i en 5-6 år Nästa generation kommer väll runt 2011-2012 och att kunna beräkna fysik på grafikkortet lär nog väga en hel del. Inte för att det lär vara jättevanligt då men för att det har framtiden för sig. Om microsoft eller sony kommer att köra med nvidia eller ATI vet ingen, men de skadar nog inte att ha någonting att visa upp förutom massa utalanden om att konkurenten igentligen suger och att när de minnsan får ut sina grejer kommer det vara så jävla bra.

Nu är inte en GPU fullt så bra på att köra fysik på, som ATI och Nvidia vill låtsas att den är.
För PhysX är det bara hälften av fysiken som körs på GPU:n, typiskt kroppars rörelse (partiklar vatten, tyg och mjuka kroppar), en slags banberäkning helt enkelt.
Vad gäller kollisioner och interaktioner mellan kroppar körs det på CPUn (eller PPU:N om sådan finns).

Denna gamla PPU.
http://en.wikipedia.org/wiki/PhysX
Presterade bättre än ett separat Nvidia 9600GT när den testades via ett hack i Mirrors Edge.
http://www.pcgameshardware.com/aid,674175/Mirrors-Edge-benchm...
Normallt kan man inte köra PhysX via Ageias PPU i Mirrors Edge.

Nej det blir nog något som Cellprocessorn som fixar fysiken i framtiden.
Nonetheless GPUs are built around a larger number of longer latency, slower threads, and designed around texture & framebuffer data paths; this distinguishes them from PPU's & the Cell as being less well optimized for taking over game world simulation tasks.
http://en.wikipedia.org/wiki/Physics_processing_unit

Detta är nog tyvärr en stor orsak till att det dröjt för ATI vad gäller fysik på GPU:n

Visa signatur

AMD Ryzen 7 5700X | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/51gntq | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/gwcxfs
HTPC | https://valid.x86.fr/gqtxws |

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Devrer
Det är precis det amd håller på att göra nu (Läs sweclockers nyheter, där finns även en demostrationsvideo av fysikmotorn). Dock köpte nvidia upp physx av agia, så de fick i princip en färdig fysikmotor och han ut före amd, dom fortfarande håller på med sin. Btw så höll ju amd på med att få havok (en annan bra fysikmotor) att fungera på sina kort, i sammarbete med ägarna av havok. Men precis när de lyckades så köpte intel upp havok och amd fick börja om från början. Så iof inte så konstigt att de ligger efter.

Därför ska vi hata AMD och hylla Intel? Nej jag tycker synd om AMD. AMD gör nog grymt mycket för att försöka hålla kunderna nöjda med bra prissättning, men har stora problem att få ut produkterna till kunderna. Pga att Intel och Nvidia är grymt bra på marknadsföring. Så uppfattar jag det hela som. Men dom flesta vill ju gräva ner AMD och med det ryktet så kommer man inte långt. AMD har väl knappast lika mycket pengar att slänga ut spelutvecklare som Nvidia har?

Visa signatur

Intel Pentium 2 MMX 233 @263 MHz, 192 mb, Nvidia TNT 16mb, 40gb hdd

Permalänk

Har verkligen PhysX en framtid? Dagens datorer har ju börjat använda så många processorer (kärnor) att processorn själv kan sköta fysiken.

Permalänk
Citat:

Ursprungligen inskrivet av anders.149
Minst sagt. Sammarbetet mellan ATI och Havok fördördes väl ändå delvis av Intels uppköp av Havok och att AMD köpte upp ATI?

Techdemos är kul, oavsett om det är fladdrande tyg som snabba farkoster, men något resultat vill ju även vi konsumenter ha. Om jag fattar det hela rätt så är AMD's jobb att få Bullet att köras över OpenCL. Får hoppas det inte är för mycket jobb bara.

Det är ändå andra försöket? AMD, Bullet och Pixelux sammarbetar ju vad jag förstår det?

Men samarbete avslutades aldrig som jag förstår.

OpenCL kommer öppna vägen till ett gemensam fri standar vilket kommer gynna oss konsumenter och utvecklare. PhysX kommer ändras när den blir portad genom OpenCL eller tom försvinna. Men till dess så är PhysX det ända som erbjuds på marknaden. Så istället för att klaga som AMD gör så ska AMD gör sitt jobb och leverera en lösning som är bättre än PhysX om de tycker att den är så dålig.

Efter Havok 2006 började AMD samarbeta med Bullet september 2009 och nu inleder de ett grupp samarbete med Bullet och Pixelus tillsammans.

Citat:

Ursprungligen inskrivet av Valiumballong
Som t.ex. att hålla tidsramar för grafikkortssläpp? hosthost

Ingen idé att du sitter och försöka slunga skit på AMD varje gång de nämns, jag tror ingen vettig människa läser det du skriver och gör din slutsats till sin egen.

6 månader gemför med 4+ fyra år. Att du änns försöker.

Jag slänger inte skit på AMD varje gång de bli nämnda. Jag framför min kritik när jag anser att det är rättfärdigt oavsett vad det är för märke. Sedan vill jag inte att människor gör min åsikt till deras egna utan de ska reflektera över ämnet de själva och dra sin egen slutsatts och åsikt. Oavsett vad det gäller.

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av igelkotte
Därför ska vi hata AMD och hylla Intel? Nej jag tycker synd om AMD. AMD gör nog grymt mycket för att försöka hålla kunderna nöjda med bra prissättning, men har stora problem att få ut produkterna till kunderna. Pga att Intel och Nvidia är grymt bra på marknadsföring. Så uppfattar jag det hela som. Men dom flesta vill ju gräva ner AMD och med det ryktet så kommer man inte långt. AMD har väl knappast lika mycket pengar att slänga ut spelutvecklare som Nvidia har?

Haha nej. Jag skrev ju att det är synd om amd och att de jobbar i uppförsbacke med motgångar;)

Synd att folk köper intel och nvidia, trotts att amd ger mest för pengen. Tror mycket hänger i att Intel och nvidia brukar ha de bäst presterande prudukterna i toppsegmentet, vilka kostar över 10.000kr. Därför tror folk att intel/nvidia är bättre bara för de gör den bästa processorn/grafikkortet och köper därmed intel/nvidia. Sen att deras topp produkt är grymt överskattad och kostar fantasisummor, medan man får mest prestanda för pengen om man väljer amd är något de glömmer. Tror även som du att det handlar om reklamen. I alla spel står det (-This game works best on a intel core 2 due processor, följt av -Nvidia, the way its ment to be played!") Sen när svenne banan ska köpa dator letar han efter nvidia och intel, för de är ju bäst!!:rolleyes:

Visa signatur

Intel I7 2600K, 4gb ddr3, gtx 560ti + geforce 9800gt physx. Ocz modxtream 700w nätagg

Permalänk
Medlem

Ganska löjligt att säga att de här företagen går ut och klagar etc.
I verkligheten är amd, nvidia, intel och ati osv givetvis totalt överösta med frågor, speciellt frågor som dessa.

Brukar vara andra saker som de här företagen på eget initiativ "går ut" med.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av HyperTech
Har verkligen PhysX en framtid? Dagens datorer har ju börjat använda så många processorer (kärnor) att processorn själv kan sköta fysiken.

Gpun sköter ju viss fysikberäkning betydligt bättre. Typ som vatten, tyg och smådelar och rök osv. Krävs betydligt dyrare processor för att klara av sådan fysik än vad det krävs grafikkort.

Visa signatur

Intel I7 2600K, 4gb ddr3, gtx 560ti + geforce 9800gt physx. Ocz modxtream 700w nätagg

Permalänk
Citat:

Ursprungligen inskrivet av Devrer
Gpun sköter ju viss fysikberäkning betydligt bättre. Typ som vatten, tyg och smådelar och rök osv. Krävs betydligt dyrare processor för att klara av sådan fysik än vad det krävs grafikkort.

Okej jo.

För ungefär 2 år sedan så hade min polares skola besök av en person som jobba på Intel. Han pratade om Intels processorer och deras framtid, samt man fick ställa frågor.

Då hade Intel-gubben sagt att fysik-kort inte har nån framtid då Intels processorer kommer bli så snabba med flera kärnor, att dem klarar sköta fysiken själva.

Hur rätt han har i det, återstår väl fortfarande att se antar jag.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av HyperTech
Okej jo.

För ungefär 2 år sedan så hade min polares skola besök av en person som jobba på Intel. Han pratade om Intels processorer och deras framtid, samt man fick ställa frågor.

Då hade Intel-gubben sagt att fysik-kort inte har nån framtid då Intels processorer kommer bli så snabba med flera kärnor, att dem klarar sköta fysiken själva.

Hur rätt han har i det, återstår väl fortfarande att se antar jag.

Jag tror att han har rätt delvis, men att det kommer att ta längre tid. Jag tror att de kan bli riktigt bra på fysik när de börjar få lite fler kärnor.

Visa signatur

Chassi: Corsair 650D | Processor: Intel Core i5 3570K | Moderkort: Gigabyte GA-Z68XP-UD3P | Minne: Corsair 16 GB | SSD: Corsair Force GT 128 GB | Lagring: 3,5 TB | Grafikkort: HIS HD7870 | Nätaggregat: Corsair AX750W | Tangentbord: Microsoft Sidewinder X4 | Mus: Mionix Naos 5000