Big Bang II gör om grafikkort till fysikkort

Permalänk
Medlem

Helt underbart, detta är presis vad jag länge gått och väntat på, att kunna använda mitt nuvarande 8800GT 512Mb dedikerat till fysik när jag snart skaffar ett GTX280!

Yeah detta var den bästa händelse som Big Bang2 kunnat vara och som sagt har jag tänkt på detta länge.

nVdia krossar motståndet igen och visar varför dom är dom ENDA

Permalänk
Avstängd

Kan man ju kasta in ett gammalt 8800GT brevid sina HD4850 nu då.

Fast när begränsade fysikberäkningar mig senast iofs.

Permalänk
Citat:

Ursprungligen inskrivet av the squonk
Synd då att alla går över tll Intel/ATI ...

??????? Det är nog inte helt riktigt

Permalänk

Min första fråga är, vilka spel HAR stöd för externa fysikberäkningar?

Den andra är, måste man ha ett sunkigt nVidiachipset för att det ska funka? Isf går det bort helt för mig.

"nVdia krossar motståndet igen och visar varför dom är dom ENDA "

Hej fanboy deluxe, har du kanske undrat varaför nVidia varit tvingade att prisdumpa sina nya toppkort till extremt låga priser på bara någon månad?

Edit: Prisdumpningen kan ju inte varit så kul för dom som köpte 280 på direkten?

Permalänk
Citat:

Ursprungligen inskrivet av MrHyde
Helt underbart, detta är presis vad jag länge gått och väntat på, att kunna använda mitt nuvarande 8800GT 512Mb dedikerat till fysik när jag snart skaffar ett GTX280!

Yeah detta var den bästa händelse som Big Bang2 kunnat vara och som sagt har jag tänkt på detta länge.

nVdia krossar motståndet igen och visar varför dom är dom ENDA

Oh, en som vet..!

Hur fet boost får man egentligen med den uppsättningen du funderar på?

Jag vill också tycka att Big Bang2 är den bästa händelsen, grejen är bara att jag inte har någon som helst info om hur bra detta verkligen fungerar i praktiken och hur många spel som har stöd för det.. men eftersom du vet kan du väl berätta!

Permalänk

Men hur många spelutvecklare kommer hoppa på tåget och lägga in stöd för ett separat fysikkort? Det lär ju ändå vara en ganska liten entusiastgrupp som kommer att fatta vad det här handlar om ändå.

Permalänk
Medlem

Nice! en nyhet med NVIDIA som inte handlar om nya namn att hålla reda på.
Jag hoppas verkligen att spelutvecklarna hoppar på nu och börjar tillverka spel som drar nytta av detta och att det blir EN standard var fysik beräkningar ska ske, i GPU eller CPU.
Men nog pessimism, GJ NVIDIA! Fler såna här nyheter och jag kanske får förlåta dig för senaste tidens trams...

Visa signatur

Jag behöver inget krypto...
jag skriver kryptiskt, det räcker.

Permalänk
Medlem

bra grej. men idag ? nej! Det är för dåligt fysik stöd.

Visa signatur

Meshilicious, Amd 7950X3D, Asus X670E-I ,64 GB DDR5 6000,RTX4090 FE, Corsair 2TB m.2 / 4TB, Samsung 49" Odyssey 240hz Mini led

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Knashatt
SLI är till för att 2 grafikkort ska fungera som 1 grafikkort. Man kopplar i grund och botten ihop två grafikkort till ett...

Om man stoppar in 2 grafikkort utan att koppla in SLI så får man just 2 grafikkort.
Varje kort kan visa det du själv vill, du kan alltså ha upp till 4 skrivbord samtidigt om du vill.

Så, om du nu har ett "gammalt" GF8800 och köper ett nytt GF9xxx OCH ditt moderkort har två PCIx platser som dessa kort kan stoppas in i så kommer du kunna nyttja det äldre grafikkortet som fysikkort.

Var inte så satans negativa nu (varför har det blivit så här på Sweclockers egentligen, så fort det kommer något nytt så ska folk klanka ner det).

Och SJÄLVKLART kommer du inte kunna ha ett "äldre" GF8800 och köpa ett nytt ATI kort och nyttja detta. Det fattar ni väl själva eller?
Tror ni Saab skulle tillverka en extra komponent till befintliga 95 som ökar motorns styrka med 100 hästar som SAMTIDIGT går att stoppa i Volvo V70?

Detta är ett sätt för Nvidia att behålla befintliga Nvidia-kunder då dom ska köpa nytt grafikkort. Är det på något sätt svårt att förstå?
ÄVEN om det är ett sätt att tjäna pengar är det ÄVEN ett teknisk utvecklig som gör spelen/programmen mycket mer effektiva och bättre...
Tror ni Nvidia gör välgörenhet åt folk...

PhysX är portat till CUDA som inte kräver SLI. Så teoretiskt så kan du mycket väl använda ett ATI grafikkort med ett Nvidia grafikkort, problemet skulle vara drivrutinerna som krockar. Tyvärr så har nog Nvidia spärrat det så att funktionerna inte kommer att aktiveras om inte SLI detekteras så att man måste ha ett Nvidia moderkort.

Visa signatur

I like my women how i like my coffee... In a plastic cup.

Permalänk
Avstängd

Ehm...? Jag vill se prestandatester som visar märkbar skillnad i majoriteten av stora titlar för inte fan bryr jag mig om att Nvidia lyckas gräva fram 10 spel få har spelat som ger 10% mer prestanda.

Imo: Bullshit.

Visa signatur

"Jo men det var exakt det jag menade med att den enda moddningen detta galleriet innehåller är Sanningsmodifikation och photoshoppande :)"

Permalänk
Medlem

Det mesta där är väl inget av intresse för mig iaf, förutom OpenGL 3.0 FFS ska bli trevligt att sätta tänderna i.

Permalänk
Medlem

Menar dom att man ska köra "fysikkortet" enskilt eller i t.ex Hybrid SLi? Säg t.ex att man skaffar ett Sli moderkort o kör GTX280 som grafikkort och det gamla 8800GT som "fysikkort"..kommer 8800GT dra mindre ström än vanligt och blir det förmodlen inte mer boost av att köra GTX280 o 8800GT i hybrid SLi istället?

Visa signatur

Core i5 3570K@stock||Asus Z77 Sabertooth||16GB 1600mhz G.Skill RipJaws X||5850 1GB||Corsair Force GT SSD 120GB||XFX XXX 650W||CM HAF XB||Opad Mk-85 MX Red||Win7 Ultimate Signature Edition signerad av Steve Ballmer

Permalänk

Har för mig att man redan moddat drivrutinerna att fungera på Ati kort, yeah.

Det här kan innebära en fysik revolution eller fisa ut i rymden. Vem bryr sig om det är 10 spel idag? Som utvecklare kan ett spel sälja mera med suverän fysik, allt som utmärker ens produkt är bra.

Skulle bli förvånad om det inte används flitigt i framtiden. Sli är ju populärt trots att väldigt få använder det. Det här är ju användbart för fler än nån %.

Visa signatur

dualsata2| A64 3500+ 2,7 ghz | Cruical ballistix 2 gig DDR 4000 | jag hatar Nvidia 8800GTS 100% buggar (nu 5% och gudomligt 660/1044)|Windows XP Pro | Proff deluxe - kungen av vattenkylning| 480 W Hiper typeR nätagg

Permalänk
Medlem

Hur många spel har fysikstöd då?

OpenGL 3 är ju som sagt intressant.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Pecka1
Hur många spel har fysikstöd då?

OpenGL 3 är ju som sagt intressant.

Det mest kända jag vet är väl Ghost Recon Advanced Warfighter serien

Visa signatur

Core i5 3570K@stock||Asus Z77 Sabertooth||16GB 1600mhz G.Skill RipJaws X||5850 1GB||Corsair Force GT SSD 120GB||XFX XXX 650W||CM HAF XB||Opad Mk-85 MX Red||Win7 Ultimate Signature Edition signerad av Steve Ballmer

Permalänk
Medlem

UT3 har väl också fysikstöd.

Visa signatur

Corsair Carbide 200R chassi med 2x120mm
i3-4370 @ 3,8GHz, 16 GB DDR3 @ 1600 MHz
Asus Geforce GTX 1050 Ti 4GB
Windows 10 Home

Permalänk
Medlem

om ena kortet belastas med fysik, blir det också i slutändan bättre fps för gaming ?

Permalänk
Avstängd

O fy fan vilket gnäll det är på er. Jag tycker fysikkort är så intressant, något jag väntat på senaste 2 åren då bättre grafik blivet mindre intressant för grafiken är så bra.

"Vilka spela har fysikstöd då?"
"Bra grej men inte idag, det finns för lite stöd för fysikkort!"

Man måste börja någonstans och speltillverkare är inte intresserade av att ta på sig merarbetet med stöd för fysikkort om det inte finns några fysikkort (jag räknar inte med AEGIA PhysX-korten, för dålig spridning innan dem slutade tillverkas). Nu tar nVIDIA första steget och jag hoppas det blir en lösning där man inte är låst till nVIDIA-chipset.

En annan missuppfattning är väl att folk tror man ska få bättre FPS med ett fysikkort.
Fysikkort = mer fysik
Fysikkort är inte lika med mer FPS, kan snarare bli tvärtom i situationer med fler objekt att rendera.

Visa signatur

WOW SYYYGER HAR SPELAT TILL LVL 22

Permalänk
Medlem

Fan va en del verkar vara tröga. nVidia kommer inte få FLER KUNDER, det här gör bara att folk drar sig från att köpa ett grafikkort från AMD när man redan har ett nVidiakort iom att man då måste göra sig av med det. Köper man ett nytt grafikkort från nVidia så "får" man ett fysikkort "på köpet".

Tycker det här är ruskigt jävla bra, speciellt när man spenderat massor på ett heltäckande vattenblock, då gör det ont att plocka ur grafikkortet och sen inte ha nån nytta av den grymma kylningen längre då den inte passar på nästa kort.

Citat:

Ursprungligen inskrivet av SuperNova
Nu vill jag inte verka tråkig (för det är jättekul med nya feats) men man borde kanske börja med att koda spelen så det nyttjar flera cpuer till att börja med.

Om spelen inte ens nyttjar alla 4 kärnor på en Quadcore (i dagsläget) så känns det som att all kraft i GPUn inte kommer nyttjas av speciellt många spel vid lanseringen av featuren...

Men som sagt riktigt kul att man aktiverar det!

Även om dom programmerade så att 3 kärnor av en quadcore BARA körde fysikberäkningar så skulle dom prestera låååååååångt under vad ett "gammalt" grafikkort skulle klara.

Permalänk
Inaktiv

Så, prestandan i ett spel/3D-applikation med det rätta stödet skulle alltså blir bättre med 1GPU + 1 'fysik-GPU', än om båda grafikkorten hade jobbat i SLI som vanligt?

Låter inte trovärdigt för mig. Även dom detta inte var tanken kanske, var det iaf. det första jag tänkte på.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av raekan
Så, prestandan i ett spel/3D-applikation med det rätta stödet skulle alltså blir bättre med 1GPU + 1 'fysik-GPU' än om båda grafikkorten hade jobbat i SLI som vanligt?

Låter inte trovärdigt för mig.

Är det nån som överhuvudtaget påstått att prestandan skulle bli bättre?
Ett fysikkort gör att man kan ha många fler grejjer i rörelse som kolliderar och deformeras korrekt eller simulera vatten och rök.
Kan tänka mig att prestandan t.om blir sämre iom att det säkert kommer finnas mer prylar i en scen om man kör med fysikkort (om spelet är gjort så), för då måste grafikkortet ju rendera mer.
Men det är ju som det är med allt annat, ju mer ögongodis man slår på desto sämre fps får man.

Permalänk
Medlem

2 GPU för 3d ger säkerligen bättre prestanda än 1 GPU för 3d och 1 för fysik.

Kan folk sluta gnälla så jävla mycket. Det här är en kul bonus som nu kommer slängas med. Det är väl bara kul eller? Det är ingen som tvingar någon här att använda funktionen. På samma sätt som att väldigt många här köper SLI-kort men inte använder SLI (eller CF). Tiden får väl utvisa om det blir några spel som stödjer detta.

Jag hoppas verkligen att utvecklarna lägger mer energi i framtiden på fysik än på grafik. För fysik skapar mer spelkänsla än grafik.

Visa signatur

//Bacon

Permalänk
Medlem

Kräver det SLI tro

Permalänk
Medlem

Det ligger ju inte i nvidias intresse att få det här att fungera på ATIkort. Däremot låser de användare till sig eftersom de[användarna] är mer benägna att handla ett nytt nvidiakort eftersom de då kan använda sitt existerande nvidiakort till fysiken, smart

EDIT: typo

Visa signatur

Att förespråka Mac på Swec är som att förespråka hybridbilar på en raggarträff i Mora.

Permalänk
Medlem

Kommer nog ta tid innan spelen får super avancerad fysik mest troligt så kommer grafiken före fysiken. Detta känns nästan lite onödigt därimot då cpun borde räcka.

Ati kommer kontra detta på nåt sätt, säkert även intel som släpper nåt med nya chipsets eller med cpu's.

Permalänk
Medlem

Boring, hade hoppats på nån vettig uppdatering, typ möjlighet att använda flera skärmar när man kör SLI.

Permalänk
Medlem

Alla spel som har någon slags fysk som beräknas utav processon skulle kunna få bättre prestanda utav det här. (avlastar processon till att göra annat). Skulle inte bli helt förvånad om nvidia släpper det här löst till alla grafikkortstillverkare. De behöver lite goodwill just nu... Ganska förvånad iof men jag ser det inte som någon omöjlighet då det rent tekniskt är möjligt.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Palme_570
bra grej. men idag ? nej! Det är för dåligt fysik stöd.

Någonstans måste det ju börja.

Som någon skrev tidigare, det mest intressanta är ändå OpenGL 3.

Permalänk

Det verkar som om många inte förstår vad det handlar om. Fysik är något som kommer att vara viktigt i framtida spel.

Fysik gör att fps sjunker i spel på grund av att du t.ex kan skjuta sönder en husvägg till brasved eller spränga stora kratrar i marken med grantkastare medans allt omkring flyger eller slås sönder precis som i verkligheten. Kräver fysiken fler delar måste grafikkortet renderar alla små delar som skapats, därav kommer lägre fps. Men mycket fysik kommer utan fps fall.

I en eldstrid kan rikoschetter och realistisk skada av t.ex en kula som passerat genom en husvägg beräknas. Billspel skulle kunna baseras på verklig väghållning istället för påhittad osv. Möjligheterna är oändliga. Realistisk luftrörelse för luftburna fordon.

Fysik skulle även kunna göra så att skrotet som kastas omkring från granatnedslaget skadar folk i närheten utifrån förmålens densitet och hastighet. Fysiken kan bestämma vilken skada föremålet bör göra.

I dagen spel gör det lika ont att få en cornflakeskartong i huvudet som en microvågsugn.

Men visst borde vi redan nu ha en bra bit bättre fysik på de 2-3 kärnor som inte används i spelen av en quad. Dx 11 kanske hjälper.

Visa signatur

dualsata2| A64 3500+ 2,7 ghz | Cruical ballistix 2 gig DDR 4000 | jag hatar Nvidia 8800GTS 100% buggar (nu 5% och gudomligt 660/1044)|Windows XP Pro | Proff deluxe - kungen av vattenkylning| 480 W Hiper typeR nätagg

Permalänk

Min lillebror har ett 8800gt... Skulle man kunna slänga in ett gammalt geforce 3 Ti (eller ngt såtn heter det) som fysik då? O_O

Visa signatur

*🖥️ [i9 12900ks][Corsair Dominator 32gb DDR5 5600MHz] [EVGA 3080ftw Ultra] [Lian Li Galahad SL Edition 360][Lian Li PC-O11 Dynamic EVO Svart][EVGA Supernova G6 1000W}[LG 34GK950G 34" 21:9 + 2x Dell 2715H 27"]
*🎮 Ps5 Digital Edition
*📱 iPhone 14 pro max | 🎧Sony WH-1000XM3|
*📺LG Oled CX48