Fler nyheter i Big Bang II

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av FredrikMH
SLI med multipla skärmar har förvisso fungerat med fullösningar ett tag.
Fast krävt ett tredje grafikkort. Dock borde det väl bli någon form av
prestandaförlust om ett av grafikkorten i SLI ska driva andra skärmar
samtidigt?

Jag har inte sett det när jag kört dubbla skärmar med singel kort iaf och det
var ett x1950xtx.
Din rigg blir ju ännu mer vettigare i framtiden då du har ett extrakort att
lägga fysiken på nu när det kortet inte behöver ge ngn skärmbild

Citat:


--------------------------------------------------------------------------------
Ursprungligen inskrivet av Stefanken
Varför ska man ha mer skärmar för? vad ska ni använda mer än en skärm till? nyfiken
--------------------------------------------------------------------------------

Lira Crysis på 4st 24" skärmar *Dreggel*

Ja eller ännu bättre, Test Drive Unlimited 4*24" med G25 *super dreggel*

...och under tiden svälter barnen i Afrika...

Permalänk
Moderator
Testpilot

En drivrutinesuppdatering med funktioner som har funnits tillgängliga för de proffesionella utvecklarkorten men som varit avstängda för konsumentdelen. Jag måste hämta hakan från golvet... Eller inte.

Nvidia's marknadsföringsmaskineri är verkligen duktiga på att göra en höna av en fjäder.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Stefanken
Varför ska man ha mer skärmar för? vad ska ni använda mer än en skärm till? nyfiken

Tänkte också att detta inte var något större behov förut, sedan fick jag testa faktiskt använda 2 skärmar i det "dagliga" arbetet, då vi har 2 skärmar när vi jobbar natt/helger, och det är helt underbart faktiskt, ökar upp ens multi-tasking mångfalt varesig man jobbar eller bara surfar runt.

Spelar man så är det också väldigt bra då du kan driva desktop på andra skärmen

Så om du spelar något FPS spel online t.ex battlefield så kan du surfa runt på nätet medan du väntar på spawn, eller snabbt byta den låt som spelas om du lyssnar på musik.

Visa signatur

Vem orkar uppdatera den här signaturen egentligen? Kommer ju ny teknik hela tiden :(

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av NoCc
Så om du spelar något FPS spel online t.ex battlefield så kan du surfa runt på nätet medan du väntar på spawn, eller snabbt byta den låt som spelas om du lyssnar på musik.

Nja det är inte riktigt sant? Nästan alla applikationer som körs i helskärm, minimeras när man sätter fokus på en annan applikation. Dessutom har de flesta av dessa applikationer låst musen till just denna applikation så du kan inte dra över den till den andra skärmen så länge du inte alt-tabbar. Undantaget är när du spelar i Window-mode vilket bland annat World of Warcraft går.

Men det kan ändå vara smididgt att exempelvis dra ut en msn-konversation eller en annat program som man kan se samtidigt som man spelar.

Hur som helst så är multipla skärmar guld värt.

Visa signatur

System: CPU: AMD Ryzen 9 3900X, MB: Gigabyte X570 Aorus Elite, Minne: Corsair 32GB DDR4 3200MHz, GPU: Asus GeForce RTX 2080 Super ROG Strix Gaming OC

Permalänk
Medlem

Är hyfsat tveksam till att det är värt elförbrukningen att köra 2 kort för att få bättre fysik. Varför inte lägga fysikberäkningar på de CPUkärnor som inte avänds till AI/spellogik?
Om det inte går, vad är svårigheten med att multitråda fysikberäkningarna?

Förresten, är det bara jag som tycker att elförbrukningen på grafikkort går åt helt fel håll? Jag tar hellre samma prestanda som i nuläget men med halverad elförbrukning på nästa generation GPU.

Visa signatur

Att förespråka Mac på Swec är som att förespråka hybridbilar på en raggarträff i Mora.

Permalänk
Medlem

vi klara oss ända upp till 34 komentarer innan vi fick in en hippie komentar

det här är inte swemiljövänner...det står sweclockers

clock = högre effekt förbrukning?

ontoppic: det är väl klart att detta kommer kräva mer ström det är ju som ett kort till enda skillnaden är att den används till ett annat syfte.

desutom så har vi säkert skrivit 1-10 trådar på deta forum att grafik kort är bättre lämpade till fysik än CPUr...och om man hade kunnat adressera cpurnas 3 och 4 kärna till något vettigt hade man säkert gjort det redan.

Visa signatur

Stationär: Ryzen9 5900x | DDR4 3200MHz 2x16GB | Geforce GTX1080 | Asus x570-F | Samsung 980 pro 512GB | Samsung 70 pro 256GB | Corsair AX 1200W |
Server: Ryzen9 5950x | 128GB RAM |

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av FredrikMH
Nja det är inte riktigt sant? Nästan alla applikationer som körs i helskärm, minimeras när man sätter fokus på en annan applikation. Dessutom har de flesta av dessa applikationer låst musen till just denna applikation så du kan inte dra över den till den andra skärmen så länge du inte alt-tabbar. Undantaget är när du spelar i Window-mode vilket bland annat World of Warcraft går.

Men det kan ändå vara smididgt att exempelvis dra ut en msn-konversation eller en annat program som man kan se samtidigt som man spelar.

Hur som helst så är multipla skärmar guld värt.

Det är väldigt många av spelen som klarar Window-mode... Antar att du syftar på Maximized-Window Mode som WoW bland annat har som är lite mer sällsynt, genom att täcka hela första skärmen som om du har Fullscreen fast ändå inte... Kan man utnyttja den andra skärmen utan att tappa fokus på "fullscreenen" :). På kostnaden av prestanda så klart.

Citat:

Ursprungligen inskrivet av McVit
vi klara oss ända upp till 34 komentarer innan vi fick in en hippie komentar

det här är inte swemiljövänner...det står sweclockers

clock = högre effekt förbrukning?

Ja visst är det roligt?

Skulle jag lägga upp ett galleri skulle det hamna i minuspoäng för att det drar 600 watt i full-load och låter i 55db 24/7...

Tycker många av sweclockers "användare" är på väg åt fel håll

Permalänk
Medlem

jag kanske är en miljöbov men varför bry sig om hur mycket ström det går åt i datorn?

Jag kanske höjjer min elräkning med max 50kr/månad. Skulle inte ens bry mig om det kostade mig 100kr/månad. I miljösynpunkt är det väll ännu bättre att jag sitter hemma vid datorn höjer min elräkning än att jag åker runt med bilen.

Visa signatur

Skärm: Acer XB271 HU, Keyboard: Corsair k95
Moderkort: Asus Prime-A Z690, GPU: RTX 4080
CPU: Intel i7 13700k, Ram: 32Gb DDR5 6000Hz
Chassi: Lian Li Lancool 3, Högtalare: ALTEC LANSING 5.1 THX
Disk 1: WD 850x 1Tb, Disk 2: WD 850x 2Tb,PSU: Seasonic Prime 1000w

Permalänk
Medlem

orka bry sig om elförbrukningen. smällar man får ta att den blir högre

Permalänk
Medlem

Jag är sjukt sugen på att skaffa ett 4870, undrar om det är möjligt att köra ett Ati och ha kvar mitt 8800GTS (320mb varianten som suger räv) och använda det som fysikkort. hade varit grymt bra.

Visa signatur

Harmynt, va e d?

Permalänk
Hedersmedlem
Citat:

Ursprungligen inskrivet av FiFo
Jag är sjukt sugen på att skaffa ett 4870, undrar om det är möjligt att köra ett Ati och ha kvar mitt 8800GTS (320mb varianten som suger räv) och använda det som fysikkort. hade varit grymt bra.

Nvidia lär inte gilla att du köper konkurrentens kort och använder ditt gamla Nvidia som "hjälpkort". Men vi får väl se vad "moddarna" kan göra åt det problemet!

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av FredrikMH
Nja det är inte riktigt sant? Nästan alla applikationer som körs i helskärm, minimeras när man sätter fokus på en annan applikation. Dessutom har de flesta av dessa applikationer låst musen till just denna applikation så du kan inte dra över den till den andra skärmen så länge du inte alt-tabbar. Undantaget är när du spelar i Window-mode vilket bland annat World of Warcraft går.

Men det kan ändå vara smididgt att exempelvis dra ut en msn-konversation eller en annat program som man kan se samtidigt som man spelar.

Hur som helst så är multipla skärmar guld värt.

Jasså, det kan mycket väl stämma då jag inte har testat med spel personligen, jag utgick bara från det polaren sa vad han brukar göra när han spelar (och det råkar vara just WoW) så det är nog mycket väl så.

Visa signatur

Vem orkar uppdatera den här signaturen egentligen? Kommer ju ny teknik hela tiden :(

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av P1nGviN
3870

Vad jag vet var, eller är, 8800GT ganska mycket bättre. Jag har förvisso inte räknat på om prestandaskillnaden upphäver skillnaden i pris.

Visa signatur

Cpu: AMD 7800X3D + Noctua NH-U14S | Mobo: ASUS TUF B650M-Plus WIFI | Ram: G.Skill Flare X5 DDR5 6000MHz 32GB | Gpu: Gigabyte RTX 2070 Super | Ssd: Kingston A2000 1TB, Crucial MX500 2TB | Psu: Corsair AX 760W | Case: Fractal Design Define Mini C | Monitors: Dell Alienware AW2723DF, Acer Predator XB271HU

Permalänk
Medlem

vad jag skulle vilja veta är om det funkar att köra två kort på ett p35 moderkort (ej SLI alltså) där ett kort sköter fysiken och ett sköter grafiken, är det nån som fattar vad jag menar alls? gör det knappt själv

Permalänk
Medlem

Hörde ett ryckte för några månader sen att man hade "fuskat" till det med SLI på intel moderkort men annars måste det vara nForce vad jag vet. Därför tror jag inte att det går med ett p35 moderkort. Jag har dock hållt mig undan datorvärlden ett tag så jag är inte helt uppdaterad

Permalänk
Avstängd

Extra fysikkort verkar inte speciellt lockande:

http://www.techreport.com/articles.x/15261

Visa signatur

7800x3d, 64GB 6000cl30, Gigabyte X670 Gaming X AX (F9d) 12TB m.2/nvme, 8TB SSD, WD 2x12TB 5400rpm, XFX 7900xt, SoundBlasterX AE-5+, HP X34", Fractal Design Define 7, Corsair HX750, Topping MX3s, Ino Audio piMx, Dan Clark Audio Aeon 2 closed..
LG B1 65", Topping e70, Topping pa5 II plus, Guru Audio Junior+ (primärt) / Canton GLE 90, Nintendo Switch OLED, Pico 4 VR

Permalänk
Medlem

tror du har inte har läst den själv?
det visar bara vad ett kort gör i fysik...den här drivrutinen kommer göra det möjligt att dedikera ett kort för fysiken för att avbelasta det primära grafikortet

iaf så jag har uppfattat det.

den där länken du skicka med var ju bara när Nvidia implantera fysik i deras GPUr.

rätta mig om jag har fel.

Visa signatur

Stationär: Ryzen9 5900x | DDR4 3200MHz 2x16GB | Geforce GTX1080 | Asus x570-F | Samsung 980 pro 512GB | Samsung 70 pro 256GB | Corsair AX 1200W |
Server: Ryzen9 5950x | 128GB RAM |

Permalänk
Avstängd

Möjligt att det stämmer, ögnade igenom supernsnabbt bara.
Förväntade mig att de förstås testar med två kort. Att ett kort förlorar prestanda är ju inte speciellt konstigt.

Visa signatur

7800x3d, 64GB 6000cl30, Gigabyte X670 Gaming X AX (F9d) 12TB m.2/nvme, 8TB SSD, WD 2x12TB 5400rpm, XFX 7900xt, SoundBlasterX AE-5+, HP X34", Fractal Design Define 7, Corsair HX750, Topping MX3s, Ino Audio piMx, Dan Clark Audio Aeon 2 closed..
LG B1 65", Topping e70, Topping pa5 II plus, Guru Audio Junior+ (primärt) / Canton GLE 90, Nintendo Switch OLED, Pico 4 VR

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av MrHyde
Vilka är bäst där får ni alla svikare som hoppade över till ATI

Men dock ska vi tacka dom för detta fick ju nVidia att sänka sina priser illa kvickt och jag bara ler och kör dom ENDA alltså nVidia som ÄGER marknaden och låter andra få ha sina bekymmer med kassa drivare och ostabilitet som man får gratits med ATI

Nice try, nVIDIAs senaste mygel är ju bara skrattretande och självklart blir dom tvungna att sänka priset då folk upptäckte att dom sålde gammalt skrot..

Men sen beter du dig som en nVIDIA fanboy, av 25 negativa(överdrivet) saker är 1 positiv så inbildar du dig att allt är helt super-duper-dunder-runka-bulle-bra igen.

Du verkar vara nVIDIAs MrTT.

Jag ber om ursäkt om mitt inlägg känns som ett påhopp... men det är skrattretande bara.

Visa signatur

ATI TALIBAN.
Är inte någon expert, men jag har inte akne heller.
NEVER UNDERESTIMATE THE POWER OF STUPID PEOPLE IN LARGE GROUPS.. "Betala i förskott på blocket?" tråden.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Kaleid
Extra fysikkort verkar inte speciellt lockande:
http://www.techreport.com/r.x/gpuphysx/ut3hr.png

http://www.techreport.com/articles.x/15261

Jag tror du missförstått grafen.
GPU physX ger alltså nästan 4 gånger så bra prestanda i ett spel med avancerad fysik aktiverad. Den övre grafen har alltså troligen sämre spelupplevelse. Om man alltså aktiverar sitt andra grafikkort för fysik i stället för vanligt sli och mjukvaru physx så ökar man prestandan med nästan 300% i stället för sli som troligen inte ens kommer i närheten av 100% då spelet blir cpu begränsat pga physX. Verker i min värld otroligt bra, nästan för bra för att vara sant.

/Danne

Permalänk
Citat:

Ursprungligen inskrivet av Danne980
Jag tror du missförstått grafen.
GPU physX ger alltså nästan 4 gånger så bra prestanda i ett spel med avancerad fysik aktiverad. Den övre grafen har alltså troligen sämre spelupplevelse. Om man alltså aktiverar sitt andra grafikkort för fysik i stället för vanligt sli och mjukvaru physx så ökar man prestandan med nästan 300% i stället för sli som troligen inte ens kommer i närheten av 100% då spelet blir cpu begränsat pga physX. Verker i min värld otroligt bra, nästan för bra för att vara sant.

/Danne

FPS förblir alltid FPS, med fysikkort så höjs upplevelsen men den går tyvärr inte att mäta i grafer.

Jag håller med dig dock.
Tech demos i alla ära, vill se spel som utnyttjar detta och verkligen ger någon påtaglig skillnad innan jag ska avvisa detta som något oanvändbart.

Visa signatur

PS5, ledsen folks :(

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av notepad.exe
FPS förblir alltid FPS, med fysikkort så höjs upplevelsen men den går tyvärr inte att mäta i grafer.

Jag håller med dig dock.
Tech demos i alla ära, vill se spel som utnyttjar detta och verkligen ger någon påtaglig skillnad innan jag ska avvisa detta som något oanvändbart.

Detta ÄR ju från ett spel. Och jag håller med dig om att fps är viktigt, för mig är det väl snarare så att om jag ligger på en tillräckligt hög fps med GPU physX utan lagg tendenser. 100 eller 150 fps är inte viktigt då lägger jag gärna till lite extra fysik, sedan tror jag själva fysiken kommer tillföra väldigt mycket i spel i framtiden men frågan är om det inte dröjer ett tag än innan speltillverkarna vågar sig på att utnyttja det. Det är nog väldigt få av dem som gör så som Ut3 skaparna och gör 2 versioner.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Rapidfool
Big Bang 2 känns ju enligt mig förbannat ointressant. Visst, stöd för multipla skärmar samt att man kan använda sitt äldre grafikkort som fysikkort låter ju intressant men utöver det så är ju det mesta nytt ganska 'normala' saker som Stöd för OpenGL3.0 samt bättre bildkvalitet.

Undrar vad 'Big Bang 3' blir? "Man får nu 100fps i msröj med nvida kort"

Ehm, hela grejjen med att kunna dedikera sitt gamla grafikkort till fysikberäkningar ÄR faktiskt rätt revolutionerande. Det är ju bara en tidsfråga innan nästan alla sitter med ett fysikkort i sin burk på grund av det, vilket gör att speltillverkare kan tänja på realismgränserna ännu mer och implementera riktigt jävla balla effekter och scener.

Citat:

Ursprungligen inskrivet av Trihxeem
Är hyfsat tveksam till att det är värt elförbrukningen att köra 2 kort för att få bättre fysik. Varför inte lägga fysikberäkningar på de CPUkärnor som inte avänds till AI/spellogik?

En CPU är inte lika bra som en GPU på att beräkna fysik, inte ens i närheten. Om du inte tycker det är värt 10 kr extra i månaden i elräkningskostnad så vet jag inte vad du gör på ett forum som är till för folk som överklockar datorer då överklockning också ökar förbrukningen.

Permalänk
Citat:

Ursprungligen inskrivet av FL3JM
Ehm, hela grejjen med att kunna dedikera sitt gamla grafikkort till fysikberäkningar ÄR faktiskt rätt revolutionerande. Det är ju bara en tidsfråga innan nästan alla sitter med ett fysikkort i sin burk på grund av det, vilket gör att speltillverkare kan tänja på realismgränserna ännu mer och implementera riktigt jävla balla effekter och scener.

Håller inte med. Det är exakt samma sak som instickskortet från Ageia. Skillnaden är att iom den här drivrutinen så har en mängd äldre grafikkort blivit fysikkort över natten vilket är väldigt bra men Nvidia trycker upp det här alldeles för mycket. Skillnaden är nu att det står Nvidia på korten i stället för Ageia. Jag är väldigt positiv mot nyheten, men tycker ändå att det känns som lite överdriven marknadsföring.

Sedan har jag inte sett något PhysX spel som faktiskt är imponerande. UT3 tjänar man väldigt lite "ögongodis" om man sätter på PhysX och Ghost Recon Advanced Warfighter 2 är visserligen lite häftigt med PhysX men det var någon som lyckades modda spelet så att det utfärdade samma uppgifter på CPU:n i stället och led inte av dålig FPS.

Visa signatur

Macbook Pro 15" Retina 2013 | Spelriggen: Asus Rampage Formula | Sapphire HD7970 | 4GB ram | Intel Q6600 @ 3.2 ghz | Samsung 840 Pro 256gb + 3.3TB HDD | Antec P182B | Zalman ZM-850HP | BenQ FP241W | Logitech G500+Qpad MK-85 Pro|
Ljud: Peachtree Grand Pre, Emotiva XPA-2, Triangle Magellan Duetto, Beyerdynamic DT990

Permalänk
Inaktiv
Citat:

Ursprungligen inskrivet av bomber3
Nice try, nVIDIAs senaste mygel är ju bara skrattretande och självklart blir dom tvungna att sänka priset då folk upptäckte att dom sålde gammalt skrot..

Men sen beter du dig som en nVIDIA fanboy, av 25 negativa(överdrivet) saker är 1 positiv så inbildar du dig att allt är helt super-duper-dunder-runka-bulle-bra igen.

Du verkar vara nVIDIAs MrTT.

Jag ber om ursäkt om mitt inlägg känns som ett påhopp... men det är skrattretande bara.

Du sparkade dig precis själv i skrevet genom att klaga på någon som klagar på något?

Ontopic: Tycker det är bra det händer lite positiva saker i nvidia; dom verkar haft en hel del trubbel på sistone. Kanske är det dags att de olika avdelningarna tar och sammarbetar? PR, tillverkning och software developers? Alla verkar köra ett eget race....sist i ledet står supporten som får ett helvete, hehe.