Allt från Computex 2023

Massiv minnesbandbredd i nästa Geforce

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Smartidiot89
Nvidia borde ha lärt sig av ATI vid det här laget.

Satsa på mindre GPUer istället och kör på x2, eller varför inte en x3 lösning för att nå high-end segmentet. Stora dyra chips fungerar inte så jävla lyckat, speciellt inte om specsen på 512 shaders, 512-bit stämmer då får vi se en GPU minst lika stor som en fotbollsplan.

Finns något som heter microstuttering... duh, x2 eller x3 resulterar nästan jämt i sånt.

Visa signatur

https://mega.nz/#!xNBjAJKA!OQctTR0tY5EK1Dk68MV0loIyCD3ftwL_KI...
(DX-11 DLL-fil till SweetFX/Reshade som är kompatibel med GTA 5)

Permalänk
Citat:

Ursprungligen inskrivet av Smartidiot89
Nvidia borde ha lärt sig av ATI vid det här laget.

Satsa på mindre GPUer istället och kör på x2, eller varför inte en x3 lösning för att nå high-end segmentet. Stora dyra chips fungerar inte så jävla lyckat, speciellt inte om specsen på 512 shaders, 512-bit stämmer då får vi se en GPU minst lika stor som en fotbollsplan.

Varför? nVidia har ett helt annan strategi än AMD. nVidia ser en singellösning som mer simpel och naturlig. AMD tycker att flera små GPU lösning är bättre, i VooDoo5 6000 anda.

Det är oasvarigt och högmodig att påstå att AMD lösning skulle vara ekonomisk bättre då ingen av oss har kalkyler för det och nVidias lösning. G80,G92, GT200 ansågs vara dyra av många men trots detta påstående så har nVidia lyckats både vinna marknadsandelar och visa bra till utmärkta kvartalrapporter sedan 2006.

Så jag ser inte denna bild av att nVidias GPU arkitekturlösning är ekonomiskt dålig då det har inte inte givit någon negativ avtryck i deras rapporter, snarare tvärtom.

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Smartidiot89
Nvidia borde ha lärt sig av ATI vid det här laget.

Satsa på mindre GPUer istället och kör på x2, eller varför inte en x3 lösning för att nå high-end segmentet. Stora dyra chips fungerar inte så jävla lyckat, speciellt inte om specsen på 512 shaders, 512-bit stämmer då får vi se en GPU minst lika stor som en fotbollsplan.

eller så gör man bra grafikort (en kärniga) och sen om det behövs så sätter man ihop dom...

har du någon anning om varför det är att föredra en kärna över flera om möjligt?

Visa signatur

Stationär: Ryzen9 5900x | DDR4 3200MHz 2x16GB | Geforce GTX1080 | Asus x570-F | Samsung 980 pro 512GB | Samsung 70 pro 256GB | Corsair AX 1200W |
Server: Ryzen9 5950x | 128GB RAM |

Permalänk
Moderator, Testpilot
Citat:

Ursprungligen inskrivet av Xaves
Finns något som heter microstuttering... duh, x2 eller x3 resulterar nästan jämt i sånt.

Det problemet ligger på drivrutinsnivå och är i princip icke existerande i dagsläget.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem

Bra Nvidia! <3

Visa signatur

Skrivet med hjälp av Better SweClockers
PC: Ryzen 9 5900X | RTX 3080 12GB | G.Skill Trident Z Neo 64GB 3600MHz CL16 | Kingston Renegade 2TB NVMe SSD, PNY XLR8 2x2TB NVMe SSD, Seagate FireCuda 120 4TB SATA (total 10TB SSD) | Synology DS920+ w/20GB RAM SHR 48TB
Skärmar: Acer Predator XB323UGX 32" 270Hz 1440p, Asus PG349Q 34" 120Hz 1440p UW, Asus PG279Q 27"
Foto
: Canon 80D & 60D + Canon 17-55/2.8 IS, Canon 10-22, Canon 70-200/2.8L IS II, Canon 100/2.8L IS Macro

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Smartidiot89
Nvidia borde ha lärt sig av ATI vid det här laget.

Vad skulle de ha lärt sig? Att gå med förlust menar du och lära sig tappa marknadsandelar? För det är precis vad AMD gjort.

Visa signatur

q9550@3,4Ghz, GTX275, 4GB DDR2 Corsair XMS2//HTPC AmdX2 4600+ passivt kyld med scythe ninja mini, Antec NSK 2480

Fractal design arc midi r2// core i7 4770k@ 4,4ghz :)
// corsair h100i // corsair hx 850m// asus maximus VI hero//
Corsair vengeance pro 2400mhz// intel ssd 335 180gb// gigabyte gtx 780 OC@1200mhz Core//win 8.1

Permalänk

Finns ju inget som hindrar dom att slå ihop dessa till en dubbelmacka med awesome power Tycker inte ni ska klaga specen ser otroliga ut ju jag tror det här kortet kommer prestera.

Permalänk
Citat:

Ursprungligen inskrivet av Dinoman
Det problemet ligger på drivrutinsnivå och är i princip icke existerande i dagsläget.

Jag kan informera Dinoman att jag fortfarande har Microstuttering i en del spel och då med den senaste WHQL drivisen 182.50 och även med betan 185.81!..

Dator och graffe i signatur.....

Är inte helt säker på att det endast ligger på drivrutinsnivå, även om man kan minska denna plåga med nya drivisar....

Visa signatur

[Antec 1200][Xigmatek NRP-HC1001][Asus P6TD][Core i7 975; 4 GHz][Noctua NH-U12P][3x2GB Patriot Viper 1600MHz][EVGA GTX 570 SLI]

Permalänk
Medlem

Bra jobbat nvidia, OM detta stämmer vill säga.

Visa signatur

|AMD Ryzen 9 5900X| |ASUS ROG Strix B550-F| |Crucial Ballistix 32GB CL16@3600MHz| |PNY RTX 4090 XLR8 Gaming| |Samsung 970 Evo Plus M.2 1TB| |Samsung 860 Evo 1TB| |Samsung 850 Evo 500GB| |Corsair RM1000| |Fractal Design Define R5| |LG OLED 48" C2 Evo|

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Erik Arvidsson
Finns ju inget som hindrar dom att slå ihop dessa till en dubbelmacka med awesome power Tycker inte ni ska klaga specen ser otroliga ut ju jag tror det här kortet kommer prestera.

Nej inget hindrar, bara fysikens lagar i kombination med ekonomiska tillgångar hos konsumenter samt vinstintresse hos aktieägare.

Blir otroligt dyrt att få ett fungerande kort med två sådana mastodontchip. Antingen får de sälja korten med förlust och skänka bort feta nätaggregat i köpet eller så får de nöja sig med en kundkrets på 3 personer eftersom övriga inte vill betala 15000+ för ett grafikkort.

Permalänk
Trollfabrik
Citat:

Ursprungligen inskrivet av Xaves
Finns något som heter microstuttering... duh, x2 eller x3 resulterar nästan jämt i sånt.

Jaha microstuttering. Det begreppet som skapades av Toms Hardware precis när Crossfire släpptes menar du? Crossfire har gått en lång väg sedan dess.

Citat:

Ursprungligen inskrivet av Pantheus
Vad skulle de ha lärt sig? Att gå med förlust menar du och lära sig tappa marknadsandelar? För det är precis vad AMD gjort.

Har du någon aning vad du pratar om så går AMD just nu med brakförlust pga satsningen med Global Foundries och inget annat, ATI Divisionen fungerar klockrent.

Uttryckte mig kanske fel, men jag tycker att det ATI gör är bättre, dock kan jag se Nvidias strategi vara en bättre lösning för GPGPU applikationer, och deras "Tesla Superdator".

Visa signatur

Kontaktas enklast via PM. Önskas svar i forumet citera mina inlägg eller pinga @Jacob. Finns även på Twitter.

"Science and technology have progressed to the point where what we build is only constrained by the limits of our own imaginations." – Justin R. Rattner

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Smartidiot89
Nvidia borde ha lärt sig av ATI vid det här laget.

Satsa på mindre GPUer istället och kör på x2, eller varför inte en x3 lösning för att nå high-end segmentet. Stora dyra chips fungerar inte så jävla lyckat, speciellt inte om specsen på 512 shaders, 512-bit stämmer då får vi se en GPU minst lika stor som en fotbollsplan.

Nvidia har nog lärt sig men om de kanske redan kommit så långt med utvecklingen GT300 när ATI släppte 4xxx serien att det var försent att ändra sig.

Visa signatur

Antec 182b | Intel Quad Q6600 @ 3 GHz| Thermalright Ultra 120 | Gigabyte P35 DS3 | Corsair PC6400 CL4 4x1024 MB | 8800 GTS 320 | Raptor 36 GB | Samsung SpinPoint 320 GB | Corsair Powersupply 520W | Eizo S2201W

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Smartidiot89

Uttryckte mig kanske fel, men jag tycker att det ATI gör är bättre, dock kan jag se Nvidias strategi vara en bättre lösning för GPGPU applikationer, och deras "Tesla Superdator".

Klart du kan se att Ati gör det bättre eftersom dina glasögon är färgade.

Ett kraftfullt singlechip är och förblir det bästa valet både för konsumenter och tillverkare, därefter är steget ej särskilt långt till dubbelkärnekort efter modifikation.

Visa signatur

q9550@3,4Ghz, GTX275, 4GB DDR2 Corsair XMS2//HTPC AmdX2 4600+ passivt kyld med scythe ninja mini, Antec NSK 2480

Fractal design arc midi r2// core i7 4770k@ 4,4ghz :)
// corsair h100i // corsair hx 850m// asus maximus VI hero//
Corsair vengeance pro 2400mhz// intel ssd 335 180gb// gigabyte gtx 780 OC@1200mhz Core//win 8.1

Permalänk
Moderator, Testpilot
Citat:

Ursprungligen inskrivet av pierretox
Jag kan informera Dinoman att jag fortfarande har Microstuttering i en del spel och då med den senaste WHQL drivisen 182.50 och även med betan 185.81!..

Dator och graffe i signatur.....

Ja, just 9800Gx2 är erkänt för att lida av microstuttering. Problemet med 9800Gx2 är att drivrutinerna inte längre optimeras för detta kortet. När det gäller GTX 295 så är microstuttering i princip icke existerande, i alla fall om man får tro de otal testsidor som jag läst på om kortet.

nVidia har ju tyvärr haft en kultur av att överge sina dubbelkort. Se på t.ex. 7950 Gx2 som övergavs helt, samma sak har hänt med 9800 Gx2 som var EOL vid lansering i princip.

Det har blivit bättre, men det är fortfarande inte bra, återstår att se hur pass väl de tar hand om GTX 295.

Lite nyfiken på vilka spel du upplever dessa problem i?

[QUOTE]
Är inte helt säker på att det endast ligger på drivrutinsnivå, även om man kan minska denna plåga med nya drivisar....
[/QUOTE]

Nej fundamentalt så har detta att göra med hur kortet skickar bilderna, eftersom en GPU kan händelsevis bearbeta en bild snabbare än den andra så kan det innebära att bild #3 hamnar före bild #1 vilket upplevs som ett litet hack i bilden.

@Pantheus

Dina ögon är exat lika färgade åt det andra hållet, i alla fall med tanke på dina uttalanden. Så snacka om att kasta sten i glashus.

Men du har EN poäng, även om jag inte tror att det är det du menar.

Det ironiska i hela denna debatten är att folk pratar om att två GPU inte kan sammarbeta med varandra och det funkar så dåligt m.m. Det finns ETT enda stort problem och det är att få kärnorna att sammarbeta sömlöst. En GPU är redan extremt parallelliserad, RV770 har 800 st ALU:s som tillsammans gör matematiska-beräkningar. Problemet är att man troligen behöver ett ytterligare chipp (någon som läste om hydra?), en prefetch av något slag som är kopplad till en gemensam framebuffer, först då kommer man kunna få maximal skalning mellan två GPU:er eftersom de i praktiken jobbar som en. Så rent teoretiskt kommer man då ha EN GPU, fast man har två. Ungefär som en dual core cpu.

Blir saker förstora så finns det alltid en stor risk att det blir otympligt att hantera. På båtar t.ex. så skulle man kunna en enda stor massiv motor men det är enklar och billigare att tillverka mindre som tillsammans arbetar för att driva båten.

Som vi har läst och märkt på priser med mera så är det väldigt dyrt och komplicerat att hantera stor kärnor i tillverkningsprocessen. ATi har knappast valt denna strategi för att de tror att det är en bättre lösning enbart prestandamässigt utan det är betydligt billigare att tillverka mindre.

Se på marknaden idag, vi har HD4770 som presterar extremt väl för ett kort som kostar 1000:-. Ett budgetkort som presterar nästan lika bra som förra generations värstingkort 9800GTX.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av blunden
Låter som tekniken Nvidia sägs ha stöd för i nyare system med vissa komponenter. Inte testat det själv dock men idén var att man körde med ett vanligt integrerat grafikkort för mindre krävande saker medan det kraftfullare kortet användes först när det behövdes.

Ja det hade ju varit underbart, har man datorn på nästan 24timmar om dygnet och ändå bara spelar knappt 10-20% av tiden så är det ju onödigt att ha ett massivt grafikkort i idle som drar närmare 300w

Visa signatur

R.I.P Robert 2004-01-29 (klasskompis) Läs: Artikel Nr 1. | Artikel Nr 2. | Artikel Nr 3.

Permalänk
Medlem

Går det att räkna ut hur mycket bandbredd ett spel kräver? (vet inte hur eller om man kan räkna ut det)

Isåfall, Crysis med allt på max, full AA osv i 2560x1600, går säkert inte räkna exakt men uppskattningsvis?

Visa signatur

Hur kan syltkakor överleva i det vilda utan ögon?

Permalänk
Citat:

Ursprungligen inskrivet av Dinoman
Ja, just 9800Gx2 är erkänt för att lida av microstuttering. Problemet med 9800Gx2 är att drivrutinerna inte längre optimeras för detta kortet. När det gäller GTX 295 så är microstuttering i princip icke existerande, i alla fall om man får tro de otal testsidor som jag läst på om kortet.

nVidia har ju tyvärr haft en kultur av att överge sina dubbelkort. Se på t.ex. 7950 Gx2 som övergavs helt, samma sak har hänt med 9800 Gx2 som var EOL vid lansering i princip.

Det har blivit bättre, men det är fortfarande inte bra, återstår att se hur pass väl de tar hand om GTX 295.

Lite nyfiken på vilka spel du upplever dessa problem i?

Jag upplevde dessa problem i framför allt S.T.A.L.K.E.R Clear Sky samt crysis
Ett otroligt "laggande" (småhack) vid FPS som ett vanligt singelkort skulle klara galant

Är du säker på att "stutter" problemet är borta med GTX 295?

Har för mig att jag läst på några Engelska forum okm att folk klagar på detta kort och Microstuttering..

Se även dessa som jag hittade lite snabbt
http://www.youtube.com/watch?v=CHPtbDz7xgE

http://www.youtube.com/watch?v=RTfwhcQZphw

http://www.youtube.com/watch?v=-ZP_Pd5Z1NU

Visa signatur

[Antec 1200][Xigmatek NRP-HC1001][Asus P6TD][Core i7 975; 4 GHz][Noctua NH-U12P][3x2GB Patriot Viper 1600MHz][EVGA GTX 570 SLI]

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Dinoman
Se på marknaden idag, vi har HD4770 som presterar extremt väl för ett kort som kostar 1000:-. Ett budgetkort som presterar nästan lika bra som förra generations värstingkort 9800GTX.

förra generationens värsting kort var 9800gx2 innan det 8800ultra.

men ganska kul post Dino.

Visa signatur

Stationär: Ryzen9 5900x | DDR4 3200MHz 2x16GB | Geforce GTX1080 | Asus x570-F | Samsung 980 pro 512GB | Samsung 70 pro 256GB | Corsair AX 1200W |
Server: Ryzen9 5950x | 128GB RAM |

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Dinoman

Blir saker förstora så finns det alltid en stor risk att det blir otympligt att hantera. På båtar t.ex. så skulle man kunna en enda stor massiv motor men det är enklar och billigare att tillverka mindre som tillsammans arbetar för att driva båten.

Nu har man bara en motor i stora fartyg.

Emma Maersk tex har en 14cyl 2-takts diesel på 108khp
Lite info om EM http://sv.wikipedia.org/wiki/Emma_M%C3%A6rsk

Fartyget är utrustad med en huvudmaskin med 14 cylindrar, motorn är en tvåtakts dieselmaskin, som utvecklar 80 100 kW eller 108 920 hästkrafter, Wärtsilä 14RT-Flex96c, motorn är 13,5 meter hög och 27 meter lång och väger 2 300 ton

Bilder på en 12cyl i samma serie.
http://people.bath.ac.uk/ccsshb/12cyl/

Visa signatur

Du som inte behärskar när du skall använda de och dem så finns en mycket enkel lösning. Skriv dom så blir det inte fel.
Första egna datorn -> ZX Spectrum 48k '82.

Permalänk
Medlem

Skönt att det inte blev bil-liknelser iaf.

Permalänk
Citat:

Ursprungligen inskrivet av Tempel
Nu har man bara en motor i stora fartyg.

Emma Maersk tex har en 14cyl 2-takts diesel på 108khp
Lite info om EM http://sv.wikipedia.org/wiki/Emma_M%C3%A6rsk

Fartyget är utrustad med en huvudmaskin med 14 cylindrar, motorn är en tvåtakts dieselmaskin, som utvecklar 80 100 kW eller 108 920 hästkrafter, Wärtsilä 14RT-Flex96c, motorn är 13,5 meter hög och 27 meter lång och väger 2 300 ton

Bilder på en 12cyl i samma serie.
http://people.bath.ac.uk/ccsshb/12cyl/

Tack för det nu kan vi allt om stora båtmotorer!!
Det var precis det här jag undrade över NOT!!!

Visa signatur

[Antec 1200][Xigmatek NRP-HC1001][Asus P6TD][Core i7 975; 4 GHz][Noctua NH-U12P][3x2GB Patriot Viper 1600MHz][EVGA GTX 570 SLI]

Permalänk
Citat:

Ursprungligen inskrivet av blunden
Låter som tekniken Nvidia sägs ha stöd för i nyare system med vissa komponenter. Inte testat det själv dock men idén var att man körde med ett vanligt integrerat grafikkort för mindre krävande saker medan det kraftfullare kortet användes först när det behövdes.

Hybrid-SLI?
Jo, det börjar nog bli oumbärligt vid de här laget, med 512-bit och gddr5 (någon sa att det drog mer än gddr3?) blir nog idle-förbrukningen väldigt hög även om dom voltar ner och klockar ner då belastningen är låg..
Har för mej att dom bara kan köra low-end grafikkort med igp:n än så länge, vilket ju raderar hela poängen med hybrid SLI IMO

Citat:

Ursprungligen inskrivet av Pantheus
Vad skulle de ha lärt sig? Att gå med förlust menar du och lära sig tappa marknadsandelar? För det är precis vad AMD gjort.

..Bättre att behålla sina markadsandelar och sälja sina kort med minus-procenter i vinstmarginal som nvidia har gjort (läste d på the inquirer iofs )?

Men det kan ju hända att dom lärde sej det av ATI*host*.. den enfärgade akronymen ändå, så helt "fanboi rant" va de väl kanske inte..

Visa signatur

Ryzen 5 3600x | 32GB DDR4 | RTX 2070 Ventus | Corsair CX550M | Intel 660P 1TB + WDSN850 1TB | Asus TUF B550M-Plus Wifi | låda: Cooler Master NR400 | Skärm: Dell U2312HM + AOC Q3279VWFD8 | Ljud: Denon AVR-1513 Förstärkare | Cerwin Vega! VE-5M Frontar | Yamaha YST-SW012 Sub | Arturia Keylab essential 61 | Urbanista Berlin blåtandslurar som jag köpte på båten..

Permalänk
Avstängd

Vad ni gnäller! kul att det kommer nya grejor!

Visa signatur

WS:/ASUS M4A78-E/Phenom 940BE/OCZ Reaper DDR2 PC8500 6Gb/CF Ati 4870 1GB//Server: AMD Phenom 9550/MSI K9A2 CF-F/OCZ Reaper PC8500 2Gb/XFX GTS 250 Nvidia
"En enskild människas död är en tragedi, en miljon döda är statistik" -Josef Stalin

Permalänk
Moderator, Testpilot
Citat:

Ursprungligen inskrivet av pierretox
Jag upplevde dessa problem i framför allt S.T.A.L.K.E.R Clear Sky samt crysis
Ett otroligt "laggande" (småhack) vid FPS som ett vanligt singelkort skulle klara galant

Är du säker på att "stutter" problemet är borta med GTX 295?

Har för mig att jag läst på några Engelska forum okm att folk klagar på detta kort och Microstuttering..

Se även dessa som jag hittade lite snabbt
http://www.youtube.com/watch?v=CHPtbDz7xgE

http://www.youtube.com/watch?v=RTfwhcQZphw

http://www.youtube.com/watch?v=-ZP_Pd5Z1NU

Nej självklart inte problemet borta, vilket jag även försökte förklara i tidigare post. Men det arbetas hårdare med att förhindra det. Första exemplet du ger är GTX 295 i SLI vilket inte alls är optimerat i drivrutin och som lika gärna kan bero på en processor som inte hinner med all att hantera all den data som måste matas och tas emot från fyra GPU:s.

Som sagt, subjektivt gnäll som skickats upp på tuben säger mig ingenting, eftersom de problemen de upplever kan bero på en rad andra faktorer, helt enkelt bara väldigt tacksamt att skylla på kortet. När det gäller TMFTS2 så framgår det t.ex. inte om han har Vsync på eller inte. Det kan avhjälpa problemet.

När det gäller NWTN2 så är det antagligen något helt annat för så stora hopp gör det inte, som sagt microstuttering, det där är snarare major, och beror troligen på något annat.

Citat:

Ursprungligen inskrivet av McVit
förra generationens värsting kort var 9800gx2 innan det 8800ultra.

men ganska kul post Dino.

Lite svårt att läsa av den posten, anar en viss ironi.

Men du har helt rätt, i samma post som jag diskuterar 9800Gx2 glömmer jag även av den. Men om vi säger så här, två HD4770 i CF kan tävla någorlunda med ett 9800Gx2 i upplösningar som 1680x1050, beroende på spel. Men bättre än ett 8800Ultra är det definitivt.

Citat:

Ursprungligen inskrivet av Tempel
Nu har man bara en motor i stora fartyg.

Emma Maersk tex har en 14cyl 2-takts diesel på 108khp
Lite info om EM http://sv.wikipedia.org/wiki/Emma_M%C3%A6rsk

Fartyget är utrustad med en huvudmaskin med 14 cylindrar, motorn är en tvåtakts dieselmaskin, som utvecklar 80 100 kW eller 108 920 hästkrafter, Wärtsilä 14RT-Flex96c, motorn är 13,5 meter hög och 27 meter lång och väger 2 300 ton

Bilder på en 12cyl i samma serie.
http://people.bath.ac.uk/ccsshb/12cyl/

Citat:

Ursprungligen inskrivet av Buio
Skönt att det inte blev bil-liknelser iaf.

Det är ett exempel ja. För övrigt satt det fem motorer till för att driva el och kylsystem.

Men det finns otal andra exempel, t.ex. Stena färjorna. Danica och Jutlandica drivs båda två av fyra dieselmotorer.

http://www.faktaomfartyg.se/stena_danica_1983.htm

Saken är den att jag är inte alls något båtproffs men min far är gammal sjökapten och det specen på de båtar han varit kapten på har liksom inte undgått mig, då har det varit uteslutande två eller flermotoriga båtar men det finns väldigt många enmotoriga också så, ja, vilket som verkar funka.

Den som av en händelse är intresserad finns en massa båtmodeller att titta på här. http://www.faktaomfartyg.se/lastfartyg.htm

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Citat:

Ursprungligen inskrivet av vaedehäfömupp

..Bättre att behålla sina markadsandelar och sälja sina kort med minus-procenter i vinstmarginal som nvidia har gjort (läste d på the inquirer iofs )?

Ingen klok människa tar The Inq och speciellt Charlie på allvar. I princip allt han får ur sig är dynga utan någon sanningshalt.

Håll er borta från den där sidan.

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Dinoman
Nej självklart inte problemet borta, vilket jag även försökte förklara i tidigare post. Men det arbetas hårdare med att förhindra det. Första exemplet du ger är GTX 295 i SLI vilket inte alls är optimerat i drivrutin och som lika gärna kan bero på en processor som inte hinner med all att hantera all den data som måste matas och tas emot från fyra GPU:s.

Som sagt, subjektivt gnäll som skickats upp på tuben säger mig ingenting, eftersom de problemen de upplever kan bero på en rad andra faktorer, helt enkelt bara väldigt tacksamt att skylla på kortet. När det gäller TMFTS2 så framgår det t.ex. inte om han har Vsync på eller inte. Det kan avhjälpa problemet.

När det gäller NWTN2 så är det antagligen något helt annat för så stora hopp gör det inte, som sagt microstuttering, det där är snarare major, och beror troligen på något annat.

Lite svårt att läsa av den posten, anar en viss ironi.

Men du har helt rätt, i samma post som jag diskuterar 9800Gx2 glömmer jag även av den. Men om vi säger så här, två HD4770 i CF kan tävla någorlunda med ett 9800Gx2 i upplösningar som 1680x1050, beroende på spel. Men bättre än ett 8800Ultra är det definitivt.

Det är ett exempel ja. För övrigt satt det fem motorer till för att driva el och kylsystem.

Men det finns otal andra exempel, t.ex. Stena färjorna. Danica och Jutlandica drivs båda två av fyra dieselmotorer.

http://www.faktaomfartyg.se/stena_danica_1983.htm

Saken är den att jag är inte alls något båtproffs men min far är gammal sjökapten och det specen på de båtar han varit kapten på har liksom inte undgått mig, då har det varit uteslutande två eller flermotoriga båtar men det finns väldigt många enmotoriga också så, ja, vilket som verkar funka.

Den som av en händelse är intresserad finns en massa båtmodeller att titta på här. http://www.faktaomfartyg.se/lastfartyg.htm

Ja, hjälpkärror har man alltid flera av eftersom man har olika behov av elkraft och inte ett jämnt behov.

Men det är bara i färjor/kryssningsfartyg som man har flera huvudmaskiner eftersom
1. Man kör ofta i annan hastighet än max*.
2. En stor motor tar plats som kan användas till pax.
3. Komforten, en stor motor skapar mer vibrationer.

Alla andra typer av handelsfartyg har en framdrivningsmotor.

* Max är i praktiken ~85% av det verkliga max eftersom de sista knopen kostar sjukt mycket i ökad bränsleförbrukning.

Visa signatur

Du som inte behärskar när du skall använda de och dem så finns en mycket enkel lösning. Skriv dom så blir det inte fel.
Första egna datorn -> ZX Spectrum 48k '82.

Permalänk

Hursomhelst jag är inte övertygad att Microstuttering är ett minne blott vad gäller GTX 295..

Som sagt har läst om problem med detta kort i diverse forum också...
Nästa kort för mig blir ett singel-GPU.....

Och jag litar mer på poster i diverse forum än diverse Reviews som ofta bara fokuserar på FPSen...

Att Microstuttering är så uttalat på 9800GX2 tordes bero på dess klena Vram endast 512...

Visa signatur

[Antec 1200][Xigmatek NRP-HC1001][Asus P6TD][Core i7 975; 4 GHz][Noctua NH-U12P][3x2GB Patriot Viper 1600MHz][EVGA GTX 570 SLI]

Permalänk
Moderator, Testpilot
Citat:

Ursprungligen inskrivet av Tempel
Ja, hjälpkärror har man alltid flera av eftersom man har olika behov av elkraft och inte ett jämnt behov.

Men det är bara i färjor/kryssningsfartyg som man har flera huvudmaskiner eftersom
1. Man kör ofta i annan hastighet än max*.
2. En stor motor tar plats som kan användas till pax.
3. Komforten, en stor motor skapar mer vibrationer.

Alla andra typer av handelsfartyg har en framdrivningsmotor.

* Max är i praktiken ~85% av det verkliga max eftersom de sista knopen kostar sjukt mycket i ökad bränsleförbrukning.

Jaha där ser man. Ska ta och kolla upp de uppgifterna du nämner nu med min far men det låter ju vettigt.

Citat:

Ursprungligen inskrivet av pierretox
Hursomhelst jag är inte övertygad att Microstuttering är ett minne blott vad gäller GTX 295..

Som sagt har läst om problem med detta kort i diverse forum också...
Nästa kort för mig blir ett singel-GPU.....

Och jag litar mer på poster i diverse forum än diverse Reviews som ofta bara fokuserar på FPSen...

Att Microstuttering är så uttalat på 9800GX2 tordes bero på dess klena Vram endast 512...

Microstuttering har absolut ingeting med mängden VRAM att göra. Du borde nog läsa på lite grann om detta fenomen. Som sagt, det är en väldigt subjektiv uppfattning många gånger så jag skulle verkligen inte lyssna för mycket på vad gaphalsar skriver på forum. Men självfallet så upplever du vad du upplever. Då väljer jag helt enkelt att lite på sidor som till exempel Xbit labs och HardOCP m.m.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Citat:

Ursprungligen inskrivet av Dinoman
Jaha där ser man. Ska ta och kolla upp de uppgifterna du nämner nu med min far men det låter ju vettigt.

Microstuttering har absolut ingeting med mängden VRAM att göra. Du borde nog läsa på lite grann om detta fenomen. Som sagt, det är en väldigt subjektiv uppfattning många gånger så jag skulle verkligen inte lyssna för mycket på vad gaphalsar skriver på forum. Men självfallet så upplever du vad du upplever. Då väljer jag helt enkelt att lite på sidor som till exempel Xbit labs och HardOCP m.m.

hej du självutnämda Expert jag vet vad Microstuttering innebär! (har läst på) när jag letade till en orsak över det oönskade fenomen jag upplevde trots bra FPS. Jag löste mitt problem med att ställa in Split Frame Rendering ist för AFR detta kan öppna upp för "tearing" men jag såg inget sånt.

Och jag tror visst att 9800GX2ans stuttering problem avsevärt förväras av des låga Vram, eller för at vara politiskt korrekt Spelkänslan förvärras...

Jag tror du fäster för stor tilltro till diverse Reviews på nätet när det gäller nya kort. Sådanna Reviews tenderar som jag beskrivit ovan till att mest fokusera på FPS:en säger ingenting om spelkäsnlan i flertalet olika spel.
Jag tror att Långtidsanvändarna (oss) är bättre på att identifiera sådant än korttidsanvändarna (recesenterna)

Sen så har jag ingen förklaring till men det verkar som att "stuttering" tenderar att vara speltitel-relaterat. Är inte "rätt" speltitel med i Reviewen så kommer recesenten inte märka av fenomonet, än mindre beskriva det.

Om jag ser upprepade poster i diverse forum om detta fenomen så tenderar jag till att åtminstone bli skeptisk till dina kommentarer att stuttering praktiskt taget är en Non Issue med GTX 295an
Bygger du det påståendet endast med att läsa reviews?

Förvisso så erkänner jag att det tordes ha blivi avsevärt bättre än med 9800GX2an men helt eliminerat Nej det tror jag inte...

Visa signatur

[Antec 1200][Xigmatek NRP-HC1001][Asus P6TD][Core i7 975; 4 GHz][Noctua NH-U12P][3x2GB Patriot Viper 1600MHz][EVGA GTX 570 SLI]

Permalänk
Moderator, Testpilot
Citat:

Ursprungligen inskrivet av pierretox
hej du självutnämda Expert jag vet vad Microstuttering innebär! (har läst på) när jag letade till en orsak över det oönskade fenomen jag upplevde trots bra FPS. Jag löste mitt problem med att ställa in Split Frame Rendering ist för AFR detta kan öppna upp för "tearing" men jag såg inget sånt.

Och jag tror visst att 9800GX2ans stuttering problem avsevärt förväras av des låga Vram, eller för at vara politiskt korrekt Spelkänslan förvärras...

Nej då, jag är absolut ingen expert men jag kan ju inte veta hur insatt du är med de få inlägg du har gjort och när du dessutom säger att du tror det beror på mängden VRAM sä är du helt ute och cyklar. Microsuttering har ingenting med mängden VRAM att göra, mer än en indirekt påverkan, utan det har med tekniken AFR som sådan att göra.

[QUOTE]
Jag tror du fäster för stor tilltro till diverse Reviews på nätet när det gäller nya kort. Sådanna Reviews tenderar som jag beskrivit ovan till att mest fokusera på FPS:en säger ingenting om spelkäsnlan i flertalet olika spel.
Jag tror att Långtidsanvändarna (oss) är bättre på att identifiera sådant än korttidsanvändarna (recesenterna)
[/QUOTE]

Jag färster enbart tilltro till de sajter som har visat sig objektiva och tekniskt kunniga. Jag har vissa få sajter som jag läser reviews på och de litar jag på. Sen vad är det som säger att dessa testsajter enbart är korttidsanvändare? Dessa människor har privata datorer de också.

[QUOTE]
Sen så har jag ingen förklaring till men det verkar som att "stuttering" tenderar att vara speltitel-relaterat. Är inte "rätt" speltitel med i Reviewen så kommer recesenten inte märka av fenomonet, än mindre beskriva det.
[/QUOTE]

Det är just här som vi kommer in på det faktum som för mig mer eller mindre bevisar att det är på drivrutinsnivå. Själva problemet har som du säger med tekniken i sig att göra men avhjälpningen ligger på drivrutinsnivå. Släcka bränder helt enkelt. Det jag menade är att i dagsläget så arbetas det hårt med drivrutinerna för SLI/CF vilket har gett effekten att microstuttering i princip är icke existerande.

[QUOTE]
Om jag ser upprepade poster i diverse forum om detta fenomen så tenderar jag till att åtminstone bli skeptisk till dina kommentarer att stuttering praktiskt taget är en Non Issue med GTX 295an
Bygger du det påståendet endast med att läsa reviews?
[/QUOTE]

Jag bygger detta påstående på antalet klagomål som dykt upp angående problemet och de är extremt få, du är den första som tar upp saken angående GTX 295. Problemet med microstuttering är att det är en subjektiv bedöming och jag kan inte tala om för dig att du inte upplever problemet. Men man får se till den stora massan av folk, bara för att ett fåtal personer upplever problemet innebär inte det att det är ett faktiskt problem.

[QUOTE]
Förvisso så erkänner jag att det tordes ha blivi avsevärt bättre än med 9800GX2an men helt eliminerat Nej det tror jag inte...
[/QUOTE]

Det är det inte heller, så länge man inte kan tillverkar dual gpu-kort med en gemensam framebuffer så kommer detta problemet alltid kvartså.

Problemet ligger i att man delar upp renderingen på två GPU:er men också på två minnesbanker vilket gör att risken är att bilderna skickar ojämnt. Om man har en gemensam minnesbank som sorterar och sedan skickar bilderna som de ska, en och en efter varandra så kommer problemet försvinna och då kan man ha hur många GPU:s som helst som jobbar, skalningen kommer bli i princip 100%, teoretiskt i alla fall.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt