"DirectX 10.1 är oviktigt"

Permalänk
Medlem

känns som det bara är Nvidia som är snåla, - kanske blir ett ATI för mig nästa gång.

Visa signatur

Survival of Earthquake skåne 2008

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Fire_Ice
De vagar inte erkanna bristande kompetens hos ingenjorerna. Synd da iaf ATi tjanar ca 20% i spel med dx10.1.

Hahaha.. och det från företaget som inte har kunnat göra ett grafikkort på över 18 månader som klår nvidias top model.

Permalänk
Inaktiv

Det säger dom ju bara för att dom inte fixar att lägga in det ^^

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Loxus
Det säger dom ju bara för att dom inte fixar att lägga in det ^^

nej men för att de är för snåla

Visa signatur

Survival of Earthquake skåne 2008

Permalänk
Hedersmedlem

Känns som nvidias kort kommer bli lite som ATi's X800 [inget stöd för shadermodell] 3 i framtiden.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av m0rk
Hahaha.. och det från företaget som inte har kunnat göra ett grafikkort på över 18 månader som klår nvidias top model.

Och varför tror du att Nvidia inte vill att DX10.1 spel skall komma ut

Visa signatur

ola33

Permalänk
Medlem

Enligt en del verkar anledningen att Nvidia inte lägger in det i de nya korten vara att det skulle få G92(b)/G94 att verka gammalmodiga, och de har ju planerat att köra dem ett bra tag framöver.

Visa signatur

|| R9 7950X MSI PRO X670-P WIFI 32GB-DDR5-6400c32 MSI RTX4080 Ventus 3X OC || CORE i9 12900KF MSI Z690 Tomahawk WIFI DDR4 32GB-3600c16 Gear1 TUF RTX3080 OC V2 || R7 5800X3D X570S CH8 Extreme 32GB-3800c18 Gigabyte RTX3080 GAMING OC || R9 5900X(B2) B550-F 32GB-3800c18 EVGA RTX3070 FTW Ultra || R9 3900X X470-Prime Pro 32GB-3200c16 MSI RTX2070 Super ||

Permalänk

Haha! att DX10.1 är meningslöst är det dummaste jag har hört!
Det låter mer som att Nvidia har stora problem med att implementera DX10.1 stöd. För tekniken har ju funnits ett tag nu.

Permalänk
Citat:

Ursprungligen inskrivet av baggeman
Som redan har sagts, om det inte tillför något viktigt, varför implementera det?

Då kunde det sparats 1.000-tals utvecklings timmar och miljarder med investerade pengar. För "viktigt" är i detta sammanhang formlöst. Snygg grafik är inte viktig, inte heller sköna animationer som ändå rullar förbi så snabbt så man inte hinner uppfatta all skönhet. Hög upplösning är heller inte något viktigt i sig. Man spelar i huvudsak för rent nöje och spelgäldje.

Permalänk
Trollfabrik 🫶🏻
Citat:

Ursprungligen inskrivet av stefanpson
Då kunde det sparats 1.000-tals utvecklings timmar och miljarder med investerade pengar. För "viktigt" är i detta sammanhang formlöst. Snygg grafik är inte viktig, inte heller sköna animationer som ändå rullar förbi så snabbt så man inte hinner uppfatta all skönhet. Hög upplösning är heller inte något viktigt i sig. Man spelar i huvudsak för rent nöje och spelgäldje.

Man köper ett nytt grafikkort för att kunna göra ett spel spelbart.

Assasins Creed fick en 20% boost med DirectX 10.1 men det stödet lyckades ju Nvidia slänga bort hmm?

Visa signatur

Kontaktas enklast via PM. Önskas svar i forumet citera mina inlägg eller pinga @Jacob. Finns även på Twitter.

"Science and technology have progressed to the point where what we build is only constrained by the limits of our own imaginations." – Justin R. Rattner

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av DataNusse
Inte alls konstigt att nVidia uttalar sig så. Vilket företag som helst skulle utrycka sig på samma sätt om de var i samma sits.

Sen kan man spekulera varför nVidia vill inte ha DX10.1

Hur fick du fram att deras ingenjörer är inkometenta från nyheten?
Som Albin sade, i ett spel när bara AA används.

Nvidia verkar vara bakåtsträvande jävlar nu. De tackar nej till ny teknik och de gör stora och strömslukande chip!
Ja om man har en PC så kör man med AA, annars kan man fan ta en konsol som är billigare och har samma grafik i övrigt! Jag har aldrig sagt att de är inkompetenta. Jag sa att de har kanske inte tillräckligt med kunskap för att få in 10.1 i sina kort. Det är BARA fanboys som kan stödja Nvidias beslut då det bara blir bättre med 10.1 över 10.0. Varför inte bygga in det då, jo nvidia kanske inte kan, varför ska man stödja dem i de. Och det räcker inte med det, nvidia vill sabba för ATi som har klarat av implementera 10.1 genom att hota spelutvecklare så de tar bort stödet, det är ju bara FÖR MYCKET. Hacka på ATi bara när de gör något bra....

Visa signatur

Arch Linux - i5 12500@4.75GHz - Asrock B760M PG Riptide - 32GB DDR5 6000MHz - RTX 2070 Super - 1TB SN770 - 1TB SN550 - U32PWQU 4K
Dell Latitude 7400 2 in 1 - Arch Linux - i5 8265u

Permalänk

Vad jag har förstått så är DX10.1 en helt meningslös uppdatering, som bl a "tvingar" 4xAA i 3d-applikationer, bl a.

Detta är ju en otroligt dålig funktion! Personligen är jag emot AA, och använder det aldrig, eftersom det tenderar att dra en hel del prestanda. Jag har hellre högre fps än finare kanter.

Visa signatur

"plattan som moderkortet är uppbyggt på (minns ej vad det heter)" - muhihihaha

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Tipsaossgärna
Vad jag har förstått så är DX10.1 en helt meningslös uppdatering, som bl a "tvingar" 4xAA i 3d-applikationer, bl a.

Detta är ju en otroligt dålig funktion! Personligen är jag emot AA, och använder det aldrig, eftersom det tenderar att dra en hel del prestanda. Jag har hellre högre fps än finare kanter.

Jo men ditt problem är ju att du har förstått precis allting fel. DX10.1 tvingar _stöd_ för 4xAA, dvs spel måste tillåta oss att kunna få åtminstone 4xAA i spelet (exempelvis skulle flertalet UE3 spel inte klara det kravet).

Det betyder INTE att du måste ha 4xAA och lägre fps.

DX10.1 tillför förbättrad prestanda med AA, något som alla highend kort ägare använder. Hur välkommen boost som helst. Tänka sig, kanske även mid-end kort kan börja använda AA då prestanda förlusten minskas.

Permalänk
Hjälpsam
Citat:

Ursprungligen inskrivet av Tipsaossgärna
Vad jag har förstått så är DX10.1 en helt meningslös uppdatering, som bl a "tvingar" 4xAA i 3d-applikationer, bl a.

Detta är ju en otroligt dålig funktion! Personligen är jag emot AA, och använder det aldrig, eftersom det tenderar att dra en hel del prestanda. Jag har hellre högre fps än finare kanter.

Nej DX10.1 tvingar inte 4xAA i 3D-applikationer.
För att ett kort skall få kallas DX10.1 kompatibelt, krävs att det skall klara 4xAA, det är skillnad det.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Citat:

Ursprungligen inskrivet av Fire_Ice
Nvidia verkar vara bakåtsträvande jävlar nu. De tackar nej till ny teknik och de gör stora och strömslukande chip!

Jag är all för att DX10.1 implementeras.
Men eftersom nVidia står i sådan position att de har stark inflyttande över utvecklingen så har den här affären blivit pinsam. Och försöker tysta ner det och de lyckas med det eftersom det handlar om ett spel. Skulle prestandaökning ses i flera spel med DX10.1 så skulle nVidia inte gå ut med att säga att DX10.1 är onödigt. Istället skulle de impementera DX10.1 i deras kort.

Gissnings är att nVidia har aldrig tänkt på DX10.1, utan satsar på DX11 med nya Windows nästa år.

Ratio mellan effektkonsumtion och prestanda för de två GPU tillverkare ligger på samma nivå. Så ja, nVidia må göra strömslukande GPU dock så levererar de bra prestanda gemför effektförbrukning.

Tillägg: Det är faktiskt så att nVidias kort har högre prestanda per watt än ATI.

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk
Medlem

lika oviktigt som directX 10 då?

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av raekan
Dx11 är ju ändå runt hörnet, med stöd för det genom Windows 7.

tror knappast det. dx9 releasades 2002. dx10 kom 2007. möjligtvis små uppdateringar men inget major som dx10.

Visa signatur
Permalänk
Medlem

hoppas nvidia åker på stora smällar i en framtida rättegång om brott mot konkurrenslagen samt att försöka hämma utvecklingen av grafisk teknik

Visa signatur

"Be not afraid of life. Believe that life is worth living, and your belief will help create the fact." - William James

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av raekan
Dx11 är ju ändå runt hörnet, med stöd för det genom Windows 7.

haha, vilka fula fiskar microsoft är.. "vill du spela nyaste spelen med nyaste direct x 10/11 osv så måste du köpa vårat nya operativsystem"

OMG intel / amd / nvidia, ni ligger efter i barnslighet och omoraliska kapitalistpåhitt

Visa signatur
Permalänk
Avstängd

Håller med nVidia på det planet, kör för övrigt XP igen, så DX 10 känns ointressant öht.

Visa signatur

[b]MSI K9N Neo V2 - AMD X2 5200+@3GHz - Corsair XMS2-6400 2X1024 Xtreme - Sapphire HD3870 512MB (855/1200)[/b]

Das Blogg. -Lira lite Gubb-CSS?. Moget?

Permalänk
Medlem

Visst kan man hålla med Nvidia om man kör XP men då är väl DX10 helt onödigt i sig, eller??? Lite ironi där ;), bjuder på den. En annan sak är ju bildkvaliteten, om DX10.1 förbättrar bildkvaliteten är det ju helt ointressant om man spelar 2D spel från 1985. Annars är det ju intressant för oss som vill ha mer av allt. Snyggare 3D-grafik till exempel. Om tillverkare får större kontroll över inställningarna i spelen borde ju även detta vara något positivt, för oss som vill att spelen ska fungera bättre.
Men egentligen, varför förbättra något överhuvudtaget? Vi hade det förmodligen bättre på stenåldern.

"Ignorance is bliss" Citat från Matrix bla..

Permalänk
Medlem

AA 2x-4x är lagom att använda, 8x tar förmycket prestanda för att det ska vara värt det.

dock så är AA relativt onödigt i höga upplösningar.

Kör Mass effect i 1280x1050 och känner att jag vill ha lite AA pga upplösningen

Permalänk
Citat:

Ursprungligen inskrivet av Gemmy
En annan sak är ju bildkvaliteten, om DX10.1 förbättrar bildkvaliteten är det ju helt ointressant om man spelar 2D spel från 1985.

DX10.1 ger inte bättre IQ, bara mer prestanda i AA (MSAA) inställning gemför med DX10.0

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Domifuling
Det viktigaste är att man får spekulera lite.

Seriöst, vad är det för funktioner i 10.1an som är viktiga och gör skillnad för oss lirare?

Spela assassins creed orginalutgåvan i höga upplösningar med massa godis påslaget utan nån patch om du har ett ati 3870 eller högre och jämför före och efter patchen så har du svaret.Nvidia fular sig igen som vanligt,fan jag får snart rycka ur mitt GF8800GTS och köpa ett HD4870 när dom släpps om nåra veckor,just nu känner jag för att spy på mitt GTS:(

Visa signatur

Fractal Design Refine R2 Asus Commando(1901) Q6600@3600mhz@Vattenkylning Corsair HX620W 4Gb 2x2 dominator 8500 Powercolor HD4870X2 Ikari Laser WD MyBook 500Gb@E-Sata 3dmark06@20436+/-
Win xp sp3/win 7 ultimate

Permalänk
Medlem

3Dfx spöket i nvidia som är i farten igen.

Voodoo 3 hade inte stöd för 32Bitars färg utan bara 16. Även fastän nvidias motsvarande hade haft stöd för det generation innan.

Nu har idiotin hoppat vidare till nvidia. Säg inte åt oss vilka funktioner vi ska använda. Lägg in skiten och låt oss bestämma istället.

Visa signatur

//Gelantious
I heard life sucks, that''s why I''m glad I don''t have one.

Permalänk
Moderator
Testpilot
Citat:

Ursprungligen inskrivet av baggeman
Haha, jag verkar ha fel i detta fallet, men säg INTE att Microsoft inte lägger energi på saker som är meningslösa

Haha nej det bestrider jag verkligen inte, speciellt inte här vid min MacBook, men gällande Dx 10.1 så är det något väldigt skumt på gång med Nvidia.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Hjälpsam

Jag tror att det är svårt att implementera det med Nvidias nuvarande arkitektur, annars hade dom nog gjort det.
Har svårt att se några andra skäl.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk

hmm...

Citat:

Ursprungligen inskrivet av dewoo
lika oviktigt som directX 10 då?

Nej!

Visa signatur

Antec Performance P182 | Intel Core i7 920 | Gigabyte GeForce GTX 660Ti | Gigabyte GA-EX58-DS4 | Corsair XMS3 1333 MHz 6 GB | Samsung SpinPoint F3 | Corsair 650TX | Windows 7 x86-64 | QPAD MK-50

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av AlbinNdoja
Jo fast 20% bättre prestanda är på grund av optimering för ATis shaderkod (har ej källa framme nej) tillsammans med DirectX 10.1 och inte för att DX10.1 är något som är vad det är. Detta var i ett spel och inte i 100 spel.

Om nio stycken spelbolag säger att 10.1 inte är något som efterfrågas just för att det inte tillförnågon "wow"- effekt som skulle standardiseras så förstår jag också varför man inte väljer att implementera detta förutom i PR syfte vilket är klockrent från ATis sida. Sedan är det ett företag som säger att de har valt att implementera stöd för 10.1, inget som får folk att fundera på det.

Hur många av dom spelföretagen har en fet "The way it's meant to be played" logga i sina spel? 9 av 9?

Citat:

Hahaha.. och det från företaget som inte har kunnat göra ett grafikkort på över 18 månader som klår nvidias top model.

3870X2.

Visa signatur

Silverstone FT03B | Dell U2711 | Be-quiet E9 580w CM | ASUS GENE-Z | AMD 7970 | Intel 2500k @ 4,4 Ghz| Corsair H80i | 8GB Corsair LP

Permalänk
Avstängd

10.1 är onödigt