Vem har rätt ang 5900XT?

Permalänk
Medlem

Vem har rätt ang 5900XT?

Tjo gubbs

Har haft en riktigt seglivad diskussion om vad som egentligen är rätt eller fel när det gäller 5900XT o vill höra va ni tycker om allt.

Allt började med att jag i ett forum såg att en snubbe skrev att ett 5900XT fortfarande spöar skiten ur många nyare generationers kort. Jag kontrade med att det var skitsnack, o att FX-seriens DX9-prestanda inte alls är nå bra o att ATIs 9800Pro är bättre än FX5900XT. O att iom att dom ligger i nästan samma prisklass är 9800Pro ett mkt bättre köp.

Sen påstår han vidare att PS/SM3 är ngt som ger nvidia övertag och förbättrar bildkvaliten, medan jag vidhåller att samma sak går att göra med 2.0b o att SM3 i dagens läge endast används för att få mer prestanda.

Sen tror han inte på att D3 är mer lr mindre skräddarsytt för nVidiakort.

PLUS att han säger att FX-serien inte är en DX9-generationsserie av gfx, samt att XT inte är budgetmodellen i 59** serien.

Det roliga är att han säger att både XBitlabs, Anandtech samt Firingsquads tester är vridna...

Nå, är han helt pantad eller är det jag som har fel?

Visa signatur

5900X | CH8 | 64GB/3600MHz | RTX4080 | SN850 | H2O 2*360 Rad | LG CX48 | Ananda Nano, D30Pro & rHead

Permalänk
Medlem

http://www.anandtech.com/video/showdoc.aspx?i=2281&p=4
Visa honom lite HL2 bench. så kan du visa att han har fel, 5900XT är inte lika bra som 9800XT GENERELLT (doom 3+ annat är undantag)

btw. är inte 5900XT budget version.

Visa signatur

nämen tjenare

Permalänk

Jo är inte 5900XT "budgetversionen" av 5900?
Jag har för mig det iaf, ATI:s XT står för deras värsting medan nvidias XT står för en lite slöare modell. Deras monster hette och heter ju istället Ultra (5900Ultra/5950Ultra).

Men ja 9800pro är, var och förblir det bättre köpet.

Permalänk
Medlem

5900xt är beudgett versionen.

Permalänk
Medlem

5900xt är iallfall kul att klock se min sign

Visa signatur

__________________
|| Abit AN7 || XP-M 2400+@2.4Ghz || OCZ EL DDR PC-3200 Platinum Limited Edition 2x512MB || Leadtek 5900xt @ 595/790 R.I.P. || Leadtek 6800NU @ 432/830|| ||Antec PLUSVIEW1000AMG || Antec Trueblue 480W || Hyundai L90D+ || Asus DRW-1608P ||

Permalänk
Hedersmedlem

DOOM3 är inte skräddarsytt för Nvidia det är snarare så att ATi struntat i att optemera för OpenGL visst dom gjorde lite förbättringar men nu när DOOM3 febern har lagt sig kommer dom att strunta i OpenGL igen.

Annars var det helt rätt bran.....:)

Visa signatur

Rocking hard !!!

Kontakt: malo@sweclockers.com eller skicka ett PM

Permalänk
Medlem

FX-serien stöder inte SM3.

Visa signatur

Ryzen 7 7700
Gigabyte B650 Eagle ax
2x16 GB RAM
Sapphire Radeon RX 7800 XT PULSE

Permalänk

Japp han har fel.

Visa signatur

'Any technology distinguishable from magic is insufficiently advanced'

Permalänk

Hej.

Eftersom det är mej som han har diskuterat med ville jag klargöra en del saker.

Annledningen alls till denna debatt är för han sa att hela FX generationen är skit, vilket jag med flera inte håller med om.

Klart det finns bättre kort.
De tester som han har hänvisat till litar inte folk till en början på eftersom resultaten mellan dem är för olika. Så hur skall man kunna lita på dem då?

Jag har dessutom sagt att detta FX kort är ganska överklockat som jag hade och jag kunde lätt få bättre resultat än många andra nya kort, dock inte topp korten. (org 400/700, mitt 450/900). så självklart får jag bättre resultat.

Dessutom tycker jag det är lämpligt att jämföra med kort som faktist fanns när det kom ut.

När det gäller ps3 är det helt klart att den tekniken ger bättre bild.
Men när han kommer med ett spel och hävdar att det skulle bevisa att det gamla är lika bra som det nya är det rent skitsnack. Det spelet använder inte ps3 för att få bättre bild, endast för hastigheten enligt dem själva. Så jag tror hellre på de som faktist gjort spelet i fråga.
Att säja en teknik är dålig när det snarare är spelet som inte stöder det speciellt mycket tycker jag är ganska korkat.

Doom3 funkar bättre på nVidiakort vilket man kan se i ganska många tester.
En del tester som han givit mej är det knappt något övertag alls för nVidia.
Konstigt när alla vet att just nvidia kort funkar bättre på Doom3.

Jag har dessutom aldrig sagt att fx-serien inte tillhör dx9. Jag har ju liksom haft ett sånt tills nyligen när jag köpte 6800GT.

När det gäller budgetkort var det han som påstog att 5900XT var ett budgetkort i fx serien, vilket det inte är, det är dock den sämsta modellen i 5900 serien. Det är en stor skillnad.

I dagens läge är det ju självklart att jag inte skulle köpa detta kort. det kostar ju över 2000:- och det finns ju kort som är bättre i den prisklassen.

Dessutom har jag ju sålt det så jag kan ej visa resultat, vilket jag talade om för honnom.
Sålde det för 1450:-. hittils har jag fått ett 30 tal e-mail från folk som ville köpa det.
Väldigt konstigt om det vore så kast som han påstår.

Denna person har uttalat sig enormt negativt om ett kort han aldrig ens har testat och om en hel generation med kort och självklart tycker jag det är helt fel.
Dessutom kommer han med en massa påstående och allt möjligt för att dölja att han pratar skit om sånt som han inte ens vet något om.

Bara att gå till ett annat forum för att få medhåll av någon är ju också konstigt.
När han dessutom skriver sånt som inte är sant.

Jag hade inte tänkt skriva något här men jag gillar inte att folk pratar skit bakom ryggen på mej och påstår saker jag aldrig sagt..

greetz

Permalänk
Hedersmedlem

Jag ser inte ditt namn i brans inlägg och vi svara bara på vad bran påstår så det får vara mellan er två.

Visa signatur

Rocking hard !!!

Kontakt: malo@sweclockers.com eller skicka ett PM

Permalänk
Medlem

Jag tycker det är direkt dåligt av ATI att bara strunta i Open GL som de har gjort. De tog tag i sig själva och fixade till det lite bättre i och med Doom 3 kom ut. Jag hoppas att det även är något som de kommer att fortsätta med. För det finns två riktigt bra grafikmotorer ute nu: Doom3 och Source. Många spel kommer vara baserad på någon av dem. Dessa stöder dessutom två olika API: OpenGL och DirectX. Då är det ju viktigt med ett grafikkort som är bra på bägge.

Visa signatur

Dator - Dell Alienware Oled AW3423DW, Phantek Enthoo Pro, Intel i7 8700K, Noctua NH-14, Asus TUF Z370-PRO, Samsung SSD 840 Pro 128GB, 32 GB DDR4, Gigabyte Geforce GTX 1080 Ti, 2st x 3 TB WD RED, Logitech MX518, Sennheiser Momentum, Qpad Pro MK80.

Permalänk
Medlem

5900xt kan lugnt mäta sig med ett 9800pro t.ex, finns inget kort som "spöar" det andra.
6400 i 3dmark är inte dåligt för ett kort i den prisklassen(köpte mitt nytt för 1300kr)

Visa signatur

Dell: P4 3,2 EE, 1024m DDR 400 mhz, Leadtek 6800LE 16/6, 345/830,
2*120gb SATA, Dell 19" TFT
3dmark03: 11600 3dmark05: Feta artifakter :(

Permalänk

Tyvärr han jag inte testa kortet mera än i 2001se 3DMark.
Hade testat det förr men har inte kvar eller kommer ihåg hur mycket det var.
Iaf hade jag 16300 drygt i 2001:an..

greetz

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Lindfalas
Massa text..

För det första, du säger att tester som XBitLabs, Anandtech samt Firingsquad är vinklade och inte stämmer med verkligheten. Bara det ger dig ju noll i trovärdighet när du inte ens kan visa upp nåt test som styrker det du säger. Testerna mellan dessa 3 sidor är inte alls olika, dom visar att 9800Pro spöar 5900XT i istort sett allt.

För det andra, du säger att:
"Eftersom det är en äldre generation så är det ju ganska naivt att tro man kan spela spel som har dx 9c som krav. "
när jag påpekar deras oförmåga att spela HL2 med DX9-effekter som standard.

Man ska alltså inte kunna köra DX9-generationskort i DX9-mode enligt dig?

Och ang SM3, det är enligt Hard|OCPs artikel (som intervjuar bla Sweeney från Epic) möjligt att göra samma sak med PS2.0b som med 3.0, plus att dom som gjort CryEngine säger samma sak. Iaf inom det närmsta året.

"Vart var ATI när FX kom ut??? De hade inte ens fått ut sina nya kort då. " <-- annat citat

"9800Pro fanns inte ens när FX serien kom ut. Dessutom är de inte en riktade till samma segment." <-- Skiljer 200:- o det fanns visst då

"DX9 generation. så alla kort efter den generationen då. vad tillhör dom? " <-- när ja säger att FX är DX9-generationskort.

Visa signatur

5900X | CH8 | 64GB/3600MHz | RTX4080 | SN850 | H2O 2*360 Rad | LG CX48 | Ananda Nano, D30Pro & rHead

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Lindfalas
När det gäller ps3 är det helt klart att den tekniken ger bättre bild.
Men när han kommer med ett spel och hävdar att det skulle bevisa att det gamla är lika bra som det nya är det rent skitsnack. Det spelet använder inte ps3 för att få bättre bild, endast för hastigheten enligt dem själva. Så jag tror hellre på de som faktist gjort spelet i fråga.
Att säja en teknik är dålig när det snarare är spelet som inte stöder det speciellt mycket tycker jag är ganska korkat.

Nej, det är inte klart att det ger "bättre bild". I de få applikationer som överhuvudtaget använder PS3.0 än så länge är det för att öka prestandan, inget annat. Du kan få exakt samma effekter med PS2.0b det är bara att man möjligtvis behöver flera rendering passes (behandla polygonerna flera gånger) med PS2.0b än PS3.0 för att uppnå samma resultat.

Vad gäller FX5900XT vs 9800Pro så är det inget snack om att 9800Pro är det bättre av de två. FX har helt enkelt kass PS2.0 prestanda jämfört med 9800 vilket de flesta nya spel använder sig av.

Permalänk
Citat:

Ursprungligen inskrivet av S_Z
Nej, det är inte klart att det ger "bättre bild". I de få applikationer som överhuvudtaget använder PS3.0 än så länge är det för att öka prestandan, inget annat. Du kan få exakt samma effekter med PS2.0b det är bara att man möjligtvis behöver flera rendering passes (behandla polygonerna flera gånger) med PS2.0b än PS3.0 för att uppnå samma resultat.

Vad gäller FX5900XT vs 9800Pro så är det inget snack om att 9800Pro är det bättre av de två. FX har helt enkelt kass PS2.0 prestanda jämfört med 9800 vilket de flesta nya spel använder sig av.

Tekniken i sig själv ger bättre bild.
Att spelen inte använder sig av det utan gör som du säjer är ju en annan sak.
Dags att skilja på teknik och utnyttjande av tekniken.
Det är just det den debatten handlade om.

greetz

Permalänk
Hedersmedlem

Det finns vad jag vet bara ett spel som använder 3.0 och det är FarCry och det skiljer inget i bildkvalite mellan 3.0 och 2.0b.

Men kan du visa för mig att det inte är så blir jag bara glad då mitt kort har 3.0.

Visa signatur

Rocking hard !!!

Kontakt: malo@sweclockers.com eller skicka ett PM

Permalänk
Medlem

Re: Vem har rätt ang 5900XT?

Citat:

Ursprungligen inskrivet av bran
Tjo gubbs

Har haft en riktigt seglivad diskussion om vad som egentligen är rätt eller fel när det gäller 5900XT o vill höra va ni tycker om allt.

Allt började med att jag i ett forum såg att en snubbe skrev att ett 5900XT fortfarande spöar skiten ur många nyare generationers kort. Jag kontrade med att det var skitsnack, o att FX-seriens DX9-prestanda inte alls är nå bra o att ATIs 9800Pro är bättre än FX5900XT. O att iom att dom ligger i nästan samma prisklass är 9800Pro ett mkt bättre köp.

Sen påstår han vidare att PS/SM3 är ngt som ger nvidia övertag och förbättrar bildkvaliten, medan jag vidhåller att samma sak går att göra med 2.0b o att SM3 i dagens läge endast används för att få mer prestanda.

Sen tror han inte på att D3 är mer lr mindre skräddarsytt för nVidiakort.

PLUS att han säger att FX-serien inte är en DX9-generationsserie av gfx, samt att XT inte är budgetmodellen i 59** serien.

Det roliga är att han säger att både XBitlabs, Anandtech samt Firingsquads tester är vridna...

Nå, är han helt pantad eller är det jag som har fel?

DOOM3 är inte skräddarsytt för Nvidia. Lika lite som HL2 är skräddarsytt för ATI
ATI hade från början inga bra drivrutiner för DOOM3 men det har dom nu.
, bättre iaf.
Värre är det för Nvidia tyvärr när det gäller HL2. Spelet använder 24 bits floating shaders. Nvidia har bara stöd för 16 bit och 32 bit. ATI har stöd för 24 bit men inte 32 bit. Nvidia gör då så att det konverterar upp 24 bit till 32 bit vilket troligtvis snor en massa prestanda. Hade HL2 haft stöd för 32 bit hade ATIs kort fått konvertera ner till 24 bit och då hade säkert korten haft helt andra placeringar i HL2 testen.

Om Nvidia skall kunna ha en fix för HL2, måste dom implementera stöd för 24 bit vilket inte går.. för det är en hårdvarufunktion.

FX korten gör på samma sätt. Konverterar upp till 32 bit vilket ger dom usla dx9 prestanda i HL2. Det finns en fix som gör att dom använder 16 bits istället men grafiken blir något sämre.

Det är inte alltid det är en fördel att korten har bäst funktioner, finns det inga spel som stödjer dom kan det vara en nackdel.. som i detta fallet.

FX5900XT är en budgetvariant på FX5900. Så är det. Nu är det ju en väldigt bra "budget" variant eftersom det är väldigt klockvänligt (klockningen är det stora som skiljer mellan ett FX 5900 och detta) och ett bra kort för dom pengarna. Ett FX5900XT är inget dåligt köp på något sätt om man har begränsat med pengar. Nackdelen är väl att FX serien har mediokra Dx9 prestanda överhuvudtaget.

Malo, PS3.0 har möjligheter att visa shaders med 4 lights. PS2.0b kan bara visa 3. Möjligheten att få "bättre" grafik finns men utnjyttjas inte.

Visa signatur

Chassie Louqe Ghost S1 MKIII Limestone, Moderkort Gigabyte B550I AORUS PRO AX, RAM minnen G.SKill Trident Z Neo RGB 32GB, CPU AMD Ryzen 7 5800X, KylareNoctua Ghost S1 Edition, GPU Powercolor Radeon RX 6800 16GB, Systemdisk Samsung 970 EVO Plus series 500GB M.2, Sel/programdisk SSD 2x Samsung 850 EVO 120/500 GB, PSU Corsair sf750w, Skärm Samsung c32hg70 144hz,Mus Logitech g603 wireless gamingmouse, Tangentbord Logitech g613 wireless gaming keyboard

Permalänk
Hedersmedlem

Och DX9 är det som gäller idag så 9800 korten är bättre.

Visa signatur

Rocking hard !!!

Kontakt: malo@sweclockers.com eller skicka ett PM

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Lindfalas
Tekniken i sig själv ger bättre bild.
Att spelen inte använder sig av det utan gör som du säjer är ju en annan sak.
Dags att skilja på teknik och utnyttjande av tekniken.
Det är just det den debatten handlade om.

greetz

Nej, det gör den inte. Vet du vad Pixel Shaders är för något? Det är program som modifierar färgen för en pixel. Det finns flera fördelar med PS3.0 speciellt för utvecklarna som får lättare att arbeta med PS3.0. Man kan exempelvis göra "loopar" och "if-satser" vilket gör att man kan hoppa över onödig kod. Det har dock ingenting med bild kvaliten att göra. Man kan som sagt skriva kod för SM2.0b som ger precis samma resultat fast som jag sa tidigare man kanske behöver behandla vissa polygoner flera gånger än jag behöver med SM3.0. Det enda fördelen med SM3.0 vad gäller bildkvaliten är att SM3.0 kräver att hårdvaran skall ha stöd för 32-bit fp medan SM2.0 har 24-bit som krav.

Permalänk
Citat:

Ursprungligen inskrivet av MaLo
Det finns vad jag vet bara ett spel som använder 3.0 och det är FarCry och det skiljer inget i bildkvalite mellan 3.0 och 2.0b.

Men kan du visa för mig att det inte är så blir jag bara glad då mitt kort har 3.0.

Har inte kollat så mycket vilka spel som stöder det.
Dessutom så använder FarCry inte PS3 mera än till prestanda. De utnyttjat inte den kvaliten som de kan få. Allt enligt dem själva.
Det är just därför man inte ser skillnad på de teknikerna.

greetz

Permalänk
Medlem

Re: Vem har rätt ang 5900XT?

Citat:

Ursprungligen inskrivet av bran
Tjo gubbs

Har haft en riktigt seglivad diskussion om vad som egentligen är rätt eller fel när det gäller 5900XT o vill höra va ni tycker om allt.

Allt började med att jag i ett forum såg att en snubbe skrev att ett 5900XT fortfarande spöar skiten ur många nyare generationers kort. Jag kontrade med att det var skitsnack, o att FX-seriens DX9-prestanda inte alls är nå bra o att ATIs 9800Pro är bättre än FX5900XT. O att iom att dom ligger i nästan samma prisklass är 9800Pro ett mkt bättre köp.

Sen påstår han vidare att PS/SM3 är ngt som ger nvidia övertag och förbättrar bildkvaliten, medan jag vidhåller att samma sak går att göra med 2.0b o att SM3 i dagens läge endast används för att få mer prestanda.

Sen tror han inte på att D3 är mer lr mindre skräddarsytt för nVidiakort.

PLUS att han säger att FX-serien inte är en DX9-generationsserie av gfx, samt att XT inte är budgetmodellen i 59** serien.

Det roliga är att han säger att både XBitlabs, Anandtech samt Firingsquads tester är vridna...

Nå, är han helt pantad eller är det jag som har fel?

Gämfört med den nya generationen är FX5900XT bara bättre än R X300, GF6200 och till viss del GF6600 (inte GT) och X600 (I DX 9 är dock 6600/X600 bättre). X700 och högre ATI kort + 6600GT och högre NV kort är överlägsna FX serien. 9800P är tveklöst ett bättre köp.

FX serien har inte ens stöd för SM3.0

Doom3 är gjort för nvidia kort, FX korten presterar dock endast marginellt bättre än konkurerande ATI kort så FX5900XT är troligen några få % sämre än 9800P.

FX är den första DX9 generationen från nvidia, DX9 stödet är dock nästintill obrukbart, XT är budget modellen.

Att han hävdar att dom 3 mest respekterade testsidorna är vridna talar väl för sig självt.

P.S orkade inte läsa alla svar, ursäkta om jag upprepar någonting

Visa signatur

WS: DFI LP UT X38T2R (Gigabyte X38-DQ6 = Trasigt)| Intel C2D E6750 | 4*1 GiB Twinmos PC2-6400 | ATI Radeon HD4870 1GB | WD Caviar XL "AAKS" SATA 500GB | Antec Neopower 480W | Antec SLK3700-BQE
Server: DFI LP NF4 Ultra | AMD 3000+ "winchester" | 2*512MiB PC3200 | ATI Radeon HD2400pro | 1000GB WD GP, 3*320GB Seagate 7200.10, 250GB WD2500 PATA, 200GB Maxtor DM10 SATA = 2410GB

Permalänk
Medlem

Re: Re: Vem har rätt ang 5900XT?

Citat:

Ursprungligen inskrivet av KingCobra
Malo, PS3.0 har möjligheter att visa shaders med 4 lights. PS2.0b kan bara visa 3. Möjligheten att få "bättre" grafik finns men utnjyttjas inte.

Nej, det är inte så det fungerar. I just FarCry (behöver inte gälla alla andra spel, beror ju helt på hur dom skriver sina shaders) så kan man klara 4 ljus i ett shader svep så att säga medan PS2.0b endast klarar 3. Det betyder ju dock inte att kort som använder PS2.0b (X800) inte kan rendera fler ljus utan bara att de måste behandla de polygoner som påverkas av mer än 3 ljus samtidigt flera gånger. Har du en polygon som påverkas av låt oss säga 6 ljus samtidigt måste du använda multipass rendering även för PS3.0 korten.

Permalänk
Medlem

Mkay då är jag med.

Visa signatur

Chassie Louqe Ghost S1 MKIII Limestone, Moderkort Gigabyte B550I AORUS PRO AX, RAM minnen G.SKill Trident Z Neo RGB 32GB, CPU AMD Ryzen 7 5800X, KylareNoctua Ghost S1 Edition, GPU Powercolor Radeon RX 6800 16GB, Systemdisk Samsung 970 EVO Plus series 500GB M.2, Sel/programdisk SSD 2x Samsung 850 EVO 120/500 GB, PSU Corsair sf750w, Skärm Samsung c32hg70 144hz,Mus Logitech g603 wireless gamingmouse, Tangentbord Logitech g613 wireless gaming keyboard

Permalänk
Hedersmedlem

Själv är jag helkass på det tekniska bakom 3D grafik....

Visa signatur

Rocking hard !!!

Kontakt: malo@sweclockers.com eller skicka ett PM

Permalänk
Citat:

Ursprungligen inskrivet av S_Z
Nej, det gör den inte. Vet du vad Pixel Shaders är för något? Det är program som modifierar färgen för en pixel. Det finns flera fördelar med PS3.0 speciellt för utvecklarna som får lättare att arbeta med PS3.0. Man kan exempelvis göra "loopar" och "if-satser" vilket gör att man kan hoppa över onödig kod. Det har dock ingenting med bild kvaliten att göra. Man kan som sagt skriva kod för SM2.0b som ger precis samma resultat fast som jag sa tidigare man kanske behöver behandla vissa polygoner flera gånger än jag behöver med SM3.0. Det enda fördelen med SM3.0 vad gäller bildkvaliten är att SM3.0 kräver att hårdvaran skall ha stöd för 32-bit fp medan SM2.0 har 24-bit som krav.

Jo jag vet vad det är. kolla denna länk om du vill ha FAKTA på vad det är för skillnad på dem:
http://www.microsoft.com/whdc/winhec/partners/shadermodel30_N...

Om du läser där lär du se att utnyttar du tekniken har du klart bättre grafiskaa möjligheter.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Lindfalas
Jo jag vet vad det är. kolla denna länk om du vill ha FAKTA på vad det är för skillnad på dem:
http://www.microsoft.com/whdc/winhec/partners/shadermodel30_N...

Om du läser där lär du se att utnyttar du tekniken har du klart bättre grafiskaa möjligheter.

Det där jämför bara med 2.0, när du nu pratar FAKTA ska du läsa denna artikel där de bland annat tar upp skillnaderna mellan 2.0B + 3.0 , sen kan du uttala dig.
http://www.xbitlabs.com/articles/video/display/farcry20b.html

Permalänk
Citat:

Ursprungligen inskrivet av avicenna
Det där jämför bara med 2.0, när du nu pratar FAKTA ska du läsa denna artikel där de bland annat tar upp skillnaderna mellan 2.0B + 3.0 , sen kan du uttala dig.
http://www.xbitlabs.com/articles/video/display/farcry20b.html

Det jag visade med den länken är Fakta från de som faktist gjort de.
Dessutom skriver tillverkarna själva att de inte utnyttjar mera än prestanda prylarna i PS3.

Här är även citat från din länk.
"As revealed earlier, there are no new effects brought into FarCry with Shader Model 3.0; the same applies to the Shader Model 2.0b – both are aimed to bring up the performance by calculating one “long” pixel shader instead of numerous “short” pixel shaders when rendering lighting indoors, saving precious rendering passes."

Så tekniken finns, men den utnyttjas ej.
De använder det endast för att göra spelet snabbare.

Jag har lite svårt att förstå att man inte kan skilja på en teknik och hur man utnyttjar den tekniken.

greetz

Permalänk
Medlem

Hur bortförklarar du detta då?

"Even game developers are unsure of the power of SM3.0 in realistic terms. This is what Tim Sweeney of EPIC had to say when asked about their usage of SM3.0.

We have some PS3.0 code up and running now, but since our access to capable hardware is quite recent, there's a lot of opportunity for further optimization and generalization.

But even though it is new and solid tangible results are not readily apparent, Sweeney lets us know that he thinks SM3.0 will be much better compared with what we have today.

We haven't made final decisions regarding performance and visual quality scaling between 2.0 and 3.0. But I expect that by the time Unreal Engine 3 games begin shipping 18+ months from now, any PS 2.0 hardware that is on the market today will be considered relatively low-end and run at reduced visual quality or resolution. Keep in mind that UE3 is designed for next-generation PC's and next-generation consoles, so the performance and feature set requirements are very high relative to today's hardware. "

Om ÖVER 1½ år, då UE3-motorn skeppas, så KANSKE SM3 kan visa upp lite bättre bildkvalité än 2.0b.

Visa signatur

5900X | CH8 | 64GB/3600MHz | RTX4080 | SN850 | H2O 2*360 Rad | LG CX48 | Ananda Nano, D30Pro & rHead

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Lindfalas
Det jag visade med den länken är Fakta från de som faktist gjort de.
Dessutom skriver tillverkarna själva att de inte utnyttjar mera än prestanda prylarna i PS3.

Här är även citat från din länk.
"As revealed earlier, there are no new effects brought into FarCry with Shader Model 3.0; the same applies to the Shader Model 2.0b – both are aimed to bring up the performance by calculating one “long” pixel shader instead of numerous “short” pixel shaders when rendering lighting indoors, saving precious rendering passes."

Så tekniken finns, men den utnyttjas ej.
De använder det endast för att göra spelet snabbare.

Jag har lite svårt att förstå att man inte kan skilja på en teknik och hur man utnyttjar den tekniken.

greetz

Du verkar själv inte förstå att ATI´s SM2.0b klarar att ge de eventuella fördelar SM 3.0 kan för bildkvaliteten.
Dessutom kan jag till fullo instämma i vad som sagts att FX-serien var ett fiasko mer eller mindre vad gäller DX9-prestanda.