Bildkvalité: ATI vs Nvidia

Permalänk
Medlem

Bildkvalité: ATI vs Nvidia

Hur är det egentligen med ATIs senaste kort? Om man ska tro den här artikeln så verkar det som om ATI försöker fuska med Brilinear filtering istället för äkta Trilinear:

http://graphics.tomshardware.com/graphic/20040603/index.html

Är det så att Nvidias kort kanske har bättre prestanda egentligen iom att man inte "fuskar"?

Permalänk
Medlem

"Fusk" ger nog bättre prestanda. För mig handlar det dock inte om några fusk eftersom det hela tiden handlar om att lura ögat. Hittar man på ett sätt för att korten att arbeta snabbare utan att ögat märker det är det ju bra.

Visa signatur

| AMD Athlon64 3000+@4048+ (9x285=2565MHz) | MSI K8N NEO2 Platinum | 1GB Corsair XMS PC3200 XL |
| Leadtek 6800LE (8/6) @ 410/830 | 3x120GB HD | 250GB SATA | NEC 3500-A | Logitech MX 510
| 19" DAEWOO CRT | SuperPI = 33s | Powered by: ColorsIT 400W (13A@12V = skräp)|

Permalänk
Medlem

Hehe, Nvidia har nog en aning grövre stämpel på sig angående grafisktfusk i drivrutinerna.

Visa signatur

(( Opteron 185 2.6ghz )) (( [B]MSI K8N NEO4 Platinum[/B] )) (( [B]Corsair HX 620W[/B] )) (( [B]Thermaltake Eureka[/b] ))
(( [B]Corsair TWINX 2048DDR[/b] )) (( [B]XFX 8800GTX XXXGDDR3 768MB[/b] )) (( [B]Seagate 800GB SATA HDD[/b] ))
(( [B]DELL 3007WFP-HC[/b] )) (( [B]Logitech Z-680[/b] )) (( [B]Audigy2 ZS[/b] )) (( [B]24/8Mbits[/b] )) (( Zalman CNPS9500 ))

Permalänk
Gäst

men det handlar mer om principen alla tror ju att man får äkta trilnear, står det så så ska man ju få det oxå, som man köper en bil som det e en 2.0 motor i men istället sitter det en lätt trimmad 1.5 motor, sjuk liknelse men ändå

Permalänk
Medlem

Jag håller inte me The_Guru. Jag tycker det e fusk, att dra ner på kvaliten för att å bättre FPS & sedan inte berätta det. Det lurar oss kunder som vill köpa tästvinnande prestandakort, som då kanske ej ha vunnit rättvist, på samma nivå. Vill man dra ner på kvaliten en smula & få bättre FPS e det upp tiil oss köpare att göra det.

PS: det e va jag anser iaf

Visa signatur

*****PS:...all stavknas från c2c e © skyddat ;)*****
>---------------------(3DMark)--------------------<
{03-64.620p}-{06-16.890p}{Vantage-10.103p}
-->("Profil", för HårdVara info.Gammal info,ej uppdaterad!)

Permalänk
Medlem

du ser nog skillnad om du har 2 datorer brevid varandra med två olika kort

och att du spelar samma spel ,går på samma ställen,tittar på samma ställe

vem nu fan gör det...

Permalänk
Medlem

Ursäkta men det där är flera månader gammalt nu. Jag har fortfarande inte sett några som helst bevis på att det ger försämrad kvalite. ATIs algoritm ger trilinear där det behövs, dvs där det skulle synas om det var bilinear. Om bildkvaliten inte försämras anser inte jag det som fusk utan en bra optimering. Det som ATI gjorde fel enligt mig var att de aldrig sa nåt om denna optimering utan vi fick reda på den genom hårdvarutest-sidor. Finns redan trådar om det här på sweclockers...

Permalänk
Medlem

Ok, så länge det inte påverkar kvalitén som ett vanligt öga kan uppfatta så är det väll inget större problem.

Permalänk
Medlem

Ok, så länge det inte påverkar kvalitén som ett vanligt öga kan uppfatta så är det väll inget större prolbem.

Permalänk
Medlem

Det som denna disskutionen resulterade i var att ATI har möjlighet att stänga av optimeringen i drivrutinerna om man vill, vilket Nvidia alltid har haft. Jag vet inte säkert om möjligheten finns nu, men jag tror det.
Även om jag brukar förespråka nvidia så måste jag hålla med... SER man ingen skillnad så är det ju en bra grej. Därimot om nvidia gjort på samma sätt så hade det blivit ett FASLIGT liv. men jag har ingenting imot iden alls. Det är ju vi användare som tjänar på det.

Visa signatur

Chassie Louqe Ghost S1 MKIII Limestone, Moderkort Gigabyte B550I AORUS PRO AX, RAM minnen G.SKill Trident Z Neo RGB 32GB, CPU AMD Ryzen 7 5800X, KylareNoctua Ghost S1 Edition, GPU Powercolor Radeon RX 6800 16GB, Systemdisk Samsung 970 EVO Plus series 500GB M.2, Sel/programdisk SSD 2x Samsung 850 EVO 120/500 GB, PSU Corsair sf750w, Skärm Samsung c32hg70 144hz,Mus Logitech g603 wireless gamingmouse, Tangentbord Logitech g613 wireless gaming keyboard

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av KingCobra

Därimot om nvidia gjort på samma sätt så hade det blivit ett FASLIGT liv.

Nvidia använder sig av s.k brillnear filtering dom med

Det vara flera sidor som undersökte ATI's brillnear filtering, alla var överens om att man inte kunde se någon skillnad.

Visa signatur

WS: DFI LP UT X38T2R (Gigabyte X38-DQ6 = Trasigt)| Intel C2D E6750 | 4*1 GiB Twinmos PC2-6400 | ATI Radeon HD4870 1GB | WD Caviar XL "AAKS" SATA 500GB | Antec Neopower 480W | Antec SLK3700-BQE
Server: DFI LP NF4 Ultra | AMD 3000+ "winchester" | 2*512MiB PC3200 | ATI Radeon HD2400pro | 1000GB WD GP, 3*320GB Seagate 7200.10, 250GB WD2500 PATA, 200GB Maxtor DM10 SATA = 2410GB

Permalänk
Medlem

Ja men jag menar funktionen eller möjligheten att STÄNGA AV DEN. Klart nvidia har optimeringslägen dom med. I de flesta tester som gjordes stängdes optimeringen av medans den fanns kvar på ATI. Det blev ju lite orättvist eller hur
Hur som helst är denna disskutionen över för länge sen.

Visa signatur

Chassie Louqe Ghost S1 MKIII Limestone, Moderkort Gigabyte B550I AORUS PRO AX, RAM minnen G.SKill Trident Z Neo RGB 32GB, CPU AMD Ryzen 7 5800X, KylareNoctua Ghost S1 Edition, GPU Powercolor Radeon RX 6800 16GB, Systemdisk Samsung 970 EVO Plus series 500GB M.2, Sel/programdisk SSD 2x Samsung 850 EVO 120/500 GB, PSU Corsair sf750w, Skärm Samsung c32hg70 144hz,Mus Logitech g603 wireless gamingmouse, Tangentbord Logitech g613 wireless gaming keyboard