Nvidia anklagar AMD för fusk med Catalyst AI

Permalänk
Medlem

Kul att enligt nvidia får man inte ha sina egna default inställningar. Detta är inte fusk på nått sett . De användare som kan något om datorer, och vill ha extra kvaliten. De ställer in rätt. Resten vet inte vad de gör.. Och ser förmodligen inte ens någon skillnad.. Ganska tråkit att detta ska va på sån barnslig nivå från nvidia just nu.

Visa signatur

-PC- HAF932 - i7 920d0 oc 3.8ghz - P6TDELUXE v2 - Asus 7950 3GB TOP - Samsung 830 128gb - 2xWD 1TB Black - Asus Xonar Essence STX - Logitech G400 - Sennheiser pc360G4me - Logitech Z5500 - S27a950d 120hz - 2233RZ 120hz
GAME | Dota2 | Age of Conan
Youtube: http://www.youtube.com/user/b4nto

Permalänk
Proffsmoddare
Skrivet av Commander:

Håller med att säga att AMD är bättre än nVidia på alla plan är bara dumt. Båda har sina för och nackdelar. Dock angående Liunx så är det annorlunda nu. Gallium3d blir bara bättre och fglrx från AMD förbättras i högt tempo.

Ang linux så har jag inte egentligen så bra koll. Vet bara att Nvidia var the "way to go" om man körde linux förr. Men det har nog som du säger, att det blivit bättre. Min polare köpte ett AMD kort från 4000 serien till linux, men det slutade med att han bytte kort då det var problem. Men jag tror att vi är på samma plan här

Lite tillbaka till alla som skriver "AMD är bäst/Nvidia är bäst" osv:
Man måste försöka bredda sin vy och förstå att alla inte tycker och tänker som en själv. Och bara för att någon inte tycker och tänker som dig betyder inte det att han/hon har fel. Om man inte inser detta kommer man få stora problem under livets gång.

Ursäktar att det går lite OT men jag känner att det behövs sägas så ofta det bara går

Visa signatur

[Project]
WING X99

Permalänk
Medlem

Mycket tråkigt. Precis när det avslöjas att Nvidia fuskar med sitt nya GTX 580, och AMD har fått försena sina kort. Väljer Nvidia att kasta skit runt sig, men det är ju så marknaden funkar, vill så klart bli av med fokusen från sitt eget fifflande.
Detta har ju länge funnits i cata precis som folk säger, vill man inte ha det, så stänger man av de.

Visa signatur

AMD FX-8350 | Enermax Liqtech 120X | 8GB Kingston HyperX Grey 1600mhz | SSD: Samsung 840 120GB |HDD: Samsung F3 1TB, Western Digital Green 500GB | Gigabyte 990FXA-UD3 | Sapphire R9 290 | OCZ ZT 550w | Fractal Design Define R2 Black Pearl |Toshiba Chromebook 2 | Mac Mini 2011| BF3: Thursfield | Citera så svarar jag snabbare.

Permalänk
Medlem

Var får de 10% ifrån?

Här är en test med FarCry 2.

Inställningarna är 1680x1050
Fysik, träd och eld är på medium resten high

AA/AF är avstängt i spelet.

Datorn som används innehåller en athlon 645 på 3.65 GHz och ett HD 5770 på standardklock samt 4 GB DDR3 1600MHz CL7 minne.

Här är catalyst AI helt avstängt:

Här är catalyst AI påslaget med standard inställningen:

Och vad jag kan se så skiljer det ca 5.4% och inte 10%

Visa signatur

Spelriggen: Intel i5 10400F - GTX 1070 - 16GB DDR4 - ASUS TUF GAMING B460M-PLUS - 500 GB SDD - be quiet! 730W - Define Mini C

Permalänk
Medlem

Bildkvalitet är alltid svårt att bedöma, och vid en viss gräns blir det subjektivt vilken metod som är bäst att filtrera med och vad som ger bäst resultat, och i det här fallet tycker jag det är så. Jag ser bloginlägget mer som en "pre-emptive strike" från Nvidia inför kommande lansering/tester av 6900-serien; en avancerad form av FUD i ett område där det är svårt att säga vad som är rätt eller fel. Med det sagt vore det ändå intressant att se om och hur AMD väljer att svara på utspelet.

Lite OT känns det ganska oinformerat när PC Games Hardware nedlåtande kallar MLAA för "ein Vollbild-Blur-Filter via Post-Processing". MLAA är ingen allmän blureffekt, det är en bildbehandlingsalgoritm som letar kanter i en färdig bild och utjämnar dem. Skärpning PC Games Hardware, läs lite bildbehandlingskurser, de borde finnas på tyska universitet också.

Permalänk

Ska det komma från nvidia? herregud.

Visa signatur

"- rostat bröd är rostat bröd. Det är inte därför jag köpte brödrosten." - Quenya

Permalänk
Medlem

LoVE IT.. THIS IS WAR

Visa signatur

I'll give them the most spectacular heroics anyone's ever seen. And when I'm old and I've had my fun, I'll sell my inventions so that everyone can be superheroes. Everyone can be super. And when everyone's super, no one will be.

Permalänk
Medlem
Skrivet av andyboy88:

Kollat bilderna och ser inte någon skillnad. kanske är det men, i så fall måste de göra lättare bilder (side by side) och ringa in objektet.

Som sagt kvaliten går att ändra men, jag kan inte ändra till Bullet när jag kör "vissa" spel.

Ser du ingen skillnad? Jag ser stor skillnad på denna, till den vänstra delens fördel:

Här har jag ringat in där jag ser skillnad vid en snabb titt:

Dold text
Visa signatur

Skrivet med hjälp av Better SweClockers
PC: Ryzen 9 5900X | RTX 4080 Super 16GB | G.Skill Trident Z Neo 64GB 3600MHz CL16 | 12TB NVMe SSD - 5TB SATA SSD = total 17TB SSD + Seagate IronWolf 10TB internal HDD | Synology DS920+ w/20GB RAM SHR 48TB
Skärmar: Acer Predator XB323UGX 32" 270Hz 1440p, Asus PG349Q 34" 120Hz 1440p UW, Asus PG279Q 27"
Foto:
Canon 80D & 60D + Canon 17-55/2.8 IS, Canon 10-22, Canon 70-200/2.8L IS II, Canon 100/2.8L IS Macro

Permalänk
Medlem
Skrivet av fisher61:

Nej,kalla sanning, det är absolut det sämre, amd+ati= skräp-intel+nvidia=kvalitet.

Vilken grotta har du vaknat ifrån?

Visa signatur

Arch - Makepkg, not war -||- Gigabyte X570 Aorus Master -||- GSkill 64GiB DDR4 14-14-15-35-1T 3600Mhz -||- AMD 5900x-||- Gigabyte RX6900XT -||- 2x Adata XPG sx8200 Pro 1TB -||- EVGA G2 750W -||- Corsair 570x -||- O2+ODAC-||- Sennheiser HD-650 -|| Boycott EA,2K,Activision,Ubisoft,WB,EGS
Arch Linux, one hell of a distribution.

Permalänk
Medlem

ifall någon vill hitta diskussioner på låg nivå samt omedvetet trollande (comes naturally) på internet skulle jag hänvisa dom till hårdvarusajter.
glömmer ibland att hålla mig borta från kommentarerna.

Visa signatur

AMD 5900x | ASUS 3080GTX | ASUS Xonar Essence STX | 32GB | Fractal R5
Xtrfy XG1-R LED | Logitech G502 v2 | Sennheiser HD650 | Audio Engine A5+

Permalänk
Medlem
Skrivet av aMp:

Ser du ingen skillnad? Jag ser stor skillnad på denna, till den vänstra delens fördel:
http://www.sweclockers.com/image/red/2010/10/21/Img3.jpg?t=or...

Här har jag ringat in där jag ser skillnad vid en snabb titt:

Du vet att det är AMDs egna bild och den till höger är bättre eftersom allt fadar in smooth mot 5seriens.

Visa signatur

Arch - Makepkg, not war -||- Gigabyte X570 Aorus Master -||- GSkill 64GiB DDR4 14-14-15-35-1T 3600Mhz -||- AMD 5900x-||- Gigabyte RX6900XT -||- 2x Adata XPG sx8200 Pro 1TB -||- EVGA G2 750W -||- Corsair 570x -||- O2+ODAC-||- Sennheiser HD-650 -|| Boycott EA,2K,Activision,Ubisoft,WB,EGS
Arch Linux, one hell of a distribution.

Permalänk
Skrivet av Juddah:

LoVE IT.. THIS IS WAR

And war, war never changes.

Visa signatur

"- rostat bröd är rostat bröd. Det är inte därför jag köpte brödrosten." - Quenya

Permalänk
Medlem
Skrivet av Commander:

Du vet att det är AMDs egna bild och den till höger är bättre eftersom allt fadar in smooth mot 5seriens.

han kollar nog bara på de där artefakterna som troligen uppstått när dom lagt till i slides eller förminskat bilden för forum, nvidia har också en sån linje längst ner (och uppe till höger) om vi ska vara petiga... Men helt rätt, den högre bilden är den bättre, den ger inga kantiga övergångar och dessutom filtrerar den längre bort med mer detaljer... om ni vill vara petiga så leta på originalbilderna ist!

Permalänk
Medlem
Skrivet av Tommie_l:

men ärligt talat.. är du på riktigt eller?

tror du på fullaste allvar att nvidia försöker få GTX 580 att framstå som hälften så strömkrävande som 480? tänk till lite..

Ska dedär vara ett skämt ellr för ja skrattar inte, ( eller kanske lite)

Jag säger att det är totalt dyngsnack att dom skulle vilja skydda sina kort i krävande benchmarks mm pga att dom inte skulle hålla för värmen, efterssom dom själva har sagt att Fermi arkitekturen Är skapad för att tåla dessa tempreraturer upp mot 100 grader. Vad du snackar om me 580 hälften så strömsnål som 480 har jag ingen aning om och har inte sagt ett ord om har kommer heller inte att göra.

Vad vill du egentligen?

Visa signatur

Jag har en fin men gammal dator som ej är värd att skriva om

Permalänk

När jag läste nyheten blev jag lite ledsen då det framstod som om att AMD hade fuskat.
Efter att ha läst lite kommentarer verkar det bara vara en inställning som vem som helst kan göra.
Min lättnad var stor. Gillar AMD mer än nVidia, kan inte gå in på några detaljer men just nu så känns det som om att det delvis är på grund av den mentalitet som utstrålas från blogg-ansvarige. Att de försöker dra ner AMD i smutsen och säger att de har ryggen fri när det inte ens gick att göra en ordentlig recension på deras kort eftersom de hade modifierat det till sin fördel.

Visa signatur

AMD Phenom II X4 955 C3 @ 3,7 GHz | Corsair 2x2 GB DDR3 1333MHz / 7-7-7-21 / 1.5V
Gigabyte GA-770TA-UD3 (rev. 1.0) | Intel X25-V G2 40GB
PowerColor ATI Radeon HD5850 | WD Caviar Green 1,5 TB 5400 RPM | WD Caviar Black 1 TB 7200 RPM | 2x Samsung F2 1,5 TB 5400 RPM Raid0 | OCZ ModXStream Pro - 600 Watt
Allt är inslängt i en svart låda som heter Fractal Design Define R2

Permalänk
Medlem
Skrivet av r:Grid:

Ska dedär vara ett skämt ellr för ja skrattar inte, ( eller kanske lite)

Jag säger att det är totalt dyngsnack att dom skulle vilja skydda sina kort i krävande benchmarks mm pga att dom inte skulle hålla för värmen, efterssom dom själva har sagt att Fermi arkitekturen Är skapad för att tåla dessa tempreraturer upp mot 100 grader. Vad du snackar om me 580 hälften så strömsnål som 480 har jag ingen aning om och har inte sagt ett ord om har kommer heller inte att göra.

Vad vill du egentligen?

på en av amd's slides så verkar 6990 också ha nån kontroll över tdp om jag förstod rätt... men iaf som jag sakt förut så är det ruttet, nästa års spel kommer vara mer krävande och stressa korten mer, efter två år så ligger dom på 100% hela tiden (som 4800 serien nu) och den där throttling grejer kommer att ligga i för jämnan & säkerligen skapa massa jäkla problem pga klockhopp...

Permalänk
Medlem

Vem bryr sig så länge de som gör tester/reviews skriver vilka inställningar de har använt?

Visa signatur

Thermaltake W100 | 7800X3D | Asrock X670E Steel Legend | 64GB G.Skill Trident Z5 Neo 6000 CL30 | RTX 4090FE

Permalänk
Medlem
Skrivet av Dalton Sleeper:

på en av amd's slides så verkar 6990 också ha nån kontroll över tdp om jag förstod rätt... men iaf som jag sakt förut så är det ruttet, nästa års spel kommer vara mer krävande och stressa korten mer, efter två år så ligger dom på 100% hela tiden (som 4800 serien nu) och den där throttling grejer kommer att ligga i för jämnan & säkerligen skapa massa jäkla problem pga klockhopp...

AMD's Radeon HD 5870: Bringing About the Next Generation Of GPUs - AnandTech :: Your Source for Hardware Analysis and News

Detta du menar? Bara bra om det skall skydda kortet från att skadas än att strypa för att det skall se bra ut på pappret. Det är hårdvaru baserat så det spelar ingen roll om det är Furmark eller GTA4. Men notera att inget spel kommer någonsin använda 100% av varje GPU vare sig om du kommer spela Crysis 5 på ett 5/6 serie kort.

Visa signatur

Arch - Makepkg, not war -||- Gigabyte X570 Aorus Master -||- GSkill 64GiB DDR4 14-14-15-35-1T 3600Mhz -||- AMD 5900x-||- Gigabyte RX6900XT -||- 2x Adata XPG sx8200 Pro 1TB -||- EVGA G2 750W -||- Corsair 570x -||- O2+ODAC-||- Sennheiser HD-650 -|| Boycott EA,2K,Activision,Ubisoft,WB,EGS
Arch Linux, one hell of a distribution.

Permalänk
Medlem
Skrivet av Commander:

AMD's Radeon HD 5870: Bringing About the Next Generation Of GPUs - AnandTech :: Your Source for Hardware Analysis and News

Detta du menar? Bara bra om det skall skydda kortet från att skadas än att strypa för att det skall se bra ut på pappret. Det är hårdvaru baserat så det spelar ingen roll om det är Furmark eller GTA4. Men notera att inget spel kommer någonsin använda 100% av varje GPU vare sig om du kommer spela Crysis 5 på ett 5/6 serie kort.

Nä inte 100% kanske, men tex crysis drar flera hundra watt mer än många andra spel i strömförbrukning (på hela datorn), kör man vsync så är det väll inga problem i flesta spel... det jag läste om tdp var inte heller om 5800 serien utan 6900 så vet inte om det är samma typ.

Permalänk
Medlem
Skrivet av Mobne:

Nu kan man tolka allt på fler sätt, även ja tyckte detta va en rutten funktion. Men själva grundtanken va väl att dom ville skydda sina kort mot att oansvariga och okunniga användare bränner dom i furmark t.ex.

Även detta tycker jag att kunden ska kunna avaktivera/aktivera om man själv önskar.

IMHO så måste 580 vara felkonstruerat ifall det inte får belastas till 101% genom krävande mjukvara..

OnT: Fult att sänka kvaliten för att få den nya generationen att se bättre ut, hur ser det ut i tester med kvaliten uppdragen till samma nivå på 5xxx vs 6xxx ?

Visa signatur
Permalänk
Medlem

Vad de ska hålla på, de där stora företagen...

Permalänk
Medlem

Vem är förvånad inte jag iallafall .

Visa signatur

Arne Berg

Permalänk
Medlem

Wohoo!, Pajkrig! får jag vara med?

Seriöst för er egen del överväg alla alternativ när det är dax att köpa nytt kort, den enda ni lurar är er själva för sanningen är att det växlar vilket kort som är det bästa. Dessutom beror det mycket på vilket ändamål kortet skall användas till.

Visa signatur

There are 10 types of people in the world: Those who understand binary, and those who don't...

Asus Maximus VIII Hero | i7-6700K | ASUS GeForce GTX1070 Strix 8GB | G.Skill F4-2133C15Q-32GRK |

Permalänk
Medlem
Skrivet av Flopper:

Sweclockers kan tydligen inte skilja på saker och ting, är ni betalda av nvidia?
.

Bästa kommentaren i denna tråden.

Har själv under en längre tid fått intrycket att Sweclockers är nvidia fans.

Permalänk
Medlem

Ja kvalitén är sänkt? Till vadå? Lägre än tidigare ja? Vad är standard? Finns inte! De kan mycket möjligt ha högre än Nvidia ändå.

Visa signatur

Arch Linux - i5 12500@4.75GHz - Asrock B760M PG Riptide - 32GB DDR5 6000MHz - RTX 2070 Super - 1TB SN770 - 1TB SN550 - U32PWQU 4K
Dell Latitude 7400 2 in 1 - Arch Linux - i5 8265u

Permalänk
Medlem
Skrivet av Ratatosk:

ATI:s optimeringsfunktion går att stänga av, det är bara för testarna att göra detta om dom inte vill ha med ATI.s optimeringar.

Ja, och det är känt, men vad har det med min kommentar att göra? Fusket är om AMD stänger av det automatiskt för att få snygga AF bilder i testprogram.

Permalänk

Hahahahah stackars er som har ati... // stolt nvidia icke fuskare

Visa signatur

<Rampage Extreme III>------<Corsair Dominator GT 6144MB DDR3 PC3-16000 2000MHz>------<Intel Core i7 950 4 GHz>------<H70 CPU-kylare (Läckage) bytt till Noctua NH-U12P)>------<Fractal Design Define R3, Vit moddad>------<Corsair AX 1200W 80+ GOLD>------<Asus GeForce GTX 480 1536MB SLI>------<2st OCZ 60GB Vertex 2 E Series i raid0>------<Western Digital Caviar Black 1+2TB i lagring>

Permalänk
Avstängd
Skrivet av Glimbrink:

Hahahahah stackars er som har ati... // stolt nvidia icke fuskare

Jösses, du har inte varit med länge.

OnT: Vem i hela fridens namn bryr sig ärligt talat. Det blir ramaskri på forumet så fort det nämns "fusk" i någon riktning.

Visa signatur

R7 3700X | X570 Aorus Master | 32GB | EVGA 1080 Ti FTW3 | Noctua NH-D15S | FD Meshify C Copper
R7 1700 | X370 Gaming-ITX | 16GB | RX Vega 64 LE | Noctua U12S | Node 304
2 x HPE ProLiant Microserver Gen 8 | 1265L V2 | 16GB | 20TB

Permalänk
Avstängd

HAHAH! ja fast detta är ju känt sedan länge.

"Glimbrink" - har du missat allt från nVIDIA eller?

OnT: Dom fuskar nog lika mkt båda 2, så är det bara. men här på Swec blir det alltid mer livat när det handlar om nVIDIA vs. AMD/ATi och så kommer det alltid att vara så vet faktiskt inte varför dom äns lägger upp det när dom vet att det bara kommer att bli skit av allt...

En fråga bara!? Om det är fusk. varför kan man då som vanlöig användare stänga av det själv? tror bara det är det att nVIDIA börjar bli nervösa och måste komma med något, men det funkar ju inte då AMD haft denna lössning med Cat AI hur länge som helst, eller är det bara nVIDIA som är ju förbannat RETARD och gud vad fan allt man ska säga som precis kommit på det!?

Herregud lägg ner skiten och köp kortet du vill ha och låt nVIDIA och AMD sköta sina krig själva, tror inte det hjälper något av lagen direkt mkt bara för att det sitter en bunt svettiga data nördar på Swec och hejar på ena.

skärpning och visa att swec har lite högre kvalitet, eller ja det var ett par år sedan den fans så kör på bara!

Permalänk
Medlem

Om inte annat så har väll inte AF varit nån vidare prestandadödare sedan ATi 9k serien :S