Nvidia anklagar AMD för fusk med Catalyst AI

Permalänk
Medlem
Skrivet av Pimpim666:

Menar du att man ska dricka tills man ser flaskbotten? Då lär man inte se speciellt mycket efter det med en sjua Jim Beam i kroppen.

hehe, ja det passar väll bra in det också

Permalänk
Medlem
Skrivet av necry:

Det gör dem ju inte ^^

Det är det som Nvidia påstår i sin kommentar som står i artikeln. Huruvida de har rätt eller inte vet jag inte.

Att ställa in i drivern så AI ger högre prestanda i spel, samtidigt som den automatiskt stänger av AI i vissa lägen som passar testprogram, tycker jag är fusk om det är sant.

Permalänk
Medlem
Skrivet av Kesse2:

Otroligt hur folk verkar missa poängen så totalt. Medvetet?

Poängen är ju inte att man kan stänga av funktionen om man vill. Eller om man ser skillnaden eller inte. Poängen är att förmodligen alla tester som görs, görs med funktionen påslagen (har jag fel? Rätta mig isåf). Då bli hårdvarutester missvisande. Det är dessa tester som folk använder som argument om vilket kort som är bäst.

Låt mig ta ett exempel, om än något extremt:

Ett grafikkort testas, och med en funktion påslagen så sänker den upplösningen från 1920x1200 till 1680x1050. Man kan om man vill ändra inställningen så att det blir den faktiska upplösningen.

Skulle detta accepteras? Knappast.

Precis.

Visa signatur

"Maybe one day you will learn that your way, is not the only way"

Permalänk
Skrivet av Flopper:

Sweclockers kan tydligen inte skilja på saker och ting, är ni betalda av nvidia?
hur kan ett kort ha bättre prestanda än det har?
att slå på högre kvalité finns i inställningarna om man nu vill göra det så att de ändrar default till ett annat läge hur kan det vara fusk?
Om man ändrar i en inställning så att den visar samma men har ändrats som nvidia brukar göra så är det förståeligt.

Tittade på videos med jämförande exempel men hur svårt är det att se vilken som är vilken?
denna typ av debatt är vanliga men som allt annat blåser de över efter ett tag.
Att Nvida tar upp det efter deras regelrätta fuskande i bla 3Dmark med urusel prestanda är lite magstarkt med ingen etik eller moral alls.
skitföretag.

Skrivet av Pete_79:

Bästa kommentaren i denna tråden.

Har själv under en längre tid fått intrycket att Sweclockers är nvidia fans.

Skrivet av MultiMan:

Frågan ni som läser och är medlemmar på Sweclockers bör ställa er, är varför redaktionen väljer att syssla med ren sensationsjournalistik á la Aftonbladet, istället för att ta reda hur det förhåller sig och presentera fakta i en artikel. Nu liknar förstasidan mer och mer en skvallerspalt med kontroversiella och väl utvalda "nyheter" för att genera så mycket träffar (och heta känslor) som möjligt.

Vilket gagnar era läsare mest, opartiskt ta reda på hur det förhåller sig (i en riktig artikel), eller maximera antal sidträffar och starta flamewars i forumet?

Jag förstår inte vad ni klagar på Sweclockers.
Rubriken är "Nvidia anklagar AMD för fusk.." och sen står det upprepat om Nvidias anklagelser.
Om det stått "AMD fuskar med Catalyst" så hade jag förstått kritiken men som det nu är så tycker jag lika gärna man kan läsa in det som syrlig cynism gentemot Nvidia , men snarast som just ett objektivt referat.

Självklart platsar en sån nyhet på Sweclockers. Det är en marknadschef som uttalar sig officiellt och inget anonymt skvaller.

Permalänk
Hedersmedlem
Skrivet av Pimpim666:

http://img.tomshardware.com/us/2004/11/10/thg_graphics_card_b...

Menar du att man ska dricka tills man ser flaskbotten? Då lär man inte se speciellt mycket efter det med en sjua Jim Beam i kroppen.

Byt till lönnträkols-renade Jack Daniels, så slipper du sådana bieffekter.

Visa signatur

W10, Intel 5820K, Asus X99-S, Crucial DDR4 2133MHz 32GB, Sapphire 290X Tri-X, Intel 730 SSD, WD Black+Green+HGST, Silverstone FT02, Corsair AX1200, Corsair K90, Logitech MX518, Eizo 2736w, Eaton 5115 UPS. Pixel 7 pro

Permalänk
Hedersmedlem
Skrivet av Whippoorwill:

Jag förstår inte vad ni klagar på Sweclockers.
Rubriken är "Nvidia anklagar AMD för fusk.." och sen står det upprepat om Nvidias anklagelser.
Om det stått "AMD fuskar med Catalyst" så hade jag förstått kritiken men som det nu är så tycker jag lika gärna man kan läsa in det som syrlig cynism gentemot Nvidia , men snarast som just ett objektivt referat.

Självklart platsar en sån nyhet på Sweclockers. Det är en marknadschef som uttalar sig officiellt och inget anonymt skvaller.

Läs mitt inlägg igen och försök förstå vad du läser denna gången. Du missade innebörden i min kritik fullständigt.

Visa signatur

W10, Intel 5820K, Asus X99-S, Crucial DDR4 2133MHz 32GB, Sapphire 290X Tri-X, Intel 730 SSD, WD Black+Green+HGST, Silverstone FT02, Corsair AX1200, Corsair K90, Logitech MX518, Eizo 2736w, Eaton 5115 UPS. Pixel 7 pro

Permalänk

Själv har jag alltid tyckt NVidia haft bättre bild kvalite.

Permalänk
Medlem

Catalyst AI. Vad är AI? Artificiell intelligens, AI, skapad intelligens. Dvs en programvara som försöker använda hårdvara på bästa sätt vare sig det är en robot, en dammsugare eller ett grafikkort.

Kör man ett program i fullskärm som idag för det mesta är 1920*1080 eller högre så anpassar sig AIn så att man skall få en bra användarupplevelse. Alla är överens om att låg fps är det sämsta ur användarens perspektiv. Om då programvaran ställer ner inställningarna så att man får en bra fps så gagnar det användaren. Den fungerar som den skall. Kör man nånting i små fönster som 500*500 så är det så lite att räkna på för kortet att det kan fläska på med precis allt det har, skulle furmark gå att köra i ett så litet fönster kan ni räkna med att nVidia inte skulle strömbegränsa sitt kort då det iaf inte skulle maxa. Sajter som testar kort för att se vad dom presterar skall ju naturligtvis inte köra saker i AUTO-läge. Dom skall vara så pass kunniga att dom ser till att pressa korten maximalt för att kunna skilja ut prestandan mellan dom. I det här fallet är det ju inga konstigheter hur man gör för att tvinga kortet att köra med allt på. Det borde vilken p12 som helst klara av oxå.

Jag tycker ju att de sajter som testar vad du får för maximal användbar spelprestanda ur ett kort där man visar upp grafer för hur fps håller sig i det dom testar är dom som är mest användbara för mig som konsument. Dessa sajter har oxå koll på hur man har kontroll på hur kortet är inställt och de kör definitivt inte i nått AUTO-läge. Så det här är egentligen bara ett sätt för oss konsumenter att sålla ut sajter som inte kan testa på ett korrekt sätt.

När det gäller 580s strömbegränsning så är det en annan typ av problem. Att säga att det aldrig kommer nått spel som pressar det lika hårt som furmark är skitsnack. Jag skulle säga att vi har sådana spel inom 3 år, kanske tidigare. Nu är det ju precis så att det handlar om kortets livslängd men visst kommer det finns folk som sitter kvar med 580kort om tre år och som spelar de senaste spelen. Men 2-3 år damm i kylaren och spel som helt plötsligt kommer pressa kortet till max så kan det nog tyvärr bli sudden death för en hel del kort om nVidia inte begränsar kortet även i dom spelen som dom gjort med furmark och hur besvikna blir inte ägarna då när kortet klockar ner sig och spelet inte blir samma upplevelse som dom har förväntat sig. Det är ju iaf nVidias värsta kort från några år tillbaka och det här borde det ju greja.

Många nVidia-fans brukar ju säga att nVidia har betydligt bättre drivisar. Jag som gärna är lite konspirationsteoretsikt lagd utgår ju då ifrån att nVidia oxå har fler "optimeringar" i sina drivrutiner. Nu tycker jag iofs inte att det är nån större skillnad på deras drivrutiner då jag har maskiner med både nVidia och Ati/amd, lite bättre användarvänlighet på nVidias men stabilitetsmässigt är det ingen skillnad.

Visa signatur

Du som inte behärskar när du skall använda de och dem så finns en mycket enkel lösning. Skriv dom så blir det inte fel.
Första egna datorn -> ZX Spectrum 48k '82.
Linux Mint, Asus B550-F, Ryzen 5600X, LPX 64GB 3600, GT730

Permalänk
Medlem

Knappast första gången någon av dem fuskar, detta får mig dock att minnas när Ati anklagades för fusk i Quake 3
How ATI's drivers 'optimize' Quake III - The Tech Report - Page 1

Visa signatur

Dator: Intel i5 3770K | ASRock Z77 Extreme4-M | 16GB Corsair Vengeance LP 1600 MHz | Geforce 670 SLI | Silverstone Temjin TJ08B-E | Custom vattenkylt

Permalänk
Medlem

Tråkit för mig som köpt sli gtx 580 och dom kommer ha sämre grafik :/

Permalänk
Avstängd

Har av någon anledning läst igenom alla 6 sidor, bara eftersom jag verkligen inte kunde tro mina ögon att _SAMTLIGA_ missat att denna förändring till det SÄMRE skedde i just Catalyst 10.10 för 6xxx-serien, men tydligen är det så.

Hur är det med läsförståelsen? De menar på att resultat som testas med Catalyst 10.10 ger 10% "bättre" siffror gentemot samma kort med Catalyst 10.09 med SAMMA INSTÄLLNINGAR...

DO'H!

Visa signatur

Move.L #BEEF, $4 -- Värkar är något kvinnor har innan de föder barn, visst verkar det konstigt?

Permalänk
Skrivet av MultiMan:

Läs mitt inlägg igen och försök förstå vad du läser denna gången. Du missade innebörden i min kritik fullständigt.

Jag tror inte jag missade kritiken som jag tolkar ungefär som att du tycker att tekniken bör tala för sig själv på ett teknikforum som Sweclockers men jag håller helt enkelt inte med dig om din beskrivning.

Permalänk
Hedersmedlem

Som "technical marketing manager" Dave Baumann säger i B3Ds forum angående optimeringar i HQ-läge: There are none in HQ mode.

AMD: R9xx Speculation - Page 211 - Beyond3D Forum

Sedan finns det massor mer man kan läsa om detta inklusive funderingar om att fortsatta kvalitetsskillnader beror på annorlunda LOD-inställningar i grunden, mellan nVidia och AMDs drivrutiner. Men det är egentligen en helt annan fråga.

Om det inte finns några optimeringar alls i HQ-läge förstår jag inte hur man kan anse att AMD fuskar?

Visa signatur

W10, Intel 5820K, Asus X99-S, Crucial DDR4 2133MHz 32GB, Sapphire 290X Tri-X, Intel 730 SSD, WD Black+Green+HGST, Silverstone FT02, Corsair AX1200, Corsair K90, Logitech MX518, Eizo 2736w, Eaton 5115 UPS. Pixel 7 pro

Permalänk
Medlem

Förstår inte gnället eller kritiken. De som testar hårdvaran måste väl endå vara ansvariga för att korten körs på samma inställningar? Jag tvivlar på att alla hårdvarutestare missat uppdateringen av catalyst AI, i varje fall inte omedvetet. Det är ju bara patetisk att publicera en sån här anklagelse, allt för att skapa debatt om något som egentligen inte betyder något.

Visa signatur

RX 6950 XT Merc | 5800x3D w/ Peerless Assassin 120 SE | G.Skill 2x16GB CL16 3600@3733MHz | Aorus B550 Elite V2 | Seasonic Focus GX 850w | Fractal Design R4 | AOC CU34G2X 1440p Ultrawide @ 144MHz FreeSync

Permalänk
Medlem

Hela denna diskussionen är så löjlig. Fanboys hit och dit. Klart företag tar minsta lilla chans att kasta skit på varandra. Både ATI och Nvidia har nog betydligt värre saker på sitt samvete än den här skitsaken.

Mvh J

Visa signatur

Laptop: Asus G750JX Processor: Intel Core i7 4700HQ Minne: 16GB DDR3 1600mhz Grafik: Nvidia GTX770m 1GB OS: Windows 8 64bitar

Permalänk
Medlem

Sen när finns det en regel som säger att GPU-tillverkare måste köra samma standardinställningar i sina drivrutiner? Står det i någon slags standard eller något, eller krävs det av windows?
Minns att nvidia gjorde något liknande förut, brydde mig inte riktigt då heller.. Jag brukar ställa in mina kort för det jag är ute efter, antingen prestanda eller bilkvalitet, att någon tillverkare skulle få skit för att de inte har samma standardbalans som en annan känns idiotiskt.

inb4 fanboy, jag kör både nvidia och amd, köper alltid det som ger mest prestanda/pris vid köptillfället..

Någon som vet hur det ser ut med intels integrerade kort, hur de normalt är inställda på dessa punkter?

Visa signatur

[Jag har coola grejer, jag lovar!]

Permalänk
Hedersmedlem
Skrivet av LF_Spawn:

...Någon som vet hur det ser ut med intels integrerade kort, hur de normalt är inställda på dessa punkter?

Haha! Funny, but valid question. Bra sätt att desarmera fanboy-tramset. Tack för det LF_Spawn.

Visa signatur

W10, Intel 5820K, Asus X99-S, Crucial DDR4 2133MHz 32GB, Sapphire 290X Tri-X, Intel 730 SSD, WD Black+Green+HGST, Silverstone FT02, Corsair AX1200, Corsair K90, Logitech MX518, Eizo 2736w, Eaton 5115 UPS. Pixel 7 pro

Permalänk
Antielefant
Skrivet av Zotamedu:

Oj, stoppa pressarna, en grafikkortstillverkare ändrar mjukvaran för att det ska se bättre ut i tester. Det har vi ju aldrig sett förr...
Komiskt att nVidia säger att de kör med öppna kort när de bara för ett par dagar sedan fick massa skit för att de ströp 580 i vissa testprogram för att det skulle se ut att vara mer strömsnålt än det faktiskt är. De måste infört den där policyn väldigt raskt. Påstår inte att AMD skulle vara bättre på något sätt.

Det sade de däremot helt öppet att det gjorde också, det var ingen testare som inte fick information om att Furmark är spärrat. Anledningen är jätteenkel - Furmark eldar grafikkort. Vi vet det, NVidia vet det, men NVidia är de som får betala för garantireklamationer pga ett program som belastar grafikkortet orealistiskt.

Skrivet av Lidodido:

Jo, lite som att säga att Canon fuskar om dom kör med hårdare jpeg-komprimering än Nikon som default-inställning för att spara utrymme. Lite fler bilder, lite lägre kvalité. Bara att ändra om man vill. Är det fusk?

Visst kan det väl vara så att 6xxx får sämre kvalité än 5xxx än om båda har AI aktiverat, men ska man jämföra ren prestanda kör man ju utan optimeringar.

Grejen är snarare den att 6xxx-serien kapar ännu mer kvalitet än vanligt jämfört med tidigare serier. Det är inte svårt att få en successiv prestandavinst om du hela tiden har en successiv drop i kvalitet.

Skrivet av necry:

är väl helt upp till amd hur deras standard inställningar är. varför skulle de följa hur nvidia har det. De är inte Nvidia som är någon ledare. me tanke på att AMD gick ifatt nvidia dessutom... Är väl bara bra att man kan ändra till vad man vill. Det finns inga skrivna regler på vad som ska va standard inställningar..

Nej, det är det INTE. Ställer du in 8xAF ska det också vara 8xAF. Det är det som är problemet, med 5xxx-serien får du 4xAF om du ställer in 8x, och nu med 6xxx-serien får du knappt ens 2x.

AMD fuskar. Rejält.

Citat:

Hade vart skillnad om t.ex AMD stängde av inställingar bara för att man körde t.ex 3DMark..

Vilket är en del av problemet, då det slår direkt mot 3DMark i High och Xtreme då båda kör AF.

Skrivet av ParasiteX:

Och att dom lägger ett litet chip som begränsar ström-försörjningen under Furmark på GTX 580 för att ge finare resultat är inte heller fusk eller?

Inget chip, programvara och gäller enbart Furmark. Som för den delen inte kan jämföras med något annat program. Grafikkorten är inte gjorda för att ligga på 100+% belastning konstant, ingen elektronik är det, men det är det Furmark gör vilket eldat tusentals grafikkort vilket betyder miljoner kronor.

Klaga på Furmark istället, hade det varit ett säkert program hade NVidia inte behövt skydda plånboken.

Skrivet av PanicOutPut:

Jag tolkar "standardinställningen för Catalyst AI i version 10.10 ger en lägre nivå av anisotropisk texturfiltrering (AF) med sämre bildkvalitet som följd" som att om jag startar upp ett spel och väljer 8x AF med ett AMD-kort så kommer den egentligen inte köra i 8x, utan på en lägre inställning tack vara AI?
Om jag däremot sätter in ett nVidia kort och väljer 8x AF så blir det verkligen 8X?

Problemet med det enligt nVidia är väl isf att tester kommer visa felaktiga resultat i benchmarks om testarna glömmer att ändra inställningen, och ge AMD en fördel eftersom de använder sig av en lägre inställning?

Har jag fattat det här rätt nu? Och skriv nu inte bara att jag har fel för att ni gillar AMD, utan tänk efter några gånger, tack.

Precis vad NVidia klagar på, och exakt vad AMD tidigare klagat på NVidia för.

Skrivet av Hotfuzz08:

Var får de 10% ifrån?

Här är en test med FarCry 2.

Inställningarna är 1680x1050
Fysik, träd och eld är på medium resten high

AA/AF är avstängt i spelet.

Datorn som används innehåller en athlon 645 på 3.65 GHz och ett HD 5770 på standardklock samt 4 GB DDR3 1600MHz CL7 minne.

Här är catalyst AI helt avstängt:
http://img30.imageshack.us/img30/7664/avaktiverat.png

Här är catalyst AI påslaget med standard inställningen:
http://img209.imageshack.us/img209/2306/aktiveratstandard.png

Och vad jag kan se så skiljer det ca 5.4% och inte 10%

Poängen var just att Catalyst AI snålar på AF, vilket inte märks om AF är avstängt.
Gör om, gör rätt.

Skrivet av MultiMan:

Frågan ni som läser och är medlemmar på Sweclockers bör ställa er, är varför redaktionen väljer att syssla med ren sensationsjournalistik á la Aftonbladet, istället för att ta reda hur det förhåller sig och presentera fakta i en artikel. Nu liknar förstasidan mer och mer en skvallerspalt med kontroversiella och väl utvalda "nyheter" för att genera så mycket träffar (och heta känslor) som möjligt.

Ironiskt hur du säger detta stup i kvarten när det dyker upp en AMD-kritisk artikel eller post i forumet, men en NVidia-kritisk artikel är du inte negativ för utan hurrar ivrigt vidare? Sensationsjournalistik är alltså helt OK så länge den är helt ensidig?
Kolla din posthistorik om du inte tror mig.

Säger NVidia något sånt här utan belägg för vad de säger är det förtal och de riskerar åtal. Därför är risken att det stämmer jävligt stor, och på de bilder som publicerats både av dem och av andra stämmer det också - AF är lägre än den borde vara.

Skrivet av LF_Spawn:

Sen när finns det en regel som säger att GPU-tillverkare måste köra samma standardinställningar i sina drivrutiner? Står det i någon slags standard eller något, eller krävs det av windows?
Minns att nvidia gjorde något liknande förut, brydde mig inte riktigt då heller.. Jag brukar ställa in mina kort för det jag är ute efter, antingen prestanda eller bilkvalitet, att någon tillverkare skulle få skit för att de inte har samma standardbalans som en annan känns idiotiskt.

Problemet är ju inte att standardinställningarna inte överensstämmer, utan att AMD-korten inte levererar vad som faktiskt ställs in.

Om du ställer in en viss nivå AF ska du också få den nivån, och det är där NVidia anser att AMD fuskar då du faktiskt får en lägre nivå än du ställer in.

8xAF betyder att grafikkortet ska använda 8 samples för att bestämma en pixel. Fuskar AI och gör att du använder 4 ska inställningen inte heta 8xAF utan 4xAF.

NVidia har motsvarande optimering på AA, har haft ett bra tag, men då heter det också 8xQ AA och du måste själv aktivt välja att använda det.

Visa signatur

i7-12700KF | 128 GB DDR4-4000 | RTX 4080 | Samsung 990 Pro | 3xAcer XB270HU G-Sync

Permalänk
Medlem
Skrivet av Orici:

Ja, nVIDIA måste verkligen sänka kvaliten så dom får samma super-uber fps som AMD....

ATI har genom åren haft högre bildkvalité med sina generationer grafikkort. Bara att jämföra sedan R300 och frammåt. nVidia har använt sig av grova fuskoptimeringar som förändrar alltifrån shaderkod till AF optimeringar. Kolla t.ex NV3x under Farcry med dåtidens drivers där färgskalor skiftade i stora hack och shaders såg för jäkliga ut i spelet. Det är bara en del utav lite som nVidia har hållt på med. I desperat ställning tar dom till vilka metoder som helst. HD6900 är runt hörnet och kommer bli mycket lyckad. Dessa så kallade fusk med 6800 serien är inte ens bekräftade och det går att ställa AI helt som man själv vill att det ska se ut. Skulle AMD och tidigare ATI blogga varje gång nVidia fuskat? nVidia är desperata och inte första gången om man följt grafikkortsindustrin länge. Finns inget som säger att AI-läget "normal" är detsamma för bägge aktörer.

Visa signatur

[ AMD 7800X3D // EK-Block @ custom loop, 2x420mm ][ MSI B650 Tomahawk ][ 32GB G.Skill Z5 Neo @ DDR6000 CL28 1T ][ AMD 7900XTX @ custom loop ][ Corsair 750D // Corsair RM1000X ][ 2TB Samsung 990PRO M.2 SSD ][ Win10 PRO x64 ][ LG 34GN850 ]

Permalänk
Antielefant
Skrivet av 2good4you:

ATI har genom åren haft högre bildkvalité med sina generationer grafikkort. Bara att jämföra sedan R300 och frammåt. nVidia har använt sig av grova fuskoptimeringar som förändrar alltifrån shaderkod till AF optimeringar. Kolla t.ex NV3x under Farcry med dåtidens drivers där färgskalor skiftade i stora hack och shaders såg för jäkliga ut i spelet.

Vilket inte alls hade att göra med att FX5-serien är NVidia's svarta får? Funkade inget vidare ens i bästa fall? Problemet kvarstår nämligen.
Det är som att jämföra med AMD's HD2-serie som gråskiftade bilden på DVI, oavsett drivrutin.

Sen har NVidia fuskat förr, definitivt, och då har vi/ni halstrat dem. Vad är annorlunda denna gång förutom att det är DITT lag som fuskar?

Citat:

Det är bara en del utav lite som nVidia har hållt på med. I desperat ställning tar dom till vilka metoder som helst. HD6900 är runt hörnet och kommer bli mycket lyckad. Dessa så kallade fusk med 6800 serien är inte ens bekräftade och det går att ställa AI helt som man själv vill att det ska se ut.

Det syns på bilderna att AF inte är som den ska, och det är något AMD (och ni AMD-fanboys) klankat ner på NVidia för förut. Inte kul att vara på andra sidan spelplanen nu när ert "heliga" AMD visar sig fuska minst lika mycket om de hittar ett sätt att göra det på de tror ni inte märker?

Det sjuka är snarare att ni ser men vägrar tro, och inte reagerar.

Citat:

Skulle AMD och tidigare ATI blogga varje gång nVidia fuskat? nVidia är desperata och inte första gången om man följt grafikkortsindustrin länge. Finns inget som säger att AI-läget "normal" är detsamma för bägge aktörer.

NVidia har dock inget AI-läge, utan styrs av profiler. Det som står i profilen är vad som används. Står det 8xAF får du 8xAF. Står det AO=On får du Ambient Occlusion också.
Till skillnad från AMD där du får 4xAF när du ställer in 8x, såvida du inte OCKSÅ sätter AI till max Quality.

Visa signatur

i7-12700KF | 128 GB DDR4-4000 | RTX 4080 | Samsung 990 Pro | 3xAcer XB270HU G-Sync

Permalänk
Medlem
Skrivet av ParasiteX:

Och att dom lägger ett litet chip som begränsar ström-försörjningen under Furmark på GTX 580 för att ge finare resultat är inte heller fusk eller?

ATI gjorde samma sak fast värre på 4850-tiden, detekterade man att filen "furmark.exe" kördes så klockade man ner kortet. Att ha ett chip för att allmänt begränsa strömmen är inte riktigt samma sak.

Visa signatur

Main Core i9-9900k | NH-D15 | ROG STRIX Z390-F | 16GB DDR4 3200 MHz LPX | STRIX 2080 Ti GAMING OC | Samsung 970 EVO 1TB + Toshiba XG5 256GB | RM650X | R5 Blackout
HTPC/Barndator: Core i5-8400 | ASUS PRIME B360M-A | 16GB DDR4 2666 MHz | STRIX GTX 1070 OC | 2 x Toshiba XG5 256GB
Extradator: Core i7 870 | ASRock H55M-LE | 8GB 1600 MHz | Intel 320 120GB | HD6950 2GB | VX 550W

Permalänk
Medlem
Skrivet av Zcenicx:

NVidia har dock inget AI-läge, utan styrs av profiler. Det som står i profilen är vad som används. Står det 8xAF får du 8xAF. Står det AO=On får du Ambient Occlusion också.
Till skillnad från AMD där du får 4xAF när du ställer in 8x, såvida du inte OCKSÅ sätter AI till max Quality.

Det är väll knappast så illa?
Skulle tippa på att det är tex. vissa vinklar dom optimerar på, inte stänger av hela skiten, tror dom implementerade nån dynamisk algoritm för AF förut som kan räkna ut vart det behövs AF... den misslyckades ett tag i tex dragon age där af var på från en sida men inte från andra och att af hoppade på och av, men det är fixat sedan länge...

Inte äns med alla optimeringar på har jag märkt att af skulle vara så dålig som ni påstår, får gärna komma med vilka spel och ge lite screens isf... jag kör inte med 6k serien men tydligen skulle detta ha vart illa redan innan?

Permalänk

För helvete som sagts tidigare i tråden kan inte Swec göra en test och ta reda på hur landet ligger i den här frågan?!

Det skulle för många uppfattas som ett steg i rätt riktning istället för att publicera "Se & Hör" nyheter med tillkommande Flame wars bara för att klättra i rank bland världens sökmotorer och på så sätt generera mer pengar via reklam..

Visa att Ni är en seriös testsite nu Swec och red ut frågan nu en gång för alla ist!!!

Visa signatur

[Antec 1200][Xigmatek NRP-HC1001][Asus P6TD][Core i7 975; 4 GHz][Noctua NH-U12P][3x2GB Patriot Viper 1600MHz][EVGA GTX 570 SLI]

Permalänk
Medlem
Skrivet av mfm:

ATI gjorde samma sak fast värre på 4850-tiden, detekterade man att filen "furmark.exe" kördes så klockade man ner kortet. Att ha ett chip för att allmänt begränsa strömmen är inte riktigt samma sak.

Det har jag aldrig hört innan? Stämmer det?

Om det stämmer är det bara att konstatera: Båda företagen "fuskar" precis lika mycket.

Permalänk
Medlem
Skrivet av Glimbrink:

Herregud, varför skulle nvidia vara nervösa när dem har en till super jätte som är färdig och sitter och väntar på slöa ati som ska komma ut med sitt då släpper nvidia sitt också allt är ju redan färdigt...

För att de omöjligt kan göra ett lika kraftigt grafikkort som amd med nuvarande arkitekturer?

Ett grafikkort måste dra under 300 watt för att vara pci-e kompatibelt. Gtx580 ligger nära den gränsen redan, medans amd har marginal, så de kan trycka in två lite nedklockade gpuer på ett kort, och fortfarande ligga under 300watt, medans nvidia redan ligger nära där med EN gpu.

För att nivida ska lyckas ha det bästa kortet så krävs det att hd6970 blir hälften så snabbt som gtx580, det är inte direkt troligt, då till och med hd5870 är snabbare än så.

Det ett år gamla Hd5970 är snabbare än gtx580, det amd gör är att slå sitt egna rekord bara:)

Nvidia och amd har sattsat på olika strategier. Amd gör lite mindre men effektivare gpuer, som inte presterar lika bra. Sedan sätter de två stycken sådana på deras flaggskepp. Nvidia gör en stor, maffig, strömslukande gpu som är snabbare, dock är den mindre effektiv och den drar för mycket för att göra ett dubbelkort av.

Permalänk
Medlem
Skrivet av Defeat^:

Det har jag aldrig hört innan? Stämmer det?

Om det stämmer är det bara att konstatera: Båda företagen "fuskar" precis lika mycket.

Är inte 100% men jag har för mig att det var så. 4850s VRM blir helt brutalt varma.

Det fuskas lite då och då, frågan är väl bara vad som ska klassas som riktigt FUSK och inte.

Permalänk
Medlem

Kan någon förklara för mig vad problemet är lite snabbt? Jag ser ingen skillnad på bilderna...

Permalänk
Skrivet av Defeat^:

För att de omöjligt kan göra ett lika kraftigt grafikkort som amd med nuvarande arkitekturer?

Ett grafikkort måste dra under 300 watt för att vara pci-e kompatibelt. Gtx580 ligger nära den gränsen redan, medans amd har marginal, så de kan trycka in två lite nedklockade gpuer på ett kort, och fortfarande ligga under 300watt, medans nvidia redan ligger nära där med EN gpu.

För att nivida ska lyckas ha det bästa kortet så krävs det att hd6970 blir hälften så snabbt som gtx580, det är inte direkt troligt, då till och med hd5870 är snabbare än så.

Det ett år gamla Hd5970 är snabbare än gtx580, det amd gör är att slå sitt egna rekord bara:)

Nvidia och amd har sattsat på olika strategier. Amd gör lite mindre men effektivare gpuer, som inte presterar lika bra. Sedan sätter de två stycken sådana på deras flaggskepp. Nvidia gör en stor, maffig, strömslukande gpu som är snabbare, dock är den mindre effektiv och den drar för mycket för att göra ett dubbelkort av.

Han syftar nog på detta med dubbla GPU:
http://www.sweclockers.com/nyhet/13093-geforce-gtx-590-posera...

Permalänk
Skrivet av pierretox:

För helvete som sagts tidigare i tråden kan inte Swec göra en test och ta reda på hur landet ligger i den här frågan?!

Det skulle för många uppfattas som ett steg i rätt riktning istället för att publicera "Se & Hör" nyheter med tillkommande Flame wars bara för att klättra i rank bland världens sökmotorer och på så sätt generera mer pengar via reklam..

Visa att Ni är en seriös testsite nu Swec och red ut frågan nu en gång för alla ist!!!

håller med helt och hållet!

Tomshardware och Anandtech Bl.a gör egna tester och får fram "sanningen" själva.

Ni lägger upp för krig utan komma med något nytt själva och sedan kräver ni att folk ska följa alla forum regler?!

Visa signatur

2600K @ 4.5 Ghz , Asrock extreme 6, 16GB 1600mhz Kingston, XFX R9 290X@1100/1300 (Arctic cooler 3) ,Corsair 550D ,
Noctua D14, 1TB WD Black, Samsung 830 RAID0, Windows 7.

Permalänk
Medlem

Patetisk debatt från början. Hoppas att AMD inte svarar på sådant primitivt angrepp.

Attack: Din mor är en ho.a eftersom hon gör det på detta sätt.

Kallas inom psykologi projektion egentligen eftersom angriparen motiverar sin handling utifrån sin världsbild. Ens världsbild är exakt vem man är. Därför är det egentligen formulerat som:

Min mor är ho.a och därför gör hon detta på sådan sätt. Din mor måsta vara som min mor eftersom hon inte rimligen klarar av det utan att göra det på samma sätt. Din mor kan ju per definition inte vara bättre än min mor.

Försvar 1: Tystnad. Inte värt någon respons. Angriparen kan antingen ha helt fel eller helt rätt. I båda fall är tystnaden korrekt svar. ATI tog till sig high-end segment genom kvalitet och inte kvantitet (FPS).

Försvar 2: Gnäll . Hon är inte hora... blaha blaha. Kallas inom psykologi projektiv identifikation; Här vinner angriparen eftersom attacken ger upphov till svar. Svaret sker på och tar i anspråk den angripne livstid. Din mor måste vara ho.a om du behöver försvara henne.

Försvar 3: Attack. Lika primitiv och idiotisk.

Jag lär nog aldrig bli frestad av Nvidia och kommer genom sådana försök att inte ge de en enda krona Oavsett grönskan på andra sidan.

Visa signatur

InMortumVeritas