Nvidia Geforce GTX 970 och GTX 980 ersätts av Pascal med GDDR5X till Computex

Permalänk
Datavetare
Skrivet av Aleshi:

Teoretiskt är det över 300% för nVidia och 400% för AMD bara sett till nodkrympningen. Sedan har vi de ökade frekvenserna som oftast följer. Då tycker jag att det är ganska försiktigt att lova 200% med möjligheten att nå närmare 300% framöver. AMD har redan på 28nm 15% fler transistorer per mm² än nVidia. Sedan får du lägga till arkitekturförbättringar som sägs ge en hel del i åtminstone AMDs fall.

Så, nej, 200% med 300% senare under noden är inte papperssiffror.
Papperssiffror hade kanske varit 422% för nVidia och 500% för AMD.
nVidia = 15%-utrymmet * nod * frekvens = 100*1.15*3.06*1.2= 422%
AMD = nod * frekvens = 100 * 4 * 1.25 = 500%

Har räknat högre frekvensbonus på AMD då de går ner längre i noden och dessutom inte pressat 28nm lika hårt på den punkten. Och då har jag inte räknat in arkitekturförbättringar ens i dessa papperssiffror.

Så ja, skillnad på papper och verklighet. Men 200% extra prestanda i början av noden och upp mot 300% innan noden är slut är inte papperssiffror, det är rent av ganska försiktiga gissningar.

Papperssiffror för 40nm mot 28nm är 43%. Ska vi jämföra GTX 580 mot Titan X eller 6970 mot Fiji?

Själva nodkrypmningen ger väl runt dubbla densiteten då TSMC "16 nm" och Samsungs "14 nm" i praktiken är 20 nm med FinFET?

28²/20² = 2.0

Sedan har ju varken Intel eller ARM-tillverkarna lyckats höja frekvensen på något signifikant sätt de senaste krympningarna? Vad man lyckats med är behålla ungefär samma frekvens med minskad absolut strömförbrukning och därmed ökad perf/W. För grafikkort som skalar näst intill linjärt med antal "kärnor" så översätts i.o.f.s. möjlighet till fler transistorer rakt av till högre prestanda om man lägger transistorerna på fler "kärnor".

Vidare är frågan är om man kan förvänta sig en dubblering av antal transistorer, i alla fall det närmaste året? AnandTech publicerade igår en artikel om Xeon E5 v4 (Broadwell, första Xeon E5 på 14 nm) och en konstaterade var att även om antal transistorer ökat och därmed mängd L3-cache och antal CPU-kränor så är trenden ändå att toppmodellerna blir allt mindre räknat i mm². Intel har för tillfället den överlägset största kretsen på 14 nm, den är 454 mm² (24 kärnor) vilket är rätt långt från AMD/Nvidias största kretsar på 28 nm (~600 mm²) och även Intels största kretsar som varit 700 mm² (Itantium på 65 nm) och 660 mm² (18 kärnor Xeon E7, Haswell 22 nm).

Det som är känt kring storleken på kommande Polaris, runt 230 mm², pekar väldigt mycket på prestanda motsvarande dagens 390/390X då dessa är 438 mm² på 28 nm.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

@Paddanx: så denna kommentar

"Men om det nu är samma krets, så lär den ha samma minnessegment, vilket gör att 1070 lär bli 7GB snabbt, 1GB långsamt, om de bara "dubblerar" mängden på kretsnivå, med samma kontroller."

gjordes alltså helt utan att insinuera att det skulle finnas något praktiskt problem med designen? Mitt svar i det här fallet var väldigt mycket en ren reaktion på att det skrivits så mycket svammel om alla problem som man "hört att någon" haft, fast ingen kan peka på ett faktiskt test som kan reproducera problemet.

I DX11 är där inget direkt praktiskt problem, för man har kompenserat för det. Lite som att säga att 840 EVO inte lider av volt-drift, när den gör det, för det är kompenserat och användaren märker det inte i normal användning. Men det är ju segmenterat, där du inte kan läsa till hela minnet samtidigt. Precis som 840 får problemet om den inte får ström om ligger avstängd längre tid. Hårdvaran är vad den är i båda fallen.

I SLI har felet uppmätts som microstutter, något som inte sker på 980, vilket har fått användare att lämna tillbaka korten. Har själv en kusin i småland som har gjort exakt detta och där finns trådar om det på forumet också.

Men med DX12 ändras också spelplanen, något du också vet. SLI och speciallösningar i drivarna är inte självklara längre. Så hur vet du att detta problem inte blir ett problem för framtida spel med DX12? Det är trots allt en lappning på en hårdvarubegränsning i DX11 via drivare. Kortet medvetet försöker att låta bli att använda mer än 3,5GB minne så långt det går. Den får lägre bandbredd i "praktiken" om du försöker access:a båda delarna av den segmenterade biten. Med GDDR5X kommer bandbredden att vara högre dock, och är det "7GB" så räcker det och blir över, förutsatt att du fortfarande kan styra det. (Något du blint antar)

Skrivet av Yoshman:

Om det var ett torrt konstaterande, varför slog du då inte också fast att AMDs kort också har sitt VRAM uppdelat i segment om 1 kB där varje sådan segment endast har 1/16 del hos 390/390X och endast 1/256 del hos Fury X av den bandbredd som listas i specifikationen. Är det irrelevant för användarna? Ja, det är totalt irrelevant! Men det har även segmenteringen hos 970 visat sig vara så varför nämna det om syftet inte var att insinuera att designen dras med praktiska problem?

För du har inte ett 980 kort som har detta problem. Titta på kommentaren jag citerade om det hela. Varför skulle AMD dras in i en NVidia post, i en Nvidia tråd?
Om man antar att de gör samma knep igen, som med 970 på x80/1080 eller vad det nu kallas och skapar x70/1070, så kommer ju samma situation att ske igen. Och 980 har inte denna begränsning, och borde därför inte specificeras på samma sätt. Oavsett vad man lappar i mjukvara så är inte specifikationerna samma på 980 och 970.

Så jag jämför här 980 vs 970, inte AMD vs Nvidia. Det är du som åter dragit in AMD i smutskastningsförsök igen, inte jag.

Skrivet av Yoshman:

Angående DX12: vad vill du att jag ska skriva? Att den 10-20 % högre prestanda är skillnaden om ett kort suger på DX12 eller inte? Inte ens AMD själv försöker hävda att man kan förvänta sig speciellt mycket mer, tror de sagt något om att upp mot 30 % boost är möjligt i vissa lägen. Och ur ett funktionellt perspektiv är "beräkningskön/köerna" en funktionell delmängd av grafikkön, om nu "async compute" inte fungerar ihop med grafik på Maxwell (vilket verkar allt mer troligt då Nvidia inte säger något, Maxwell har "async" stöd när man kör CUDA fast då handlar det endast om beräkningar) så är det enda rimliga för speltillverkarna att posta de saker som på GCN går till en beräkningskö på grafikkön i Maxwell. Slutresultatet som visas på skärmen blir i båda lägena det samma.

Vill att du ska sluta vara så negativ och kritisk till tekniker som faktiskt används och fungerar. Något du verkligen gjort en hel del på sistone. Du behöver inte hylla någon teknik, det gör tillverkarna. Men istället för att då hålla med att tex Maxwell inte har en bra implementation av "async" så kommer 100 ursäkter, tekniska bortförklaringar och en massa rabbel om varför Maxwells klarar fler anrop. Detta är det löjliga här. Du behöver inte försvara dem som en fanboy.

Att bara säga typ, "Intressant"/"Bra poäng" eller för den delen försöka se det objektivt (istället för att hacka ner allt till detaljer som få begriper, inte alltid stämmer i långa loppet för de är spekulationer, och du sedan dessutom själv nån månad senare säger emot själv).

"Det får absolut inte finnas någon teknisk fördel för något, som inte Yoshman själv signerat"
Så kan man tolka nästa samtliga av dina långa poster på typ varenda artikel senaste året, vilket jag tycker är synd.

Skrivet av Yoshman:

Och du läste då totalt inte vad jag skrev om Ashes. Med DX11 är det GPU-delen som till 100 % är flaskhals om man har en modern Intel CPU, även om man sitter på 980Ti. Om man däremot jämför hur mycket CPU som används i DX11 och DX12 så är det mindre med DX12 och denna lägre "overhead" är huvudnumret för DX12. Att det sedan i detta spel inte gör någon som helst skillnad för FPS beror ju på att GPU-delen ändå är flaskhals i båda fallen. Ser inte hur detta kan vara oklart på något sätt.

Inte oklar, men irrelevant, idag. För den är oanvänd resurs. Och.. även om den skulle vara användbar, så har som sagt båda "lagen" det. Så var är Nvidia fördelen som du hävdade nyss?

Skrivet av Yoshman:

AMD har också putsat på drivarna för AotS, det i princip inte längre skillnad i FPS mellan DX11 och DX12 när man kör med 380/380X. Precis som för Nvidia är GPUn flaskhals i båda lägen, fast CPUn är mindre lastad i DX12 vilket visar att DX12 gör nytta (i framtiden kan spel använda denna överblivna CPU kraft till något användbart i spel).

Det låter positivt. Och jag hoppas de kan använda den CPU kraften, men det lär nog tyvärr dröja tills DX11 är borta. För om de lägger på mer CPU krävande kod/finesser, och du inte kan köra DX12, så är du till råttorna. Vi lär mao inte se detta förrän Win 10 är överväldigande dominans, eller Vulkan gör det istället.

Skrivet av Yoshman:

Var inte så bitter, det är första april så ta inte något som skrivs allt för seriöst idag

Ska försöka

Skrivet av BiffenL:

@Paddanx

Du nämner här i tråden och andra att du inte vet något om den nya kretsen från varken Nvidia eller AMD, då är min fråga varför du talar om rebrands och att det ska vara samma krets som GM104 i samma andetag?

Vet som sagt inget. Men Nvidias sätt att gömma sig från DX12 visar att antingen är det re-brands, eller så har pascal inte den DX12 prestandan de vill. Min tolkning dock. Kan dock inte tänka mig att pascall är så fel-designad, om det inte är för att det är väldigt likt Maxwell, men på 16nm, vilket är typ... en re-brand.

Sen att Nvidia inte ens vill ge spec eller info till sina partnertillverkare gör det hela mer skumt. Vi får helt enkelt se.

Någon re-brand lär det bli, frågan är var. För jag kan inte tänka mig att Nvidia släpper 3-4 nya GPUer (syftar då på kärnor). En Titan/980Ti "ersättare, en 98/970 ersättare, en 960/950 ersättare och ev en för bärbara datorer också. Blir för mycket att trycka ut på en ny nod de knappt har minnesmoduler, yield och teknik för.

Permalänk
Datavetare
Skrivet av Paddanx:

I DX11 är där inget direkt praktiskt problem, för man har kompenserat för det. Lite som att säga att 840 EVO inte lider av volt-drift, när den gör det, för det är kompenserat och användaren märker det inte i normal användning. Men det är ju segmenterat, där du inte kan läsa till hela minnet samtidigt. Precis som 840 får problemet om den inte får ström om ligger avstängd längre tid. Hårdvaran är vad den är i båda fallen.

I båda fallet är ju det hela ett icke-problem i praktiken. I fallet 840EVO fick man i slutändan en bättre produkt än konkurrenterna då fixen man gjort har som bieffekt att prestanda inte droppar av som den gör på andra billiga SSD-diskar när de med tiden fragmenteras. I alla fall om man använder sin 840EVO, ligger den i en låda är det inte lika bra...

Skrivet av Paddanx:

Men med DX12 ändras också spelplanen, något du också vet. SLI och speciallösningar i drivarna är inte självklara längre. Så hur vet du att detta problem inte blir ett problem för framtida spel med DX12? Det är trots allt en lappning på en hårdvarubegränsning i DX11 via drivare. Kortet medvetet försöker att låta bli att använda mer än 3,5GB minne så långt det går. Den får lägre bandbredd i "praktiken" om du försöker access:a båda delarna av den segmenterade biten. Med GDDR5X kommer bandbredden att vara högre dock, och är det "7GB" så räcker det och blir över, förutsatt att du fortfarande kan styra det. (Något du blint antar)

Oh, måste låta bli att kommentera detaljer... Nä, går inte
970 får inte lägre prestanda i praktiken när den accessar båda segment, faktum är att det är enda sättet den kan nå full bandbredd. 970 har fortfarande 8 st 32-bitars VRAM-minneskanaler, precis som 980. Däremot saknas en koppling mot cross-baren mot GPUn, dock är bandbredd-kapaciteten där långt högre än bandbreddskapacitet mot VRAM då kopplingen mot GPU är designad för att hantera bandbredd mot L2$ som är högre än bandbredd mot VRAM.

Jämfört med 980 har 970 lägre bandbredd på den "stora" poolen, men å andra sidan har 970 också lägre GPU-kapacitet så den har inte heller samma behov av VRAM-bandbredd. Så vill man klaga på 970 har man ett större slagträ här.

Sedan är det faktiskt så att den irrelevanta detaljen jag påpekade om segmentering av VRAM (som även finns på Nvidias kort, även där är blockstorleken per VRAM-kanal 1 kB) inte längre är irrelevant i DX12. Att t.ex. DX12 stödet i Rise of the Tomb Raider minskade prestanda mot DX11 på de flesta kort kan faktiskt vara relaterat till bl.a. detta. En sak DX11 gör är att lägga ut saker i VRAM på ett sätt så alla minneskanaler belastas jämnt, ju "bredare" VRAM-bussen är ju viktigare blir denna optimering (och kan vara del i förklaringen till varför 4 GB VRAM i t.ex. Fury tar slut snabbare än 4 GB VRAM i 970/980, ju bredare buss ju mer "spill" blir det för att sprida t.ex. texturer jämnt över minneskanalerna). Detta är ännu en sak som nu hamnar i knät på spelutvecklarna att optimera för i DX12 men som hanterades av drivers i DX11. Inte helt lätt med tanke på att detta är en egenskap som skiljer sig mellan modeller även från samma tillverkare.

Fast om du läst vad jag anser om DX12 så är grundsynen rejält positiv, har massor med gånger skrivit att min övertygelse är att DX12 på sikt kommer vara ett rejält lyft över DX11. Man måste bara ge spelutvecklarna tid att lära sig designa spelmotorer för DX12, för det är en ganska stor skillnad från tidigare.

Skrivet av Paddanx:

Om man antar att de gör samma knep igen, som med 970 på x80/1080 eller vad det nu kallas och skapar x70/1070, så kommer ju samma situation att ske igen. Och 980 har inte denna begränsning, och borde därför inte specificeras på samma sätt. Oavsett vad man lappar i mjukvara så är inte specifikationerna samma på 980 och 970.

Så jag jämför här 980 vs 970, inte AMD vs Nvidia. Det är du som åter dragit in AMD i smutskastningsförsök igen, inte jag.

Sen när är fakta som jag försökte backa upp med referens "smutskastningsförsök"? Trodde detta var ett forum där man förväntas diskutera teknik och i detta specifika fall teknik kring grafikkort. Och om du nu anser att VRAM-relaterade problem är en smärre katastrof, är det då inte en ren välgärning att peka på andra modeller som också dras med bekymmer rotade i VRAM?

Är inte med på vad som menas med att 980 och 970 skulle ha samma specifikationer, de har ju olika produktnamn och då 980 > 970 känns det rimligt att kunder utgår från att den förra är bättre. Läser du specifikationen för respektive kort har ju också 970 mindre L2$ och färre ROPs, vilket är fallet. Båda korten har 4 GB VRAM med samma aggregerad bandbredd.

Skrivet av Paddanx:

Vill att du ska sluta vara så negativ och kritisk till tekniker som faktiskt används och fungerar. Något du verkligen gjort en hel del på sistone. Du behöver inte hylla någon teknik, det gör tillverkarna. Men istället för att då hålla med att tex Maxwell inte har en bra implementation av "async" så kommer 100 ursäkter, tekniska bortförklaringar och en massa rabbel om varför Maxwells klarar fler anrop. Detta är det löjliga här. Du behöver inte försvara dem som en fanboy.

Hur är det negativt att peka på att de som sitter på Maxwell faktiskt inte är körda även om det visar sig att "async compute" inte är möjligt på kretsen ihop med grafik? Det är väl positivt! Dissar inte heller "async compute" på något sätt, tvärt om (och skrivit detta flera gånger tidigare) hoppas jag man lurar ut massor med sätt att använda det då det gynnar de som sitter på GCN och om speltillverkarna bara lyfter blicken lite till (vilket redan är gjort i Unreal Engine 4) så betyder stöd för "async compute" att man kan utnyttja den iGPU som en "compute kö" vilket då ger "async compute" på alla system med iGPU (vilket är de flesta system) oavsett dGPU.

Skrivet av Paddanx:

Att bara säga typ, "Intressant"/"Bra poäng" eller för den delen försöka se det objektivt (istället för att hacka ner allt till detaljer som få begriper, inte alltid stämmer i långa loppet för de är spekulationer, och du sedan dessutom själv nån månad senare säger emot själv).

Av det du länkade ser jag inte när jag sagt emot mig själv. Detta är ett teknikforum, här utförs en hel del gissningar och spekulation kring framtiden för teknik. Dessa spekulationer kommer ibland visa sig vara fel, det är inte att säga emot sig själv. Vet att jag skrivit att Maxwell har "async compute" stöd i HW, det är inte spekulation utan fakta då det används i CUDA. Initialt var då då rimligt att anta att Nvidia faktiskt skulle kunna fixa "async compute" även för DX12, framförallt när man själva hävdade det. Att inget hänt på flera månader nu gör det väl rätt rimligt att den gissning man gjorde tidigare bör revideras, tystnaden kring detta är kompakt och det brukar betyda att leverantören stött på problem de inte har en lösning på (Samsung var också väldigt tyst kring 840EVO innan man kläckte den briljanta slutliga lösning, innan hade man garanterat ingen lösning och teg då som muren).

Skrivet av Paddanx:

Inte oklar, men irrelevant, idag. För den är oanvänd resurs. Och.. även om den skulle vara användbar, så har som sagt båda "lagen" det. Så var är Nvidia fördelen som du hävdade nyss?

? Det var ingen specifik Nvidia-fördel jag pekade på, jag var positiv och pekade på att Maxwell, precis som GCN, faktisk fått den stora fördelen med DX12, d.v.s. lägre CPU-overhead och möjlighet till att använda flera CPU-kärnor. Du var pessimisten i att insinuera att alla Nvidia ägare är rökta när DX12-titlar börjar rulla ut då de (antagligen) saknar "async compute" stöd.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Skrivet av Aleshi:

Teoretiskt är det över 300% för nVidia och 400% för AMD bara sett till nodkrympningen. Sedan har vi de ökade frekvenserna som oftast följer. Då tycker jag att det är ganska försiktigt att lova 200% med möjligheten att nå närmare 300% framöver. AMD har redan på 28nm 15% fler transistorer per mm² än nVidia. Sedan får du lägga till arkitekturförbättringar som sägs ge en hel del i åtminstone AMDs fall.

Så, nej, 200% med 300% senare under noden är inte papperssiffror.
Papperssiffror hade kanske varit 422% för nVidia och 500% för AMD.
nVidia = 15%-utrymmet * nod * frekvens = 100*1.15*3.06*1.2= 422%
AMD = nod * frekvens = 100 * 4 * 1.25 = 500%

Har räknat högre frekvensbonus på AMD då de går ner längre i noden och dessutom inte pressat 28nm lika hårt på den punkten. Och då har jag inte räknat in arkitekturförbättringar ens i dessa papperssiffror.

Så ja, skillnad på papper och verklighet. Men 200% extra prestanda i början av noden och upp mot 300% innan noden är slut är inte papperssiffror, det är rent av ganska försiktiga gissningar.

Papperssiffror för 40nm mot 28nm är 43%. Ska vi jämföra GTX 580 mot Titan X eller 6970 mot Fiji?

Pratar bara om node krypning, som jag såg Yoshman tog upp. Alltså 14nm/16nm är bara på papper, i verkligheten är det betydligt högre siffror.

Problemet båda kommer få, är värmen. Därför ingen av dessa kommer testa gränserna än. Vad det verkar på både AMD och Nvidia så verkar det som prioriteten blir inte högre prestanda i första rundan (få se hur mycket prestanda ökning det blir).

Kompaktare kretsar kommer göra så man får in fler kärnor och öka prestandan den vägen, bieffekten blir att korten kommer klocka sämre (till börja med).

Se bara när Intel släppte ivy bridge (vist en del av värmeproblemet var die hade kylpasta i stället för lödning).

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Medlem
Skrivet av Yoshman:

Själva nodkrypmningen ger väl runt dubbla densiteten då TSMC "16 nm" och Samsungs "14 nm" i praktiken är 20 nm med FinFET?

28²/20² = 2.0

Sedan har ju varken Intel eller ARM-tillverkarna lyckats höja frekvensen på något signifikant sätt de senaste krympningarna? Vad man lyckats med är behålla ungefär samma frekvens med minskad absolut strömförbrukning och därmed ökad perf/W. För grafikkort som skalar näst intill linjärt med antal "kärnor" så översätts i.o.f.s. möjlighet till fler transistorer rakt av till högre prestanda om man lägger transistorerna på fler "kärnor".

Vidare är frågan är om man kan förvänta sig en dubblering av antal transistorer, i alla fall det närmaste året? AnandTech publicerade igår en artikel om Xeon E5 v4 (Broadwell, första Xeon E5 på 14 nm) och en konstaterade var att även om antal transistorer ökat och därmed mängd L3-cache och antal CPU-kränor så är trenden ändå att toppmodellerna blir allt mindre räknat i mm². Intel har för tillfället den överlägset största kretsen på 14 nm, den är 454 mm² (24 kärnor) vilket är rätt långt från AMD/Nvidias största kretsar på 28 nm (~600 mm²) och även Intels största kretsar som varit 700 mm² (Itantium på 65 nm) och 660 mm² (18 kärnor Xeon E7, Haswell 22 nm).

Det som är känt kring storleken på kommande Polaris, runt 230 mm², pekar väldigt mycket på prestanda motsvarande dagens 390/390X då dessa är 438 mm² på 28 nm.

Men du. Jag är fullt medveten om att man inte kan få ut dessa teoretiska papperssiffror rätt av med nuvarande tillverkningsprocess. Det finns som sagt andra faktorer.
Poängen är att vi kan vänta oss minst den dubbla prestandan per ytenhet. Och för att visa att siffror på 200% inte bara är papperssiffror som inte tar allt i beaktning så visade jag hur papperssiffror utan hänsyn till praktiska svårigheter hade sett ut. Och då "rättar" du mig om att dessa siffror inte tar hänsyn till praktiska faktorer? Nä, det var liksom det som var poängen! Det var ju det hela illustrationen byggde på. De siffrorna jag försvarar är 200% och mot slutet av noden 300%. Tror inte det är för optimistiskt.

Eller menar du på allvar att vi inte kommer få se dubbla prestandan per ytenhet med 16/14nm över 28nm? Var i så fall tydlig så kan jag sätta pengar på det. Vill återigen påminna om att 28nm bara är 42% mindre teoretiskt än 40nm. Och hur ser prestandan per ytenhet ut där? Frekvenserna har också ökat även fast vi inte sett samma sak på processorer.

Och det är väl en självklarhet att processorer blir mindre. Eftersom det inte är lika parallelliserbara kretsar så kan man inte bara utnyttja mindre noder till att bygga större och kraftigare kärnor. Det är ju lite det som banade väg för dualcores, integrerad nordbrygga och grafik för länge sedan.
GPU-er följer inte den trenden. Där bygger man så stort som möjligt, vilket är större och större ju mognare en process är.

Permalänk
Medlem
Skrivet av Christley:

om så vore fallet så kommer x80ti ha gddr5x för hbm2 kort kommer inte ut förrän Q3/Q4 2016
http://www.techpowerup.com/220707/sk-hynix-to-ship-4gb-hbm2-s...

Fast samma källa som du länkar till påstår att x80ti kommer köra gddr5, och att det är Titan som kommer köra hbm2.
Vilket även andra källor sagt.
Dock är ju allt spekulationer.
http://www.techpowerup.com/220997/nvidias-next-flagship-graph...

"On the X80 Ti, you'll get 5,120 CUDA cores, 320 TMUs, 160 ROPs, and a 512-bit wide GDDR5X memory interface, holding 8 GB of memory, with a bandwidth of 512 GB/s. The X80 TITAN, on the other hand, features all the CUDA cores, TMUs, and ROPs present on the silicon, plus features a 4096-bit wide HBM2 memory interface, holding 16 GB of memory, at a scorching 1 TB/s memory bandwidth. Both the X80 Ti and the X80 TITAN double the pixel- and texture- fill-rates from the GTX 980 Ti and GTX TITAN X, respectively."

Visa signatur

Citera för svar!
ASUS X570-E, AMD 5950X, RTX4080 Super, 32gb B-die

Permalänk
Medlem

Hur långt var det mellan släppen av 980 och 980ti? Samt när kom Titan i förhållande till dom?
Skulle ju möjligtvis kunna ge en fingervisning.

Visa signatur

Citera för svar!
ASUS X570-E, AMD 5950X, RTX4080 Super, 32gb B-die

Permalänk
Datavetare
Skrivet av Aleshi:

Men du. Jag är fullt medveten om att man inte kan få ut dessa teoretiska papperssiffror rätt av med nuvarande tillverkningsprocess. Det finns som sagt andra faktorer.
Poängen är att vi kan vänta oss minst den dubbla prestandan per ytenhet. Och för att visa att siffror på 200% inte bara är papperssiffror som inte tar allt i beaktning så visade jag hur papperssiffror utan hänsyn till praktiska svårigheter hade sett ut. Och då "rättar" du mig om att dessa siffror inte tar hänsyn till praktiska faktorer? Nä, det var liksom det som var poängen! Det var ju det hela illustrationen byggde på. De siffrorna jag försvarar är 200% och mot slutet av noden 300%. Tror inte det är för optimistiskt.

Eller menar du på allvar att vi inte kommer få se dubbla prestandan per ytenhet med 16/14nm över 28nm? Var i så fall tydlig så kan jag sätta pengar på det. Vill återigen påminna om att 28nm bara är 42% mindre teoretiskt än 40nm. Och hur ser prestandan per ytenhet ut där? Frekvenserna har också ökat även fast vi inte sett samma sak på processorer.

Och det är väl en självklarhet att processorer blir mindre. Eftersom det inte är lika parallelliserbara kretsar så kan man inte bara utnyttja mindre noder till att bygga större och kraftigare kärnor. Det är ju lite det som banade väg för dualcores, integrerad nordbrygga och grafik för länge sedan.
GPU-er följer inte den trenden. Där bygger man så stort som möjligt, vilket är större och större ju mognare en process är.

40²/28² = 2.0

d.v.s. det är samma ökning i densitet som för 28 nm -> "14/16 nm" (20 nm med FinFET). Det jag pekade på med 14 nm är att i alla fall Intel och de som tillverkar ARM-systemkretsar har så här långt inte lyckats göra kretsar med samma fysiska area på 14 nm som de haft på tidigare noder. D.v.s. man har inte fått en fördubbling av antal transistorer per krets då den fysiska arean (så här långt) är mindre än tidigare.

På 40 nm och 28 nm var den fysiska kretsytan väldigt snarlik så där fick man en fördubbling av prestanda per ytenhet i t.ex. GPUer då prestanda i dessa skalar extrem väl med antal transistorer.

Arean på konsument CPUet har stadigt minskat sedan 32 nm för Intel då dessa fortfarande har 2 eller 4 kärnor, iGPU storleken har ökat men inte lika snabbt som krympningarna. Däremot har Xeon modellerna haft i stort sett konstant area på de mest avancerade kretsarna, något man använt till att öka antalet CPU-kärnor. Fram till 14 nm har man ökat maximala antalet kärnor med 50 % per generation, nu blev det 33 % i.o.m att arean är mindre (18 till 24 kärnor). Skylake Xeon ryktas ha upp till 28 kärnor vilket borde betyda > 500 mm², så fullt möjligt att man i slutändan (Kaby Lake Xeon) är uppe på 600 mm² igen.

Oavsett så kommer det av allt att döma ta betydligt lägre tid innan man man skapa riktigt stora kretsar, ~600 mm², på 14 nm jämfört med tidigare noder.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av zOlid:

Hur långt var det mellan släppen av 980 och 980ti? Samt när kom Titan i förhållande till dom?
Skulle ju möjligtvis kunna ge en fingervisning.

GTX 980 testades av Sweclockers första gången 2014-09-19 och 980 Ti 2015-06-01. Så det var ca 9 månader mellan släppen.

Permalänk
Medlem
Skrivet av LeVvE:

Får hoppas det blir större prestandaskillnad mellan korten jämfört med 970/980. 980 var inte värd priset över 970 för den extra prestandan man fick.

Jag skulle snarare säga att 970 inte var tillräckligt gimpat från fabrik, där hade de kunnat göra mer.

Permalänk
Medlem
Skrivet av Paddanx:

Du har börjat gå från en datavetare till en konstig Nvidia Fanboy som ska hitta ursäkter på alla fel dessa kort har. Man kan säga att du älskar att hitta udda tester som görs på specifika drivare, spel och i specifika situationer, inte för att framhäva din sak, utan trycka ner motståndaren... Det är fanboy tänk min vän

Jag är Nvidia-fläktpojke av ett par olika skäl, men det innebär inte per automatik att jag tycker att AMD är skit och ingenting. Jag bygger datorer då och då, och uppmanar alltid de som ska betala att försöka bilda sig en egen uppfattning om vad de prioriterar för egenskaper. Är det en ren kostnadsfråga (pris/prestanda) blir det ofta lättare, då det är lättare att få fram vilken tillverkare och vilket kort som ger mest prestanda för en given summa.

Jag prioriterar andra saker när jag köper dator numera, framförallt stabilitet, vilket bl.a. gjort att jag slutat överklocka helt och hållet. När det gäller specifika grejer som får mig att välja Nvidia så är det t.ex. G-sync, inte minst för att skärmtillverkarna inte har fria händer att hitta på saker som avviker från standard. Shadowplay är en annan viktig grej för mig, som jag upplever som osynligt och integrerat i bakgrunden på rätt sätt, så att man inte märker av att det finns förrän det faktiskt sparat en film.

Om det skulle finnas ett 10% snabbare AMD-kort som kostar 500 kr mindre än det Nvidia-kort jag just köpt, så känner jag på sin höjd att det är kul för den som gjort en bra affär, men förändrar inte nöjdheten jag känner för mitt eget inköp.

Jag läser ofta med stort intresse motiveringar till varför den ena eller andra tillverkaren gjort vissa designval, men ofta går dessa att koka ner till att "jag gillar det bättre, därför är det överlägset". @Yoshman är en av de få på SweC som faktiskt levererar väl underbyggda inlägg med tekniska belägg och argument för varför det är på ett eller annat sätt. Förmågan att "läsa mellan raderna" i inlägg och "avslöja" medforister som fläktpojkar är ofta ett tecken på att man själv har de drag man anklagar andra för att ha.

Permalänk
Avstängd

Dom behåller Titan X som har snarlika prestanda med 980ti, däremot kommer dom med ersättare till 970, 980 och 980ti?! Om ersättarna har mindre än 20% i prestanda är det idiotiskt att köpa för flera tusen nytt grafikkort oavsett om dom har fått ner strömförbrukningen, för flera tusen kan man få ström för nuvarande grafikkort ett par år.

Permalänk

4000 kr räknar jag med Geforce GTX 1070??? Trodde denna skulle komma med HBM2 med istället gdrX, då blir denna grafikkort billigare..
Funkar för mej, kör bara 1080P, så behöver inte GTX1080=)

Och jag hoppats med 1070 är 30% bättre prestanda än 970...

Permalänk
Skrivet av Yoshman:

Själva nodkrypmningen ger väl runt dubbla densiteten då TSMC "16 nm" och Samsungs "14 nm" i praktiken är 20 nm med FinFET?

28²/20² = 2.0

.........

Det som är känt kring storleken på kommande Polaris, runt 230 mm², pekar väldigt mycket på prestanda motsvarande dagens 390/390X då dessa är 438 mm² på 28 nm.

Tjohoo!
Precis vad man hade gått och hoppats på.

Visa signatur

««« »»»

Permalänk
Medlem
Skrivet av Yoshman:

40²/28² = 2.0

d.v.s. det är samma ökning i densitet som för 28 nm -> "14/16 nm" (20 nm med FinFET). Det jag pekade på med 14 nm är att i alla fall Intel och de som tillverkar ARM-systemkretsar har så här långt inte lyckats göra kretsar med samma fysiska area på 14 nm som de haft på tidigare noder. D.v.s. man har inte fått en fördubbling av antal transistorer per krets då den fysiska arean (så här långt) är mindre än tidigare.

På 40 nm och 28 nm var den fysiska kretsytan väldigt snarlik så där fick man en fördubbling av prestanda per ytenhet i t.ex. GPUer då prestanda i dessa skalar extrem väl med antal transistorer.

Arean på konsument CPUet har stadigt minskat sedan 32 nm för Intel då dessa fortfarande har 2 eller 4 kärnor, iGPU storleken har ökat men inte lika snabbt som krympningarna. Däremot har Xeon modellerna haft i stort sett konstant area på de mest avancerade kretsarna, något man använt till att öka antalet CPU-kärnor. Fram till 14 nm har man ökat maximala antalet kärnor med 50 % per generation, nu blev det 33 % i.o.m att arean är mindre (18 till 24 kärnor). Skylake Xeon ryktas ha upp till 28 kärnor vilket borde betyda > 500 mm², så fullt möjligt att man i slutändan (Kaby Lake Xeon) är uppe på 600 mm² igen.

Oavsett så kommer det av allt att döma ta betydligt lägre tid innan man man skapa riktigt stora kretsar, ~600 mm², på 14 nm jämfört med tidigare noder.

Ja jag förstår faktiskt inte hur jag kunde missa att räkna i kvadrat mellan 40nm och 28nm.

Jag vet att densiteten på FinFET inte ger samma densitet. Det är lite huvudanledningen till att jag inte kör på papperssiffror som inte är förankrade i verkligheten. Jag illustrerade som sagt hur jag hade räknat om jag räknat godtyckligt.
Men vill du mena att 200% högre prestanda per ytenhet inte kommer hända för nVidia på 16nm eller AMD på 14nm? Jag är nämligen fullkomligt övertygad om att vi kommer se det. Mycket på grund av tillverkningsprocess, men även på grund av frekvenser och arkitekturförbättringar.

Permalänk
Datavetare
Skrivet av Aleshi:

Ja jag förstår faktiskt inte hur jag kunde missa att räkna i kvadrat mellan 40nm och 28nm.

Jag vet att densiteten på FinFET inte ger samma densitet. Det är lite huvudanledningen till att jag inte kör på papperssiffror som inte är förankrade i verkligheten. Jag illustrerade som sagt hur jag hade räknat om jag räknat godtyckligt.
Men vill du mena att 200% högre prestanda per ytenhet inte kommer hända för nVidia på 16nm eller AMD på 14nm? Jag är nämligen fullkomligt övertygad om att vi kommer se det. Mycket på grund av tillverkningsprocess, men även på grund av frekvenser och arkitekturförbättringar.

Fram till 45/65 nm (folk är oense om exakt vilken nod detta hände) gav nodminskning både högre densitet och oavkortat också lägre strömförbrukning (Dennard scaling), fram till "breakdown of Dennard scaling" så gav nya noder definitivt mer än 100 %. Krympningarna efter det har i sig själv bara fått högre densitet, läckströmmen har vid krympningen ökat och man har vid varje ny nod tvingats utveckla ny teknik för att kompensera för detta, t.ex. FinFET.

FinFET är i sig inget positivt, det är en förutsättning för att hålla läckströmmen på en rimlig nivå. 20 nm är ett bra exempel på vad som händer när man inte kompenserar tillräckligt mycket för ökad läckström, vinsten över 28 nm var inte speciellt stor och det visade sig till och med att högpresterande kretsar var överhuvudtaget inte vettigt att tillverka på den noden.

Positivt är ändå att fler transistorer per ytenhet nästan uteslutanden också översätts i motsvarande vinst i prestanda för grafikkort då de arbetsuppgifter en GPU utför skalar extremt väl med antal parallella beräkningsenheter. CPUer kan använda fler transistorer till att få fler kärnor, fler funktioner etc men det översätts inte alls lika direkt till ökad generell prestanda, framförallt inte på skrivbordet.

Och naturligtvis kan AMD och Nvidia också göra arkitekturförbättringar, att det finns mycket man kan göra även på det området är Maxwell ett gott exempel på. Hur mycket högre prestanda blir i slutändan är väldigt svårt att säga, men är väldigt övertygad att grafikkortprestanda kommer den bli minst 100 % högre under denna nod jämfört med 28 nm. Så säger inte att 200 % högre prestanda per ytenhet inte kommer hända, tror dock inte det blir riktigt så högt.

Ett problem för tillfället är ju att man inte kan tillverka lika stora kretsar på 14/16 nm som man kunde på 28 (22 nm för Intel). Så för att nå 100 % högre prestanda måste just nu prestanda per areaenhet öka betydligt mer än 100 %. Naturligtvis är det möjligt att man med tiden kommer runt detta.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Eftersom "tydligen" är jag den som har fel... Nvidia horderna galopperar bra här som vanligt.

Skrivet av Yoshman:

I båda fallet är ju det hela ett icke-problem i praktiken. I fallet 840EVO fick man i slutändan en bättre produkt än konkurrenterna då fixen man gjort har som bieffekt att prestanda inte droppar av som den gör på andra billiga SSD-diskar när de med tiden fragmenteras. I alla fall om man använder sin 840EVO, ligger den i en låda är det inte lika bra...

Inget problem, så länge all mjukvara får jobba. 840 EVO behöver ström... 970 behöver Nvidas drivrutinskapare. Så åter, du blint antar att detta inte är ett problem i DX12, utan att veta hur det kommer visa sig, då som du själv sagt, det är upp till speltillverkarna att nu göra Nvidias jobb.

Skrivet av Yoshman:

Oh, måste låta bli att kommentera detaljer... Nä, går inte
970 får inte lägre prestanda i praktiken när den accessar båda segment, faktum är att det är enda sättet den kan nå full bandbredd. 970 har fortfarande 8 st 32-bitars VRAM-minneskanaler, precis som 980. Däremot saknas en koppling mot cross-baren mot GPUn, dock är bandbredd-kapaciteten där långt högre än bandbreddskapacitet mot VRAM då kopplingen mot GPU är designad för att hantera bandbredd mot L2$ som är högre än bandbredd mot VRAM.

Jämfört med 980 har 970 lägre bandbredd på den "stora" poolen, men å andra sidan har 970 också lägre GPU-kapacitet så den har inte heller samma behov av VRAM-bandbredd. Så vill man klaga på 970 har man ett större slagträ här.

Antingen har jag, och troligen resten av världen missat hf begränsningen på det kortet är, men nej... den kan inte använda all bandbredd samtidigt. Tekniskt sett omöjligt. Den kan läsa 3GB helt normalt, utan något problem. Den sista 1GB är delad, där den kan läsa ena halvan, eller andra. Den kan inte läsa det samtidigt.

Jag hoppas verkligen att jag misstolkat din förklaring ovan, annars får du nog gå tillbaka till ritningen.

Skrivet av Yoshman:

Sedan är det faktiskt så att den irrelevanta detaljen jag påpekade om segmentering av VRAM (som även finns på Nvidias kort, även där är blockstorleken per VRAM-kanal 1 kB) inte längre är irrelevant i DX12. Att t.ex. DX12 stödet i Rise of the Tomb Raider minskade prestanda mot DX11 på de flesta kort kan faktiskt vara relaterat till bl.a. detta. En sak DX11 gör är att lägga ut saker i VRAM på ett sätt så alla minneskanaler belastas jämnt, ju "bredare" VRAM-bussen är ju viktigare blir denna optimering (och kan vara del i förklaringen till varför 4 GB VRAM i t.ex. Fury tar slut snabbare än 4 GB VRAM i 970/980, ju bredare buss ju mer "spill" blir det för att sprida t.ex. texturer jämnt över minneskanalerna). Detta är ännu en sak som nu hamnar i knät på spelutvecklarna att optimera för i DX12 men som hanterades av drivers i DX11. Inte helt lätt med tanke på att detta är en egenskap som skiljer sig mellan modeller även från samma tillverkare.

Så vad du säger är att DX12, är helt nya spelregler. Och du sen ignorerar 970s "segment". Antingen är båda ett pot. problem, eller så är inget.

Skrivet av Yoshman:

Fast om du läst vad jag anser om DX12 så är grundsynen rejält positiv, har massor med gånger skrivit att min övertygelse är att DX12 på sikt kommer vara ett rejält lyft över DX11. Man måste bara ge spelutvecklarna tid att lära sig designa spelmotorer för DX12, för det är en ganska stor skillnad från tidigare.

Sen när är fakta som jag försökte backa upp med referens "smutskastningsförsök"? Trodde detta var ett forum där man förväntas diskutera teknik och i detta specifika fall teknik kring grafikkort. Och om du nu anser att VRAM-relaterade problem är en smärre katastrof, är det då inte en ren välgärning att peka på andra modeller som också dras med bekymmer rotade i VRAM?

Alla kort utanför sin optimala situation är en smärre katastrof.
Jag, som från första kommentaren jämförde 970 och 980. DU och bara du drog in "alla andra" som smutskastning. Eller påstår du att 980 och 970 har olika 1kb segment nu också? Är Maxwell kärnan annorlunda?

Man kan banne mig inte diskutera en enkel sak i detta forum, utan att folk ska hitta på saker hos andra tillverkare, eller andra modeller "för att göra sin poäng hörd". Dina poster ovan är ett jävligt bra exempel på detta.

Skrivet av Yoshman:

Är inte med på vad som menas med att 980 och 970 skulle ha samma specifikationer, de har ju olika produktnamn och då 980 > 970 känns det rimligt att kunder utgår från att den förra är bättre. Läser du specifikationen för respektive kort har ju också 970 mindre L2$ och färre ROPs, vilket är fallet. Båda korten har 4 GB VRAM med samma aggregerad bandbredd.

http://www.geforce.com/hardware/desktop-gpus/geforce-gtx-970/...
http://www.geforce.com/hardware/desktop-gpus/geforce-gtx-980/...

Enda jag ser är färre cuda, annan frekvens och annan "TDP" effekt. Annars är det ingen skillnad tydligen. Vilket är en ren jädra lögn. De blev ju ffs stämda för det... så de har tagit bort alla delar som visade detta nu. Innan stod där 196 + 28 GB/s bandbredd, vilket är så det är uppbyggt. Samt 224bit + 32 bit buss.
http://www.pcworld.com/article/2888877/its-a-feature-not-a-fl...
"GTX 970 is a 4GB card. However, the upper 512MB of the additional 1GB is segmented and has reduced bandwidth."

"A crucial exception: Hitting the 3.5GB barrier while gaming at high resolutions in a multi-card SLI set-up results in noticeable stuttering, according to PC Perspective, which would be a major bummer if you dropped $700 on two GTX 970s to game at 4K or on a multi-monitor rig—though you’d most likely have to be playing at very low frame rates to use 3.5GB-plus of VRAM to begin with."

Så jag vidhåller min åsikt att det är ett praktiskt problem, i vissa situationer, och det är segmenterat. Dock lär ingen användare med single kort märka deti DX11, för drivarna gör sitt jobb.

http://www.anandtech.com/show/8931/nvidia-publishes-statement...

"When a game needs less than 3.5GB of video memory per draw command then it will only access the first partition, and 3rd party applications that measure memory usage will report 3.5GB of memory in use on GTX 970, but may report more for GTX 980 if there is more memory used by other commands. When a game requires more than 3.5GB of memory then we use both segments."

Detta är Nvidias eget svar. Så vill du argumentera mot det, får du prata med Nvidia själva.
Så din poäng att kortet rapporterar bara denna användning har du svaret på där. Den är designad att göra så i drivarna. 980 gör inte detta.

Skrivet av Yoshman:

Hur är det negativt att peka på att de som sitter på Maxwell faktiskt inte är körda även om det visar sig att "async compute" inte är möjligt på kretsen ihop med grafik? Det är väl positivt! Dissar inte heller "async compute" på något sätt, tvärt om (och skrivit detta flera gånger tidigare) hoppas jag man lurar ut massor med sätt att använda det då det gynnar de som sitter på GCN och om speltillverkarna bara lyfter blicken lite till (vilket redan är gjort i Unreal Engine 4) så betyder stöd för "async compute" att man kan utnyttja den iGPU som en "compute kö" vilket då ger "async compute" på alla system med iGPU (vilket är de flesta system) oavsett dGPU.

Körda, lite överskattat åsikt, erkänner detta. Men Nvidia måste först få funktionen att ens fungera rätt, sen kan vi se vad som sker. Det är som sagt dina kommentarer jag har använt för detta, där Nvidia i bästa fall "break even".
Stå för dina ord, annars vägrar jag någonsin respektera något från dig. Om du hade fel, säg det, men bortförklara inte det med skitsnack för att folk luras. Folk luras använda Nvidia gameworks... och vi får leva med det, inkl Nvidia ägare som får stillbilder med underbara hairworks. Det är alltid upp till spelutvecklnarna vilka tekniker de ska använda, och just nu råkar ena vara en av dem som de gillar, där AMD ligger bättre till, även om du inte gillar den.

Skrivet av Yoshman:

Av det du länkade ser jag inte när jag sagt emot mig själv. Detta är ett teknikforum, här utförs en hel del gissningar och spekulation kring framtiden för teknik. Dessa spekulationer kommer ibland visa sig vara fel, det är inte att säga emot sig själv. Vet att jag skrivit att Maxwell har "async compute" stöd i HW, det är inte spekulation utan fakta då det används i CUDA. Initialt var då då rimligt att anta att Nvidia faktiskt skulle kunna fixa "async compute" även för DX12, framförallt när man själva hävdade det. Att inget hänt på flera månader nu gör det väl rätt rimligt att den gissning man gjorde tidigare bör revideras, tystnaden kring detta är kompakt och det brukar betyda att leverantören stött på problem de inte har en lösning på (Samsung var också väldigt tyst kring 840EVO innan man kläckte den briljanta slutliga lösning, innan hade man garanterat ingen lösning och teg då som muren).

Problemet är att det går inte att argumentera med dig. Det är som att argumentera emot ett lexicon, av fakta som ofta inte verken stämmer, eller har med initiala posten att göra.

Så om du ska skriva denna "fakta" i fortsättningen, som just en spekulation/gissning, gör det som "jag tror", "de borde", "kanske". Inte som du har skrivit:
"AotS är ändå lite speciellt i att vara ett RTS..."
"AotS är på sin höjd en vink kring hur RTS-spel kommer bete sig under DX12."
Jag tror... det bör?

Det är sättet du säger saker, som att det är fakta, som gör att jag utan tvekan kan sätta dina åsikter mot dig själv. Du tror inte, "du vet". Precis som du "vet" att 970 inte kommer få problem i DX12. Jag däremot tror att det finns en risk, då felet måste fixas i varje spel, varje motor och varje situation, för ett enda kort.

Skrivet av Yoshman:

? Det var ingen specifik Nvidia-fördel jag pekade på, jag var positiv och pekade på att Maxwell, precis som GCN, faktisk fått den stora fördelen med DX12, d.v.s. lägre CPU-overhead och möjlighet till att använda flera CPU-kärnor. Du var pessimisten i att insinuera att alla Nvidia ägare är rökta när DX12-titlar börjar rulla ut då de (antagligen) saknar "async compute" stöd.

Okej, vi får se hur async blir. Men det är rätt bra tag sedan async började användas och Nvidia håller som sagt väldigt tyst, och flyr från DX12 spelen just nu. Så min pessimistiska åsikt är baserat på Nvidias pessimistiska syn på async, precis som din.

Men jag frågade dig om en Nvidia fördel... och fick ett allmänt svar för "alla". Definition, skitsnack

Skrivet av Sveklockarn:

Jag är Nvidia-fläktpojke av ett par olika skäl, men det innebär inte per automatik att jag tycker att AMD är skit och ingenting. Jag bygger datorer då och då, och uppmanar alltid de som ska betala att försöka bilda sig en egen uppfattning om vad de prioriterar för egenskaper. Är det en ren kostnadsfråga (pris/prestanda) blir det ofta lättare, då det är lättare att få fram vilken tillverkare och vilket kort som ger mest prestanda för en given summa.

Tycker jag också är en vettig åsikt och tanke. Alla prioriterar annorlunda.

Skrivet av Sveklockarn:

Jag prioriterar andra saker när jag köper dator numera, framförallt stabilitet, vilket bl.a. gjort att jag slutat överklocka helt och hållet. När det gäller specifika grejer som får mig att välja Nvidia så är det t.ex. G-sync, inte minst för att skärmtillverkarna inte har fria händer att hitta på saker som avviker från standard. Shadowplay är en annan viktig grej för mig, som jag upplever som osynligt och integrerat i bakgrunden på rätt sätt, så att man inte märker av att det finns förrän det faktiskt sparat en film.

Tycker dock det är synd att säga denna överklocksåsikt på ett överklockningsforum. Är som att säga att jag vill ta cykeln/bussen på ett bilforum... Men. Jag förstår din poäng.
Antar att du köper Nvidias original grafikkort då också, eller är överklockning okej från fabrik?

Ang G-sync håller jag delvis med dig. Jag håller med dig att kvalitén är bra, speciellt jämnare, och att det fungerar bättre i praktiken som det är. Jag tror dock att freesync kan bli bättre, både än G-sync i sig själv, och även som en öppen standard. Men det kräver också att den blir större än G-sync, vilket tror jag hänger på bla Intel. AMD borde dock satt mer restriktiva krav, och guidelinjer, ingen tvekan om det. Där har Nvidia gjort rätt från början.

Är lite som betamax och VHS, Blueray vs HDDVD, 2 tekniker som kämpar och båda har sina fördelar. Det är långt från alltid som den bättre tekniken vinner, eller att den som vinner är den bättre.

Raptor och play.tv fungerar faktiskt mycket bra det också, så det finns alternativ för AMD.

Något som tyvärr många missa är just det. "Nvidia är det enda som fungerar", är problemet. Inte bättre, sämre, 10% hit och dit. Det förändras varje år, månad, shit tom efter 1 drivrutin. Men för mig har AMD en stor fördel just nu. Mindre behov av 20 nya drivare varje år, utan du kan köra 6 mån gamla, vilket är perfekt om man har släktingar eller så som inte man behöver hjälpa med drivare varje månad. Detta är ett "problem" med Nvidias Maxwell, att den måste konstant twekas för att få mest ut ur. Och på forumet finns idag åter en post om Nvidia drivare som gjort att folk får problem, vilket jag såg en på redan i fredag.

Min poäng... Nvidia är inte så stabila de en gång var. AMD dock är betydligt mer stabila i långtidsanvändning. (av min erfarenhet de senaste 1+ året iaf). AMD har sina drivrutinsproblem de också dock, ingen tvekan om det. Men just att man inte måste använda senaste, gör problemet mindre.

Skrivet av Sveklockarn:

Om det skulle finnas ett 10% snabbare AMD-kort som kostar 500 kr mindre än det Nvidia-kort jag just köpt, så känner jag på sin höjd att det är kul för den som gjort en bra affär, men förändrar inte nöjdheten jag känner för mitt eget inköp.

Kan jag respektera. Vi alla gör våra beslut, både bra och dåliga. Inget är ett säkert kort idag, och så länge det fungerar så får man vara nöjd med det.

Skrivet av Sveklockarn:

Jag läser ofta med stort intresse motiveringar till varför den ena eller andra tillverkaren gjort vissa designval, men ofta går dessa att koka ner till att "jag gillar det bättre, därför är det överlägset". @Yoshman är en av de få på SweC som faktiskt levererar väl underbyggda inlägg med tekniska belägg och argument för varför det är på ett eller annat sätt. Förmågan att "läsa mellan raderna" i inlägg och "avslöja" medforister som fläktpojkar är ofta ett tecken på att man själv har de drag man anklagar andra för att ha.

Problemet jag sett med Yoshman på senaste är att han just springer iväg med fakta, som inte ens har med problemet eller diskussionen att göra. Han försöker dränka åsikter och din förståelse i tonvis med data du troligen inte alltid hänger med. Detta att han säger saker som att det är fakta, som månader senare visar sig vara totalt galet, är både missvisande och dumt. Det lär ju alla mindre kunniga fel, så de sen springer och upprepar hans ord som fakta.

Du har dock huvudet på spiken på en punkt. Jag gillar AMD över Nvidia, men inte för den poängen som du tror. Utan för att folk medvetet verkar trycka ner dem, trots att de är långt ifrån det sämre alternativet många gånger. Övertron på Nvidia hos folk, är vad som "skapar" mig. Sättet Nvidia verkar bete sig mot sina kunder gör det inte bättre, något man ser när man tittar bak lite.

Permalänk
Datavetare
Skrivet av Paddanx:

Antingen har jag, och troligen resten av världen missat hf begränsningen på det kortet är, men nej... den kan inte använda all bandbredd samtidigt. Tekniskt sett omöjligt. Den kan läsa 3GB helt normalt, utan något problem. Den sista 1GB är delad, där den kan läsa ena halvan, eller andra. Den kan inte läsa det samtidigt.

Jag hoppas verkligen att jag misstolkat din förklaring ovan, annars får du nog gå tillbaka till ritningen.

Så vad du säger är att DX12, är helt nya spelregler. Och du sen ignorerar 970s "segment". Antingen är båda ett pot. problem, eller så är inget.

Man kan ha massor med minnestransaktioner "in-flight" samtidigt, grafikkort är exceptionellt parallella i detta vilket är en stor anledning till att latens mot RAM är ett långt mindre problem för grafikkort än för CPUner (fast moderna CPUer kan också ha tiotals minnestransaktioner "in-flight"). Är fullt möjligt att samtidigt ha minnestransaktioner mot båda VRAM-poolerna, går även parallellt med det ha minnestransaktioner mot systemminne över PCIe. Grafikkort har dedikerad maskinvara för detta, maskinvara som DX12 och Vulkan nu också explicit exportera i form av "Copy Queue", den 3:e typen av "kö" som finns (de andra är "compute queue" och "3D queue").

Naturligtvis är segmenteringen i 970 en komplicerade faktor i DX12. Men även här kan man nog vara lugn då 970 är en av de mest framgångsrika modellerna någonsin och skulle x70 ha motsvarande konfiguration kan man definitivt vara säker på att DX12/Vulkan spelmotorer kommer hantera detta.

Skrivet av Paddanx:

Alla kort utanför sin optimala situation är en smärre katastrof.
Jag, som från första kommentaren jämförde 970 och 980. DU och bara du drog in "alla andra" som smutskastning. Eller påstår du att 980 och 970 har olika 1kb segment nu också? Är Maxwell kärnan annorlunda?

Man kan banne mig inte diskutera en enkel sak i detta forum, utan att folk ska hitta på saker hos andra tillverkare, eller andra modeller "för att göra sin poäng hörd". Dina poster ovan är ett jävligt bra exempel på detta.

Hela syftet var att belysa det faktum att inget spel har så här långt uppvisat några som helst problem som kan hänföras till 3,5/0,5 GB uppdelningen. Tycker ändå att peka på att det faktiskt finns kort som har VRAM relaterade problem i dagens var väldigt relevant till diskussionen här, trist om du tar det som att jag kliver dig på tårna.

Skrivet av Paddanx:

http://www.geforce.com/hardware/desktop-gpus/geforce-gtx-970/...
http://www.geforce.com/hardware/desktop-gpus/geforce-gtx-980/...

Enda jag ser är färre cuda, annan frekvens och annan "TDP" effekt. Annars är det ingen skillnad tydligen. Vilket är en ren jädra lögn. De blev ju ffs stämda för det... så de har tagit bort alla delar som visade detta nu. Innan stod där 196 + 28 GB/s bandbredd, vilket är så det är uppbyggt. Samt 224bit + 32 bit buss.

Storlek på L2-cache är något som överhuvudtaget inte är känt för vissa modeller (380/Fury t.ex.), det är inte heller något som tidigare var del av de specifikationer som listas. Så inget konstigt att det inte finns med här.

Antal ROPs brukar gå att gräva fram, men det är lite listat här.

De saker som faktiskt skiljer står inte med på sidan, så finns inget fel här. Minnesbussen är fortfarande 256 bitar, uppdelad på 8 st 32-bitars kanaler varav 7 är multiplexade över 3,5 GB och en separat pool om 0.5 GB ligger på en egen kanal. Aggregerad bandbredd mot VRAM är 224 GB/s och det är praktiskt möjligt att uppnå denna bandbredd.

Det är en väldigt stor skillnad på att ljuga och på att inte berätta hela sanningen. Även om man berättade hela sanningen, vilket gjorts i en rad artiklar, verkar det inte hjälpa speciellt mycket då få verkar förstå vad som skrivs.

Skrivet av Paddanx:

http://www.anandtech.com/show/8931/nvidia-publishes-statement...

"When a game needs less than 3.5GB of video memory per draw command then it will only access the first partition, and 3rd party applications that measure memory usage will report 3.5GB of memory in use on GTX 970, but may report more for GTX 980 if there is more memory used by other commands. When a game requires more than 3.5GB of memory then we use both segments."

Detta är Nvidias eget svar. Så vill du argumentera mot det, får du prata med Nvidia själva.
Så din poäng att kortet rapporterar bara denna användning har du svaret på där. Den är designad att göra så i drivarna. 980 gör inte detta.

Vilket numera är gammal information då verktyg inte längre verkar ha något problem att rapportera summan av användning av 3,5 GB och 0,5 GB poolen. Gav ju en länk ovan där Rise of the Tomb Raider rapporterar 4,0 GB allokerad mängd VRAM både för 970 och 980.

Skrivet av Paddanx:

Så om du ska skriva denna "fakta" i fortsättningen, som just en spekulation/gissning, gör det som "jag tror", "de borde", "kanske". Inte som du har skrivit:
"AotS är ändå lite speciellt i att vara ett RTS..."
"AotS är på sin höjd en vink kring hur RTS-spel kommer bete sig under DX12."
Jag tror... det bör?

Detta var inte mina egna ord, läs vad Oxide själva skriver om AotS. Det är en speciell titel i det att spelet innehåller en massiv mängd enheter och där man kör en AI-algoritm per enhet som, oberoende av AI hos andra enheter, kan evalueras. Detta betyder att AotS skalar långt bättre än normal över CPU-kärnor och det betyder också att spelet är långt mer CPU-tungt (när man har många enheter) än vad som är normalt för spel idag. D.v.s. det är en "poster child" för att demonstrera fördelarna med DX12.

Att spel i genomsnitt, i alla fall inte initialt, inte kommer få någon stor boost av DX12 är inte mitt eget påhitt. Dels går det att resonera sig fram till det om man funderar kring flaskhalsar (CPU-kraft är inte en), men har också sett det nämnas åtskilliga gånger på game-dev bloggar och utgår från att de som postar där har lite mer koll på spelutvecklning än vad som är fallet på mer generella teknikforum.

Och ta inte mitt ord för det, titta vad DX12 gav över DX11 i Rise of the Tomb Raider och i Hitman: i genomsnitt blev det exakt samma prestanda (om man blint bara stirrar på siffror så är det i genomsnitt marginellt lägre prestanda med DX12 för de flesta kort).

Skrivet av Paddanx:

Men jag frågade dig om en Nvidia fördel... och fick ett allmänt svar för "alla". Definition, skitsnack

Feature level 12.1. Gameworks (vet att du hatar detta, men det används i praktiken så deal with it) använder numera finesser som kräver feature level 12.1.

När Polaris släpps kommer båda AMDs och Nvidias kort ha stöd för feature level 12.1 så spel kommer i allt mindre utsträckning testas på kort som saknar detta. Det är en fördel för Maxwell över dagens GCN i DX12 (och DX11.3 som också kan använda feature level 12.1 teknik).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Fram till 45/65 nm (folk är oense om exakt vilken nod detta hände) gav nodminskning både högre densitet och oavkortat också lägre strömförbrukning (Dennard scaling), fram till "breakdown of Dennard scaling" så gav nya noder definitivt mer än 100 %. Krympningarna efter det har i sig själv bara fått högre densitet, läckströmmen har vid krympningen ökat och man har vid varje ny nod tvingats utveckla ny teknik för att kompensera för detta, t.ex. FinFET.

FinFET är i sig inget positivt, det är en förutsättning för att hålla läckströmmen på en rimlig nivå. 20 nm är ett bra exempel på vad som händer när man inte kompenserar tillräckligt mycket för ökad läckström, vinsten över 28 nm var inte speciellt stor och det visade sig till och med att högpresterande kretsar var överhuvudtaget inte vettigt att tillverka på den noden.

Positivt är ändå att fler transistorer per ytenhet nästan uteslutanden också översätts i motsvarande vinst i prestanda för grafikkort då de arbetsuppgifter en GPU utför skalar extremt väl med antal parallella beräkningsenheter. CPUer kan använda fler transistorer till att få fler kärnor, fler funktioner etc men det översätts inte alls lika direkt till ökad generell prestanda, framförallt inte på skrivbordet.

Och naturligtvis kan AMD och Nvidia också göra arkitekturförbättringar, att det finns mycket man kan göra även på det området är Maxwell ett gott exempel på. Hur mycket högre prestanda blir i slutändan är väldigt svårt att säga, men är väldigt övertygad att grafikkortprestanda kommer den bli minst 100 % högre under denna nod jämfört med 28 nm. Så säger inte att 200 % högre prestanda per ytenhet inte kommer hända, tror dock inte det blir riktigt så högt.

Ett problem för tillfället är ju att man inte kan tillverka lika stora kretsar på 14/16 nm som man kunde på 28 (22 nm för Intel). Så för att nå 100 % högre prestanda måste just nu prestanda per areaenhet öka betydligt mer än 100 %. Naturligtvis är det möjligt att man med tiden kommer runt detta.

Men lugna ner dig med de ovidkommande föreläsningarna är du snäll. Jag vet mer än väl att problemen ökar för varje nodkrympning och att man inte kan applicera hur det såg ut för 10-20 år sedan på dagens krympningar. Du behöver inte föreläsa om det i varje inlägg du gör. Vet inte riktigt vad avsikten är med det. Men det känns mer som att du gör det för tredje part snarare än för att faktiskt svara mig.
Men då är vi överrens om att vi kan vänta oss minst dubbla prestandan per ytenhet nästa nod. 200% högre var som syns av sammanhanget ett semantiskt fel. Menar såklart 200% så hög prestanda per ytenhet.

Permalänk
Medlem
Skrivet av Yoshman:

Man kan ha massor med minnestransaktioner "in-flight" samtidigt, grafikkort är exceptionellt parallella i detta vilket är en stor anledning till att latens mot RAM är ett långt mindre problem för grafikkort än för CPUner (fast moderna CPUer kan också ha tiotals minnestransaktioner "in-flight"). Är fullt möjligt att samtidigt ha minnestransaktioner mot båda VRAM-poolerna, går även parallellt med det ha minnestransaktioner mot systemminne över PCIe. Grafikkort har dedikerad maskinvara för detta, maskinvara som DX12 och Vulkan nu också explicit exportera i form av "Copy Queue", den 3:e typen av "kö" som finns (de andra är "compute queue" och "3D queue").

Naturligtvis är segmenteringen i 970 en komplicerade faktor i DX12. Men även här kan man nog vara lugn då 970 är en av de mest framgångsrika modellerna någonsin och skulle x70 ha motsvarande konfiguration kan man definitivt vara säker på att DX12/Vulkan spelmotorer kommer hantera detta.

Här har vi ett bra svar. Detta är vad jag hoppades få fram.
Tekniskt sett finns problemet, men du har givit en bra förklaring till varför det borde lösas i framtiden också. (notera borde, inte "ska/kommer definitivt").

Skrivet av Yoshman:

Hela syftet var att belysa det faktum att inget spel har så här långt uppvisat några som helst problem som kan hänföras till 3,5/0,5 GB uppdelningen. Tycker ändå att peka på att det faktiskt finns kort som har VRAM relaterade problem i dagens var väldigt relevant till diskussionen här, trist om du tar det som att jag kliver dig på tårna.

Har faktiskt aldrig ens en enda gång sagt emot att något spel (i single kort utförande) har problem. Om något har jag vid nästan varje post sagt exakt det du säger nu. Därför förstår jag inte varför du säger det om och om igen...
I SLI är det dock ett problem, som det finns tecken, bevis och jag själv i förstahands har sett det. Det går troligen att lösa där också, men att lösa det i DX12, "multigrafik" blir en intressant fråga.

Skrivet av Yoshman:

Storlek på L2-cache är något som överhuvudtaget inte är känt för vissa modeller (380/Fury t.ex.), det är inte heller något som tidigare var del av de specifikationer som listas. Så inget konstigt att det inte finns med här.

Antal ROPs brukar gå att gräva fram, men det är lite listat här.

De saker som faktiskt skiljer står inte med på sidan, så finns inget fel här. Minnesbussen är fortfarande 256 bitar, uppdelad på 8 st 32-bitars kanaler varav 7 är multiplexade över 3,5 GB och en separat pool om 0.5 GB ligger på en egen kanal. Aggregerad bandbredd mot VRAM är 224 GB/s och det är praktiskt möjligt att uppnå denna bandbredd.

I teorin kan AMD 8350 köra 8 fulla trådar också, och i teorin är HT som att ha 1 hel extra kärna. Men både du och jag vet att verkligheten och praktisk tillämpning är en helt annan sak.

Skrivet av Yoshman:

Det är en väldigt stor skillnad på att ljuga och på att inte berätta hela sanningen. Även om man berättade hela sanningen, vilket gjorts i en rad artiklar, verkar det inte hjälpa speciellt mycket då få verkar förstå vad som skrivs.

Nu låter du som politiker, att missleda information vid jämförande specifikationer, är som att ljuga. Om den hade haft 4GB som kan användas fullt ut så hade den också inte behövt 3,5GB mjukvaruspärren. Något "gör" ju denna begränsning, eller hur?

Skrivet av Yoshman:

Vilket numera är gammal information då verktyg inte längre verkar ha något problem att rapportera summan av användning av 3,5 GB och 0,5 GB poolen. Gav ju en länk ovan där Rise of the Tomb Raider rapporterar 4,0 GB allokerad mängd VRAM både för 970 och 980.

Nvidia har ju sagt att de har optimerat VRAM hanteringen så att mindre frekvent data läggs på denna pool. Så visst kan du lägga info där, ingen tvekan om det. Men det är mer fråga om att kunna använda den till 100%, vilket som sagt Nvidia själva säger, inte är möjligt i sina uttalande. Är en stor gråzon det här... Är lite som att ha 2 parkeringsplatser där när en står i ena platsen så kan inte den andra bilen köra ut. Men du har fortfarande 2 platser, så visst, du ljuger inte. Men vill du vara den som nu är blockerad?

Skrivet av Yoshman:

Detta var inte mina egna ord, läs vad Oxide själva skriver om AotS. Det är en speciell titel i det att spelet innehåller en massiv mängd enheter och där man kör en AI-algoritm per enhet som, oberoende av AI hos andra enheter, kan evalueras. Detta betyder att AotS skalar långt bättre än normal över CPU-kärnor och det betyder också att spelet är långt mer CPU-tungt (när man har många enheter) än vad som är normalt för spel idag. D.v.s. det är en "poster child" för att demonstrera fördelarna med DX12.

Okej, då förstår jag den kommentaren. Men det förändrar inte dina kommentarer om async, som inte skulle kunna användas i något annat än just detta special fall. Något du hamrade i mig, flertalet gånger, för där hade jag fel.

Skrivet av Yoshman:

Att spel i genomsnitt, i alla fall inte initialt, inte kommer få någon stor boost av DX12 är inte mitt eget påhitt. Dels går det att resonera sig fram till det om man funderar kring flaskhalsar (CPU-kraft är inte en), men har också sett det nämnas åtskilliga gånger på game-dev bloggar och utgår från att de som postar där har lite mer koll på spelutvecklning än vad som är fallet på mer generella teknikforum.

Och ta inte mitt ord för det, titta vad DX12 gav över DX11 i Rise of the Tomb Raider och i Hitman: i genomsnitt blev det exakt samma prestanda (om man blint bara stirrar på siffror så är det i genomsnitt marginellt lägre prestanda med DX12 för de flesta kort).

Detta resonemang kan jag helt ställa mig bakom. DX12 är en gamechanger, men inte en mirakelkur. Jag kan öppet och blint erkänna att jag inte ens vill sätta mig in i hur komplext det är att få DX12 att fungera, men jag ser potentialerna när bra programmerare får göra sitt.

Skrivet av Yoshman:

Feature level 12.1. Gameworks (vet att du hatar detta, men det används i praktiken så deal with it) använder numera finesser som kräver feature level 12.1.

När Polaris släpps kommer båda AMDs och Nvidias kort ha stöd för feature level 12.1 så spel kommer i allt mindre utsträckning testas på kort som saknar detta. Det är en fördel för Maxwell över dagens GCN i DX12 (och DX11.3 som också kan använda feature level 12.1 teknik).

Notera att jag hatar inte tekniken, jag hatar sättet det har implementerats. Där man prioriterar en för mig och många andra (som inte har 2x 980ti/Titan kort) inte ens kan använda dessa funktioner utan att tappa nästan hela spelbarheten. Speciellt när en del av denna teknik gör så lite visuell skillnad, för så stor prestandaförlust, för både Nvidia och AMD.

Prestanda, flyt och bra spel ska, borde och måste prioriteras över allt och alla andra små finesser. Men jag förstår, man kan lägga på dessa tekniker enkelt, och voilà, nu fungerar spelet inte för någon.

Men som sagt, jag stänger av de funktioner som ger typ ingen visuell fördel och spelar på 2 år gamla kort i nått år till med alla normala funktioner på hög/max nivå. Så visst har du en poäng, "im dealing with it"...

Permalänk
Medlem
Skrivet av Paddanx:

Tycker dock det är synd att säga denna överklocksåsikt på ett överklockningsforum. Är som att säga att jag vill ta cykeln/bussen på ett bilforum... Men. Jag förstår din poäng.
Antar att du köper Nvidias original grafikkort då också, eller är överklockning okej från fabrik?

Jag är inte emot överklockning, jag är emot att klabba med det själv nuförtiden, inte minst p.g.a. att jag upplever att frustrationen över minsta instabilitet tar bort oproportionerligt mycket glädje från mitt datoranvändande. Intel levererar ju en form av fabriksöverklockning med sin Turbo Boost, mitt Asus-moderkort har något som kallas Multicore Enchancement som tekniskt sett är en överklockning, mitt 980 Ti är fabriksöverklockat.

Skillnaden mot om jag själv fipplar är att någon annan testat och framförallt garanterar att det funkar, därför är fabriksöverklockning helt ok för mig. Jag antar att du inte ser någon större konflikt i det?

Skrivet av Paddanx:

Han försöker dränka åsikter och din förståelse i tonvis med data du troligen inte alltid hänger med. Detta att han säger saker som att det är fakta, som månader senare visar sig vara totalt galet, är både missvisande och dumt. Det lär ju alla mindre kunniga fel, så de sen springer och upprepar hans ord som fakta.

Jag uppfattar det inte så, och även om någon har aningen fel i en tråd så innebär inte det att man alltid orkar påpeka det. Sen är det ju inte direkt Yoshmans fel att att det finns folk som gillar att upprepa vad "auktoriteter" säger till dem som om det vore fakta. Det är bara att titta hur det ser ut i svensk politik, för att dra en vardaglig parallell.

Skrivet av Paddanx:

Utan för att folk medvetet verkar trycka ner dem, trots att de är långt ifrån det sämre alternativet många gånger.

Å andra sidan kan det nog delvis kopplas till AMDs attityd, som inte varit särskilt ödmjuk i bl.a. marknadsföringssammanhang. Jag var förresten en stor AMD-entusiast en gång i tiden och tyckte att de var det bästa som hänt sedan skivat bröd. Jag kan ju enkelt konstatera att omvänt förhållande inte råder idag, och att min entusiasm är på ett annat plan idag.

Skrivet av Paddanx:

Övertron på Nvidia hos folk, är vad som "skapar" mig. Sättet Nvidia verkar bete sig mot sina kunder gör det inte bättre, något man ser när man tittar bak lite.

Okritiska konsumenter är dåligt för alla, det kan jag hålla med om, om det är det du menar. Personligen har jag aldrig upplevt mig "lurad" av Nvidia, varken före eller efter köp.

Permalänk
Medlem
Skrivet av Sveklockarn:

Jag är inte emot överklockning, jag är emot att klabba med det själv nuförtiden, inte minst p.g.a. att jag upplever att frustrationen över minsta instabilitet tar bort oproportionerligt mycket glädje från mitt datoranvändande. Intel levererar ju en form av fabriksöverklockning med sin Turbo Boost, mitt Asus-moderkort har något som kallas Multicore Enchancement som tekniskt sett är en överklockning, mitt 980 Ti är fabriksöverklockat.

Skillnaden mot om jag själv fipplar är att någon annan testat och framförallt garanterar att det funkar, därför är fabriksöverklockning helt ok för mig. Jag antar att du inte ser någon större konflikt i det?

Inte alls.
Det är dyrare alternativ att göra så, men du har valt att betala för lite mer säkerhet att det ska fungera.

Personligen tycker jag det är kul att pilla med saker. Testa olika konstiga lösningar. Köra Windows på USB minne, försöka köra RAIDade kina SSDer, pilla med olika inställningar mm.
Det är lite som en hobby att få något att fungera, som egentligen inte borde

Med det sagt så bygger jag också system både till jobb och till hem (släktingar) och då tänker jag typ som du. Skillnaden är att jag tycker AMD ger nu för tiden mindre huvudvärk med normala system. Så länge det fungerar när man lämnar det, så fungerar det rätt bra även med nyare mjukvara, utan att behöva fibla med drivrutiner. Samtidigt så får de mer för pengarna och mer "framtidssäkrat", eller har fått iaf med 290 korten som köpts och fungerar än. Men du har säkert en annan uppfattning, och det är väl därför vi diskuterar.

Skrivet av Sveklockarn:

Jag uppfattar det inte så, och även om någon har aningen fel i en tråd så innebär inte det att man alltid orkar påpeka det. Sen är det ju inte direkt Yoshmans fel att att det finns folk som gillar att upprepa vad "auktoriteter" säger till dem som om det vore fakta. Det är bara att titta hur det ser ut i svensk politik, för att dra en vardaglig parallell.

Nej, men man kan ju gör det med lite poängtering att det är just en kvalificerad gissning han gör oftast, med sättet att skriva. Han har uppenbarligen mycket kunskap, inga tvivel om det. Han är dock inte alltid den bästa att verken argumentera med, eller rättare sagt, emot, för han bokstavligt talat öser väggar med text på saker som inte ens hade med det man frågade att göra. Så det handlar inte om att ha rätt, utan han öser fakta på dig (oavsett vilket udda google sök-test han hittar) som ska visa hans poäng, oavsett om det är relevant eller inte.

Därför har jag börjat reagera. För det börjar bli som, är det inte "certifierat av honom", är det inte rätt.

Skrivet av Sveklockarn:

Å andra sidan kan det nog delvis kopplas till AMDs attityd, som inte varit särskilt ödmjuk i bl.a. marknadsföringssammanhang. Jag var förresten en stor AMD-entusiast en gång i tiden och tyckte att de var det bästa som hänt sedan skivat bröd. Jag kan ju enkelt konstatera att omvänt förhållande inte råder idag, och att min entusiasm är på ett annat plan idag.
Okritiska konsumenter är dåligt för alla, det kan jag hålla med om, om det är det du menar. Personligen har jag aldrig upplevt mig "lurad" av Nvidia, varken före eller efter köp.

AMD är inget "snällt företag", det vet jag. Men folk älskar att hacka på dem för ingen anledning rätt också ofta, samt med felaktiga grunder eller uppfattningar (Nvidia också, men så fort man gör det så kommer Yoshman eller någon annan och stället det till rätta så klart). Så ja... lite kritik bakom sina tankar behöver vi alla nog ha.

Ang Nvidia i sig själv så är det deras monopol, instängda och mjölkande beteende (att det är endast denna gen som de bryr sig om) som jag reagerar på, men det är inte pga det står "Nvidia", utan det är pga de har marknaden i så hårt grepp att de kan göra det. Kan lika gärna stå AMD eller Intel på den biten, om och när de gör samma sak. Utan för mig är det konsumenterna och endast konsumenterna som spelar roll.

Just därför satte jag tex också in 980Ti och 750Ti i två vänners maskiner respektive nyligen. För det matchade deras behov, budget och önskemål bättre än AMD alternativen. Men samtidigt så skulle jag själv inte välja dessa då de inte passar mitt behov. Men visst kan jag vara objektiv i mitt tänk mellan dessa, och inte sitter och tänker att alla blir "lurade" av Nvidia varje dag

Tror man kan säga så här. Om du verkligen är objektiv, förklara för mig varför du skulle ta konkurrentens kort, över din "favorit". För kan du i en diskussion lyfta fram din "motståndares" alternativ så, då vet du också varför du valt det du har själv.

Permalänk
Avstängd

@Paddanx:

Min favorit har varit Nvidia länge... De har något som enbart de själva har och som AMD inte har haft någonsin... http://physxinfo.com/wiki/Main_Page

Sen om det handlar om 10 FPS upp eller ner i "ändå höga siffror" har ingen som helst betydelse, bara spelet flyter på som smör med allt på ULTRA och gör det bekvämt i mina ögon att spela. Nvidia ger något extra synligt i vissa spel som inte AMD korten erbjuder, med andra ord har man ett Nvidia kort så har man både Nvidia och "AMD". Med bara ett eller två AMD kort försvinner dessa effekter helt, tyvärr.
Att plocka fram ett äldre spel med extra effekter man inte sett då man hade ett AMD kort är för mig nostalgi... Spela t.ex Mirrors Edge idag med ett Nvidia kort istället ger en massa sköna spelkänslor samt extra ögongodis som var totalt osynliga med mitt dåvarande AMD kort 5770.

Radeon 5770 är ett av de bästa kort jag haft fortfarande, men det enbart av dess överklocknings potential och pris...
Jag har sen dess kört Nvidia och kommer nog köra med Nvidia framöver om inte AMD kan visa det lilla extra osynliga i ALLA "Nvidia" spel.

Nu kommer folk hacka på dessa spel och effekter, men för min del så är det att spela spelets helhet med allting på, "att spela spelet så som det är tänkt att spelas" .. The way it's meant to be played - Nvidia.

Mirrors Edge: https://www.youtube.com/watch?v=w0xRJt8rcmY
Borderlands 2: https://www.youtube.com/watch?v=9k1idbbr2pw
Fallout 4: https://www.youtube.com/watch?v=e340suIiXtg https://www.youtube.com/watch?v=UHtmTjCX0bo
The Witcher 3: https://www.youtube.com/watch?v=Md4Hmgtl8q0

MVH

Permalänk
Medlem
Skrivet av RaBlack:

Min favorit har varit Nvidia länge... De har något som enbart de själva har och som AMD inte har haft någonsin... http://physxinfo.com/wiki/Main_Page

Jag har sen dess kört Nvidia och kommer nog köra med Nvidia framöver om inte AMD kan visa det lilla extra osynliga i ALLA "Nvidia" spel.

Detta är tyvärr ett exempel på Nvidias låsta teknik.
Folk hade ju tom förr AMD kort och ett Nvidia kort just för att få denna fördel, så jag förstår helt din önskan. Problemet är att du typ skjutit dig i foten med den. Nvidia tyckte dock att de inte tjänade nog på det, så de har gjort som de gjort med överklockning på laptop, och låst det. Därför kommer den aldrig att bli standard heller.

Om Nvidia hade "tvingats" licensera eller hade frivilligt släppt detta öppet (alt vi kört på en öppen teknik) så hade alla spel, inte bara de du nämner tex ovan, kunnat ha denna teknik. PhysX är en bra teknik, ingen tvekan om det, men pga den låsningen så har den aldrig blivit en standard, utan den är och kommer förbli en Nvidia sak, som bara finns i dessa "Nvidia spel", vilket är synd.

Min poäng, hade du inte hellre velat se tekniken i alla "AMD spel" också?

Permalänk
Avstängd

@Paddanx: Håller med dig 100% och är 100% införstådd i detta också. Men som saken ser ut nu utifrån deras val "NV" då de köpte upp Ageia PhysX har det blivit så, tyvärr "idioti från Nvidia". Samma sak gäller MicroSoft och deras Direct X, vore bäst om alla körde samma standard men så är det inte, tyvärr. Alla vill ha monopol och vi konsumenter är de som bestämmer vart vi lägger våra pengar. Jag själv väljer Nvidia bara för att de har just denna teknik i deras "makt" och det stör AMD så oerhört därmed har de utvecklats också och kämpar för att få sina standarder öppna för oss. Vad vore skillnaden att ha 2 GPU tillverkare om de inte skiljde sig åt? Då skulle det ju bara behövts ett som då har monopol så som MicroSoft lyckats med IBM kompatibla datorer. Förr fanns OS 2 samt andra operativsystem men tyvärr... idag är typ alla låsta till Windows och det fortsätter så. Hur många köper MAC och vill stödja dem så de blir mer spelvänliga och bättre? Ganska få. Varför väljer folk PC? Billigare samt mer spel m.m. Ingen tänker Ojj de får monopol och därför bör vi köpa MAC så vi stödjer dem och kan få coolare spel och GPU'er i deras system. Det finns massa olika förklaringar till varför det ena ser ut som det är men verkligheten är ändå... vad får jag för pengarna som jag anser är bäst i slutändan. Har man råd så köper man en MAC och är nöjd med den för det man vill göra samma sak gäller det med grafikkort. Vill man ha det lilla extra som Nvidia erbjuder ja då får det bli ett Nvidia kort. Har AMD något de erbjuder utöver Nvidias kort då kommer de garanterat ta mer mark från Nvidia än nu... Det räcker inte med bara priset för min del, jag vill se något utöver konkurrenterna.

Jag gillar AMD, MAC, Linux o.s.v. spelar ingen roll vad det står på etiketterna men de erbjuder inte mig något extra för de spel jag spelar i slutändan. Väntar fortfarande på GPU'er som skall kunna hantera Raytracing i realtid på spel... då blir det köp direkt vare sig det är Nintendo, Sega, Atari, MAC, Amiga eller AMD.

MVH