Eftersom "tydligen" är jag den som har fel... Nvidia horderna galopperar bra här som vanligt.
Skrivet av Yoshman:
I båda fallet är ju det hela ett icke-problem i praktiken. I fallet 840EVO fick man i slutändan en bättre produkt än konkurrenterna då fixen man gjort har som bieffekt att prestanda inte droppar av som den gör på andra billiga SSD-diskar när de med tiden fragmenteras. I alla fall om man använder sin 840EVO, ligger den i en låda är det inte lika bra...
Inget problem, så länge all mjukvara får jobba. 840 EVO behöver ström... 970 behöver Nvidas drivrutinskapare. Så åter, du blint antar att detta inte är ett problem i DX12, utan att veta hur det kommer visa sig, då som du själv sagt, det är upp till speltillverkarna att nu göra Nvidias jobb.
Skrivet av Yoshman:
Oh, måste låta bli att kommentera detaljer... Nä, går inte
970 får inte lägre prestanda i praktiken när den accessar båda segment, faktum är att det är enda sättet den kan nå full bandbredd. 970 har fortfarande 8 st 32-bitars VRAM-minneskanaler, precis som 980. Däremot saknas en koppling mot cross-baren mot GPUn, dock är bandbredd-kapaciteten där långt högre än bandbreddskapacitet mot VRAM då kopplingen mot GPU är designad för att hantera bandbredd mot L2$ som är högre än bandbredd mot VRAM.
Jämfört med 980 har 970 lägre bandbredd på den "stora" poolen, men å andra sidan har 970 också lägre GPU-kapacitet så den har inte heller samma behov av VRAM-bandbredd. Så vill man klaga på 970 har man ett större slagträ här.
Antingen har jag, och troligen resten av världen missat hf begränsningen på det kortet är, men nej... den kan inte använda all bandbredd samtidigt. Tekniskt sett omöjligt. Den kan läsa 3GB helt normalt, utan något problem. Den sista 1GB är delad, där den kan läsa ena halvan, eller andra. Den kan inte läsa det samtidigt.
Jag hoppas verkligen att jag misstolkat din förklaring ovan, annars får du nog gå tillbaka till ritningen.
Skrivet av Yoshman:
Sedan är det faktiskt så att den irrelevanta detaljen jag påpekade om segmentering av VRAM (som även finns på Nvidias kort, även där är blockstorleken per VRAM-kanal 1 kB) inte längre är irrelevant i DX12. Att t.ex. DX12 stödet i Rise of the Tomb Raider minskade prestanda mot DX11 på de flesta kort kan faktiskt vara relaterat till bl.a. detta. En sak DX11 gör är att lägga ut saker i VRAM på ett sätt så alla minneskanaler belastas jämnt, ju "bredare" VRAM-bussen är ju viktigare blir denna optimering (och kan vara del i förklaringen till varför 4 GB VRAM i t.ex. Fury tar slut snabbare än 4 GB VRAM i 970/980, ju bredare buss ju mer "spill" blir det för att sprida t.ex. texturer jämnt över minneskanalerna). Detta är ännu en sak som nu hamnar i knät på spelutvecklarna att optimera för i DX12 men som hanterades av drivers i DX11. Inte helt lätt med tanke på att detta är en egenskap som skiljer sig mellan modeller även från samma tillverkare.
Så vad du säger är att DX12, är helt nya spelregler. Och du sen ignorerar 970s "segment". Antingen är båda ett pot. problem, eller så är inget.
Skrivet av Yoshman:
Fast om du läst vad jag anser om DX12 så är grundsynen rejält positiv, har massor med gånger skrivit att min övertygelse är att DX12 på sikt kommer vara ett rejält lyft över DX11. Man måste bara ge spelutvecklarna tid att lära sig designa spelmotorer för DX12, för det är en ganska stor skillnad från tidigare.
Sen när är fakta som jag försökte backa upp med referens "smutskastningsförsök"? Trodde detta var ett forum där man förväntas diskutera teknik och i detta specifika fall teknik kring grafikkort. Och om du nu anser att VRAM-relaterade problem är en smärre katastrof, är det då inte en ren välgärning att peka på andra modeller som också dras med bekymmer rotade i VRAM?
Alla kort utanför sin optimala situation är en smärre katastrof.
Jag, som från första kommentaren jämförde 970 och 980. DU och bara du drog in "alla andra" som smutskastning. Eller påstår du att 980 och 970 har olika 1kb segment nu också? Är Maxwell kärnan annorlunda?
Man kan banne mig inte diskutera en enkel sak i detta forum, utan att folk ska hitta på saker hos andra tillverkare, eller andra modeller "för att göra sin poäng hörd". Dina poster ovan är ett jävligt bra exempel på detta.
Skrivet av Yoshman:
Är inte med på vad som menas med att 980 och 970 skulle ha samma specifikationer, de har ju olika produktnamn och då 980 > 970 känns det rimligt att kunder utgår från att den förra är bättre. Läser du specifikationen för respektive kort har ju också 970 mindre L2$ och färre ROPs, vilket är fallet. Båda korten har 4 GB VRAM med samma aggregerad bandbredd.
http://www.geforce.com/hardware/desktop-gpus/geforce-gtx-970/...
http://www.geforce.com/hardware/desktop-gpus/geforce-gtx-980/...
Enda jag ser är färre cuda, annan frekvens och annan "TDP" effekt. Annars är det ingen skillnad tydligen. Vilket är en ren jädra lögn. De blev ju ffs stämda för det... så de har tagit bort alla delar som visade detta nu. Innan stod där 196 + 28 GB/s bandbredd, vilket är så det är uppbyggt. Samt 224bit + 32 bit buss.
http://www.pcworld.com/article/2888877/its-a-feature-not-a-fl...
"GTX 970 is a 4GB card. However, the upper 512MB of the additional 1GB is segmented and has reduced bandwidth."
"A crucial exception: Hitting the 3.5GB barrier while gaming at high resolutions in a multi-card SLI set-up results in noticeable stuttering, according to PC Perspective, which would be a major bummer if you dropped $700 on two GTX 970s to game at 4K or on a multi-monitor rig—though you’d most likely have to be playing at very low frame rates to use 3.5GB-plus of VRAM to begin with."
Så jag vidhåller min åsikt att det är ett praktiskt problem, i vissa situationer, och det är segmenterat. Dock lär ingen användare med single kort märka deti DX11, för drivarna gör sitt jobb.
http://www.anandtech.com/show/8931/nvidia-publishes-statement...
"When a game needs less than 3.5GB of video memory per draw command then it will only access the first partition, and 3rd party applications that measure memory usage will report 3.5GB of memory in use on GTX 970, but may report more for GTX 980 if there is more memory used by other commands. When a game requires more than 3.5GB of memory then we use both segments."
Detta är Nvidias eget svar. Så vill du argumentera mot det, får du prata med Nvidia själva.
Så din poäng att kortet rapporterar bara denna användning har du svaret på där. Den är designad att göra så i drivarna. 980 gör inte detta.
Skrivet av Yoshman:
Hur är det negativt att peka på att de som sitter på Maxwell faktiskt inte är körda även om det visar sig att "async compute" inte är möjligt på kretsen ihop med grafik? Det är väl positivt! Dissar inte heller "async compute" på något sätt, tvärt om (och skrivit detta flera gånger tidigare) hoppas jag man lurar ut massor med sätt att använda det då det gynnar de som sitter på GCN och om speltillverkarna bara lyfter blicken lite till (vilket redan är gjort i Unreal Engine 4) så betyder stöd för "async compute" att man kan utnyttja den iGPU som en "compute kö" vilket då ger "async compute" på alla system med iGPU (vilket är de flesta system) oavsett dGPU.
Körda, lite överskattat åsikt, erkänner detta. Men Nvidia måste först få funktionen att ens fungera rätt, sen kan vi se vad som sker. Det är som sagt dina kommentarer jag har använt för detta, där Nvidia i bästa fall "break even".
Stå för dina ord, annars vägrar jag någonsin respektera något från dig. Om du hade fel, säg det, men bortförklara inte det med skitsnack för att folk luras. Folk luras använda Nvidia gameworks... och vi får leva med det, inkl Nvidia ägare som får stillbilder med underbara hairworks. Det är alltid upp till spelutvecklnarna vilka tekniker de ska använda, och just nu råkar ena vara en av dem som de gillar, där AMD ligger bättre till, även om du inte gillar den.
Skrivet av Yoshman:
Av det du länkade ser jag inte när jag sagt emot mig själv. Detta är ett teknikforum, här utförs en hel del gissningar och spekulation kring framtiden för teknik. Dessa spekulationer kommer ibland visa sig vara fel, det är inte att säga emot sig själv. Vet att jag skrivit att Maxwell har "async compute" stöd i HW, det är inte spekulation utan fakta då det används i CUDA. Initialt var då då rimligt att anta att Nvidia faktiskt skulle kunna fixa "async compute" även för DX12, framförallt när man själva hävdade det. Att inget hänt på flera månader nu gör det väl rätt rimligt att den gissning man gjorde tidigare bör revideras, tystnaden kring detta är kompakt och det brukar betyda att leverantören stött på problem de inte har en lösning på (Samsung var också väldigt tyst kring 840EVO innan man kläckte den briljanta slutliga lösning, innan hade man garanterat ingen lösning och teg då som muren).
Problemet är att det går inte att argumentera med dig. Det är som att argumentera emot ett lexicon, av fakta som ofta inte verken stämmer, eller har med initiala posten att göra.
Så om du ska skriva denna "fakta" i fortsättningen, som just en spekulation/gissning, gör det som "jag tror", "de borde", "kanske". Inte som du har skrivit:
"AotS är ändå lite speciellt i att vara ett RTS..."
"AotS är på sin höjd en vink kring hur RTS-spel kommer bete sig under DX12."
Jag tror... det bör?
Det är sättet du säger saker, som att det är fakta, som gör att jag utan tvekan kan sätta dina åsikter mot dig själv. Du tror inte, "du vet". Precis som du "vet" att 970 inte kommer få problem i DX12. Jag däremot tror att det finns en risk, då felet måste fixas i varje spel, varje motor och varje situation, för ett enda kort.
Skrivet av Yoshman:
? Det var ingen specifik Nvidia-fördel jag pekade på, jag var positiv och pekade på att Maxwell, precis som GCN, faktisk fått den stora fördelen med DX12, d.v.s. lägre CPU-overhead och möjlighet till att använda flera CPU-kärnor. Du var pessimisten i att insinuera att alla Nvidia ägare är rökta när DX12-titlar börjar rulla ut då de (antagligen) saknar "async compute" stöd.
Okej, vi får se hur async blir. Men det är rätt bra tag sedan async började användas och Nvidia håller som sagt väldigt tyst, och flyr från DX12 spelen just nu. Så min pessimistiska åsikt är baserat på Nvidias pessimistiska syn på async, precis som din.
Men jag frågade dig om en Nvidia fördel... och fick ett allmänt svar för "alla". Definition, skitsnack
Skrivet av Sveklockarn:
Jag är Nvidia-fläktpojke av ett par olika skäl, men det innebär inte per automatik att jag tycker att AMD är skit och ingenting. Jag bygger datorer då och då, och uppmanar alltid de som ska betala att försöka bilda sig en egen uppfattning om vad de prioriterar för egenskaper. Är det en ren kostnadsfråga (pris/prestanda) blir det ofta lättare, då det är lättare att få fram vilken tillverkare och vilket kort som ger mest prestanda för en given summa.
Tycker jag också är en vettig åsikt och tanke. Alla prioriterar annorlunda.
Skrivet av Sveklockarn:
Jag prioriterar andra saker när jag köper dator numera, framförallt stabilitet, vilket bl.a. gjort att jag slutat överklocka helt och hållet. När det gäller specifika grejer som får mig att välja Nvidia så är det t.ex. G-sync, inte minst för att skärmtillverkarna inte har fria händer att hitta på saker som avviker från standard. Shadowplay är en annan viktig grej för mig, som jag upplever som osynligt och integrerat i bakgrunden på rätt sätt, så att man inte märker av att det finns förrän det faktiskt sparat en film.
Tycker dock det är synd att säga denna överklocksåsikt på ett överklockningsforum. Är som att säga att jag vill ta cykeln/bussen på ett bilforum... Men. Jag förstår din poäng.
Antar att du köper Nvidias original grafikkort då också, eller är överklockning okej från fabrik?
Ang G-sync håller jag delvis med dig. Jag håller med dig att kvalitén är bra, speciellt jämnare, och att det fungerar bättre i praktiken som det är. Jag tror dock att freesync kan bli bättre, både än G-sync i sig själv, och även som en öppen standard. Men det kräver också att den blir större än G-sync, vilket tror jag hänger på bla Intel. AMD borde dock satt mer restriktiva krav, och guidelinjer, ingen tvekan om det. Där har Nvidia gjort rätt från början.
Är lite som betamax och VHS, Blueray vs HDDVD, 2 tekniker som kämpar och båda har sina fördelar. Det är långt från alltid som den bättre tekniken vinner, eller att den som vinner är den bättre.
Raptor och play.tv fungerar faktiskt mycket bra det också, så det finns alternativ för AMD.
Något som tyvärr många missa är just det. "Nvidia är det enda som fungerar", är problemet. Inte bättre, sämre, 10% hit och dit. Det förändras varje år, månad, shit tom efter 1 drivrutin. Men för mig har AMD en stor fördel just nu. Mindre behov av 20 nya drivare varje år, utan du kan köra 6 mån gamla, vilket är perfekt om man har släktingar eller så som inte man behöver hjälpa med drivare varje månad. Detta är ett "problem" med Nvidias Maxwell, att den måste konstant twekas för att få mest ut ur. Och på forumet finns idag åter en post om Nvidia drivare som gjort att folk får problem, vilket jag såg en på redan i fredag.
Min poäng... Nvidia är inte så stabila de en gång var. AMD dock är betydligt mer stabila i långtidsanvändning. (av min erfarenhet de senaste 1+ året iaf). AMD har sina drivrutinsproblem de också dock, ingen tvekan om det. Men just att man inte måste använda senaste, gör problemet mindre.
Skrivet av Sveklockarn:
Om det skulle finnas ett 10% snabbare AMD-kort som kostar 500 kr mindre än det Nvidia-kort jag just köpt, så känner jag på sin höjd att det är kul för den som gjort en bra affär, men förändrar inte nöjdheten jag känner för mitt eget inköp.
Kan jag respektera. Vi alla gör våra beslut, både bra och dåliga. Inget är ett säkert kort idag, och så länge det fungerar så får man vara nöjd med det.
Skrivet av Sveklockarn:
Jag läser ofta med stort intresse motiveringar till varför den ena eller andra tillverkaren gjort vissa designval, men ofta går dessa att koka ner till att "jag gillar det bättre, därför är det överlägset". @Yoshman är en av de få på SweC som faktiskt levererar väl underbyggda inlägg med tekniska belägg och argument för varför det är på ett eller annat sätt. Förmågan att "läsa mellan raderna" i inlägg och "avslöja" medforister som fläktpojkar är ofta ett tecken på att man själv har de drag man anklagar andra för att ha.
Problemet jag sett med Yoshman på senaste är att han just springer iväg med fakta, som inte ens har med problemet eller diskussionen att göra. Han försöker dränka åsikter och din förståelse i tonvis med data du troligen inte alltid hänger med. Detta att han säger saker som att det är fakta, som månader senare visar sig vara totalt galet, är både missvisande och dumt. Det lär ju alla mindre kunniga fel, så de sen springer och upprepar hans ord som fakta.
Du har dock huvudet på spiken på en punkt. Jag gillar AMD över Nvidia, men inte för den poängen som du tror. Utan för att folk medvetet verkar trycka ner dem, trots att de är långt ifrån det sämre alternativet många gånger. Övertron på Nvidia hos folk, är vad som "skapar" mig. Sättet Nvidia verkar bete sig mot sina kunder gör det inte bättre, något man ser när man tittar bak lite.