Geforce GTX 680 "Kepler" samt SLI

Permalänk
Medlem

Kan bli att jag byter till 680 från 7970.. Men .. Hur är flerskärmsstödet om man inte kör surround ? Eftersom inte plp fungerar i varken eyeinfinity eller 2d surround så är de lite träligt om 680 precis som 590 bara klarar 2 skrämar+ om man kör surround. 7970 klarar av 3 skärmar med 2 som extended vilket inte fungerade med 590 eller 590 sli utan att dedikera 1 av gpuerna till det så redaktionen testade ni det ? Eller har möjlighet ? Eller nån annan som har ett hum ?

Visa signatur

Meshilicious, Amd 9950X3D, Asus X870E-I ,96 GB DDR5 6000,RTX5090 FE, Crucial 4TB Pcie5 m.2 / Corsiar Pcie4 4TB, Samsung 57" G9 , Samsung 49" G9 Oled

Permalänk
Avstängd

Jag förstår inte varför alla hyllar att de visar min FPS. Jag menar min FPS säger lika mycket som max FPS, det vill säga ingenting. Utan att veta under hur långa perioder som det varit min eller max så är informationen tämligen dålig att dra slutsatser ifrån. Ett diagram som hur lång tid varje FPS intervall varar skulle vara drömmen för oss läsare mardrömmen för recensenterna och vi skulle få typ 2 recensioner om året

Men jag skulle vilja se min, medel OCH max då kan man i alla fall göra en lite mer avvägd bedömning, men fortfarande tämligen dålig precision.

Med det sagt skulle jag vilja varna alla som stirrar sig blinda på graferna för de säger långt ifrån allt om korten. Var noga och läs vad personer som gör recensionen skriver för kommentarer de kan ofta ge betydligt bättre uppfattning om hur pass bra ett grafikkort är.

Slutligen ett stort tack till SweClockers för ett grymt bra jobb!

Permalänk
Medlem
Skrivet av schitzo:

Ser inte vart AMD får "en hel del smisk" ? När de enligt flera recensenter, TTL på youtube (OC3D) t.ex. konstanterar att det är minimal skillnad mellan 7970 och 680 när det gäller Realtime performance, men i Benchmarks så skiner 680.

Y8RZDPjMttY

680 får ju "smisk" i metro och witcher 2 =O

7970 är ju AMDs värstingkort, 680 är ju medelklass tydligen.

Permalänk
Skrivet av Morkul:

Jag förstår inte varför alla hyllar att de visar min FPS. Jag menar min FPS säger lika mycket som max FPS, det vill säga ingenting. Utan att veta under hur långa perioder som det varit min eller max så är informationen tämligen dålig att dra slutsatser ifrån. Ett diagram som hur lång tid varje FPS intervall varar skulle vara drömmen för oss läsare mardrömmen för recensenterna och vi skulle få typ 2 recensioner om året

Men jag skulle vilja se min, medel OCH max då kan man i alla fall göra en lite mer avvägd bedömning, men fortfarande tämligen dålig precision.

Med det sagt skulle jag vilja varna alla som stirrar sig blinda på graferna för de säger långt ifrån allt om korten. Var noga och läs vad personer som gör recensionen skriver för kommentarer de kan ofta ge betydligt bättre uppfattning om hur pass bra ett grafikkort är.

Slutligen ett stort tack till SweClockers för ett grymt bra jobb!

Minimum FPS är otroligt viktigt om du frågar mig, en average FPS på säg 200, med en minimum FPS på 10 är inte kul, d.v.s drops till 10 FPS vid vissa scener (t.ex explosioner etc), men det är inget man kan se när man bara kollar på average och maximum FPS. Har man en minimum FPS på 60, vet man att den aldrig droppade under 60 FPS under testets gång. DÄRFÖR är minimum FPS viktigt (enligt mig iaf)

Permalänk
Medlem
Skrivet av Morkul:

Jag förstår inte varför alla hyllar att de visar min FPS. Jag menar min FPS säger lika mycket som max FPS, det vill säga ingenting. Utan att veta under hur långa perioder som det varit min eller max så är informationen tämligen dålig att dra slutsatser ifrån. Ett diagram som hur lång tid varje FPS intervall varar skulle vara drömmen för oss läsare mardrömmen för recensenterna och vi skulle få typ 2 recensioner om året

Men jag skulle vilja se min, medel OCH max då kan man i alla fall göra en lite mer avvägd bedömning, men fortfarande tämligen dålig precision.

Med det sagt skulle jag vilja varna alla som stirrar sig blinda på graferna för de säger långt ifrån allt om korten. Var noga och läs vad personer som gör recensionen skriver för kommentarer de kan ofta ge betydligt bättre uppfattning om hur pass bra ett grafikkort är.

Slutligen ett stort tack till SweClockers för ett grymt bra jobb!

Helt fel, det räcker med någon dipp var tredje sekund för att ett spel ska upplevas väldigt hackigt, men du kan ha peakar på 1000FPS var tredje sekund också utan att det påverkar spelupplevelsen alls. Minimum FPS är viktigt för att det kan vara bra att veta att det aldrig hackar, max FPS säger ingenting, flyter det så flyter det. Låt säga att du har 60FPS som gränsvärde för vad som flyter, du har ett grafikkort som ligger på 70FPS i medel, men 43FPS i minimum, då vet du att det kan ge en mycket otrevligare spelupplevelse än det som ligger i medel 68FPS men ingen dipp under 60FPS. Om det första grafikkortet har peakar med 100FPS+ så säger det ingenting. De kommer inte vara påtagliga för användaren.

Minimum FPS är därmed mycket viktigare än Max, och egentligen viktigare än medel också. Det viktigaste är att veta intervallen mellan varje frame. Om ett grafikkort producerar 100 frames på 10ns och sedan står still i en sekund så är det fortfarande 100 frames sammanlagt på en sekund, även om det är ett sekundlångt hack. Det är sånt som bör mätas när man pratar om microstuttering

Permalänk
Medlem
Skrivet av Noobenu:

7970 är ju AMDs värstingkort, 680 är ju medelklass tydligen.

Nej, AMD har sagt att de inte siktar på värstingkort, de har inte försökt bygga sådana på flera år, de nöjer sig med att ligga på runt 80% av värstingprestandan. Det för att det ger mycket mindre problem, billigare kort och mindre värme. De använder sedan två sådana kretsar till att bygga dubbelkort istället. Det gör också att de alltid kan släppa sina nya kort mycket tidigare än nVidia, därför är deras medelklasskort snabbast och ohotade ibland i alla fall, som med 7970 och 5870.

Sett på det viset är 7970 och GTX 580 båda menade att bli mellanklasskort, men eftersom nVidia inte lyckas få ut sitt toppkort än på många månader så ligger dessa mellankort som toppkort tills vidare.

Permalänk
Medlem
Skrivet av SteveK:

Men det är ju just det den gör. GTX 680 är vad som skulle ha varit GTX 660ti, men kunde döpas om och läggas som topp kortet eftersom AMD misslyckats. Jämför prestandan på 560ti med det här så ser du hur mycket prestandan i generationsbytet varit.

Egentligen spelar det ingen roll vad de påstår att kortet "borde" varit. Jag klassar det som rent PR-trick från nVIDIA.
Man ser ju redan effekten av det genom inlägg som ditt. Det finns inget konkret bakom mer än ett påstående från nVIDIAs sida.

Ibland kanske en del borde koppla in hjärnkontoret och inte se saker som svart eller vitt.

Visa signatur

Citera mig för svar.
Arch Linux

Permalänk
Medlem
Skrivet av Morkul:

Jag förstår inte varför alla hyllar att de visar min FPS. Jag menar min FPS säger lika mycket som max FPS, det vill säga ingenting. Utan att veta under hur långa perioder som det varit min eller max så är informationen tämligen dålig att dra slutsatser ifrån. Ett diagram som hur lång tid varje FPS intervall varar skulle vara drömmen för oss läsare mardrömmen för recensenterna och vi skulle få typ 2 recensioner om året

Men jag skulle vilja se min, medel OCH max då kan man i alla fall göra en lite mer avvägd bedömning, men fortfarande tämligen dålig precision.

Med det sagt skulle jag vilja varna alla som stirrar sig blinda på graferna för de säger långt ifrån allt om korten. Var noga och läs vad personer som gör recensionen skriver för kommentarer de kan ofta ge betydligt bättre uppfattning om hur pass bra ett grafikkort är.

Slutligen ett stort tack till SweClockers för ett grymt bra jobb!

MIN FPS är egentligen det enda som är av intresse enligt mig och swec har förklarat i någon fredagspanel (tror jag det var) att de är noggranna när de mäter. Får de konstiga drops kör de om testet för att se om det inträffar igen. Max och medel säger inget som spelet blir spelbart, får man drops så fort det blir intensivt eller i öppna områden så har det noll betydelse att man har hög medel fps.

Permalänk
Medlem
Skrivet av Da´Russian Stallion:

Jag har läst på lite. Och det verkar som att sweclockers påstående stämmer om man kör Doubble buffered V-Sync. Men om man kör tripple buffer så stämmer det inte. Förstod dock inte exakt hur det förhåller sig. Verkar dock vara så att många spel inte stöder Tripple buffer.

Läste här:
http://hardforum.com/showthread.php?t=928593

För att förenkla det...
Utan Vsync: Grafikkortet sparar det den jobbar med till skärm bufferten (har inte hört några riktiga svenska ord för buffert typerna, så hittar på lite här nu, men det spelar inte så stor roll). När den har ritat klart bilden så börjar den om igen och skriver över samma bild med ny data, lite grann i taget. När skärmen ska uppdateras så visas bilden som den ser ut just då, oavsett om hela bilden har hunnit ritas om eller inte. Har den inte det så kommer över och undre delen av bilden att vara från olika tidspunkter, och därmed inte matcha varandra.

Vanlig Vsync (double buffering): Utöver sin skärm bufferten så har grafikkortet även en reserv buffer, kallar den buffert 1 i fortsättningen för enkelhetens skull. Grafikkortet sparar sitt arbete i sin buffert 1, och det skickas sen till dess skärm buffert. För att förhindra tearing så låses bilden i skärm bufferten, den får bara bytas i samband med att skärmen uppdateras, och då läser den in bilden från buffert 1. I början funkar allt normalt, den första bilden läggs i skärm bufferten och skickas till skärmen så fort den är klar, och sen börjar den skriva till sin buffert 1...men om den inte hinner klart med den innan skärmen uppdateras nästa gång så finns det ju ingen ny färdig bild att läsa in, och då tvingas grafikkortet att skicka samma bild igen, alltså den som redan var klar och låg i skärm bufferten. Den fortsätter jobba och gör klart bilden i buffert 1, men skärm bufferten är fortfarande låst, så graffikkortet har ingenstans att spara sitt arbete om det inte ska börja skriva över buffert 1, men då finns det ju ingen ny färdig bild som kan skickas till skärmen vid nästa uppdatering längre. Grafikkortet tvingas därför vänta tills nästa uppdatering innan det kan jobba igen, och om det fortfarande inte klarar av att rita en bild/uppdatering så upprepas processen.

Vsync med tripple buffering: Utöver skärm bufferten och buffert 1 så läggs ytterligare en reserv, buffert 2, till. Till en början fungerar det som vanlig vsync, första bilden läggs i skärm bufferten och nästa sparas i buffert 1 medans grafikkortet jobbar med den. Det hinner inte klart med nästa bild innan nästa uppdatering, så den första bilden skickas igen, men när den hinner klart med bilden i buffert 1 så behöver det inte vänta på nästa uppdatering innan det fortsätter jobba, det byter bara helt enkelt till att spara sitt arbete i buffert 2. Vid nästa uppdatering hämtas bilden till skärm bufferten från buffert 1, som då töms så att grafikkortet kan gå över till att spara i den istället så fort som det är klart med bilden i buffert 2.

Ännu mer förenklat
Normalt: Skickar allt till skärmen så fort som möjligt utan tanke på kvalitet
Vsync: Gör klart en bild i taget, men har bara plats för att spara en bild utöver den som visas på skärmen nu. När det är klar med nästa bild tvingas det vänta tills det blir utrymme ledigt innan det kan jobba igen.
Vsync med tripple buffering: Gör klart en bild i taget och har tillräckligt med plats för att aldrig behöva sitta och vänta.

Visa signatur

Intel i7 2600k, 4x4GB DDR3, Asus P8Z68-V Pro/GEN3, EVGA GTX570, Intel 320 160GB OS disk, WD Caviar Black 2TB lagringsdisk, Antec Kühler 620 med Noctua NF-F12-PWM, Corsair AX850 och Fractal Design Define XL

Permalänk

AMD verkar redan fixa det nya kortet som ska krossa 680 och 690 nu

http://delafilen.nu/delafilen/viewfile/1332501153_7990quadgpu...

Verkar intressant!

Visa signatur

2x Intel E5-2643V2 | 2x AMD 290x | 4x Samsung SSD EVO 500GB RAID 6 | 4xWD RED 4TB RAID6 | ASUS Z9PE-D8 WS | 3x Acer GD245HQ Limited Edition | Corsair 64GB (8x8GB) CL10 1866MHz VENGEANCE LP | FSP Aurum Pro 1200W | HRT HeadStreamer | Sennheiser HD 650 | Cherry MX 8000 | ZOWIE SPAWN (STOR SOM FAN)

Permalänk
Medlem
Skrivet av Dimman:

Egentligen spelar det ingen roll vad de påstår att kortet "borde" varit. Jag klassar det som rent PR-trick från nVIDIA.
Man ser ju redan effekten av det genom inlägg som ditt. Det finns inget konkret bakom mer än ett påstående från nVIDIAs sida.

Ibland kanske en del borde koppla in hjärnkontoret och inte se saker som svart eller vitt.

Men å andra sidan är ju det ju verkligen ett PR-trick att Nvidia-chefen under sin presentation igår på Webhallen säger "the worlds fastest gpu" ca 50 gånger under tiden han står på scenen. Marknadsmanipulering att inte spela med öppna kort då de vet att de skulle sälja färre av denna 680 om informationen är att det snart kommer ett än tyngre kort, eller att lansera det som just en 660 ti. Effekten blir ju nu så att de kränger en batch med 680or till personer som kommer uppgradera till nästa kort än en gång. Man kan kalla det smart, men jag känner mer för att kalla det marknadsekonomiskt fuffens för maximerad profit.

Permalänk
Medlem
Skrivet av Dimman:

Egentligen spelar det ingen roll vad de påstår att kortet "borde" varit. Jag klassar det som rent PR-trick från nVIDIA.
Man ser ju redan effekten av det genom inlägg som ditt. Det finns inget konkret bakom mer än ett påstående från nVIDIAs sida.

Ibland kanske en del borde koppla in hjärnkontoret och inte se saker som svart eller vitt.

Som sagt är det inget som vi som konsumenter behöver bry oss om egentligen, men när allt är krympt så det tar hälften så stor plats så är det runt den prestanda boosten som man ska kunna vänta sig, så jag ser det därmed som rimligt. Det visar dessutom upp flera tecken på att det verkligen är så, som en 256-bitars buss istället för den 384-bitars som, mindre minne, mindre krets rent fysiskt och lägre strömförbrukning, alla drag som normalt är typiska för mellanklassen. Om det verkligen var planerat att vara topp kort från början så hade det kommit med 384-bitars buss med mer minne och offrat strömförbrukning för att kunna använda en större krets som ger mer prestanda.

Visa signatur

Intel i7 2600k, 4x4GB DDR3, Asus P8Z68-V Pro/GEN3, EVGA GTX570, Intel 320 160GB OS disk, WD Caviar Black 2TB lagringsdisk, Antec Kühler 620 med Noctua NF-F12-PWM, Corsair AX850 och Fractal Design Define XL

Permalänk
Medlem
Skrivet av FisheRswe:

AMD verkar redan fixa det nya kortet som ska krossa 680 och 690 nu

http://delafilen.nu/delafilen/viewfile/1332501153_7990quadgpu...

Verkar intressant!

Och nvidia arbetar på det nya kortet som skall krossa 7990.... Har varit så sen AMD 9800 tiden. BTW, om jag förstått rätt heter Nvidias nya GPU GK112. Den som sitter på GTX 680 heter GK 104, snart kommer GK 110 att släppas och i början på nästa år GK 112. Så AMD kommer släppa nya bättre graffen med jämna mellanrum, precis som dom gjort de senaste 10 åren.
Just nu verkar det vara som om Nvidia regerar... för 3 dagar sen var det AMD. Nästa gång är det AMD och sen Nvidia.
Grejen är att Nvidia regerar efter sitt nya släpp av sin första modell av denna generationen. Nästa AMD graffe kommer vara ett svar på detta. Nvidia kommer naturligtvis försvara sin tron och släppa ett som är snäppet värre.

Visa signatur

Chassie Louqe Ghost S1 MKIII Limestone, Moderkort Gigabyte B550I AORUS PRO AX, RAM minnen G.SKill Trident Z Neo RGB 32GB, CPU AMD Ryzen 7 5800X, KylareNoctua Ghost S1 Edition, GPU Powercolor Radeon RX 6800 16GB, Systemdisk Samsung 970 EVO Plus series 500GB M.2, Sel/programdisk SSD 2x Samsung 850 EVO 120/500 GB, PSU Corsair sf750w, Skärm Philips Evnia OLED 32M2N8900 240 hz, Mus Logitech g603 wireless gamingmouse, Tangentbord Logitech g613 wireless gaming keyboard

Permalänk
Medlem
Skrivet av FisheRswe:

AMD verkar redan fixa det nya kortet som ska krossa 680 och 690 nu

http://delafilen.nu/delafilen/viewfile/1332501153_7990quadgpu...

Verkar intressant!

Jag vill se en källa på var den kommer ifrån innan jag litar på en bild som vem som helst kan rita upp i paint på 5 min, men även om det stämmer, så handlar det ju i det här fallet en lösning med 4 GPUer i samma kort. Det är jag extremt tveksam till, men om det stämmer så skulle det absolut krossa allt annat, men också kosta därefter. Minnet skulle också behöva delas upp i 4 delar till de 4 olika GPUerna.
Att ett sånt monster skulle gå att kyla utan att dra ner rejält på klockhastigheterna tvivlar jag dock på...men det skulle ju i så fall vara en bra användning för GPUer som inte når måtten för 79x0.

Visa signatur

Intel i7 2600k, 4x4GB DDR3, Asus P8Z68-V Pro/GEN3, EVGA GTX570, Intel 320 160GB OS disk, WD Caviar Black 2TB lagringsdisk, Antec Kühler 620 med Noctua NF-F12-PWM, Corsair AX850 och Fractal Design Define XL

Permalänk
Medlem
Skrivet av SteveK:

För att förenkla det...
Utan Vsync: Grafikkortet sparar det den jobbar med till skärm bufferten (har inte hört några riktiga svenska ord för buffert typerna, så hittar på lite här nu, men det spelar inte så stor roll). När den har ritat klart bilden så börjar den om igen och skriver över samma bild med ny data, lite grann i taget. När skärmen ska uppdateras så visas bilden som den ser ut just då, oavsett om hela bilden har hunnit ritas om eller inte. Har den inte det så kommer över och undre delen av bilden att vara från olika tidspunkter, och därmed inte matcha varandra.

Vanlig Vsync (double buffering): Utöver sin skärm bufferten så har grafikkortet även en reserv buffer, kallar den buffert 1 i fortsättningen för enkelhetens skull. Grafikkortet sparar sitt arbete i sin buffert 1, och det skickas sen till dess skärm buffert. För att förhindra tearing så låses bilden i skärm bufferten, den får bara bytas i samband med att skärmen uppdateras, och då läser den in bilden från buffert 1. I början funkar allt normalt, den första bilden läggs i skärm bufferten och skickas till skärmen så fort den är klar, och sen börjar den skriva till sin buffert 1...men om den inte hinner klart med den innan skärmen uppdateras nästa gång så finns det ju ingen ny färdig bild att läsa in, och då tvingas grafikkortet att skicka samma bild igen, alltså den som redan var klar och låg i skärm bufferten. Den fortsätter jobba och gör klart bilden i buffert 1, men skärm bufferten är fortfarande låst, så graffikkortet har ingenstans att spara sitt arbete om det inte ska börja skriva över buffert 1, men då finns det ju ingen ny färdig bild som kan skickas till skärmen vid nästa uppdatering längre. Grafikkortet tvingas därför vänta tills nästa uppdatering innan det kan jobba igen, och om det fortfarande inte klarar av att rita en bild/uppdatering så upprepas processen.

Vsync med tripple buffering: Utöver skärm bufferten och buffert 1 så läggs ytterligare en reserv, buffert 2, till. Till en början fungerar det som vanlig vsync, första bilden läggs i skärm bufferten och nästa sparas i buffert 1 medans grafikkortet jobbar med den. Det hinner inte klart med nästa bild innan nästa uppdatering, så den första bilden skickas igen, men när den hinner klart med bilden i buffert 1 så behöver det inte vänta på nästa uppdatering innan det fortsätter jobba, det byter bara helt enkelt till att spara sitt arbete i buffert 2. Vid nästa uppdatering hämtas bilden till skärm bufferten från buffert 1, som då töms så att grafikkortet kan gå över till att spara i den istället så fort som det är klart med bilden i buffert 2.

Ännu mer förenklat
Normalt: Skickar allt till skärmen så fort som möjligt utan tanke på kvalitet
Vsync: Gör klart en bild i taget, men har bara plats för att spara en bild utöver den som visas på skärmen nu. När det är klar med nästa bild tvingas det vänta tills det blir utrymme ledigt innan det kan jobba igen.
Vsync med tripple buffering: Gör klart en bild i taget och har tillräckligt med plats för att aldrig behöva sitta och vänta.

Men jag tycker fortfarande det är många frågetecken kvar.

Varför är tearing mer/mindre märkbard med vissa skärmar?
120Hz skärm vs 60hz skärm? - Spelar det någon roll?

Varför får man tearing även när FPS inte överstiger skärmens högsta uppdateringsfrekvens?

Om man tvingar på Tripple buffering i Nvidia kontrollpanelen, är det säkert att det kommer fungera eller måste grafikmotorn stödja det?

Får man dålig responstid även med tripple buffering?

Jag klarar personligen inte av att spela spel utan v.sync. Tycker inte det blir nått flyt i spelet, det känns hackigt och all tearing gör att det ser sjukt illa ut. Har ofta funderat på om det är just min skärm som drabbas av detta och om det skulle bli bättre med en 120Hz skärm eller inte. Men eftersom jag får tearing även när ja ligger under 60fps med vsync av, så ser ja inte hur en 120hz skärm skulle hjälpa.

Visa signatur

|ASUS Z170-A||6700K@4.6Ghz||Corsair H50 Scythe GT 1450RPM PnP||16GB Crucial DDR4 2133Mhz@2800Mhz||MSI RTX 3070||Crucial P3 2TB||Corsair HX 1050W||Fractal Design - Define R2 Black Pearl|Citera för svar
Fotoblogg: PlanetStockholm

Permalänk
Medlem

Någon som vet varför det skiljer hela 500kr mellan ASUS variant av 680 mot EVGA?

Visa signatur

GTX 670 - 3570K - 8GB CORSAIR LP

Permalänk
Medlem

Som ett komplement till sweclockers recension kan jag rekommendera HardOCP recensionen:
http://www.hardocp.com/article/2012/03/22/nvidia_kepler_gpu_g...

Visa signatur

“Problems that remain persistently insoluble should always be suspected as questions asked in the wrong way.” ― Alan W. Watts

Permalänk
Medlem

Varför blir det så mycket varmare för dom? hela 12 grader nästan idle skillnad...

Permalänk

Är Asus CUII bästa luftkylaren som finns?

Visa signatur

AMD Ryzen 5700X3D | ASUS Rog Strix X570-F | WD Black SN850 1TB | 32GB | 4070 Ti Super | Fractal Design North | Windows 11
LG 48GQ900 | Qpad 8K | Varmilo VA88M

Permalänk
Medlem
Skrivet av Luxor ABC80:

Nvidia har definitivt tagit tillbaka tronen. AMD fick dansa i 3 månader! Att priset blev för att vara en Nvidia lansering förhållandevis lågt är extra grädde på moset.

* Nvidia har ÄNTLIGEN fått bukt med strömförbrukningen.

* Nvidia`s drivrutiner är dåliga. Finnes tydligen mer att hämta. Annars brukar AMD vara efter i drivrutiner när nya generationer av grafikkort lanseras.

* Äntligen GPU med "boost". Intressant att Nvidia hann först. Annars har ju AMD och Intel bäst erfarenhet av det (turbo core, turbo boost).

* Nvidia är efter i SLI/CF !? Det var ju under många år ett Nvidias adlesmärken. Skulle väldigt gärna vilja se tester på microstutting.

* Även låga temperaturer. Återigen en sak där AMD förr låg före.

* Stöd för 3 skärmar! Men sämre än AMD. Kan eventuellt förbättras med bättre drivrutiner.

Gissning: Kort med "automatisk" överklockning funktion kommer. Det har funnits på moderkorten länge. Asus, Gigabit och MSI har erfarenhet av detta så det borde kunna komma.

Eftertanke: Nu förstår man AMDs pappers release av 7970 precis innan jul och "stressandet" av de nya korten. Man hade info om vad Nvidia hade på gång.

Fråga: GK100 kretsen? Hur blir det med den ? Kommer den att släppas i 6xx serien eller blir det med 7xx serien ?

De har verkligen lyckats med en gamerorienterad krets, men allt är inte guld och gröna skogar! För människor som jobbar med 3D-grafik och andra compute-sysslor vinner AMD och 7970 en jordskredsseger. http://www.anandtech.com/show/5699/nvidia-geforce-gtx-680-rev...

Visa signatur

Kom-pa-TI-bilitet

Permalänk
Medlem

Med allt skryt från nvidia så hade jag högre förväntningar. Det är bättre än 7970 men inte med så stora marginaler. Blir väll som förut att AMD droppar priset på sitt kort och det blir mest prestanda för pengarna och CF skalar bättre som vanligt.

Visa signatur

▐ AMD Ryzen 5 5600X @4,725GHz 1,285V▐ PNY GeForce RTX 3070 8GB XLR8 @2,12GHz▐
▐ MSI MPG B550 Gaming Plus▐ Corsair Vengeance LPX DDR4 32GB (2x16GB) @3800MT/s▐
▐ Transcend 128GB SSD▐ Intel SSD 660p 1TB▐ 2,5" SSD 1,5TB▐ Fractal Design Integra M 650W▐

Permalänk
Medlem
Skrivet av SteveK:

För att förenkla det...

Utan Vsync: Grafikkortet sparar det den jobbar med till skärm bufferten (har inte hört några riktiga svenska ord för buffert typerna, så hittar på lite här nu, men det spelar inte så stor roll). När den har ritat klart bilden så börjar den om igen och skriver över samma bild med ny data, lite grann i taget. När skärmen ska uppdateras så visas bilden som den ser ut just då, oavsett om hela bilden har hunnit ritas om eller inte. Har den inte det så kommer över och undre delen av bilden att vara från olika tidspunkter, och därmed inte matcha varandra.

Vanlig Vsync (double buffering): Utöver sin skärm bufferten så har grafikkortet även en reserv buffer, kallar den buffert 1 i fortsättningen för enkelhetens skull. Grafikkortet sparar sitt arbete i sin buffert 1, och det skickas sen till dess skärm buffert. För att förhindra tearing så låses bilden i skärm bufferten, den får bara bytas i samband med att skärmen uppdateras, och då läser den in bilden från buffert 1. I början funkar allt normalt, den första bilden läggs i skärm bufferten och skickas till skärmen så fort den är klar, och sen börjar den skriva till sin buffert 1...men om den inte hinner klart med den innan skärmen uppdateras nästa gång så finns det ju ingen ny färdig bild att läsa in, och då tvingas grafikkortet att skicka samma bild igen, alltså den som redan var klar och låg i skärm bufferten. Den fortsätter jobba och gör klart bilden i buffert 1, men skärm bufferten är fortfarande låst, så graffikkortet har ingenstans att spara sitt arbete om det inte ska börja skriva över buffert 1, men då finns det ju ingen ny färdig bild som kan skickas till skärmen vid nästa uppdatering längre. Grafikkortet tvingas därför vänta tills nästa uppdatering innan det kan jobba igen, och om det fortfarande inte klarar av att rita en bild/uppdatering så upprepas processen.

Vsync med tripple buffering: Utöver skärm bufferten och buffert 1 så läggs ytterligare en reserv, buffert 2, till. Till en början fungerar det som vanlig vsync, första bilden läggs i skärm bufferten och nästa sparas i buffert 1 medans grafikkortet jobbar med den. Det hinner inte klart med nästa bild innan nästa uppdatering, så den första bilden skickas igen, men när den hinner klart med bilden i buffert 1 så behöver det inte vänta på nästa uppdatering innan det fortsätter jobba, det byter bara helt enkelt till att spara sitt arbete i buffert 2. Vid nästa uppdatering hämtas bilden till skärm bufferten från buffert 1, som då töms så att grafikkortet kan gå över till att spara i den istället så fort som det är klart med bilden i buffert 2.

Ännu mer förenklat
Normalt: Skickar allt till skärmen så fort som möjligt utan tanke på kvalitet
Vsync: Gör klart en bild i taget, men har bara plats för att spara en bild utöver den som visas på skärmen nu. När det är klar med nästa bild tvingas det vänta tills det blir utrymme ledigt innan det kan jobba igen.
Vsync med tripple buffering: Gör klart en bild i taget och har tillräckligt med plats för att aldrig behöva sitta och vänta.

Dold text

Mycket informativt. Tack!

Permalänk
Medlem
Skrivet av zeg:

Med allt skryt från nvidia så hade jag högre förväntningar. Det är bättre än 7970 men inte med så stora marginaler. Blir väll som förut att AMD droppar priset på sitt kort och det blir mest prestanda för pengarna och CF skalar bättre som vanligt.

Har nVidia verkligen skrutit? Eller tolkar du rykten som nVidias skryt?

Permalänk
Medlem
Skrivet av SteveK:

Men det är ju just det den gör. GTX 680 är vad som skulle ha varit GTX 660ti, men kunde döpas om och läggas som topp kortet eftersom AMD misslyckats. Jämför prestandan på 560ti med det här så ser du hur mycket prestandan i generationsbytet varit.
Det är dock inte ett argument för att välja Nvidia - det är prestandan och priset som avgör. Det är imponerande att Nvidia lyckats så mycket bättre, men eftersom de tar ut samma pris för samma prestanda så spelar det ingen roll för oss konsumenter.

Det ser ut som att de helt enkelt har valt att gå 2 olika vägar med sina lanseringsplaner, AMD har valt att plocka ut den prestanda de kan få ur 28nm tekniken på kort tid och sen släppa det och säljer de korten tills de hunnit perfektera tekniken och släpper sedan en ny generation då, medans Nvidia väljer att göra klart allt innan de släpper kort. Som du säger, och som jag även nämnde i mitt eget inlägg, så kommer det säkert nya kort från AMD ungefär samtidigt som Nvidia släpper de riktiga topp korten i Kepler, och de kommer nog att vara ungefär likvärdiga.
Resultatet blir att AMD får ha kronan i början när de precis släppt, men sen kommer Nvidia och tar över allt mer fram tills dess att båda har hunnit få det rätt, och släpper sina slutgiltiga versioner av den här generationen. Då lär det bli ungefär likvärdigt.

tldr. Tolkade din första post som att de med sitt icke ännu lanserade kort dubblat prestandan mot nuvarande generation. Tyvärr men jag bryr mig inte så mycket om att de har lanserat en topp modell som "egentligen" är en mid-range som alltså "egentligen" har dubbel prestanda mot förra gen midrange. Helt ointressant ur ett kundperspektiv - speciellt om det inte reflekteras i priset. Dessutom ser jag det snarare såhär: nVidia har varit sega med att komma till denna generationen och de har fortfarande inte lyckats få sin toppmodell att sluta krångla så de kan lansera den, så därför kommer en upphottad midrange ut, med mycket gott resultat och bra värde för pengarna, absolut. Fundera på följande: varför vänta med topmodellen? varför har det tagit så lång tid? hur vet du att topmodellen skalat lika bra som midrange-modellen osv. Att topmodellens generationsskifte gett (kommer ge) ett lika bra steg upp från föregående generation är obekräftat.
Jag vill se saker i verkligheten, i affären -> i min dator. Inte "egentligen" dubbelt så bra och "egentligen" inte topp-modell, det duger inte för mig.

Visa signatur

SweClockers Dark Pearl tema: http://www.sweclockers.com/forum/trad/1484891
(Rek. Stylus)

Permalänk
Medlem

GTX680 är ett fint kort utan tvekan. Prestandaskillnaden mellan korten är i snitt inte så stor, och det är i vissa enstaka titlar som nVidia korten drar iväg mer pga TWIMTBP. Nu när HD7970 finns för 3995kr så är det ett givet köp.

http://www.quizcore.se/sapphire-radeon-hd-7970-3gb/product_de...

Visa signatur

[ AMD 9800X3D // EK-Block @ custom loop, 2x420mm ][ MSI B650 Tomahawk ][ 32GB G.Skill Z5 Neo @ DDR6000 CL28 1T ][ AMD 7900XTX @ custom loop ][ Corsair 750D // Corsair RM1000X ][ 2TB Samsung 990PRO M.2 SSD ][ Linux EndeavourOS ][ LG 34GN850 ]

Permalänk
Medlem
Skrivet av Teknocide:

De har verkligen lyckats med en gamerorienterad krets, men allt är inte guld och gröna skogar! För människor som jobbar med 3D-grafik och andra compute-sysslor vinner AMD och 7970 en jordskredsseger. http://www.anandtech.com/show/5699/nvidia-geforce-gtx-680-rev...

Frågan är om även AMD har en sådan på gång, dvs en ren gaming GPU.

Eventuellt har vi till och med i 680 sett något som gör att båda Nvidia och AMD nu kommer släppa 2 snarlika kort men för olika nischer för att kunna maximera för Gaming och 3D arbete på respektive kort.
För blir 680 en stor framgång har jag svårt att se varför AMD inte skulle välja samma väg. Tråkigt för de som jobbar med 3D samt annat som drar nytta av dc då det antagligen skulle betyda dyrare kort för det området.

Permalänk
Medlem
Skrivet av Da´Russian Stallion:

Men jag tycker fortfarande det är många frågetecken kvar.

Varför är tearing mer/mindre märkbard med vissa skärmar?
120Hz skärm vs 60hz skärm? - Spelar det någon roll?

Varför får man tearing även när FPS inte överstiger skärmens högsta uppdateringsfrekvens?

Om man tvingar på Tripple buffering i Nvidia kontrollpanelen, är det säkert att det kommer fungera eller måste grafikmotorn stödja det?

Får man dålig responstid även med tripple buffering?

Jag klarar personligen inte av att spela spel utan v.sync. Tycker inte det blir nått flyt i spelet, det känns hackigt och all tearing gör att det ser sjukt illa ut. Har ofta funderat på om det är just min skärm som drabbas av detta och om det skulle bli bättre med en 120Hz skärm eller inte. Men eftersom jag får tearing även när ja ligger under 60fps med vsync av, så ser ja inte hur en 120hz skärm skulle hjälpa.

Jag hittade precis guiden som jag själv lärde mig det ifrån, och den förklarar det bättre än jag kan, fast lite längre. Jag ser där också att jag ko ihåg lite fel om hur det funkar utan någon vsync alls, det läget använder fortfarande double buffering precis som vanlig vsync men den låser inte bilderna.
Det som händer är egentligen att första bilden skrivs till skärm bufferten och visas på skärmen, sen så skriver grafikkortet i buffert 1, men så fort det har gjort klart bilden i buffert 1 så växlas den med skärm bufferten, även om skärmen höll på att uppdateras just då. Det orsakar problem oavsett om FPSen är högre eller lägre än uppdateringsfrekvensen, om grafikkortet t.ex. kan producera 3/4:e delars bild/uppdatering så kommer den inte att hinna rita någon bild alls till den första uppdateringen, men till nästa så har den hunnit rita klart den första bilden som den jobbade på och halvvägs in igenom nästa. Om det då hinner göra klart den sista halvan av den bilden innan hela den förra har hunnit skickats till skärmen så byter den plats på buffrarna i alla fall så att buffert 1 med den nya bilden blir den nya skärm bufferten. Då blir resultatet att nästa bild som visas på skärmen består av övre delen från bilden innan det sista bytet och undre delen av bilden efter det sista bytet.

Kort svar på dina frågor (rekomenderar länken för längre svar, och den icke-förenklade men enkelt förklarat versionen):
Skärm bör inte göra någon skillnad, förutom just uppdateringsfrekvensen. Uppdateras skärmen oftare så ökar nog risken för att buffert bytet ska hända medans skärmen håller på att uppdateras, men jag kan ha fel där eftersom det kanske kompenseras av att varje uppdatering tar kortare tid.
Det påverkar respons tiden ytterst lite eftersom grafikkortet aldrig behöver vänta som vid vsync, men om respons tiden blir sämre så är det bara för att grafikkortet höll tillbaka en del av nästa bild för att den bilden inte var klar, du skulle alltså garanterat ha fått tearing annars. Det är dock så lite att det inte märks.
Slutligen så är det ju hur grafikkortet jobbar som påverkas, så ja, du kan tvinga på tripple buffering, men det fungerar bara i OpenGL spel enligt artikeln, utan att gå in på varför.

Visa signatur

Intel i7 2600k, 4x4GB DDR3, Asus P8Z68-V Pro/GEN3, EVGA GTX570, Intel 320 160GB OS disk, WD Caviar Black 2TB lagringsdisk, Antec Kühler 620 med Noctua NF-F12-PWM, Corsair AX850 och Fractal Design Define XL

Permalänk
Medlem
Skrivet av SteveK:

Som sagt är det inget som vi som konsumenter behöver bry oss om egentligen, men när allt är krympt så det tar hälften så stor plats så är det runt den prestanda boosten som man ska kunna vänta sig, så jag ser det därmed som rimligt. Det visar dessutom upp flera tecken på att det verkligen är så, som en 256-bitars buss istället för den 384-bitars som, mindre minne, mindre krets rent fysiskt och lägre strömförbrukning, alla drag som normalt är typiska för mellanklassen. Om det verkligen var planerat att vara topp kort från början så hade det kommit med 384-bitars buss med mer minne och offrat strömförbrukning för att kunna använda en större krets som ger mer prestanda.

Inte nödvändigtvis, att ha en bredare minnesbuss kan även dra med sig andra nackdelar. Det är dock inte poängen, poängen är att det är inte första gången ett sådant move görs på high-end sidan, det har skett åtaliga gånger tidigare. AMD/ATI har gjort det också men kompenserat med högre klockfrekvenser.

Med andra ord, det är inget argument mot att det inte skulle från början ha varit ett planerat highend-kort.

Visa signatur

Citera mig för svar.
Arch Linux

Permalänk
Medlem
Skrivet av dpom86:

tldr. Tolkade din första post som att de med sitt icke ännu lanserade kort dubblat prestandan mot nuvarande generation. Tyvärr men jag bryr mig inte så mycket om att de har lanserat en topp modell som "egentligen" är en mid-range som alltså "egentligen" har dubbel prestanda mot förra gen midrange. Helt ointressant ur ett kundperspektiv - speciellt om det inte reflekteras i priset. Dessutom ser jag det snarare såhär: nVidia har varit sega med att komma till denna generationen och de har fortfarande inte lyckats få sin toppmodell att sluta krångla så de kan lansera den, så därför kommer en upphottad midrange ut, med mycket gott resultat och bra värde för pengarna, absolut. Fundera på följande: varför vänta med topmodellen? varför har det tagit så lång tid? hur vet du att topmodellen skalat lika bra som midrange-modellen osv. Att topmodellens generationsskifte gett (kommer ge) ett lika bra steg upp från föregående generation är obekräftat.
Jag vill se saker i verkligheten, i affären -> i min dator. Inte "egentligen" dubbelt så bra och "egentligen" inte topp-modell, det duger inte för mig.

Som jag redan sagt i båda mina inlägg om det så håller jag med om att det inte spelar någon roll för konsumenterna och att det inte ska tas med i beräkningen när du går och handlar.
Att topp modellen dröjer kan ha flera orsaker, antingen så har de problem som de vill lösa istället för att bara släppa ändå med sämre prestanda som AMD, eller så tänker de att folk som är intresserade av det absolut bästa oavsett pris, som köpare av de här korten idag är, kan tänka sig att köpa nytt varje gång det kommer ut något bättre. Det har vi till och med exempel på här i tråden, folk som sitter med 7970's och nu vill skaffa 680's istället. Då kan Nvidia sen släppa nästa kort som är ytterligare en bit bättre och så upprepas det igen, de som skaffade 680 blir frestade att köpa ett "680ti" eller vad det nu skulle heta.
Jag vet inte vilket det är, men upp emot 100% förbättring är fullt rimligt med tanke på den nya tekniken, speciellt med tanke på att både det här och det riktiga topp kortet bygger på samma grundläggande teknik och arkitektur och speciellt nu när de lägger mer än ett halvår extra på det.

Visa signatur

Intel i7 2600k, 4x4GB DDR3, Asus P8Z68-V Pro/GEN3, EVGA GTX570, Intel 320 160GB OS disk, WD Caviar Black 2TB lagringsdisk, Antec Kühler 620 med Noctua NF-F12-PWM, Corsair AX850 och Fractal Design Define XL

Permalänk
Medlem
Skrivet av Aleshi:

Har nVidia verkligen skrutit? Eller tolkar du rykten som nVidias skryt?

Det är tyvärr så här hela tiden, lössläppta rykten tolkas som direkt information från tillverkarna.

Men över till GTX 680, jag är för första gången på länge klart imponerad av Nvidias senaste krets.
Pressas priserna ner lite under sommaren så finns det stor chans att det hamnar ett sånt här kort i nästa burk.

Visa signatur

/havoc