Specifikationer och prestandasiffror för Geforce GTX 680

Permalänk
Medlem

Det faktum att nVidia använder sig av vinklad statistik tycker jag låter både oroande och känns oproffsigt. Att klippa och mixtra med diagram sådär tycker jag inte är OK. känner som om det over all är ca 12-20% snabbare än hd 7970 vilket säger mig att vi siktar på kanske 15%... Om det är så sjukt snabbt på BF3 som nvidia påstår är det ju trevligt men samtidigt väldigt konstigt och det känns som om AMD måste ha klantat sig i drivrutinerna då.

Vet inte om jag är jätte imponerad, de har trotts allt haft flera månader mer tid på sig än AMD och med tanke på att dom har tredubblat antal CUDA kärnor så känns även glädjebeskedet 45% snabbare än 7970 lite på grensen till Lame. Tror inte att detta kort kommer sätta så mycket prispress då det helt enkelt är för dyrt att tillverka (1500 CUDA kärnor!?)

Visa signatur

AMD Ryzen 3700X - Sapphire RX 5700 Pulse - MSI Gaming Edge x570 WiFi - Corsair Vengeance LPX Black 32GB - Noctua NH-D14 - Fractal Design Define R3 Black Edition

Permalänk
Entusiast
Skrivet av Enkal:

Se tidigare kommentarer i tråden. Ett diagram avsett att visa skillnaden mellan två produkter bör se ut så här, det är inga absoluta FPS-siffror som visas, bara skillnad i prestanda. Om du inte läser på axlarna bör du undvika diagram i allmänhet. "Se ut som" har bara med oförmåga att läsa diagram att göra.

Fast ska man bara visa skillnad i prestanda i procent är det mycket enklare att bara skriva en lista eller en tabell. Att skala om axlarna på det där viset är bara för att få det att se ut som om Kepler är mycket bättre än den egentligen är.
Staplarna visar inte procentuella skillnader längre när de är flyttade sådär så man får motstridig information vilket är irriterande. Det lägger sig undermedvetet.
För övrigt är ju hela vitsen med ett stapeldiagram att tydligt visualisera skillnader. I detta fallet gör det inte det. Det är exakt samma sak som att skriva att 680 presterar upp till 400 ‰ bättre än 7970.

Vi testar lite, vilket diagram är tydligast?

Båda visar samma data men man får inte alls samma känsla för hur stor skillnaden faktiskt är eftersom du får helt motstridig data. Läser man av skalan i den nedre ser man att den röda är 10 % mer än den blå. Tittar man på längden är den röda 100 % mer än den blå. Det är den där motstridiga informationen som är så ful.

Självklart finns det lägen då man behöver skala om axlarna i plottar och diagram för det är inte alltid smidigt att börja från noll men det gör man enbart när det behövs för att förtydliga. Vi kör ett nytt exempel på när det är motiverat.

Om vi minskar skillnaderna med en faktor tio så det skiljer en procentenhet istället för tio procentenheter mellan staplarna så är det direkt olämpligt att inte skala om axlarna. Det övre diagrammet säger ju inte ett piss. I det undre är det dock tydligt hur stor skillnad det är mellan dem.

Ser du skillnaden i när man bör och när man inte bör skala om axlar?

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Medlem

Någon som har en aning om ett GTX 680 räcker för att använda 3 skärmar som Eyefinity? Med tanke på att det finns, 2xDVI 1xHDMI och 1xDisplayPort.

Visa signatur

Processor: Intel Core i7 930 @ 4,01Ghz Kylning: Corsair H100i Moderkort: ASUS P6T Deluxe v2 Internminne: Corsair 12GB Grafikkort: 2xEVGA GeForce GTX 780 SC ACX System Disk: Intel X25-M SSD 80GB G2 Hårddisk: 300GB WD VelociRaptor Chassi: Corsair Graphite 760T Arctic White Nätaggregat: Corsair HX 850W 80+ Ljudkort: Creative Sound Blaster X-Fi Titanium HD Operativsystem: Windows 8.1 Pro Eyefinity: 3x23" Samsung S23A700D 120Hz

Permalänk
Avstängd
Skrivet av sskludde:

Någon som har en aning om ett GTX 680 räcker för att använda 3 skärmar som Eyefinity? Med tanke på att det finns, 2xDVI 1xHDMI och 1xDisplayPort.

Det heter nvidia surround och ingen vet.

Visa signatur

GPU: Sapphire HD7950 3GB OC CPU: i5 2500K 4.4GHz KYL: Scythe Mugen 2
MOBO:
Gigabyte Z68X-UD3H B3 RAM: GSkill 8GB 1600MHz PSU: Corsair TX650W
MUS: Logitech G400 TB: Logitech G15 SKÄRM: BENQ G2220HD // G2400W
HÖRLUR: HD558 LJUDKORT: Xonar DX CASE: Define R3 SSD: NOVA 2 60GB MECH: 3.75TB

Permalänk
Medlem

Det var då ett jävla tjat om dessa normaliserade och sågade diagram.

Hur differensen visualiseras är tämligen ointressant då en skillnad på t.ex. 40% alltid är en skillnad på 40% hur mycket man än trixat med graferna.

Sen är det inte precis som om detta är första gången någonsin vi ser diagram av den här typen men av någon anledning är det samma jävla hets var gång angående dessa skeva grafer, både AMD och Nvidia har sysslat med detta i flera år.
Sen är det även intressant att folk sitter och tjurar om hur skeva ett par läckta grafer är som förmodligen aldrig var avsedda att visas publikt.
De är inte precis tagna från en reklamfilm för Kepler.

Permalänk
Medlem
Skrivet av Zotamedu:

Fast ska man bara visa skillnad i prestanda i procent är det mycket enklare att bara skriva en lista eller en tabell. Att skala om axlarna på det där viset är bara för att få det att se ut som om Kepler är mycket bättre än den egentligen är.
Staplarna visar inte procentuella skillnader längre när de är flyttade sådär så man får motstridig information vilket är irriterande. Det lägger sig undermedvetet.
För övrigt är ju hela vitsen med ett stapeldiagram att tydligt visualisera skillnader. I detta fallet gör det inte det. Det är exakt samma sak som att skriva att 680 presterar upp till 400 ‰ bättre än 7970.

Vi testar lite, vilket diagram är tydligast?
http://i16.photobucket.com/albums/b23/Zotamedu/Swec/Capture-5...

http://i16.photobucket.com/albums/b23/Zotamedu/Swec/Capture2-...

Båda visar samma data men man får inte alls samma känsla för hur stor skillnaden faktiskt är eftersom du får helt motstridig data. Läser man av skalan i den nedre ser man att den röda är 10 % mer än den blå. Tittar man på längden är den röda 100 % mer än den blå. Det är den där motstridiga informationen som är så ful.

Självklart finns det lägen då man behöver skala om axlarna i plottar och diagram för det är inte alltid smidigt att börja från noll men det gör man enbart när det behövs för att förtydliga. Vi kör ett nytt exempel på när det är motiverat.

http://i16.photobucket.com/albums/b23/Zotamedu/Swec/Capture3....

http://i16.photobucket.com/albums/b23/Zotamedu/Swec/Capture4....

Om vi minskar skillnaderna med en faktor tio så det skiljer en procentenhet istället för tio procentenheter mellan staplarna så är det direkt olämpligt att inte skala om axlarna. Det övre diagrammet säger ju inte ett piss. I det undre är det dock tydligt hur stor skillnad det är mellan dem.

Ser du skillnaden i när man bör och när man inte bör skala om axlar?

Kanoninlägg. Tack.

Permalänk
Medlem

Som vanligt från nvidia får man se grafer som börjar lite varsomhelst.

Vilka oseriösa apor.

Visa signatur

Mjo

Permalänk
Medlem

Skulle vilja se Radeon 7970 i samma clock (1050) i denna test

Permalänk
Medlem
Skrivet av Ferum:

Skulle vilja se Radeon 7970 i samma clock (1050) i denna test

http://img24.imageshack.us/img24/6849/gtx680.jpg

Hmm
Kanske man skall ta och testa.
Damn att man sitter på jobbet nu. annars hade jag kört igenom 3dmark 11 direkt i samma klock.

Visa signatur

MediaCen= Playstation 4, Playstation 3, Xbox 360, Proj= Epson TW700, Projduk= Grandview Cyber 100" tab-tension, Receiver= Marantz SR-6005, Front= Jamo S708, Cen= Jamo D8CEN, Surr= Jamo D8SUR, Surr bak= Jamo D8SUR, Sub= REL T3 + Audiovector K-Sub Signature, Köpta filmer= 1000++ och stiger stadigt

Permalänk
Antielefant
Skrivet av sskludde:

Någon som har en aning om ett GTX 680 räcker för att använda 3 skärmar som Eyefinity? Med tanke på att det finns, 2xDVI 1xHDMI och 1xDisplayPort.

Knappast, och det kan sitta exakt samma anslutningar på vilket Fermi som helst (inklusive båda mina 570'or).

Anledningen att jag starkt tvivlar är att du inte kan få plats med ytterligare en outputkrets utan att kapa bort delar av ena DVI-utgången, vilket dödar möjligheten till annat än DVI-D/DP på andra utgången (och följdaktligen även dödar möjligheten till 120 Hz och stereoskopisk 3D).

AMD's kort med Eyefinity fungerar alla på det här sättet, enbart den enda fullkopplade DVI-kontakten klarar 120 Hz-skärmar.

Vilket tror du är viktigast för NVidia, att ha möjligheten till single-card Surround eller att ha möjligheten till 3DVision Surround utan att behöva 3-way SLI?
Det tidigare förstås, eftersom 3-way inte fungerar på de flesta moderkort och eftersom Surround utan SLI betyder skrämmande låg prestanda.

Visa signatur

i7 8770k @ 5.2 | MSI Z370 KRAIT | 32 GB DDR4-3200 | AX850W
EVGA GTX 980 Ti Classified SLI | Acer XB270HU G-Sync

Permalänk
Medlem

Någon annan kanske redan kommenterat detta MEN varför är base clock på 1006MHz på 680:n nu, när det stod 705MHz förut?
Är detta med den så kallade "boosten" de har lagt in så att kortet presterar efter vad man arbetar med?

Det skiljer ju inte mycket mellan Base och Boost clock 1006-1058MHz......mycket skumt allting tycker jag.

Men den som lever får se;-)

Visa signatur

"En superdator är en maskin som kör en ändlös slinga på bara två sekunder" - Okänd

Permalänk
Medlem
Skrivet av zilleosse:

TUMMEN UPP!!

Men ser man såna diagram någon annanstans än i marknadsföringssammanhang? -Nä, just det.

Sedan kan man rent intellektuellt förstå diagrammet, men undermedvetet sitter den skeva bild de visar kvar i våra neandertalshjärnor.

Fula tricks vet jag ändå inte om jag vill kalla det. Smart är det. Och det fungerar. Även på er.

Visa signatur

En sann moddare blir aldrig klar.MBY är SWEC SSD Kung!
Har hängt här sedan 2002. Började modda vid P200. Har gröna datafingrar. -Och du undrar hur jag kan veta allt?!?!?

|4700K|HD7970matrix|16Gb|Seasonic x-650|WaterC DDC BIP120+MP-05|

Permalänk
Medlem
Skrivet av kent2:

Men ser man såna diagram någon annanstans än i marknadsföringssammanhang? -Nä, just det.

Sedan kan man rent intellektuellt förstå diagrammet, men undermedvetet sitter den skeva bild de visar kvar i våra neandertalshjärnor.

Fula tricks vet jag ändå inte om jag vill kalla det. Smart är det. Och det fungerar. Även på er.

Fetade är ju oerhört skevt då detta är läckta dokument avsedda för internt bruk.

Permalänk
Medlem
Skrivet av johanca:

graferna är ju extremt lätlästa och pedagogiska, fattar inte vad folk klagar på. Det man kan klaga på är att det troligen inte kommer se likadant ut när andra testar (med betoning på troligen).

Det är bara det att företaget kör med den klassiska tekniken att kutta av toppen av grafen så att folk tror att det är förbannat stor skillnad mellan tillexempel två grafikkort.

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av Kyroz:

Fetade är ju oerhört skevt då detta är läckta dokument avsedda för internt bruk.

Läckta dokument är den smartaste marknadsföring.
Tror du ärligt att alla företag är så dåliga på intern säkerhet så att dom "läcker" som en håv utan nät?

Visa signatur

MediaCen= Playstation 4, Playstation 3, Xbox 360, Proj= Epson TW700, Projduk= Grandview Cyber 100" tab-tension, Receiver= Marantz SR-6005, Front= Jamo S708, Cen= Jamo D8CEN, Surr= Jamo D8SUR, Surr bak= Jamo D8SUR, Sub= REL T3 + Audiovector K-Sub Signature, Köpta filmer= 1000++ och stiger stadigt

Permalänk
Medlem

Det intressanta är att det börjar komma uppgifter om detta kort , lätt misstolkade grafer använder hela data-branchen sig av (både AMD NVIDIA INTEL osv )
Sen spekulationer om prestanda hit & dit vid olika Clock Nvidia & AMD har oftast haft olika Clock på gpu så det viktiga är hur dom presterar hur mycket ström dom drar & oljud sen vid vilken Clock osv spelar ingen roll för mig åtminstånde.
Det enda tråkiga är om uppgifterna stämmer att det verkar vara övre mellanklassen & inte topp kortet ur kepler serien, så blir väl & vänta ett 1/2 år till för mig då

Visa signatur

Arne Berg

Permalänk
Medlem
Skrivet av Delzino:

Haha ångesten kryper upp nu på alla 7970 köpare^^

Skrivet av zhrooms:

Word, och GK100 har inte ens kommit.. Nvidia goes Killing Spree

Töntiga kommentarer. Varför ångest? Har man ångest för att man handlat en datorkomponent behöver man söka vård.
Betyder det att 7970 helt plötsligt blev ett dåligt presterande grafikkort? Den som köpt ett 7970 för 4000kr borde ju räkna med att det förr eller senare kommer ett snabbare kort.

Om man överklockar ett 7970 och ett GTX680 till en rimlig gräns så kommer nog korten prestera i par. Dessutom har man kunnat köpa 7970 i över 2 månader, medans ett 680 ännu inte släppts. Trots att det bara är en vecka kvar till lanseringen (pappers?) kanske det tar en månad tills kortet verkligen kan köpas. 7970-ägarna kan känna sig trygga i att spela med höga upplösningar i bra famerate dem närmaste två åren.

680 kanske kommer att bli snabbare än 7970, även om det inte blir med speciellt stor marginal. När 680 börjat säljas står det inte på förrän AMD's finpolerade 7970+ släpps och presterar bättre än 680. Inget att bråka om alltså, det tar aldrig slut....tills någon går i graven (tyvärr).

Permalänk
Medlem
Skrivet av Lessismore:

Töntiga kommentarer. Varför ångest? Har man ångest för att man handlat en datorkomponent behöver man söka vård.
Betyder det att 7970 helt plötsligt blev ett dåligt presterande grafikkort?

För att det kommer ett bättre grafikkort som kostar mindre ett par veckor efter.

Visa signatur

Projektlogg: Vector Qlimax

X APEX, 8700K @ 5200MHz, Trident Z 16GB @ 4133MHz CL16, RTX 2080 Ti, 970 M.2 SSD, RM1000x, EK A240

Permalänk
Entusiast
Skrivet av zhrooms:

För att det kommer ett bättre grafikkort som kostar mindre ett par veckor efter.

http://images2.wikia.nocookie.net/__cb20111128023860/glee/ima...

Fast de som slängde sig på ett 7970 var väl medvetna om att Kepler var på väg.
Kul att du vet priset redan nu.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Medlem
Skrivet av zhrooms:

För att det kommer ett bättre grafikkort som kostar mindre ett par veckor efter.

http://images2.wikia.nocookie.net/__cb20111128023860/glee/ima...

Vi vet inget om priset och inget om prestanda plus att det släpps mer än några veckor efter.

Allt vi vet är bara lösa rykten plus att risken för en papperslansering finns vilket gör att det kommer vara minste tre-fyra månader mellan korten.

Visa signatur

MediaCen= Playstation 4, Playstation 3, Xbox 360, Proj= Epson TW700, Projduk= Grandview Cyber 100" tab-tension, Receiver= Marantz SR-6005, Front= Jamo S708, Cen= Jamo D8CEN, Surr= Jamo D8SUR, Surr bak= Jamo D8SUR, Sub= REL T3 + Audiovector K-Sub Signature, Köpta filmer= 1000++ och stiger stadigt

Permalänk
Medlem
Skrivet av RainesX:

Läckta dokument är den smartaste marknadsföring.
Tror du ärligt att alla företag är så dåliga på intern säkerhet så att dom "läcker" som en håv utan nät?

"Läcker som en håv utan nät" ? Nu ska du inte ta i så du spricker bara för att du tror du har en poäng.
Även om vi ponerar att all information som kommit ut om Kepler är genuin, vilket jag betvivlar, så är det knappast en uppsjö med information som kommit ut.
Nvidia har cirkus 7000 anställda, plus tillverkare (EVGA/Asus etc) och investerare (som detta material förmodligen var avsett för) och såvida man inte går upp i Gestapo-nivå är det en ren omöjlighet att förhindra alla läckor, för att inte tala om oavsiktliga läckor alá glömma iPhone 4 på krogen, tappade USB-minnen etc.

Att det är den smartaste marknadsföringsmetoden betvivlar jag starkt, speciellt om det inte handlar om "top of the line produkter".
Apple har exempelvis en sjuklig fascination för sekretess och verkar inte lida anmärkningsvärt av den "förlorade" marknadsföringen läckta dokument innebär.

Även om detta är en kontrollerad läcka är det småaktigt att tjura om grafernas skalor då dokumenten inte är officiella. För att inte tala om att det trixats med graferna i flera år, att folk fortfarande blir förvånade är ett mindre under.

Permalänk
Medlem

Och som vanligt överdriver nvidia med deras siffror om hur bra deras grafikkort är...

Visa signatur

i5 2500K|Vengeance 8Gb|Sabertooth P67|GTX 980Ti|Corsair AX1200|Force GT 120Gb|5TB lagring|Asus Xonar STX II

Permalänk
Medlem
Skrivet av Superlight:

680 är inte flaggskepet. Dem riktiga Kepler-korten kommer troligtvis ha 7xx.

Men skämtar du eller? (ta det inte personligt, det är nVidia jag syftar på).

nVidia goes Mozilla (Firefox). "-Ojdå, Microsoft och Google är uppe i version 8 på sina webbläsare nu och vi har bara 3.5.1. Då måste vi ju hinna i kapp!"
Mozilla släpper 7st fullversioner på 11 månader. PATETISKT!!!

Permalänk
Avstängd
Skrivet av zhrooms:

För att det kommer ett bättre grafikkort som kostar mindre ett par veckor efter.

http://images2.wikia.nocookie.net/__cb20111128023860/glee/ima...

Kanske, eftersom inga tester finns förutom läckor som ev. kanske kan vara sanna så vet vi inget.

7970 fanns tillgängligt redan för 2 månader sedan och då fanns inget konkurrerande ute i samma klass. Att vänta på ett kort som kanske blir bättre och kanske blir billigare är ingen hit om man behöver ett nytt prestandakort.
Men visst just idag så är det bättre att hålla ut då vi vet att tester kommer någon gång nästa vecka, tillgängligheten lär dock vara extremt dålig.

Visa signatur

Chassi: Antec 300 ][ CPU: AMD FX 8320 4,2Ghz ][ Kylning: Zalman CNPS14X ][ Ram:8,00 Gb DDR3 1600 ][
Moderkort: ASUS M5A99 ][ Skärm: ASUS MX279H ][ Grafik: ______ ][ Psu: Corsair CX600M ][
SSD:OCZ Vertex plus 120gb

Permalänk
Entusiast
Skrivet av Kyroz:

"Läcker som en håv utan nät" ? Nu ska du inte ta i så du spricker bara för att du tror du har en poäng.
Även om vi ponerar att all information som kommit ut om Kepler är genuin, vilket jag betvivlar, så är det knappast en uppsjö med information som kommit ut.
Nvidia har cirkus 7000 anställda, plus tillverkare (EVGA/Asus etc) och investerare (som detta material förmodligen var avsett för) och såvida man inte går upp i Gestapo-nivå är det en ren omöjlighet att förhindra alla läckor, för att inte tala om oavsiktliga läckor alá glömma iPhone 4 på krogen, tappade USB-minnen etc.

Att det är den smartaste marknadsföringsmetoden betvivlar jag starkt, speciellt om det inte handlar om "top of the line produkter".
Apple har exempelvis en sjuklig fascination för sekretess och verkar inte lida anmärkningsvärt av den "förlorade" marknadsföringen läckta dokument innebär.

Även om detta är en kontrollerad läcka är det småaktigt att tjura om grafernas skalor då dokumenten inte är officiella. För att inte tala om att det trixats med graferna i flera år, att folk fortfarande blir förvånade är ett mindre under.

Det är olika strategier på olika marknader. Tittar man på systemkameror så släpper Nikon inte ett piss innan de lanserar en ny systemkamera. De rykten som cirkulerar innan brukar vara rena spekulationer.
Inom datorbranschen är det dock standard att läcka material och komma med uttalanden om framtida produkter långt i förväg. Nvidia har pratat om Kepler i många år. Ingen var ens säker på att det verkligen skulle komma en Nikon D800 och alla blev överraskade över specifikationerna.

Det är som sagt olika strategier och på grafikkortsmarknaden jobbar båda lagen på det sättet. Det är ju lite av en kapprustning för om ena laget släpper information och "läcker" tidiga prestandatester så behöver det andra laget göra något för att få tillbaks uppmärksamheten. Det enklaste är att släppa en egen läcka då. Idealet är ju att folk har bestämt sig redan innan lansering vad de ska välja för kort. Nvidia måste ju göra något nu också för att få folk med att vänta med att köpa ett nytt AMD. Apple fungerar på ett helt annat sätt. De har ingen direkt konkurrens på det sättet utan de har istället en trogen skara som glatt väntar på nästa produkt.

Att Apple inte lider av avsaknaden av läckor beror på att de har en helt annan marknadsföringsstrategi. Det finns fler än två sätt att skapa sig ett namn och få uppmärksamhet. På grafikkorts-, och processormarknaden jobbar de med att släppa förhandsinformation och det verkar fungera bra för dem.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Skrivet av Ferum:

Skulle vilja se Radeon 7970 i samma clock (1050) i denna test

http://img24.imageshack.us/img24/6849/gtx680.jpg

varför skulle det vara intressant?
om nvidia tänker sälja GTX680 med core frekvens om 1050 MHz får de väl göra det.
det är ju knappast orättvist att jämföra det mot 7970's 925 MHz, det är ju så mycket mer än bara frekvens som skiljer korten åt.

dessutom så framgår det ju inte vad resten av datorn bestod av samt vilka delar av spelet som testades (blir svårt för någon att replikera testen utan att veta sånt)

Visa signatur

| HAF932 | Ryzen 3700X @ 4,3 GHz | Gigabyte X570 Aorus Ultra | 32 GB G.Skill @ 3600 MHz | RTX 2070 @ 2 GHz | O2 + ODAC | MP600 1TB + 2x 2TB RAID 1 + 2x 2TB RAID 1 | Win10 Pro 64-bit |

Permalänk
Medlem
Skrivet av Zotamedu:

Det är olika strategier på olika marknader. Tittar man på systemkameror så släpper Nikon inte ett piss innan de lanserar en ny systemkamera. De rykten som cirkulerar innan brukar vara rena spekulationer.
Inom datorbranschen är det dock standard att läcka material och komma med uttalanden om framtida produkter långt i förväg. Nvidia har pratat om Kepler i många år. Ingen var ens säker på att det verkligen skulle komma en Nikon D800 och alla blev överraskade över specifikationerna.

Det är som sagt olika strategier och på grafikkortsmarknaden jobbar båda lagen på det sättet. Det är ju lite av en kapprustning för om ena laget släpper information och "läcker" tidiga prestandatester så behöver det andra laget göra något för att få tillbaks uppmärksamheten. Det enklaste är att släppa en egen läcka då. Idealet är ju att folk har bestämt sig redan innan lansering vad de ska välja för kort. Nvidia måste ju göra något nu också för att få folk med att vänta med att köpa ett nytt AMD. Apple fungerar på ett helt annat sätt. De har ingen direkt konkurrens på det sättet utan de har istället en trogen skara som glatt väntar på nästa produkt.

Att Apple inte lider av avsaknaden av läckor beror på att de har en helt annan marknadsföringsstrategi. Det finns fler än två sätt att skapa sig ett namn och få uppmärksamhet. På grafikkorts-, och processormarknaden jobbar de med att släppa förhandsinformation och det verkar fungera bra för dem.

Absolut.

Att det alltid kan ses som fördelaktigt att läcka saker betvivlar jag dock. För argumentets skull kan vi ponera att Kepler är sämre än Southern Islands -- hade det fortfarande varit fördelaktigt att läcka prestandatester som poängterar detta?

Sen är det en väl en fråga om huruvida det handlar om en avsiktlig kontrollerad läcka eller "spelar ingen roll om det läcker"-situation.

Permalänk

Hmpf, 45% snabbare än 7970, skitsnack, ja 15% är rimligare såklart, men kan tro på att GK100 är 45% snabbare, fast när dem släpper det är nog AMD redo med 8000 serien.
Hoppas på "aftermarket"-kylare redan vid release!

Visa signatur

Jag drömmer mardrömmar om att installera chassifläktar

Permalänk
Medlem
Skrivet av LtnCharles:

Hmpf, 45% snabbare än 7970, skitsnack, ja 15% är rimligare såklart, men kan tro på att GK100 är 45% snabbare, fast när dem släpper det är nog AMD redo med 8000 serien.
Hoppas på "aftermarket"-kylare redan vid release!

Inge nytta att bli sur, lilla AMD fanboy.

Permalänk
Medlem
Skrivet av Devildoll:

varför skulle det vara intressant?
om nvidia tänker sälja GTX680 med core frekvens om 1050 MHz får de väl göra det.
det är ju knappast orättvist att jämföra det mot 7970's 925 MHz, det är ju så mycket mer än bara frekvens som skiljer korten åt.

dessutom så framgår det ju inte vad resten av datorn bestod av samt vilka delar av spelet som testades (blir svårt för någon att replikera testen utan att veta sånt)

1050 är med "dynamic övercklock" så...