Nvidia gör Geforce Titan med Kepler GK110

Permalänk
Medlem
Skrivet av Waowt:

Är du seriös? Har du kollat skillnaden? Vad jag kan se handlar det snarare om ca 60 Watt.
Ska ju ha andra grejer i datorn med (en till hdd, möjligen ssd, mer ram osv osv)

Vilka tester tittar du på? om det är sweclockers egna så tänk på att de sitter med en överklockad i7 3960x i sin testrigg, och du på en vanlig i5 450w räcker till ganska bra grejer, men du kommer inte något utrymme för dubbla kort. Grejer som ssd, hdd, ram osv drar inte mer än ett tiotal watt sammanlagt... Men jag skulle inte tro att de ändras prisbilden så mycket när det här kommer, dyra kort brukar mest vara en prestigegrej och kan därför läggas högre i pris istället för att de verkliga vinstmaskinerna i mellanklassen sänks

On topic så är det ju jäkligt kul att de äntligen lyckas (?) tillverka så pass kraftiga och komplicerade gpuer utan alltför dåliga yields, vilket bådar gott inför framtida generationer. Det är ju helt sjuk singelchipsprestanda vi pratar om här, 85% av ett 690! tänk dubbla eller till och med tredubbla sådana

Visa signatur

Ryzen 7600X - Geforce RTX 4080 - Custom Loop - Samsung 34" Ultra Wide
Intel i7 9700K - Radeon VII

Permalänk
Medlem
Skrivet av Aleshi:

GK110 har hela tiden varit menad till 2013. GK100 var den som misslyckades och lades ner. Att folk inte kan se skillnad på GK100 och GK110 skapar stor förvirring. "Stora Kepler" var för stor och varm och nVidia fick lägga ner sin misslyckade produkt. Nu när tillverkningsprocessen är mognare kanske de lyckas bättre med dess efterföljare, GK110.

Du snackar som någon vetenskapsmann. Vart kommer ditt underlag ifrån? rykten? lösa menigar?

Du skriver att GK110 var menad för 2013 hela tiden, Hur vet du detta?

"GK100 lades ner för länge sedan då den inte gick att få tillräckligt fungerande. Därför fick GK104 ta över."

Det låter mera som dina egna ord kring Nvidia, Försök inte att få folk att tro på dina teorier som du tror är sanna. (utan att ha ett underlag att redovisa) Såvitt jag vet så har Nvidia inte ens gått ut med varför det blev GK104 istället för GK110.

Permalänk
Avstängd

så sli kort då

synd

hoppades på att 680 skulle ersättas

Permalänk
Medlem
Skrivet av zzcool:

så sli kort då

synd

hoppades på att 680 skulle ersättas

Nope, av nyhetet att läsa så ser det ut som en single gpu

Permalänk
Avstängd
Skrivet av zzcool:

så sli kort då

synd

hoppades på att 680 skulle ersättas

Hur menar du nu? Detta är ett kort med en GPU, inte två.

Visa signatur

R7 3700X | X570 Aorus Master | 32GB | EVGA 1080 Ti FTW3 | Noctua NH-D15S | FD Meshify C Copper
R7 1700 | X370 Gaming-ITX | 16GB | RX Vega 64 LE | Noctua U12S | Node 304
2 x HPE ProLiant Microserver Gen 8 | 1265L V2 | 16GB | 20TB

Permalänk
Medlem

Lite synd att man förmodligen får betala rätt saftigt för kylningen, borde finnas en hydro copper variant iaf från EVGA.

Permalänk
Medlem
Skrivet av orginallinus:

699 Dollar. Det låter väl rimligt? Dvs i runda slängar en 6000-6500:- (85% av priset GTX690).
Låter ju nästan för bra för att vara sant!

Står faktiskt 899 dollar i artikeln.

Hade de varit 699 Dollar hade jag varit glad och då hade de varit prisvärt efter prestanda och att de är ny serie.

Tycker själv att priset var lite högt och hade inte räknat att det skulle närma sig Gtx690 i pris ett år efter lanseringen
av Gtx680 korten.

699 Dollar hade varit mer lagomt men kan tänka mig att dom sätter ett högt pris för att ej pris/prestanda ska sänkas
på GTX680 & 690 korten och de kan jag förstå affärsmässigt men tråkigt för mig som konsument.

Visa signatur

Chassi: Ssupd Meshroom S V2, Moderkort: Gigabyte Aorus X570I Pro Wifi, Processor:Ryzen 7 5800X3D , Cpu kylare: EK-AIO Elite 280 D-RGB Minnen Gskill Ripsaw 16 Gb Cl16 3600 mhz,Startdisk:SSD Samsung 970 Evo plus 1 TB , Grafikkort:PNY RTX4070TI Super Verto Oc PSU: Corsair SF850L Skärm: ASUS ROG Swift PG278Q Tillbehör: Logitech G903 & Funk KB460 , Logitech Z520 datorhögtalare.

Permalänk
Medlem
Skrivet av Burks:

Du snackar som någon vetenskapsmann. Vart kommer ditt underlag ifrån? rykten? lösa menigar?

Du skriver att GK110 var menad för 2013 hela tiden, Hur vet du detta?

"GK100 lades ner för länge sedan då den inte gick att få tillräckligt fungerande. Därför fick GK104 ta över."

Det låter mera som dina egna ord kring Nvidia, Försök inte att få folk att tro på dina teorier som du tror är sanna. (utan att ha ett underlag att redovisa) Såvitt jag vet så har Nvidia inte ens gått ut med varför det blev GK104 istället för GK110.

Så länge man läser nyheterna rätt och inte förväxlar GK100 och GK110 så har informationen funnits hela tiden. Sedan skadar det ju inte att man känner rätt människor heller.
GK100 försvann från nVidias planer sent 2011. Sedan flyttades GK104 upp. Läckorna säger att GK100 blev för varm och det stämmer överens med vad man kan förvänta sig. GK100 är som GK104 fast med 33% fler CUDA-kärnor TMUs och ROPS, dubbelt så stor buss (mycket die size och transistorer där) och sedan mycket mer resurser satsade på GPGPU och allt detta på en ny oinkörd tillverkningsprocess så har du ett jävligt varmt chip. Det behöver man inte vara speciellt påläst för att fatta. Samma misstag/risktagande som med GTX 280 och GTX 480.
Sedan vill jag att du hittar källor som säger att GK110 skulle komma 2012. Alla källor säger att GK110 skulle komma som beräkningskort sent 2012, men som spelkort först 2013. Inga källor säger något annat, så jag frågar mig varför jag blir ifrågasatt på denna punkten.

Permalänk
Skrivet av SeF.Typh00n:

Detta har ju alltid varit planen. Vi visste ju att detta kortet skulle komma.

Nästa serie är ju Maxwell, som lär heta 700-serien.

Maxwell är väl 2014? Då blir det ett ganska dåligt grafikkortsår med andra ord...

Å andra sidan kanske 680 går ner i pris till "770" nivåer.

Visa signatur

För övrigt anser jag att Copyswede bör förstöras.

Permalänk
Medlem
Skrivet av Aleshi:

Så länge man läser nyheterna rätt och inte förväxlar GK100 och GK110 så har informationen funnits hela tiden. Sedan skadar det ju inte att man känner rätt människor heller.
GK100 försvann från nVidias planer sent 2011. Sedan flyttades GK104 upp. Läckorna säger att GK100 blev för varm och det stämmer överens med vad man kan förvänta sig. GK100 är som GK104 fast med 33% fler CUDA-kärnor TMUs och ROPS, dubbelt så stor buss (mycket die size och transistorer där) och sedan mycket mer resurser satsade på GPGPU och allt detta på en ny oinkörd tillverkningsprocess så har du ett jävligt varmt chip. Det behöver man inte vara speciellt påläst för att fatta. Samma misstag/risktagande som med GTX 280 och GTX 480.
Sedan vill jag att du hittar källor som säger att GK110 skulle komma 2012. Alla källor säger att GK110 skulle komma som beräkningskort sent 2012, men som spelkort först 2013. Inga källor säger något annat, så jag frågar mig varför jag blir ifrågasatt på denna punkten.

Du backar upp dina påståenden med att du känner rätt människor. Det är vattentätt!

Permalänk
Medlem
Skrivet av Starric:

Vilka tester tittar du på? om det är sweclockers egna så tänk på att de sitter med en överklockad i7 3960x i sin testrigg, och du på en vanlig i5 450w räcker till ganska bra grejer, men du kommer inte något utrymme för dubbla kort. Grejer som ssd, hdd, ram osv drar inte mer än ett tiotal watt sammanlagt... Men jag skulle inte tro att de ändras prisbilden så mycket när det här kommer, dyra kort brukar mest vara en prestigegrej och kan därför läggas högre i pris istället för att de verkliga vinstmaskinerna i mellanklassen sänks

On topic så är det ju jäkligt kul att de äntligen lyckas (?) tillverka så pass kraftiga och komplicerade gpuer utan alltför dåliga yields, vilket bådar gott inför framtida generationer. Det är ju helt sjuk singelchipsprestanda vi pratar om här, 85% av ett 690! tänk dubbla eller till och med tredubbla sådana

Nej jag kollar på max TDP på de olika korten osv.

Permalänk
Hedersmedlem

Mina GTX 580 i SLi får nog överleva en GPU-generation till

Visa signatur

|| SWECLOCKERS.COM ||
|| Självutnämnd Silverstone FT02-riddare ||
|| Silverstone FT02B-WRI "Limited Edition" No. 0743 & 0640 ||
|| Sweclockers officiella FT02-tråd ||

Permalänk
Medlem

Suck, varför köpte jag precis ett GTX 670 till???

Visa signatur

CPU: i9-13900K + Cooler Master ML360L ARGB V2 || GPU: Gainward RTX 4090 Phantom GS.
MoBo: Asus Rog Strix Z790-F Gaming || RAM 32 GB Kingston Fury Beast CL40 DDR5 RGB 5600 MHz.
PSU: Corsair RMe 1000W 80+ Gold || Chassi: Phanteks Eclipse P500A D-RGB.
Lagring: Kingston Fury Renegade M.2 NVME 2TB + Samsung 860 QVO 1TB.
Skärmar: 27" 1440p 144 Hz IPS G-sync + 27" 1440p 155 Hz VA || OS: Win 11 Home.

Permalänk
Medlem
Skrivet av Aleshi:

Sedan vill jag att du hittar källor som säger att GK110 skulle komma 2012. Alla källor säger att GK110 skulle komma som beräkningskort sent 2012, men som spelkort först 2013. Inga källor säger något annat, så jag frågar mig varför jag blir ifrågasatt på denna punkten.

Nu ställer jag mig frågan, Vart fick du det ifrån? att jag sa att den skulle komma 2012?

Och jag behöver fortfarandet källhänvisning för att kunna ta dina inlägg fullt ut. För mig just nu ser det mesta ut som tom luft.

Permalänk
Medlem
Skrivet av Waowt:

Nej jag kollar på max TDP på de olika korten osv.

Nu är visserligen det här off topic, men du kan inte kika på tdp och jämföra mellan amd och nvidia. Du får kika på uppätta siffror, typ härifrån http://www.sweclockers.com/recension/15858-nvidia-geforce-gtx..., sen tänka på att de som jag skrev tidigare har en annan processor än du som drar mer ström, samt att nätagget inte har 100% verkningsgrad

Btw, någon som vet vad för strömförbrukning och värmeutveckling som kan förväntas av detta titan? Vad säger dagens teslakort som också bygger på gk110?

Visa signatur

Ryzen 7600X - Geforce RTX 4080 - Custom Loop - Samsung 34" Ultra Wide
Intel i7 9700K - Radeon VII

Permalänk
Medlem

Trevlig prestandaökning mot 680 då det är ett singel gpu kort, men lite dyrt, får hoppas att priset sjunker lite när det väl lanserats.

Permalänk
Medlem
Skrivet av BrutalSwede:

18 688 stycken Nvidia Tesla K20X á ~33k (Inet) = 616,7 miljoner kronor Lagom mycket

Det är fel, i Cray Titan sitter K20X med 14 SMX (alltså endast en avstängd) på iaf komplett kostar K20 ca 33k kronor, K20 har 13 SMX (alltså 2 avstängda) för total 2496 cuda kärnor. K20X har 2688 cuda kärnor.

Tvekar lite på att detta Geforce kommer vara baserat på K20X då de skulle kunna sälja dom så extremt mycket dyrare till HPC marknaden, om man tänker att det nerskalade säljer för över 30000.

Permalänk
Skrivet av BrutalSwede:

18 688 stycken Nvidia Tesla K20X á ~33k (Inet) = 616,7 miljoner kronor Lagom mycket

Inet har ju också överpris som standrad

Visa signatur

Snålt, smått och raffinerat är min melodi :-)

Permalänk
Medlem

Hoppas 6GB minne iaf (;

Visa signatur

Ryzen 5950x | RTX 4090 | 64GB 3600Mhz| WD Black sn850 2TB
NAS: Unraid | 8GB 2133Mhz | ASRock C236 WSI | Intel G4600 | 32TB WD RED
YT:youtube.com/patan77xd IG:instagram.com/patan77 Webwww.patan77.com

Permalänk

Sätt in den i den kommande generationens konsoller så har vi löst problemet med dålig grafik på konsollportar till PC.

Vadå? Om en gaming pc idag kostar runt 10K, varför skulle inte en konsoll kunna göra det då?

Permalänk
Medlem

Quad-SLI någon? Tycker de låter dyr för 900usd 700usd hade nog fler kunnat överväga. Eller är det flera här som tänker investera? 80% prestanda av 690 låter ju grymt men är de inte lite väl sent?

Visa signatur

Corsair Crystal 280X Chassi// AMD Ryzen 5800X3D// PowerColor RX 6900 XT// Corsair 3200Mhz 64GB// Asus X570-I // Corsair AX 760W // Samsung 960 EVO 250GB Nvme SSD // Samsung 980 PRO 2TB Nvme SSD // Samsung 850 EVO 1TB SSD //Samsung Odyssey Neo G9 // Windows 11 Pro X64

Permalänk
Medlem
Skrivet av LinusNeuman:

Sätt in den i den kommande generationens konsoller så har vi löst problemet med dålig grafik på konsollportar till PC.

Vadå? Om en gaming pc idag kostar runt 10K, varför skulle inte en konsoll kunna göra det då?

nu vet jag inte om du var ironisk eller inte (svårt att utläsa på nätet) men om du sätter en konsols pris på 10k så tappar du mycket av vitsen med en konsol. de når ut till den stora massan för att de är relativt billiga samt bara är plug n play till din tv. du kanske inte kommer ihåg allt ramaskri när ps3 kom och "alla" gnällde över hur dyr den var när den gick på runt 6k?

men ja egentligen är jag med dig, sätt i en grym gpu och snåla in lite på cpu i en konsol så får du max spelprestanda som möjliggör mer för spelutvecklarna

Visa signatur

Ryzen 7600X - Geforce RTX 4080 - Custom Loop - Samsung 34" Ultra Wide
Intel i7 9700K - Radeon VII

Permalänk
Medlem
Skrivet av Starric:

nu vet jag inte om du var ironisk eller inte (svårt att utläsa på nätet) men om du sätter en konsols pris på 10k så tappar du mycket av vitsen med en konsol. de når ut till den stora massan för att de är relativt billiga samt bara är plug n play till din tv. du kanske inte kommer ihåg allt ramaskri när ps3 kom och "alla" gnällde över hur dyr den var när den gick på runt 6k?

men ja egentligen är jag med dig, sätt i en grym gpu och snåla in lite på cpu i en konsol så får du max spelprestanda som möjliggör mer för spelutvecklarna

6500 kr kostade Ps 3 på release dagen för har själv haft den sedan dess och ca en månad senare gick den ner till 6K.

Vet att många sagt att dom ej kan sätta lika högt pris igen och att dom verkar snåla in mer denna gång.

Själv trodde jag dom skulle satsa som förra gången med mycket prestanda och att priset skulle hamna på 9K ,
men detta har redan avvisats för mycket så tror inte på det. Nyaste ryktet är 7970M från Radeon i nästa PS4.

Visa signatur

Chassi: Ssupd Meshroom S V2, Moderkort: Gigabyte Aorus X570I Pro Wifi, Processor:Ryzen 7 5800X3D , Cpu kylare: EK-AIO Elite 280 D-RGB Minnen Gskill Ripsaw 16 Gb Cl16 3600 mhz,Startdisk:SSD Samsung 970 Evo plus 1 TB , Grafikkort:PNY RTX4070TI Super Verto Oc PSU: Corsair SF850L Skärm: ASUS ROG Swift PG278Q Tillbehör: Logitech G903 & Funk KB460 , Logitech Z520 datorhögtalare.

Permalänk
Medlem
Skrivet av BiffenL:

Du backar upp dina påståenden med att du känner rätt människor. Det är vattentätt!

Roligt, jag drog mig för att nämna det eftersom jag misstänkte att någon skulle påpeka att det inte räcker långt i en internetdisskussion. Men jag hoppades iaf att du inte skulle göra ett halmdocksargument och ta det jag säger ur sitt sammanhang.

Skrivet av Burks:

Nu ställer jag mig frågan, Vart fick du det ifrån? att jag sa att den skulle komma 2012?

Vad menar du annars med denna meningen nedan?

Skrivet av Burks:

Såvitt jag vet så har Nvidia inte ens gått ut med varför det blev GK104 istället för GK110.

GK104 kom ju 2012. Om GK104 kom istället för GK110 så menar du ju att GK110 var planerad till 2012 också. Det är skitsnack och inte en enda källa har påstått att GK110 skulle komma när GK104 kom. Även om folk som blandar ihop GK100 och GK110 gärna får för sig sånt.

Skrivet av Burks:

Och jag behöver fortfarandet källhänvisning för att kunna ta dina inlägg fullt ut. För mig just nu ser det mesta ut som tom luft.

Vad vill du ha källhänvisning på? Jag kan tyvärr inte ge dig källa på de exakta specifikationerna (2048 CUDA-kärnor med mera). Det står säkert på nätet någonstans men den informationen har jag främst från annat håll. Men den informationen är inte heller så relevant utan den har jag bara nämnt vid sidan om. Den kan vi ignorera helt om du vill. Det som är relevant är att GK104 fick ersätta GK100. Och att GK110 inte är GK100. Behövs det verkligen källa på det?

GK100 blev inställd, det är ett faktum, den försvann från planeringen och rykten november/december 2011. Efter det så var det bara GK104 som det snackades om. Hur ger jag källa på att GK100 inte omnämns i några källor efter 2011? Ska jag länka till en artikel där den inte finns? Ni behöver inte tro mig på att de siktade för högt, men det är vad allt vi vet pekar på och vad ryktet säger. De har gjort misstaget förut. Det är ingen diskussion om att GK104 är designad som en över mellansegmentskrets hoppas jag?

Behöver jag källa på att GK110 är planerad till 2013 för konsumentprodukt? Det är ju vad varenda nyhet har sagt!

Så säg gärna vad du vill ha källa på, och säg gärna till om du har en källa som säger emot mina påståenden. Jag orkar inte dra fram källa på saker du inte betvivlar så vi fokuserar på de detaljer du betvivlar.

Permalänk
Medlem
Skrivet av Xedious:

Här har vi en kille som inte har en aning om vad han pratar om!

Okej.. och det grundar du på vadå?

Har själv provat 2st GTX680 överklockade med en 3770k 4.8GHz i t.ex. Metro 2033, Crysis 2, Battlefield 3, Far Cry 3, STALKER CoP, Witcher 2, DiRT 3, klarar alla spel på högsta möjliga inställningar in-game i +60fps average, dippar knappt under 60 om det inte är någon dåligt kodat scen (host stalker/metro)

Skrivet av tvelander:

men det är ju SANT !!!!! .... eller inte

Förklara istället för att kasta ur dig nonsense. Varför är det inte sant? Du har själv 3st GTX680, du om någon borde veta vad jag pratar om.

Visa signatur

Projektlogg: Vector Qlimax

X APEX, 8700K @ 5200MHz, Trident Z 16GB @ 4133MHz CL16, RTX 2080 Ti, 970 M.2 SSD, RM1000x, EK A240

Permalänk
Avstängd
Skrivet av SeF.Typh00n:

Hur menar du nu? Detta är ett kort med en GPU, inte två.

verkar som jag vill köpa den till nästa dator då om den kostar runt 6000 och inte 8-9

problemet är att klistermärket den har ser väldigt leksaks aktigt och fult ut och om alla kort ser ut så så vet jag inte riktigt

Permalänk
Avstängd
Skrivet av zzcool:

verkar som jag vill köpa den till nästa dator då om den kostar runt 6000 och inte 8-9

problemet är att klistermärket den har ser väldigt leksaks aktigt och fult ut och om alla kort ser ut så så vet jag inte riktigt

Finns mer än en tillverkare som lär släppa det och ha ett snyggt klistermärke

Visa signatur

R7 3700X | X570 Aorus Master | 32GB | EVGA 1080 Ti FTW3 | Noctua NH-D15S | FD Meshify C Copper
R7 1700 | X370 Gaming-ITX | 16GB | RX Vega 64 LE | Noctua U12S | Node 304
2 x HPE ProLiant Microserver Gen 8 | 1265L V2 | 16GB | 20TB

Permalänk
Avstängd
Skrivet av SeF.Typh00n:

Finns mer än en tillverkare som lär släppa det och ha ett snyggt klistermärke

var inte reglerna att inget skulle ändras?

Permalänk
Medlem
Skrivet av Aleshi:

GK110 är något helt annat och tillhör en senare generation..

Snacka inte skit du heller, GK110 är fortfarande Kepler och har hela tiden sedan omnämnd varit inriktad som beräknings enhet (Tesla) och även kallad "Big Kepler" med sitt stora antal CUDA kärnor (2880). GK100 var planerad att ha ungefär 1024 CUDA's.

Visa signatur

CPU: Intel i9-12900K Cooler: Asus TUF Gaming LC 240 ARGB MB: Asus TUF Gaming Z690 Plus Wifi D4 GPU: Asus TUF GeForce RTX 3080 Ti 12GB Case: In Win D-Frame HD: Intel Optane 900P 280GB, WD Black SN850 1TB Mem: Kingston Fury Beast RGB 3600MHz CL17 32GB PSU: Corsair AX760 OS: Win11 Pro

Permalänk
Medlem
Skrivet av Stefanken:

8000 kr för ett nytt grafikkort?
Tycker max 5000kr med kort med EN GPU

899,00 usd = 5853kr för att vara exakt!
http://www.valuta.se/

Visa signatur

GPU 2080Ti Moderkort ROG Crosshair VIII Formula x570
CPU 5900x Minne Corsair 32GB 3600Mhz Nätagg Corsair AX 1200i
Chassi Lian-Li PC-O7S
Skärm C49RG9x 120Hz Hårddisk Corsair MP600 Kylning husradiator, EK Blocks