Nvidia gör Geforce Titan med Kepler GK110

Permalänk
Medlem
Skrivet av tvelander:

Jag sparar otroligt mycket pengar varje månad.

Då jag bor hemma.

Tror de flesta bor hemma?!

Visa signatur

| AMD 5600 X | ASUS PRIME B550-PLUS | Kingston Fury 16GB DDR4 3600MHz | MSI RTX 3070 | Be Quiet Dark power Pro 10 850W | Dell S2716DG | Noctua NH-D15 | Corsair Carbide 600Q | | Sony Z2 tablet | En HTPC

Permalänk
Skrivet av Waowt:

Är du seriös? Har du kollat skillnaden? Vad jag kan se handlar det snarare om ca 60 Watt.
Ska ju ha andra grejer i datorn med (en till hdd, möjligen ssd, mer ram osv osv)

Vägra köpa nytt nätagg - typ 650w á 1500kr?

Visa signatur

CPU: Intel Core i7 3770K 3,5Ghz Socket 1155 - GPU: EVGA GeForce GTX 690 4096MB - Motherboard: MSI Z77A-S01 - Hårddisk: Samsung SSD Pro Basic 840-Series 128GB - 2TB Seagate Barracuda 7200rpm - Kylning: Corsair Hydro H80 - 2x 120mm Noctua Silent - Chassi: Fractal Design Core 1000

Permalänk
Medlem
Skrivet av Mikael07:

Jag tänker inte lägga mig i debatten om Nvidias chipbranding, men tillåt mig medla en aning. Möjligen hakar folk upp sig på att du agerar som en absolut auktoritet inom ämnet, du har rätt och alla som har en annan åsikt är idioter. Det kan tyckas vara lite magstarkt när det inte finns någon officiell sanning. Kanske en liten ödmjukare framtoning, där det är mer uppenbart att det är din åsikt (och inte fakta), skulle skapa mindre friktion?

Är nog inte helt dum analys. Ska ta till mig av det. Jag antar att jag blir sådan när många förväxlar GK110 och GK100 och på allvar tror att nVidia kunde släppa GK110 för ett år sedan "om de bara ville". Men de valde att vara snälla och inte köra över AMD.
Jag själv har hyllat GK104 och tycker det är ett jättefint chip. Men när fanboys vänder nVidias misslyckande med GK100 till att de är så grymma att de inte släpper chip för att "de är för bra" så känner jag att jag måste säga ifrån, och när detta upprepas som en sanning i forumet gång på gång i varje tråd om Kepler så blir jag lite hårdare i tonen.

Permalänk
Medlem
Skrivet av Aleshi:

Inser du idiotin i att begära officiella uttalanden om en olanserad produkt? Det är väldigt sällan några officiella detaljer om specifika kretsar alls innan lansering. Ibland talar de om familjen eller arkitekturen, men väldigt sällan om specifika kretsar. Så det är ju bekvämt att kräva det från din sida.

Min argumentation bygger också på läckor och rykten. Faktum är att GK100 försvann från läckorna sent 2011. Och nVidia släppte ett högre mellanklasskort istället. Vi vet också att nVidia har för vana att sikta för högt och få problem med sina största kretsar. Vi vet också att en krets på en bra bit över 500mm² på ny tillverkningsprocess är mycket svårt att få till.

Är det inte än mer idiotiskt av dig att tjata om denna krets här då? En enligt din kompis misslyckad krets som aldrig kom till massprouktion och aldrig visats för en privatperson eller journalist.

Är fullt medveten om att det är svårt att tillverka stora kretsar, framförallt som ska vara vinstgivande i slutändan.

Permalänk
Medlem
Skrivet av Aleshi:

Är nog inte helt dum analys. Ska ta till mig av det. Jag antar att jag blir sådan när många förväxlar GK110 och GK100 och på allvar tror att nVidia kunde släppa GK110 för ett år sedan "om de bara ville". Men de valde att vara snälla och inte köra över AMD.
Jag själv har hyllat GK104 och tycker det är ett jättefint chip. Men när fanboys vänder nVidias misslyckande med GK100 till att de är så grymma att de inte släpper chip för att "de är för bra" så känner jag att jag måste säga ifrån, och när detta upprepas som en sanning i forumet gång på gång i varje tråd om Kepler så blir jag lite hårdare i tonen.

Är det folk som tror att NVIDIA inte släppte GK100 för att det inte behövdes, låt dem göra det. Det bevisar ju enbart att de är just fanboys, inget annat. De vet ingenting om den kretsen, inte jag heller. Det är tydligen bara din kompis och NVIDIA själva som gör.

Permalänk
Skrivet av HurMycket:

Jag har fortfarande svårt att förstå det. Jag kämpar för att kunna spela BF3 med MSAA, men de som har 680 och 670(!) verkar dra runt Ultra utan minsta problem. Ungefär samma sak med Far Cry 3. Sen ska drivrutinen hålla på och krascha två, tre gånger om dagen och CCC är verkligen inte roligt. Var är Adaptive V-Sync till exempel? Hur kan ett 680 kosta nästan tusen kronor mer än ett 7970 om det är sämre?

Du måste ha något fel på ditt kort. Jag har bra med FPS i både FC3 och BF3 på högsta. Dock FC3 med 2xMSAA.

Mina drivrutiner kraschar aldrig heller.
Sedan får man Dynamic Vsync med RadeonPro.

Visa signatur

Insert funny joke here

Permalänk
Master of Overkill
Skrivet av HurMycket:

Jag har fortfarande svårt att förstå det. Jag kämpar för att kunna spela BF3 med MSAA, men de som har 680 och 670(!) verkar dra runt Ultra utan minsta problem. Ungefär samma sak med Far Cry 3. Sen ska drivrutinen hålla på och krascha två, tre gånger om dagen och CCC är verkligen inte roligt. Var är Adaptive V-Sync till exempel? Hur kan ett 680 kosta nästan tusen kronor mer än ett 7970 om det är sämre?

Men frågan var varför du behöver nya grafikkort när du har 3x680.

Frågan är vad jag behöver 4x 680 och 3x7970 till.

Jag utvärdera CF / SLI, och får se nu om Titan kommer.

Visa signatur

CASE Caselabs SMA8-A + TH10+PED + Louqe Ghost S1 CPU 9900k @5.3GHz (No AVX) 9800X @4.8GHz GPUs RTX 3090 FE RAM 4x16GB Corsair Dominator Platinum 3533MHz CL13 + 2x16GB Corsair Dominator Platinum RGB 3000MHz PSU EVGA T2 1600W + Corsair SFF 750W SSD 905p 480GB, 4x Samsung 970 Pro M.2 Headphones Audeze Maxwell + FOSTEX TR-X00 + Audeze LCD-2 + Moon Cable DAC/AMP Chord Mojo, Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard X299 EVGA DARK + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240

Permalänk
99:e percentilen
Skrivet av tvelander:

Frågan är vad jag behöver 4x 680 och 3x7970 till.

Jag utvärdera CF / SLI, och får se nu om Titan kommer.

Maxa alla spel, antar jag. Och för att du har en så bra plattform att du kan köra 3-way SLI.

Visa signatur

Skrivet med hjälp av Better SweClockers

Permalänk
Medlem
Skrivet av tvelander:

Frågan är vad jag behöver 4x 680 och 3x7970 till.

Jag utvärdera CF / SLI, och får se nu om Titan kommer.

Ser inget konstigt med att köra 4way GTX 680-SLI eller Trifire HD 7970.
Du har ju 3st 120hz-skärmar, och jag kan tänka mig att det behövs en hel del kräm för att nyttja dessa fullt ut.

Visa signatur

CPU: i9-13900K + Cooler Master ML360L ARGB V2 || GPU: Gainward RTX 4090 Phantom GS.
MoBo: Asus Rog Strix Z790-F Gaming || RAM 32 GB Kingston Fury Beast CL40 DDR5 RGB 5600 MHz.
PSU: Corsair RMe 1000W 80+ Gold || Chassi: Phanteks Eclipse P500A D-RGB.
Lagring: Kingston Fury Renegade M.2 NVME 2TB + Samsung 860 QVO 1TB.
Skärmar: 27" 1440p 144 Hz IPS G-sync + 27" 1440p 155 Hz VA || OS: Win 11 Home.

Permalänk
Master of Overkill
Skrivet av Minsc S2:

Ser inget konstigt med att köra 4way GTX 680-SLI eller Trifire HD 7970.
Du har ju 3st 120hz-skärmar, och jag kan tänka mig att det behövs en hel del kräm för att nyttja dessa fullt ut.

Det är ju tur att jag lirar BF3 fortfarande annars hade 3x / 4x kort varit lite värdelöst

Visa signatur

CASE Caselabs SMA8-A + TH10+PED + Louqe Ghost S1 CPU 9900k @5.3GHz (No AVX) 9800X @4.8GHz GPUs RTX 3090 FE RAM 4x16GB Corsair Dominator Platinum 3533MHz CL13 + 2x16GB Corsair Dominator Platinum RGB 3000MHz PSU EVGA T2 1600W + Corsair SFF 750W SSD 905p 480GB, 4x Samsung 970 Pro M.2 Headphones Audeze Maxwell + FOSTEX TR-X00 + Audeze LCD-2 + Moon Cable DAC/AMP Chord Mojo, Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard X299 EVGA DARK + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240

Permalänk
Medlem

Utan att lägga ved på brasan så har jag gjort samma analys som Aleshi.
Saker som jag tycker stödjer detta är:
• Nvidia hoppade jämnfota av glädje när AMD lanserade 7970 i december 2011. Dom insåg då att dom skulle kunna konkurrera med sin tänkta näst snabbaste krets, (GK 104) med lite tweaks och uppskruvade frekvenser. Åtminstone i rena speltester (vilket är viktigast för merparten av konsumenterna). I rena GPGPU-tester är ju däremot GK-104 inte alls bra, tvärs om, en bra bit sämre än GF-110.

• Nvidia har traditionellt alltid satsat på stora kärnor, deras toppkort de senaste generationerna har legat runt 500 mm2 +. GK 104 är vadå, 294mm2?. Allt talar för denna aldrig var tänkt att vara topp-kretsen.

• Låt oss säga, rent hypotetiskt att AMD hade släppt 7970 GHZ edition tillsammans med "neversettle-drivarna" istället för vanilla 7970 i december 2011, hur många tror då att GK-104 hade lanserats som ett toppkort (680)?

Med det sagt tycker jag att Nvidia med denna generationen har prioriterat rätt. Åtminstone tycker jag att det är bättre med ett kort som presterar bra i spel och drar lite ström, än ett som är bra på GPGPU-tillämplingar men som drar mycket ström och blir varmt och väsnas.

/jacozz

Visa signatur

🖥️ AMD Ryzen 3700x, MSI B350 Mortar Arctic, Corsair lpx 3200, Sapphire 6900XT Nitro, Mbpro 15, MacMini.

Permalänk
Medlem
Skrivet av Jonathanknet:

Sitter verkligen folk o tror på att dom kommer släppa ett kort som är cirka 85 procent av ett Geforce GTX 690?
Sen när har det någonsins hänt? Sedan är det ingen krympning heller, som mest har man väl fått ut ca 20-25% mot sitt förra flaggskepp? Har för mig att det var någon liknande nyhet om 7970 där man trodde att det skulle prestera överdrivet.

Detta är ju inte äkta flaggskepp mot flaggskepp. Budgetkrets GK104 som halkade in på bananskal som tillfälligt "toppkort" vs. monster/riktiga toppkortet monster GK110. Finns all möjlighet i världen att det kan stämma och då är detta kort givet köp, eller minst 2-3st för mig då jag ser detta som den riktiga ersättaren till 580 och man kan inte göra en korrekt jämförelse 580 vs. 680 utan det blir 580 vs. titan.

Permalänk
Medlem
Skrivet av Gamers:

Detta är ju inte äkta flaggskepp mot flaggskepp. Budgetkrets GK104 som halkade in på bananskal som tillfälligt "toppkort" vs. monster/riktiga toppkortet monster GK110. Finns all möjlighet i världen att det kan stämma och då är detta kort givet köp, eller minst 2-3st för mig då jag ser detta som den riktiga ersättaren till 580 och man kan inte göra en korrekt jämförelse 580 vs. 680 utan det blir 580 vs. titan.

Snarare som att jämföra GTX 280 mot GTX 580. GK100 släpptes ju aldrig.

Permalänk
Skrivet av Aleshi:

Snarare som att jämföra GTX 280 mot GTX 580. GK100 släpptes ju aldrig.

Du måste mena 480 vs 580, alltså GF100 vs GF110?

Visa signatur

Insert funny joke here

Permalänk
Medlem
Skrivet av Slaktardej:

Du måste mena 480 vs 580, alltså GF100 vs GF110?

Nej nej han menar alltid GK100. Det kan även vara så att det aktiveras ett peptidhormon vid namn endorfin varje gång han får skriva om GK100.

Permalänk
Medlem
Skrivet av Slaktardej:

Du måste mena 480 vs 580, alltså GF100 vs GF110?

Är du måhända ironisk?

Skrivet av BiffenL:

Nej nej han menar alltid GK100. Det kan även vara så att det aktiveras ett peptidhormon vid namn endorfin varje gång han får skriva om GK100.

Personligen tycker jag inte om när folk sprider dumheter. Som att nVidia egentligen har extremt bra kretsar som de väljer att inte släppa för att vara snälla mot AMD. Blir lite en vägg att diskutera emot ibland så man får ju upprepa sig ibland eftersom man pratar med många olika om det. Du däremot verkar ha hakat upp dig på mig. Vad är ditt problem?

Permalänk
Entusiast
Skrivet av jacozz:

Utan att lägga ved på brasan så har jag gjort samma analys som Aleshi.
Saker som jag tycker stödjer detta är:
• Nvidia hoppade jämnfota av glädje när AMD lanserade 7970 i december 2011. Dom insåg då att dom skulle kunna konkurrera med sin tänkta näst snabbaste krets, (GK 104) med lite tweaks och uppskruvade frekvenser. Åtminstone i rena speltester (vilket är viktigast för merparten av konsumenterna). I rena GPGPU-tester är ju däremot GK-104 inte alls bra, tvärs om, en bra bit sämre än GF-110.

• Nvidia har traditionellt alltid satsat på stora kärnor, deras toppkort de senaste generationerna har legat runt 500 mm2 +. GK 104 är vadå, 294mm2?. Allt talar för denna aldrig var tänkt att vara topp-kretsen.

• Låt oss säga, rent hypotetiskt att AMD hade släppt 7970 GHZ edition tillsammans med "neversettle-drivarna" istället för vanilla 7970 i december 2011, hur många tror då att GK-104 hade lanserats som ett toppkort (680)?

Med det sagt tycker jag att Nvidia med denna generationen har prioriterat rätt. Åtminstone tycker jag att det är bättre med ett kort som presterar bra i spel och drar lite ström, än ett som är bra på GPGPU-tillämplingar men som drar mycket ström och blir varmt och väsnas.

/jacozz

Värt att notera är att GK110, alltså den förbättrade och utvecklade versionen av GK100 inte heller har alla beräkningsenheter upplåsta. Någon som känner igen mönstret från GTX 480 och GTX 580? 480 var för stor och svår att tillverka så de var tvunga att klippa beräkningsenheter för att få en användbar yield. Nu gör det samma sak men efter en utvecklingsrunda. Inte ens Tesla har alla enheter upplåsta så att de skulle göra det för att de inte behöver är rent och skär BS.

Det finns inget som tyder på att GK100 blev inställd för att Nvidia inte behövde sälja det. Marknaden skrek efter en ersättare till Fermi för beräkningskort för att där är prestanda per watt långt mycket viktigare än i speldatorer.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Medlem
Skrivet av Aleshi:

Personligen tycker jag inte om när folk sprider dumheter. Som att nVidia egentligen har extremt bra kretsar som de väljer att inte släppa för att vara snälla mot AMD. Blir lite en vägg att diskutera emot ibland så man får ju upprepa sig ibland eftersom man pratar med många olika om det. Du däremot verkar ha hakat upp dig på mig. Vad är ditt problem?

Det är i allra högsta grad personligt mot dig, du postar flest inlägg i tråden och i princip alla har du fruktansvärt risig attityd mot folk som kanske inte är lila pålästa som du själv. Även att du i näst intill alla inlägg bröjar tjata om GK100 som enligt din kompis är ett misslyckande.

Permalänk
Medlem
Skrivet av Jonathanknet:

Sitter verkligen folk o tror på att dom kommer släppa ett kort som är cirka 85 procent av ett Geforce GTX 690?
Sen när har det någonsins hänt? Sedan är det ingen krympning heller, som mest har man väl fått ut ca 20-25% mot sitt förra flaggskepp? Har för mig att det var någon liknande nyhet om 7970 där man trodde att det skulle prestera överdrivet.

Ja? Titta på vad det är för chip vi pratar om, GK110 är kepler med 2 688 Cuda-kärnor. Jämför sedan med ett GTX 690 som bygger på två stycken GK104 som också det är kepler men med 1 536 Cuda-kärnor styck, alltså 3 072 totalt. GK110 har alltså 87,5% av antalet Cuda-kärnor i ett 690. Lägg sedan till att du i ett 690 har SLI som inte skalar till 100%. Så det beror alltså på klockfrekvenserna hur det nya titan kommer stå sig mot ett 690, men runt 80-85% ser inte jag som orimligt

Sedan huruvida de vill släppa det som grafikkort är en annan femma, men jag tror att eftersom de redan har kretsen i fråga så är de nog villiga att släppa det som prestige-grej för ett högt pris. Det blir alltså som när de släpper GTX 690, det är mycket prestanda till högt pris bara för att säga "vi är bäst". Nu kommer de kunna säga "vi har det bästa singelchip-kortet". Det kommer alltså inte påverka mellanklassens kort typ GTX 660, de som drar in de stora försäljningspengarna, mer än att det kan bidra med positiv publicitet om att "nvidia är bättre än amd"

Edit: Typo

Visa signatur

Ryzen 7600X - Geforce RTX 4080 - Custom Loop - Samsung 34" Ultra Wide
Intel i7 9700K - Radeon VII

Permalänk
99:e percentilen
Skrivet av jacozz:

Utan att lägga ved på brasan så har jag gjort samma analys som Aleshi.
Saker som jag tycker stödjer detta är:
• Nvidia hoppade jämnfota av glädje när AMD lanserade 7970 i december 2011. Dom insåg då att dom skulle kunna konkurrera med sin tänkta näst snabbaste krets, (GK 104) med lite tweaks och uppskruvade frekvenser. Åtminstone i rena speltester (vilket är viktigast för merparten av konsumenterna). I rena GPGPU-tester är ju däremot GK-104 inte alls bra, tvärs om, en bra bit sämre än GF-110.

• Nvidia har traditionellt alltid satsat på stora kärnor, deras toppkort de senaste generationerna har legat runt 500 mm2 +. GK 104 är vadå, 294mm2?. Allt talar för denna aldrig var tänkt att vara topp-kretsen.

• Låt oss säga, rent hypotetiskt att AMD hade släppt 7970 GHZ edition tillsammans med "neversettle-drivarna" istället för vanilla 7970 i december 2011, hur många tror då att GK-104 hade lanserats som ett toppkort (680)?

Med det sagt tycker jag att Nvidia med denna generationen har prioriterat rätt. Åtminstone tycker jag att det är bättre med ett kort som presterar bra i spel och drar lite ström, än ett som är bra på GPGPU-tillämplingar men som drar mycket ström och blir varmt och väsnas.

/jacozz

Precis. Man hör mycket om att AMD är så himla bra på GPGPU, men vad är nyttan med det? Jag vet inte ens vad GPGPU används till i praktiken och jag kan verkligen inte säga att det har gett mig någon märkbar prestandaökning i BF3 (eller något annat sammanhang). Jag upplever istället (utan att själv ha använt Kepler) att 600-serien vinner mot 7000-serien i såväl prestanda som prestanda/watt och temperaturer.

Man köper väl ändå ett bra grafikkort för att få bra spelprestanda, inte för att kunna säga att det är bra på GPGPU?

Visa signatur

Skrivet med hjälp av Better SweClockers

Permalänk
Medlem
Skrivet av Burks:

Du snackar som någon vetenskapsmann. Vart kommer ditt underlag ifrån? rykten? lösa menigar?

Du skriver att GK110 var menad för 2013 hela tiden, Hur vet du detta?

"GK100 lades ner för länge sedan då den inte gick att få tillräckligt fungerande. Därför fick GK104 ta över."

Det låter mera som dina egna ord kring Nvidia, Försök inte att få folk att tro på dina teorier som du tror är sanna. (utan att ha ett underlag att redovisa) Såvitt jag vet så har Nvidia inte ens gått ut med varför det blev GK104 istället för GK110.

Gk104 och gk110 är olika generationer, se gf100, gf104 (480, 460) vs gf110, gf114 (580, 560)

Gf = geforce fermi
Gk = geforce kepler

Att g:et står för geforce kan kanske ifrågasättas iom att samma kretsar används i tesla/quadro, men resten av schemat stämmer.

Maxwell borde då heta gm, och flaggskeppet i gen 1 blir då gm100 enligt samma schema.

Det blev alltså gk104 ist för gk100, som vi aldrig ens hörde talas om. Av samma anledning döper de inte gk110 till gtx685/695 eller nåt sånt, för det tillhör inte den generationen. Det skulle vart 780, men iom att AMD inte släpper nån riktig 8000-serie behöver de inte kontra med något än.

Om du förstår deras sätt att döpa kretsar är hans (och mitt) resonemang fullt rimligt och antagligen korrekt.

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av thesmoothman:

Vägra köpa nytt nätagg - typ 650w á 1500kr?

Varför skulle jag lägga pengar på nätagg? Vore det ett måste skulle jag givetvis göra det. Men nu är det inget måste

Permalänk
Medlem
Skrivet av HurMycket:

Precis. Man hör mycket om att AMD är så himla bra på GPGPU, men vad är nyttan med det? Jag vet inte ens vad GPGPU används till i praktiken och jag kan verkligen inte säga att det har gett mig någon märkbar prestandaökning i BF3 (eller något annat sammanhang). Jag upplever istället (utan att själv ha använt Kepler) att 600-serien vinner mot 7000-serien i såväl prestanda som prestanda/watt och temperaturer.

Man köper väl ändå ett bra grafikkort för att få bra spelprestanda, inte för att kunna säga att det är bra på GPGPU?

Anledningen till att du inte märker av någon vinst är för att du spelar, inte använder dig av gpgpu Gpgpu (general purpose computing on graphics processing unit) är när du använder grafikkortet som beräkningskort, typ det som nvidia tesla är till för. Tillämpningar kan vara olika vetenskapliga beräkningar och simuleringar, eller videoprocessing eller liknande.

Visa signatur

Ryzen 7600X - Geforce RTX 4080 - Custom Loop - Samsung 34" Ultra Wide
Intel i7 9700K - Radeon VII

Permalänk
Medlem
Skrivet av Starric:

Anledningen till att du inte märker av någon vinst är för att du spelar, inte använder dig av gpgpu Gpgpu (general purpose computing on graphics processing unit) är när du använder grafikkortet som beräkningskort, typ det som nvidia tesla är till för. Tillämpningar kan vara olika vetenskapliga beräkningar och simuleringar, eller videoprocessing eller liknande.

Det var ju precis hans poäng, vad för nytta har man av gpgpu när man använder kortet för att spela?

Permalänk
Medlem
Skrivet av Lordsqueak:

Det var ju precis hans poäng, vad för nytta har man av gpgpu när man använder kortet för att spela?

Han undrade vad vitsen med det var, och jag sa just att han inte har någon nytta av det, det är för sånt som jag skrev: simuleringar, beräkningar osv. Gör du sånt så titta på gpgpu-prestanda, annars är det pengar i sjön för en vanlig datorspelare Gpgpu har inget med grafik att göra, bara att man utnyttjar prestandan till annat

Visa signatur

Ryzen 7600X - Geforce RTX 4080 - Custom Loop - Samsung 34" Ultra Wide
Intel i7 9700K - Radeon VII

Permalänk
Entusiast
Skrivet av Starric:

Anledningen till att du inte märker av någon vinst är för att du spelar, inte använder dig av gpgpu Gpgpu (general purpose computing on graphics processing unit) är när du använder grafikkortet som beräkningskort, typ det som nvidia tesla är till för. Tillämpningar kan vara olika vetenskapliga beräkningar och simuleringar, eller videoprocessing eller liknande.

Finns ett fåtal spel som använder sig av det. Har för mig att Civ5 kör GPGPU för att packa upp texturer till exempel men någon praktiskt skillnad är det knappast i spel. Sen dyker olika typer av GPGPU upp i mer alldagliga sammanhang. Photoshop har till exempel en del funktioner som går via OpenCL nu. Fast där är skillnaden mellan olika kort minimal.

Den stora anledningen till att det pratas så mycket om GPGPU i AMD-laget är väl antagligen för att det var ett djävla tjat om det från Nvidiaanhängarna när det var Fermi som gällde. Då var minsann prestanda per watt ointressant och bättre GPGPU-prestanda var livsviktigt. Den här generationen har de båda lagen av fanboys bytt argument med varandra vilket är väldigt komiskt för oss som står utanför och tittar på kaoset.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Medlem

Zotamedu skrev

Citat:

Den stora anledningen till att det pratas så mycket om GPGPU i AMD-laget är väl antagligen för att det var ett djävla tjat om det från Nvidiaanhängarna när det var Fermi som gällde. Då var minsann prestanda per watt ointressant och bättre GPGPU-prestanda var livsviktigt. Den här generationen har de båda lagen av fanboys bytt argument med varandra vilket är väldigt komiskt för oss som står utanför och tittar på kaoset.

Hehe, jo det ligger en del sanning i det.

Men, jag tror som så att AMD kommer gå all in på GPGPU i framtiden. Anledningen till det är att dessa arkitekturer ska fungera bra i nedskalade varianter som passar i deras APU:er. Om HSA-satsningen ska lyckas krävs grafikkretsar som också går att använda till annat än att skyffla pixlar.

Visa signatur

🖥️ AMD Ryzen 3700x, MSI B350 Mortar Arctic, Corsair lpx 3200, Sapphire 6900XT Nitro, Mbpro 15, MacMini.

Permalänk
Medlem

Alltså, jag blir helsnurrig. Om man vill ha bra GPGPU-prestanda ska man köra vidare på GTX 580 eller kommer detta möjligtvis bli ett Tesla i konsumentförpackning? Är många CUDA-kärnor i alla fall, och bra med minne. Jag drömmer om att det blir så, men Nvidia lär ju göra nåt fuffens för att stoppa det så att vi vanliga dödliga inte ska ha råd att beräkna saker ;P

Permalänk
Medlem

GustavN
Nja, eller det är väl ingen som vet än om hur dom resonerar. Är GPGPU bara tänkt för superdatorer och kanske workstations? Eller tror man att vanligt folk också kan ha nytta av detta?

Vi får se.

Visa signatur

🖥️ AMD Ryzen 3700x, MSI B350 Mortar Arctic, Corsair lpx 3200, Sapphire 6900XT Nitro, Mbpro 15, MacMini.

Permalänk
Medlem
Skrivet av OlleTheGreat:

Gk104 och gk110 är olika generationer, se gf100, gf104 (480, 460) vs gf110, gf114 (580, 560)

Gf = geforce fermi
Gk = geforce kepler

Att g:et står för geforce kan kanske ifrågasättas iom att samma kretsar används i tesla/quadro, men resten av schemat stämmer.

Maxwell borde då heta gm, och flaggskeppet i gen 1 blir då gm100 enligt samma schema.

Det blev alltså gk104 ist för gk100, som vi aldrig ens hörde talas om. Av samma anledning döper de inte gk110 till gtx685/695 eller nåt sånt, för det tillhör inte den generationen. Det skulle vart 780, men iom att AMD inte släpper nån riktig 8000-serie behöver de inte kontra med något än.

Om du förstår deras sätt att döpa kretsar är hans (och mitt) resonemang fullt rimligt och antagligen korrekt.

Du blandar ihop begreppen, grafik generation = Tesla, Fermi, Kepler, Maxwell etc.

Försäljnings serier = 100, 200, 300, 400, 500, 600, 700(?)
Försäljnings serierna har ungefär följt årtal så att folk trott att man köpt ett helt nytt kort men det är bara ett försäljnings knep som båda huvud aktörerna på grafik marknaden använder sej av.

Skickades från m.sweclockers.com

Visa signatur

CPU: Intel i9-12900K Cooler: Asus TUF Gaming LC 240 ARGB MB: Asus TUF Gaming Z690 Plus Wifi D4 GPU: Asus TUF GeForce RTX 3080 Ti 12GB Case: In Win D-Frame HD: Intel Optane 900P 280GB, WD Black SN850 1TB Mem: Kingston Fury Beast RGB 3600MHz CL17 32GB PSU: Corsair AX760 OS: Win11 Pro