Geforce GTX 780 Ti är fullständiga GK110 med 2 880 CUDA-kärnor

Permalänk
Medlem
Skrivet av oceanic:

Skitsnack, GK100 var 580:ans ersättare men behövdes inte fixas till med extra kostnader då mellanklass modellen slog AMD's high-end, alltså man kunde kränga billigare kisel för fett pris, GK110, 114 osv skulle varit refresh modeller typ Ultra/Ti om konkurrenten hade kontrat men inget hände så med försenad Maxwell så vart det rebranded 700 serie dvs. fortfarande Kepler därav suffixet K, nästa generation är M som i Maxwell med topp kort GM100.

Skickades från m.sweclockers.com

Hade GK100 fungerat så hade de använt dem i beräkningskort, istället fick de vänta tills GK110 var klar innan de kunde lansera Kepler till superdatorer. Varför? Och teorin att GK104 räckte och att nVidia bara lekte är fullkomnligt verklighetsfrånvarande. AMD har inte på många år siktat på att göra kort i 500mm²-klassen. De brukar lägga sig en bit under, så det var inget unikt att GK104 skulle stå sig bra denna gången heller. nVidia väljer inte bort att kunna ta mer pengar för hela sin serie och dumpa prisklassen som AMDs toppkort ligger i om de får chansen. Det är inte försvarbart ekonomiskt.
Sedan vet vi en rad saker.

1. GF100 - hade stora problem för att nVidia siktade för högt. Det var först med GF110 de hade en fungerande version av Fermi.
2. GK100 var om möjligt ännu högre siktat.
3. De hade all anledning i världen att lansera Kepler till beräkningskort, men kunde inte göra det, de fick sitta med fermibaserade kort tills GK110 kom.
4. GK 110 gick inte att producera i sin helhet ens ett år efter att GK100 skulle ha släppts, hur skulle GK100 kunnat släppas?
5. nVidia eller AMD har aldrig gjort något liknande tidigare -
6. - För att det inte är ekonomiskt försvarbart
7. Varför utvecklade nVidia GK110 till att börja med om GK100 kunde göra jobbet?

Skrivet av oceanic:

Jodå den håller:

280 = GT200 (Tesla)
480 = GF100 (Fermi)
580 = GF110 (Fermi) Updataterad
680 = GK100 (Kepler) <kom inte
780 = GK110 (Kepler) <Ti full updat.
880 = GM100 (Maxwell) ?

Skickades från m.sweclockers.com

GF100 - Ny arkitektur och ny tillverkningsprocess samtidigt, samtidigt jättechip. Stort risktagande. Resultatet: Trasig, stora värmeproblem och levererade under förväntan med avstängda enheter. För stort och varmt design för att fungera på en ny process.
GF110 - Lagad variant som gick att tillverka.
GK100 - Ny arkitektur och ny tillverkningsprocess samtidigt, samtidigt jättechip. Stort risktagande. - Lades ner.
GK110 - Lagad variant som ändå inte gick att få dugliga yields på förräns ett år efter lansering.

Vad pekar på att GK100 ens gick att tillverka?

Bara en inbiten fanboy skulle få för sig att nVidia suttit och hållt på den här prestandan och lekt, bara för att de kan, och för att de skulle vara överlägsna.
På samma sätt kan man säga att AMD Teneriffe inte kom för att den skulle äga upp GTX 680 så hårt. Eller vilken är anledningen att Teneriffe och andra GCN 2.0 kort inte kom förra julen? Själv hävdar jag att de fick problem och fick revidera det till det som idag är Hawaii. Men en AMD-fanboy hade ju - precis som du - kunnat fabulera ihop att AMD bara lattjar lite med nVidia. Hawaii är ju trots allt mycket mer avancerad då gör betydligt mer arbete per mm².

Permalänk
Skrivet av shocker:

Nej det spelar ingen roll om det är black frame insertion, eller jo, det är därför skärmen är bra. Men det jag menade var att det inte är en riktig 240hz skärm precis som att alla smarta TVs inte har 600hz. Folk tror ju att man måste ha 240fps när dom skriver 240hz...

mm visst det fiinns nog mycket pengar å tjäna på en skärm som kräver 240fps för att fungera optimalt.

Tackar så mycket för din detalljerade förklaring angående bilduppdatering, black frame insertion och att Smart TV's inte är 600hz.

Permalänk
Medlem
Skrivet av elajt_1:

Klistrar in från ett tidigare inlägg:

En 384-bitars buss (som Titan har) kan bara adressera 3GB samtidigt. För GTX680 med 256-bitars så gällde 2GB Därav alla inlägg med att GTX680 oftast inte kunde dra någon nytta av de extra 2GB som vissa tillverkare erbjöd (GTX680 4GB). R9 290 som har 512-bitars kan adressera hela minnet (4GB) samtidigt, det är därför man valt just en 512-bitars buss. Exempel: Titan har 24 minneskapslar på kretskortet. 12 på framsidan och 12 på baksidan. Varje minnskapsel har en 32-bitars buss, (12moduler x 32bitars buss = 384). Det betyder att de 12 minnskapslarna på framsidan av kortet får dela på minnesbussen med de 12 minneskapslarna på baksidan kortet. Detta ger ökad fördröjning om mer än 3GB skall adresseras. Kan vara så att det ger något ökad latency generellt, det är jag osäker på. 6GB minne är mao inte en optimalt för en 384-bitars buss (Titan) när det skall användas som ett grafikkort. Det krävs en dubbelt så bred buss för att på effektivaste sätt kunna adressera hela minnsmängden. När det gäller GK110 som sitter i ett Tesla kort så spelar det ingen roll, att man inte kan hantera hela minnet samtidigt. Och de är för Tesla/Quadro korten som den kretsen är utvecklad för.

Bussbredd har väl inget med addresserbart minne att göra? Använder man minnen med högre densitet så får du mer minne i kortet. Vad har du fått dessa idéer ifrån?

Permalänk
Medlem

Vill ha, Vill ha.
Om någon har ett liggande får ni gärna ge mig ett.

Visa signatur

CPU: 5900x. Mem:64GB@3200 16-17-17-34-1T. (ImDIsk)
GPU: 1080 Ti@ca 6-7%OC. Sound: SB-Z -> toslink (DTS)-> old JVC. MB Realtek to Z-2300 for VOIP.

Permalänk
Medlem
Skrivet av Aleshi:

Hade GK100 fungerat så hade de använt dem i beräkningskort, istället fick de vänta tills GK110 var klar innan de kunde lansera Kepler till superdatorer. Varför?

GK100 Var aldrig tänkt att användas som beräknings kort vad jag vet, har aldrig läst det eller påstått detta.

Skrivet av Aleshi:

teorin att GK104 räckte och att nVidia bara lekte är fullkomnligt verklighetsfrånvarande.

Kretsen räckte att slå 7970 så varför tillverka en dyrare kisel, nVidia är inte dum.

Skrivet av Aleshi:

AMD har inte på många år siktat på att göra kort i 500mm²-klassen. De brukar lägga sig en bit under, så det var inget unikt att GK104 skulle stå sig bra denna gången heller.

AMD sa endast nyligen att dom kastar in handduken i topp klassen med Hawaii, trots allt dom går upp mot Maxwell med den arkitekturen.

Skrivet av Aleshi:

nVidia väljer inte bort att kunna ta mer pengar för hela sin serie och dumpa prisklassen som AMDs toppkort ligger i om de får chansen. Det är inte försvarbart ekonomiskt

Klart att det är och vad de gjort, igen nVidia är inte dum.

Skrivet av Aleshi:

GK100 var om möjligt ännu högre siktat.

För att det inte är ekonomiskt försvarbart

GK100 - Ny arkitektur och ny tillverkningsprocess samtidigt, samtidigt jättechip. Stort risktagande.

Vad pekar på att GK100 ens gick att tillverka?

Pekfingret mot GK110, när behovet fanns så kom den i konsument version, nu när 290X är ute så i full version.

Skrivet av Aleshi:

Bara en inbiten fanboy skulle få för sig att nVidia suttit och hållt på den här prestandan och lekt, bara för att de kan, och för att de skulle vara överlägsna.

Man behöver inte vara en fanboy för att inse sanningen.

Skickades från m.sweclockers.com

Visa signatur

CPU: Intel i9-12900K Cooler: Asus TUF Gaming LC 240 ARGB MB: Asus TUF Gaming Z690 Plus Wifi D4 GPU: Asus TUF GeForce RTX 3080 Ti 12GB Case: In Win D-Frame HD: Intel Optane 900P 280GB, WD Black SN850 1TB Mem: Kingston Fury Beast RGB 3600MHz CL17 32GB PSU: Corsair AX760 OS: Win11 Pro

Permalänk
Skrivet av Superlight:

Vad är mdr för beteckning?

Skrivet av Yoshifavorite-94:

Förkortning för miljarder.

Nu är det väl ändå dags att sänka priset på Titan till 5000-5500 nu när 780ti är starkare!

MDR är franska förkortning på "lol", Skojar inte men Miljarder är det nog med!

Visa signatur

Case: Fractal Design Define R5 CPU: Intel Core i7 6700K MB: ASUS Z170 PRO GAMING GPU: ASUS GeForce GTX 1080 8GB ROG STRIX DC3 Gaming SSD:Samsung 850-Series EVO 500GB Memory: Corsair 32GB DDR4 2133MHz PSU: EVGA Supernova P2 850W

Permalänk
Avstängd
Skrivet av Klappa:

Jag tycker synd om Tvelander.

Varför då?
Han har ju haft användning av sina kort, det är ju inte så att han investerar i elektronik. Men du kanske gör det?

Skickades från m.sweclockers.com

Permalänk

Trodde inte att "fulla"(det är ju inte ritkigt fulla GK110) som skulle släppas! jag hade visst fel i en annan tråd

Men priset var ju inte vad jag förväntade mig... trodde det skulle ligga under faktiskt. dom borde släppa priset för 5000-5200kr så det krigar mer med 290X! nog för att 290X inte har lika bra kylare men det kommer få kortet att sänkas lite mer i pris vilket innebär att jag får ett billigare kort om det blir nVidia eller ATi spelar inte så stor roll finns inga större nackdelar med någon av märkena så

tycker det är synd att så många fanboys skall sitta och försvara det ena och det andra... inte alls kul att läsa när många knappt ens läser inläggen och vrider på varenda ord...

just nu så är jag sugen på ett R9-290 då det verkar som ett vettigt kort! Tror inte jag behöver någon recension då jag vet hur det kommer prestera!

Permalänk
Medlem
Skrivet av oceanic:

GK100 Var aldrig tänkt att användas som beräknings kort vad jag vet, har aldrig läst det eller påstått detta.

GK100 släpptes inte i någon av varianterna det var tänkt till. Ryktet säger att det lades ner innan det tagit sig till produktion, en bra bit innan 7970 släppts med andra ord.

Skrivet av oceanic:

Kretsen räckte att slå 7970 så varför tillverka en dyrare kisel, nVidia är inte dum.

nVidia är inte dumma. Därför skulle de ha släppt GK100 ifall de kunde, istället för att slåss mot 7970 med båda kring 4000 hade de kunnat förpassa 7970 ner till 2000-3000 och sälja sitt för 6000-7000 ifall GK100 skulle vara som GK110 och fungerande. Och allt dett för någon hundring mer i kiselkostnad. Inte nog med att de skulle ha mycket större marginaler, de skulle sedan också sälja bättre då 100% av alla köpare i 3000+-klassen hade köpt nVidia. Nu fördelades dem mellan AMD och nVidia.
Så som sagt, nVidia är inte dumma. Hade de kunnat släppa GK100 hade de gjort det. Historien lär oss dock att nVidia ofta siktar för högt.

Skrivet av oceanic:

AMD sa endast nyligen att dom kastar in handduken i topp klassen med Hawaii, trots allt dom går upp mot Maxwell med den arkitekturen.

Men detta är ju rena lögner igen. AMD sa redan 2007! att de inte ämnade göra kretsar i den större klassen. De har upprepat detta flera gånger sedan dess. Detta eftersom det kan leda till problem (GF100 och GK100 t.ex.) som inte är kostnadseffektiva ur utvecklingssynpunkt. Så 290X ha inte varit menat att tävla med nVidias nästan 30% större chip. Och att 290X skulle gå mot Maxwell är ytterligare bara ett stort bevis på att du fabulerar. Maxwell ska bli nVidias 20nm generation, AMDs är Pirate Islands, och AMD har varit först över nodgränserna i många års tid så det är inte orimligt att Pirate Islands kommer för Maxwell. Oavsett vilket som kommer först så är Volcanic Islands menat att slåss mot 700-serien och inget annat.

Skrivet av oceanic:

Klart att det är och vad de gjort, igen nVidia är inte dum.

Alltså, inte dumma! Och precis därför skulle de släppt GK100, men jag tror du kan hålla för öronen och skrika "lalalala" länge till så det är väl ingen mening att försöka trycka in det i din fanboyskalle.

Skrivet av oceanic:

Pekfingret mot GK110, när behovet fanns så kom den i konsument version, nu när 290X är ute så i full version.

De lyckades inte göra den i beräkningsversion heller förräns helt nyligen. Men oj? Varför?

Skrivet av oceanic:

Man behöver inte vara en fanboy för att inse sanningen.

Jag vet inte om du inser sanningen eller inte, en sak är säker, om du gör det så döljer du det väl för här kommer du bara med fanboydumheter.

Du har bevisat med flera uttalanden att du inte har en aning om vad du snackar om, du har också visat att du är en fanboy. Jag förväntar mig inte att kunna hålla en fortsatt diskussion med dig baserat på verkligheten när du fabulerar på detta envisa viset.

Permalänk
Medlem

Fullfjädrad kepler. Mao kunde de släppt detta kort för ett år sen.

Skickades från m.sweclockers.com

Visa signatur

Regn är snö på sommarn.

Permalänk
Medlem

Den utrustning som du har i din sign. Hoppas inte att du köpt allt det bara för att spela ^^

Visa signatur

Lightsaber - Black armour - and balls!

Permalänk
Medlem

Riktigt fint kort. Mumma. Undrar om vi är uppe i 300W TDP än?

Tror dock inte att R9 290X ligger så långt efter i prestanda överklockat med tredjepartskylare att det skulle vara värt 2-3k för dom flesta. Ska bli intressant att se Sweclockers tester i framtiden. Riktigt intressant höst.

Permalänk
Medlem
Skrivet av Aleshi:

GK100 släpptes inte i någon av varianterna det var tänkt till. Ryktet säger att det lades ner innan det tagit sig till produktion, en bra bit innan 7970 släppts med andra ord.

nVidia är inte dumma. Därför skulle de ha släppt GK100 ifall de kunde, istället för att slåss mot 7970 med båda kring 4000 hade de kunnat förpassa 7970 ner till 2000-3000 och sälja sitt för 6000-7000 ifall GK100 skulle vara som GK110 och fungerande. Och allt dett för någon hundring mer i kiselkostnad. Inte nog med att de skulle ha mycket större marginaler, de skulle sedan också sälja bättre då 100% av alla köpare i 3000+-klassen hade köpt nVidia. Nu fördelades dem mellan AMD och nVidia.
Så som sagt, nVidia är inte dumma. Hade de kunnat släppa GK100 hade de gjort det. Historien lär oss dock att nVidia ofta siktar för högt.

Men detta är ju rena lögner igen. AMD sa redan 2007! att de inte ämnade göra kretsar i den större klassen. De har upprepat detta flera gånger sedan dess. Detta eftersom det kan leda till problem (GF100 och GK100 t.ex.) som inte är kostnadseffektiva ur utvecklingssynpunkt. Så 290X ha inte varit menat att tävla med nVidias nästan 30% större chip. Och att 290X skulle gå mot Maxwell är ytterligare bara ett stort bevis på att du fabulerar. Maxwell ska bli nVidias 20nm generation, AMDs är Pirate Islands, och AMD har varit först över nodgränserna i många års tid så det är inte orimligt att Pirate Islands kommer för Maxwell. Oavsett vilket som kommer först så är Volcanic Islands menat att slåss mot 700-serien och inget annat.

Alltså, inte dumma! Och precis därför skulle de släppt GK100, men jag tror du kan hålla för öronen och skrika "lalalala" länge till så det är väl ingen mening att försöka trycka in det i din fanboyskalle.

De lyckades inte göra den i beräkningsversion heller förräns helt nyligen. Men oj? Varför?

Jag vet inte om du inser sanningen eller inte, en sak är säker, om du gör det så döljer du det väl för här kommer du bara med fanboydumheter.

Du har bevisat med flera uttalanden att du inte har en aning om vad du snackar om, du har också visat att du är en fanboy. Jag förväntar mig inte att kunna hålla en fortsatt diskussion med dig baserat på verkligheten när du fabulerar på detta envisa viset.

Du svarar på dina egna frågor genom att motsäga dej själv, du hittar på saker utan att kunna bevisa någonting, när du inte kan hitta något bättre att svar gentemot kommentarer på dina egna spekulationer går du till person angrepp, ditt nörd utbrott bevisar bara en sak... om det finns en "fanboy" här så är det du.

Skickades från m.sweclockers.com

Visa signatur

CPU: Intel i9-12900K Cooler: Asus TUF Gaming LC 240 ARGB MB: Asus TUF Gaming Z690 Plus Wifi D4 GPU: Asus TUF GeForce RTX 3080 Ti 12GB Case: In Win D-Frame HD: Intel Optane 900P 280GB, WD Black SN850 1TB Mem: Kingston Fury Beast RGB 3600MHz CL17 32GB PSU: Corsair AX760 OS: Win11 Pro

Permalänk
Medlem

Kan tacka AMD för detta. Hade NVIDIA släppt detta utan 290X på marknaden så hade vi inte sett den förrän till nästa vår och med pris runt 10000. Nu pressar AMD och ingen på NVIDIA kan sova så länge AMD har prestandakronan..

Skickades från m.sweclockers.com

Visa signatur

The burk: FD Define Nano S, 1 FD 140 & 1 Corsair 120 i fronten, 1st FD 120 bak || FD Ion SFX-L 500W || AMD Ryzen 3 3300x m. Wraith || Asrock Fatal1ty B450 gaming-ITX/ac || PowerColor Red Devil 5600XT || Toshiba OCZ RC500 500GB NVMe M.2 || 2*8GB Corsair Vengeance LPX Black DDR4 3200MHz || Asus VE247H LED TN || Ducky Shine II MX-red green LED || Steelseries Sensei mus

Permalänk
Medlem
Skrivet av lacrits:

Kan tacka AMD för detta. Hade NVIDIA släppt detta utan 290X på marknaden så hade vi inte sett den förrän till nästa vår och med pris runt 10000. Nu pressar AMD och ingen på NVIDIA kan sova så länge AMD har prestandakronan..

Skickades från m.sweclockers.com

Då kan de sova gott nu då

Visa signatur

Intel Core i7 6850K 3,6 GHz 15MB @ 4,7GHz kyld med Noctua NH-U9S på MSI X99A Raider
Corsair Vengence LPX 64GB (8x8GB) DDR4 3000MHz @ 3200 MHz
2x MSI GeForce GTX 1080 8GB Aero OC i SLI
HyperX Predator 480GB M.2 och 4x Samsung 750-Series 250Gb i raid 0
Oculus Cv1. Win10 pro

Permalänk
Medlem
Skrivet av sgtspiff:

Fullfjädrad kepler. Mao kunde de släppt detta kort för ett år sen.

Skickades från m.sweclockers.com

Nej, de hade stora problem att leverera ens nerbantade varianter i kraftigt begränsad skala till Oak Rdiges dator Titan. De kunde leverera i andra nerbantade kort, fortfarande i begränsad skala till Quadro-serien och Titan i Q1.

Permalänk
Medlem
Skrivet av oceanic:

Pekfingret mot GK110, när behovet fanns så kom den i konsument version, nu när 290X är ute så i full version.

Det var väl snarare så att de släppte GK110 så snart de bara kunde, tror knappast de satt och höll på chipet. Vi konsumenter fick gott vänta förra vintern medans alla fungerande chip gick till superdatorn/beräkningsklustret Cray Titan vid Oak Ridge National Laboratories. Först när den leveransen var klar släpptes de på marknaden.

Det var ganska nyligen som nvidia kom med GK110 med alla kluster upplåsta, och då till Quadro. Nvidia väljer nu att ta chip som egentligen var menade för dessa kort, crippla dem för beräkning, och släppa dem i 780Ti för att behålla prestandakronan. Förmodligen inte så ekonomiskt, men det är bara för att "vara värst" tror jag. Eventuellt har de fått så bra yield på GK110 att de nu kan tillverka 780Ti utan att inkräkta på sina Quadro kort.

Permalänk

Det är väl först nu dom fått ordning på tillverkningsprocessen såpass att dom får ut ett tillräckligt antal felfria chip GTX780TI black edition med 12 GB låter häftigt hög vill ha faktor på det även häftigt dom fått upp minnena i 7 Ghz vilket tyder på en bra minnescontroller här har AMD lite att jobba med även om dom har en bredare minnesbuss. sedan att en del säger att hela minnet inte kan utnytjas är totalt BS det ska mycket till innan bussen börjar flaska på dessa high end kort. På mitt Titan har jag fått upp minnesanvändningen till 5,8 GB. så nog behövs minne alltid beroende på vad man ska använda korten till.

Permalänk
Medlem
Skrivet av Dinoman:

Dom går troligen inte back överhuvudtaget. Teslakorten har en vansinnig vinstmarginal men erbjuder också en helt annan teknisk support än konsumentvarianten.

och att dem vänder sig då till företagare med annan budget, tillverkare vet att man kan ta mer betalt av företag än privat personer.
på arbetsplatsen jag jobbar på betalar man per år mer än 4 miljoner om året för "Guld" support för EN av produkterna dem har i sin IT miljö, och den produkten är bara en i mängden av produkter vi köper in för vår IT.

vill inte säga vad för produkt och från vem man får supporten, då det gäller tystnadsplikt osv.

Visa signatur

|Workstation: AMD Ryzen 9 7900X 4.7GHz | ASRock X670E | AMD Radeon 7900 XT | 32GB DDR5 | NVMe 2.0TB | HDD 4.0TB |
|VMware rig: AMD Threadripper 2920x | ASUS PRIME X399-A | 24GB DDR4 | 10TB Storage |
|HTPC: AMD Ryzen 3 2200G 3.7 GHz | Gigabyte B450M DS3H | Radeon Vega 8 | 8GB RAM | SSD 120GB | *Test rig för div Linux distar, drivers m.m.

Permalänk
Medlem

Sikken fredagspanel det blir nästa vecka! R9-290 och detta kortet, och dessutom lite mer info om mantle den 11e om ja inte missuppfattat det

Ölen redan på kylning.

Visa signatur

"It is our attitude at the beginning of a difficult task which, more than anything else, will affect its successful outcome." - William James

Permalänk

[QUOTE="oceanic;14040872"] Kretsen räckte att slå 7970 så varför tillverka en dyrare kisel, nVidia är inte dum.

Du tror att Nvidia bara kunde vänta och se hur bra 7970 presterade, och sen om behovet funnits. Bara snabbt utveckla och bygga en jättekrets för att slå 7970, om 680 inte hade räckt?? Hur snabbt tror du att det går att utveckla och producera en krets i den storleken? Varför tillverka dyrare kisel skriver du. Den stora kostnaden är utvecklingen, inte tillverkningen. Så jag tror nog mer på det Aleshi skriver.

Visa signatur

9900k på vatten

Permalänk
Medlem
Skrivet av elajt_1:

Klistrar in från ett tidigare inlägg:

En 384-bitars buss (som Titan har) kan bara adressera 3GB samtidigt. För GTX680 med 256-bitars så gällde 2GB Därav alla inlägg med att GTX680 oftast inte kunde dra någon nytta av de extra 2GB som vissa tillverkare erbjöd (GTX680 4GB). R9 290 som har 512-bitars kan adressera hela minnet (4GB) samtidigt, det är därför man valt just en 512-bitars buss. Exempel: Titan har 24 minneskapslar på kretskortet. 12 på framsidan och 12 på baksidan. Varje minnskapsel har en 32-bitars buss, (12moduler x 32bitars buss = 384). Det betyder att de 12 minnskapslarna på framsidan av kortet får dela på minnesbussen med de 12 minneskapslarna på baksidan kortet. Detta ger ökad fördröjning om mer än 3GB skall adresseras. Kan vara så att det ger något ökad latency generellt, det är jag osäker på. 6GB minne är mao inte en optimalt för en 384-bitars buss (Titan) när det skall användas som ett grafikkort. Det krävs en dubbelt så bred buss för att på effektivaste sätt kunna adressera hela minnsmängden. När det gäller GK110 som sitter i ett Tesla kort så spelar det ingen roll, att man inte kan hantera hela minnet samtidigt. Och de är för Tesla/Quadro korten som den kretsen är utvecklad för.

Japp, därför att kortet är omgjort (omdesignat) för att passa till ett annat ändamål (spel). Att den inte är optimal i sitt utförande är dock irrelevant.

Föreställ dig att du tar fram en motor till en stor jeep, vars ändamål är att kunna ta sig fram i vilken svår terräng som helst och är riktad till en viss marknad. Sedan tar du samma motor och gör om den så den passar som en stadsjeep istället, då man vill kunna erbjuda ungefär samma sak fast i en annan miljö. There you have it. Att ursprungsmodellen var designad för ett ändamål gör inte att stadsjeepen är designad för samma sak, och är kanske inte heller helt optimal då det kan medföra vissa brister.

Visa signatur

7800X3D • 4080S • 32GB • 2TB • 1440p 165 Hz
3700X • 3070 • 32GB • 2TB • 1080p 144Hz

Permalänk
Avstängd

Vilket monsterkort

Visa signatur

En varm och go Haswell @ 4.3 GHz

Permalänk
Medlem

Wow ser ut som 780ti kommer i 3 versioner, 3Gb,6Gb och 12Gb !!!

http://videocardz.com/47522/nvidia-geforce-gtx-780-ti-great-o...

Permalänk
Medlem
Skrivet av TonyB4ngZ:

Jag baserar det på dina tidigare inlägg.

Tråkigt dock att AMD inte är lika bra på att bygga proper kylning till dessa kretsar. Dom kanske borde lära sig av Nvidia :p.

Då borde AMD kunna bygga en krets som slår Nvidias gamla GK110 ganska omgående ;).

Det hade jag gjort om jag styrde AMD med dig som PR ansvarig i spetsen :).

Nu blir det lite OOT här också:
Ja kylningen är under all kritik. AMD får skylla sig själva, men det går ju fint byta kylningen. Någon här på forumet bytte till Artic Coolings nån modell och fick runt 66 grader C i load (om jag inte minns helt fel). AMD behöver inte bygga nåt nytt på ett tag. R9 290X är fullt tillräcklig i dagsläget. Nvidia har inget på marknaden än som piskar den (än). När väl Ti släpps så ändras den bilden något, men vad spelar det för roll, kortet kommer förmodligen kosta en bra slant mer. Personligen Jag så föredrar jag Nvidia framför AMD alla dagar i veckan, och när AMD gör en sån här lansering så tycker man ju inte direkt bättre om dem. Med det sagt, så kommer jag ändå köpa ett el. två R9 290X. Mantle är ett alldeles för stort steg i rätt riktning för att ignorera. En möjlighet att faktiskt kunna dra nytta av både CPU och GPU (nästan fullt ut), vilket får mig att se något ljus i mökret för PC som spelplattform. Att betala premium för något som är state of the art inom GPU tillverkning och sedan köra detta med totalt skräpig programvara känns inte direkt optimalt, och det har både AMD och Nvidia låtit oss göra alldeles för länge nu. Hoppas på att få se en förändring framöver. Något hållbart för båda lagen.

Visa signatur

If you follow the herd you are going to have to step through a lot of manure. Have the courage to trust in yourself and follow your own path.

Permalänk
Medlem
Skrivet av Aleshi:

Bussbredd har väl inget med addresserbart minne att göra? Använder man minnen med högre densitet så får du mer minne i kortet. Vad har du fått dessa idéer ifrån?

Det har talats om detta många ggr. både här och på andra forum. Folk hävdar att ex. inte GK104 kan använda 4GB fullt ut. GTX680 med 4GB kan iofs adressera hela minnet men det blir väl förmodligen med prestanda förlust. Har även läst att det alltid är bäst att matcha bussen med bussbredden på själva minnena vilket man gjort med 2GB variant av GK104, 3GB varianten av GK110 aka GTX780, 4GB för R9 R290) Det sistnämda kunde de lika gärna haft en mindre memory controller och snabbare minnen (likt 780Ti) och på så sätt sparat utrymme kretsen). Sen har jag läst att det inte går att adressera hela minnet sammtidigt när minneskapslarna får dela på bussen. Nedan kommer ett ex.

När ASUS släppte sitt 680 klagade många här på att det inte kom med 4 GB, ASUS svarade:

Vi har testat 4GB och det testarna visar är två klara anledningar för oss att inte hoppa på 4GB-tåget.

- 2 minnesmoduler per kanal kräver clock skew (för synkning), det innebär mer fördröjning och således något lägre generell minnesbanbredd vid samma klockfrekvens. Det mycket extrema scenariot (7680x1440/1600 eller 3060x1920) där den extra minnesmängden ger ett par procent extra prestanda, är det inte spelbara fps det handlar om.

Kinc från Asus skrev även:

Vi introducerar en 4GB-variant pga efterfrågan är stor, framförallt 660 Ti och 670 med 4GB har varit efterfrågat från slutkonsument. Vi står fortfarande fast vid att prestanda-skillnaden enbart existerar i extrema fall, då skall det även påminnas om att skillnaden i extremfall inte ligger mycket utanför felmarginalen. Det är förvånade att efterfrågan har blivit såpass stor som den är nu för GTX 660 Ti, 670 och 680 med 4GB. Vi har aldrig sett det tidigare. Speciellt när de tester vi gjort själva och tagit åt oss från media visar att det det inte gör någon skillnad.

Nu säger jag inte att det gör speciellt mycket, för det gör det ju uppenbarligen inte. Men samtidigt så är det av mindre betydelse för GPGPU vilket detta kortet från början är avsett för.

Visa signatur

If you follow the herd you are going to have to step through a lot of manure. Have the courage to trust in yourself and follow your own path.

Permalänk
Avstängd
Skrivet av oceanic:

GK100 Var aldrig tänkt att användas som beräknings kort vad jag vet, har aldrig läst det eller påstått detta.

Kretsen räckte att slå 7970 så varför tillverka en dyrare kisel, nVidia är inte dum.

AMD sa endast nyligen att dom kastar in handduken i topp klassen med Hawaii, trots allt dom går upp mot Maxwell med den arkitekturen.

Klart att det är och vad de gjort, igen nVidia är inte dum.

Pekfingret mot GK110, när behovet fanns så kom den i konsument version, nu när 290X är ute så i full version.

Man behöver inte vara en fanboy för att inse sanningen.

Skickades från m.sweclockers.com

Men nu är det inte sanningen. Utan det är bara något du spekulerar i och dessutom inte direkt något som verkar kunna stämma. Varför skulle nvidia hålla tillbaka en krets när de aldrig gjort det tidigare? Varför har historiken där GF100 hade för stora problem för att lanseras och där även GK100 verkar ha haft problem totalt gått dig förbi? Nej, Nvidia är inte dumma och därför släpper de inte kretsar som GK100 om de inte fungerar.

Skrivet av oceanic:

Du svarar på dina egna frågor genom att motsäga dej själv, du hittar på saker utan att kunna bevisa någonting, när du inte kan hitta något bättre att svar gentemot kommentarer på dina egna spekulationer går du till person angrepp, ditt nörd utbrott bevisar bara en sak... om det finns en "fanboy" här så är det du.

Skickades från m.sweclockers.com

Här kastas det sten i glashus. Har du något bevis för några av dina egna påståenden? Så länge som varken du eller Aleshi har bevis är det spekulationer och då är det inte sanning (bevisad fakta) och det blir inte heller sanning bara för att du påstår det. Sedan "nörd utbrott"? Du resonerar mer som ett fanboy än vad Aleshi gör kan jag på rak arm säga dig.

Visa signatur

||NZXT H440 Black/Red||Intel i5 2500k @ 4,2GHz ||Noctua NH-D14 ||GA-Z77X-UD3H ||8 gb Corsair Vengeance 1600mhz DDR3 ||MSI GeForce GTX 970 ||OCZ Agility 3 120GB SSD ||Samsung Spinpoint F3 1TB ||Corsair HX750W||
Software is like sex, it's better when it's free. - Linus Torvalds

Permalänk
Medlem
Skrivet av l4nky:

Det var kortlivat för AMD. Men seriöst, vem sitter och köper grafikkort utifrån någon enstaka % i prestandaskillnad? Jag har aldrig någonsin köpt det bästa kortet från något av företagen, men jag antar väl att dom som ska köra BF4 ultra med 35 skärmar behöver det. Själv sitter jag fortfarande på mitt 560ti utan några problem Flickvännen använder mitt gamla 9800GT.

Hur kan du sitta och säga att du sitter och spelar BF4 "utan problem" ...med dina skitkort? Jag sitter på ett GTX580 och måste spela på LOW/Godis OFF för att ens ha 60fps och ändå massiva FPSdrop. Jag gissar samtidigt att jag har en betydligt fläskigare rigg än dig. (Skulle köpa Titan när priset gick ned till något rimligt, vilket det inte har)

Visa signatur

[CHASSI] |Fractal Design R4 Titanium Grey| [PSU] |OCZ ZX1250w 80PLUS Gold| [MOBO] |P9X79-Deluxe| [CPU] |SB-E ICi7 3820| [CPU COOLER] |Zalman CNPS12X| [RAM] |G.Skill 4x4096MB CL11 2133Mhz Ripjaws Gaming| [OS HDD] |OCZ Vertex-4 128GB| [GAME HDD's] |OCZ Vertex-4 2x256GB RAID-0| [STORAGE] |Seagate 2x3TB| [GFX] |MSI GTX 580| [MOUSE] |Razer Mamba| [KEYBOARD] |Razer BlackWidow Ultimate| [HEADSET] |Corsair Vengeance 2000 Wireless 7.1|

Permalänk
Medlem
Skrivet av €lysian:

Japp, därför att kortet är omgjort (omdesignat) för att passa till ett annat ändamål (spel). Att den inte är optimal i sitt utförande är dock irrelevant.

Föreställ dig att du tar fram en motor till en stor jeep, vars ändamål är att kunna ta sig fram i vilken svår terräng som helst och är riktad till en viss marknad. Sedan tar du samma motor och gör om den så den passar som en stadsjeep istället, då man vill kunna erbjuda ungefär samma sak fast i en annan miljö. There you have it. Att ursprungsmodellen var designad för ett ändamål gör inte att stadsjeepen är designad för samma sak, och är kanske inte heller helt optimal då det kan medföra vissa brister.

Inte relevant för vad? Jag har bara sagt att kortet inte är optimalt för mer än 3GB Vram, därav en bredare buss med mindre minne på R9 290X (jämfört med ex Titan). På R9 290x har de valt att göra en buss som är optimal för mängden minne kortet faktiskt har (när det säljs som ett grafikkort för vanliga konsumenter).

Visa signatur

If you follow the herd you are going to have to step through a lot of manure. Have the courage to trust in yourself and follow your own path.

Permalänk
Medlem
Skrivet av vi0lat0r:

Hur kan du sitta och säga att du sitter och spelar BF4 "utan problem" ...med dina skitkort? Jag sitter på ett GTX580 och måste spela på LOW/Godis OFF för att ens ha 60fps och ändå massiva FPSdrop. Jag gissar samtidigt att jag har en betydligt fläskigare rigg än dig. (Skulle köpa Titan när priset gick ned till något rimligt, vilket det inte har)

Hoppsan, känsligt ämne. Har du suttit och letat genom tråden efter saker att bli upprörd över? Jag sa aldrig att jag spelar BF4 med mitt kort. Jag sa att dom enda som behöver oroa sig över det allra senaste och bästa är i princip dom som vill köra BF4 på högsta med bra flyt. Därav är det överskattat att ha dom dyraste korten. Du får nog lugna ner dig lite när du läser och faktiskt läsa vad folk skriver innan du svarar.