Muskampen 2025: Segraren korad!

Geforce GTX 400: Skvaller från branschen

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Donan Fear
Fanboys kommer alltid att hitta på alla möjliga ursäkter när deras "lag" ligger efter.
Innan GTX295 var det ju 4870x2 som var snabbast och Nvidiafans använde precis samma argument för att försöka bortförklara det.

Jo de är nog sant, eller rättare sagt de är sant Men de är väl tävlingen som driver utvecklingen framåt, så låt oss hoppas på att Nvidia hittar på nåt som står sej mot HD 5970, annars stannar nog utveckligen där

Visa signatur

|| Intel Core i5 2500K || Corsair Cooling Hydro H60 || Asus Maximus IV Gene-Z || Asus GeForce GTX 570 DirectCU II || Corsair 8GB 1600Mhz VENGEANCE || Corsair HX 650W || Fractal Design Define Mini || 500GB WD Caviar Black || OCZ SSD Agility 3 60GB || Windows 7 Premium 64-bit [thread="1004219"][/thread]

ASUSMaximus IV GENE-Z Owners Club

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Bad Habit
Nu är det ju så att det var relativt dött lopp mellan gtx 295 och 5870 iofs, men hur som helst bryr jag mig inte om, om det finns mer än en gpu på brädan. Egentligen är det ju en mycket bra idé att ha flera små delar som fyller ett större syfte tillsammans, bättre att göra ett par strömsnåla gpuer som tillsammans slår en stor klumpig, som i det här fallet 480. Det jag gillar med 5970 är att den stänger av ena kärnan som agerar som slav till den andre då det inte behövs, detta sparar ju energi och minskar värmeutveckling mycket. Tycker det är helt rätt väg att gå, precis som med cpu; att använda flera kärnor.

Dubbla GPU:er må vara billigare i sig då man får ut lfer på en warfare, odsen för en kass är mindre osv osv.

Men dual GPU kort är knappst billiga.

DYR PCB. Du ska ha dubbla minnesbussar, ja dubbelt av allt. Sedan ska du ha dubbelt upp av minnet.
För att få 1Gb användbart minne i ett spel med CF eller SLI behöver varje GPU 1Gb ram var.

Så ett 5790 behöver alltså 2Gb ram fysiskt för 1Gb pracktiskt användbart i spel.

Så det finns definitivt en gäns där en GPU blir för stor eller för liten.

Kan inte ha 10st enkla som är billiga som den om du ska ha en extremt dyr PCB med 10 redundanta minneskretsar mer eller mindre.

Det är definitivt HD5790's stora problem att det blir Dyrt med GDDr5 minnen till det kortet. Fermi kan komma undan med lägre kostnader för samma mägd ram. Går att lägga på kostnaden av GPU:n istället eller mer minne eller snabbare minne.

Som sagt dual GPU är inte nödvändigtvis dåligt men kan vara klart lönsamt med men man det blir garanterat inte lönsamt med 3-4 GPU:er med dagens teknik så länge dom inte delar minne villket dom ej gör.

Om dual GPU kort är mer lönsamma en ett påkostat singel GPU kort det vet nog bara AMD och ATI. En sak är säker. Det är en nisch marknad.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av zzcool
New in Release 185.81:

* Adds support for the new GeForce GTX 275 GPU.
* Adds support for Ambient Occlusion – the newest NVIDIA Control Panel feature to offer enhanced 3D gaming realism exclusively to GeForce GPUs.
* Adds support for CUDA 2.2 for improved performance in GPU Computing applications. See CUDA for more details.
* Expands GPU hardware acceleration for the NVIDIA Video Encoding library to GPUs with less than 32 cores. Applications using this library include CyberLink PowerDirector 7, Nero Move it 1.5, Loilo SuperLoiloScope MARS, and CyberLink MediaShow Espresso.
* Accelerates performance in several 3D applications. The following are examples of improvements measured with Release 185 drivers vs. Release 182 drivers (results will vary depending on your GPU, system configuration, and game settings):
o Up to 25% performance increase in The Chronicles of Riddick: Assault on Dark Athena
o Up to 22% performance increase in Crysis: Warhead with antialiasing enabled
o Up to 11% performance increase in Fallout 3 with antialiasing enabled
o Up to 14% performance increase in Far Cry 2
o Up to 30% performance increase in Half-Life 2 engine games with 3-way and 4-way SLI
o Up to 45% performance increase in Mirror’s Edge with antialiasing enabled
* Automatically installs the new PhysX System Software version 9.09.0408.
* Supports GeForce Plus Power Pack #3. Download these FREE PhysX and CUDA applications now!
* Numerous bug fixes. Refer to the release documentation notes.
* Users without US English operating systems can select their language and download the International driver

det var 45 30 etc vilket gjorde den snabbare

helt jävla seriöst? 70% av inläggen är dina och det är ju bara nästan rent bullshit det du skriver. Hoppa tillbaka till fragbite så man slipper blädra igenom 100sidor för att få läsa något vettigt.

Visa signatur

1. AMD 1090T 4.2GHZ, Asus IV formula, 4GB Corsair 1600MHz DOMINATOR GT, HD6970
2. AMD 1055T 4.2GHZ, Asus IV formula, HD4870x2, 4GB A-Data
3. AMD B55 4.1Ghz, MSI 770 c45, 4GB A-Data, HD4870

Permalänk
Medlem

Det här med dubbelmacka och Fermi händer ju inte som det ser ut nu.

Om AMD var tvungna att dra ner på klockfrekvenserna för att klara 300W vad talar då för ett lyckat dual-kort som ligger under 300W från nvidia!? Med tanke på att ett kort med 512SP ligger nära gränsen på 300W så finns ingen mening enligt mig.

Om standarden ändras till pci-e till 450W kanske det skulle funka...Men det är då de.

Visa signatur

Is it "for fucks sake" or "for fuck sake"? Its for a work email so it has to sound professional.

Permalänk
Citat:

Ursprungligen inskrivet av snozan
Intressant med tanke på att GTX 295 smällde allt ATI hade på fingrarna tills de kom ut med HD 5970 - Då grät ATI folket öppet med att de var inte inte en rättvis jämförselse med tanke på att GTX 295 hade 2 GPUer. Tänka sej att de kan ändra sej så fort Inte lätt ibland

De som använde det argumentet när GTX295 kom var ju rent ut sagt puckade, då kortet var tänkt att ta tillbaka prestandatronen (vilket det gjorde till det att 5970 kom) från HD4870X2 som också är ett dubbelmackakort. Det var en fullkomligt rättvis jämförelse.

Jag tycker det är en rättvis jämförelese oavsett hur många GPU:er det är på PCB:n. Om kort A har 2 GPU:er och kostar 5000 och kort B har 1 GPU och kostar 5000. Kort A presterar ca. 30% bättre än kort B, då går det omöjligt att förneka att Kort A är ett bättre kort ur en prestanda synpunkt. Sedan finns det andra faktorer som värme och hur energitörstiga de är som kan spela in på valet. Sedan så måste man bestämma sig hur många grafikkort man vill köpa. Skall du köpa ett grafikkort så är ju det bäst presterande kortet det bäst presterande kortet oavsett antalet GPU:er. Skall du dock koppla ihop 2-3 grafikkort då kan ett grafikkort som presterar sämre men har bara en GPU plötsligt bli mycket mer prisvärt.

I dagsläget så ser det inte ut som om Nvidia kommer kunna lansera en dubbelmacka med Fermi och då är försvaret från Nvidia folket att "men 5970 har ju två GPU:er, det räknas inte". Tough shit (det här har ingenting med Nvidia att göra utan mer generellt det argumentet oavsett vilket eller vilka camps man tillhör), 5970 presterar fortfarande bättre. Hade Nvidia löst en mer lönsam och mindre energislukande krets så hade de kunnat göra likadant. ATI:s lösning är betydligt billigare att tillverka än en enkel monsterkrets vilket innebär att det finns större utrymmer för prissänkningar exempelvis. Nu är ju det här prestandatjafset i mitt inlägg baserat på de spekulationer som finns för tillfället. Mer får vi veta om sex dagar. Sedan så finns det ju en mängd andra användningsområden för Fermi inom rendering och GPGPU applikationer också. Hoppas ändå ni förstår vad jag menade.

Visa signatur

Macbook Pro 15" Retina 2013 | Spelriggen: Asus Rampage Formula | Sapphire HD7970 | 4GB ram | Intel Q6600 @ 3.2 ghz | Samsung 840 Pro 256gb + 3.3TB HDD | Antec P182B | Zalman ZM-850HP | BenQ FP241W | Logitech G500+Qpad MK-85 Pro|
Ljud: Peachtree Grand Pre, Emotiva XPA-2, Triangle Magellan Duetto, Beyerdynamic DT990

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av oscarstegland
De som använde det argumentet när GTX295 kom var ju rent ut sagt puckade, då kortet var tänkt att ta tillbaka prestandatronen (vilket det gjorde till det att 5970 kom) från HD4870X2 som också är ett dubbelmackakort. Det var en fullkomligt rättvis jämförelse.

Jag tycker det är en rättvis jämförelese oavsett hur många GPU:er det är på PCB:n. Om kort A har 2 GPU:er och kostar 5000 och kort B har 1 GPU och kostar 5000. Kort A presterar ca. 30% bättre än kort B, då går det omöjligt att förneka att Kort A är ett bättre kort ur en prestanda synpunkt. Sedan finns det andra faktorer som värme och hur energitörstiga de är som kan spela in på valet. Sedan så måste man bestämma sig hur många grafikkort man vill köpa. Skall du köpa ett grafikkort så är ju det bäst presterande kortet det bäst presterande kortet oavsett antalet GPU:er. Skall du dock koppla ihop 2-3 grafikkort då kan ett grafikkort som presterar sämre men har bara en GPU plötsligt bli mycket mer prisvärt.

I dagsläget så ser det inte ut som om Nvidia kommer kunna lansera en dubbelmacka med Fermi och då är försvaret från Nvidia folket att "men 5970 har ju två GPU:er, det räknas inte". Tough shit (det här har ingenting med Nvidia att göra utan mer generellt det argumentet oavsett vilket eller vilka camps man tillhör), 5970 presterar fortfarande bättre. Hade Nvidia löst en mer lönsam och mindre energislukande krets så hade de kunnat göra likadant. ATI:s lösning är betydligt billigare att tillverka än en enkel monsterkrets vilket innebär att det finns större utrymmer för prissänkningar exempelvis. Nu är ju det här prestandatjafset i mitt inlägg baserat på de spekulationer som finns för tillfället. Mer får vi veta om sex dagar. Sedan så finns det ju en mängd andra användningsområden för Fermi inom rendering och GPGPU applikationer också. Hoppas ändå ni förstår vad jag menade.

Bra skrivet! Jag håller med.

Visa signatur

Is it "for fucks sake" or "for fuck sake"? Its for a work email so it has to sound professional.

Permalänk
Citat:

Ursprungligen inskrivet av danne_danger
Tror att GTX 480 spöar ett HD 5970 i det mesta men det är ju inte ens en rättvis jämförelse någonstans.
Nått som är 6 månader gammalt i datorkomponents världen kommer givetvis får stryk av nått som är nytt å inte ens släppts än, konstigt vore ju annat.

Är min syn på det hela och vi lever i en demokrati så jag får tycka vad jag vill;)

Wow är allt jag kan säga..

Citat:

Ursprungligen inskrivet av blade80
Det här med dubbelmacka och Fermi händer ju inte som det ser ut nu.

Om AMD var tvungna att dra ner på klockfrekvenserna för att klara 300W vad talar då för ett lyckat dual-kort som ligger under 300W från nvidia!? Med tanke på att ett kort med 512SP ligger nära gränsen på 300W så finns ingen mening enligt mig.

Om standarden ändras till pci-e till 450W kanske det skulle funka...Men det är då de.

Nja det är väl bara att ta fram saxen och börja klippa bort CUDA cores och dra ner klockfrekvenserna ;P

Permalänk
Medlem

Om vi förutsätter att 225W TDP för GTX470 stämmer så är det nog inte omöjligt med dual GPU. Ju mer parrallelt en GPU eller CPU är ju strömsnålare är den i förhållande till prestandan.

För att klara 300W gränsen behöver man 2st 150W TDP fermi kort. Eftersom en minskning i frekvens står i direckt relation till effekten så skulle en reducering i frekvens på säg GPU och minne med 1/3 inebära 2/3 dels förbrukning. Nu är det ju dock igen vitts att gära så om man tex kan ha en GPU i dubla frekvensen och minent lika så. Men med reducerad fkrevens kan man reducera spännigen också. Och eftersom spännigen påverkar strömförbrukningen logaritmiskt. Så kan man sänka frekvensen säg 1/5 och sänka spännigen 10% så kan det mycket väl räcka för at reducera strömförbrukningen till 2/3 pär GPU/minne.

Så ett dual Fermi är nog möjligt tror jag men det kommer i så fall bli frågan om 448 stream procesorer och 320bit buss som GTX480 fast med reducerade frekvenser och spännigar i så fall.

När vi VET ungifär vad ett GTX470 faktiskt har för TDP och vad för spänning GPU:n går på och minnena så är det rätt lätt att räkna ut med ganska hög sanolikhet vad ett dual Fermi GPU kort skulle behöva ticka på i. Desutom kan vi utifrån olika 2D och 3D lägena se vad för Vcore som krävs för en given frekvens.

Men jag är övertygad om att daul Fermi går frågan är om det är ekonomiskt försvarbart eller om dom kommer vänta tills 32/28nm.

Men å andra sidan kan dom ju göra som HD5970, Lämna rum för ordenlig OC över 300W. Villket lär hända i så fall.

Permalänk
Medlem

Med en dual-GPU så är det väl inte otänkbart att de backar till 256-bit buss också, med tanke på att bandbredden borde vara tillräcklig ändå.

Permalänk
Medlem

Dom smider nog planer så det är inte omöjligt. Frågan är dock om det är energieffektivast. Som sagt historiskt sett har det vissat sig att parallell design ger mer prestanda per watt så bredare buss med lägre frekvens på minnena är nog strömsnålare misstänker jag. Dyrare dock. Men det beror ju lite på val av minne också då bredare buss kan använda slöare och då billigare minnen istället. Men det ger väl sig.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av pa1983
Dom smider nog planer så det är inte omöjligt

Ja har svårt att tänka mej att dom "tillåter" ATI att vara värst med sin HD 5970, så förmodligen har dom nog gjort mer än bara "smida" De gäller ju att smida medans järnet är varmt, å de ser de ju att bli

Visa signatur

|| Intel Core i5 2500K || Corsair Cooling Hydro H60 || Asus Maximus IV Gene-Z || Asus GeForce GTX 570 DirectCU II || Corsair 8GB 1600Mhz VENGEANCE || Corsair HX 650W || Fractal Design Define Mini || 500GB WD Caviar Black || OCZ SSD Agility 3 60GB || Windows 7 Premium 64-bit [thread="1004219"][/thread]

ASUSMaximus IV GENE-Z Owners Club

Permalänk

Lite nya intressanta rykten..

http://hardforum.com/showthread.php?t=1504030&page=23
Läs de 2 sista sidorna.

Varför snackas det om GTX4x0 i så många trådar? Det snackas i "Geforce GTX 400: Skvaller från branschen", "Geforce GTX 470 och 480 billigare än väntat", och i "GeForce GTX 4xx-tråden (GF100)"

Kan vi inte alla snacka om Fermi i en och samma tråd istället? I denna: http://www.sweclockers.com/forum/showthread.php?s=&threadid=9...

Permalänk
Medlem

Gå tillbaka å kolla hur många trådar etc de var när ATI lansera sin 5xxx serie. Finns mängder med nyhets artiklar

http://www.sweclockers.com/nyhetsarkiv/?sid=617522

http://www.sweclockers.com/nyhetsarkiv/?sid=617523

De är en stor nyhet, men du kanske hellre sett en undangömd forumstråd, lite semiaccurate wannabe site typ?

Visa signatur

|| Intel Core i5 2500K || Corsair Cooling Hydro H60 || Asus Maximus IV Gene-Z || Asus GeForce GTX 570 DirectCU II || Corsair 8GB 1600Mhz VENGEANCE || Corsair HX 650W || Fractal Design Define Mini || 500GB WD Caviar Black || OCZ SSD Agility 3 60GB || Windows 7 Premium 64-bit [thread="1004219"][/thread]

ASUSMaximus IV GENE-Z Owners Club

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av snozan
Gå tillbaka å kolla hur många trådar etc de var när ATI lansera sin 5xxx serie. Finns mängder med nyhets artiklar

http://www.sweclockers.com/nyhetsarkiv/?sid=617522

http://www.sweclockers.com/nyhetsarkiv/?sid=617523

De är en stor nyhet, men du kanske hellre sett en undangömd forumstråd, lite semiaccurate wannabe site typ?

klart bättre att snacka i en samlingstråd , annars kommer folk fråga samma saker om och om igen. ( lär de göra ändå iofs)

Visa signatur

| HAF932 | Ryzen 3700X @ 4,3 GHz | Gigabyte X570 Aorus Ultra | 32 GB G.Skill @ 3600 MHz | RTX 2070 @ 2 GHz | O2 + ODAC | SN850 2TB + MP600 1TB + 2x 4TB SSD RAID 1 + 2x 2TB RAID 1 | Win10 Pro 64-bit |

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Mr.Borka
Det handlar ju i grunden inte om priset utan om ogrundade spekulationer i prestandavägar baserade på ett enda syntetiskt test - från Nvidia själva.

Sedan handlar preferenserna ofta om framhävda egenskaper men som oftast av halvvirriga illusioner av bättre stabilitet, kvalitet eller pålitlighet. Varav båda kan diskuteras och de sista nämnda självfallet försvaras av faktiskta användare som vill sprida lite sanning i det hela.

-
Din egen text talar för något helig objektivitet.

Jo självklart är det så, men det finns även dom som gnäller om några sketna hundringar hit eller dit..

illusioner eller inte, så har ju var man rätt att välja sitt eget lag utan att bli smutskastad av hulliganer i ett forum. det var det jag ville spy på

hehe, jag gillar Nvidias grafikkort bäst, inget snack men har haft kort från båda lagen, och min egen uppfattning är att för mig har Nvidia funkat oförskämt bra med allt, med några små missar i drivrutinerna som snabbt har åtgärdats. men ATI däremot hade jag lite småproblem med mest hela tiden. tänker inte gå in mer i detalj då det alltid spårar ur när alla känslor väller fram från nån överkåt ATIanvändare. däremot AMDs prollar har jag använt hela min dator karriär som började på AMD K6 tiden, och har alltid varit nöjd! pris prestanda, och fullt tillräckligt med krut för mig då jag inte är så beroende av absolut mega cpuprestanda.

nu ska jag snart dra iväg o spendera sketna hundringar på att dricka sprit. skål ^^

Visa signatur

Luftkyld AMD Phenom II X2 550BE @ 3.7ghz (Alla kärnor upplåsta!),2x2gb Corsair XMS2 ram, GTX460 1gb SLI!, iPhone 3GS 16gb Jailbroken med BlackRa1n!

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Blackbird_CaD_
Varför snackas det om GTX4x0 i så många trådar? Det snackas i "Geforce GTX 400: Skvaller från branschen", "Geforce GTX 470 och 480 billigare än väntat", och i "GeForce GTX 4xx-tråden (GF100)"

Det ploppade in en hel del rykten och lite bilder senaste dagarna, därav många nyheter på Swec. Men nu är det nog lugnare fram till officiella releasedagen skulle jag gissa.

Permalänk
Citat:

Ursprungligen inskrivet av snozan
Gå tillbaka å kolla hur många trådar etc de var när ATI lansera sin 5xxx serie. Finns mängder med nyhets artiklar

http://www.sweclockers.com/nyhetsarkiv/?sid=617522

http://www.sweclockers.com/nyhetsarkiv/?sid=617523

De är en stor nyhet, men du kanske hellre sett en undangömd forumstråd, lite semiaccurate wannabe site typ?

Det är inte direkt så att folk snackar om nyheten i sig, folk börjar direkt snacka generellt om Fermi..

Permalänk
Medlem

Nåt jag undrar över är om VR-Zones tester är giltiga...dom ser ju faktist ut att vara oproffisionella ut...som deras andra inte sett ut tidigare...så varför just nu?
Men vad vet jag...
Hoppas dock inte att det bara är 5-10% mer än 5870 som GTX480 presterar utan att det presterar bättre än så.... kommer dock nog bara skaffa mig ett 470 ändå(har inte råd med 480 så)

Är inget fanboy men kanske ett fan av Nvidia då jag gillar PhysX delen i framförallt Mirror's Edge och overall prestandan i spel

Visa signatur

nuvarande dator: ASUS ROG Strix X670E-F Gaming WIFI, AMD Ryzen 7 7800X3D, Corsair 64GB (2x32GB) DDR5 6000MHz CL30 Vengeance, ASUS RTX 2070 STRIX Gaming OC

Permalänk
Medlem

Gillar man folding så är väl fermi ett jättebra kort, för det är typ det den är gjort för?

Jag tänkte såhär: om yielden är så dålig som det spekulerats, är det då inte stor risk att dom få kretsar som finns också dör i förtid?

Visa signatur
Permalänk
Medlem
Citat:

Ursprungligen inskrivet av winmine
Gillar man folding så är väl fermi ett jättebra kort, för det är typ det den är gjort för?

Jag tänkte såhär: om yielden är så dålig som det spekulerats, är det då inte stor risk att dom få kretsar som finns också dör i förtid?

Nvidia är generellt starkare i folding än ATi.

Visa signatur

|AMD Ryzen 7 9800X3D| |ASrock B850 Steel Legend| |Kingston Fury Beast 32GB CL30@6000MHz| |PNY RTX 4090 XLR8 Gaming| |Samsung 990 Pro 2TB| |Samsung 970 Evo Plus 1TB| |Samsung 860 Evo 1TB| |NZXT C1200 Gold ATX 3.1| |Fractal Design Define R5| |LG OLED 48" C2 Evo|

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av winmine
Jag tänkte såhär: om yielden är så dålig som det spekulerats, är det då inte stor risk att dom få kretsar som finns också dör i förtid?

Om de har samma standard för test av kretsarna som tidigare så ska det inte vara högre risk. Sen kommer förstås en singel-GPU som drar 295W och avger mycket värme ha kortare livslängd än om den dragit 180W. Hur mycket kortare är dock okänt. Antagligen kommer de hålla betydligt längre än att de flesta uppgraderat sina kort i alla fall. Dessutom ska Fermi hålla för HPC i stora kluster, även om det då är Tesla-kortet så är den gjort med samma process.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av ScrewFearMe
Nåt jag undrar över är om VR-Zones tester är giltiga...dom ser ju faktist ut att vara oproffisionella ut...

De ja har läst mej till i EVGA's forum är att dom bara fnyser när en länk blir postad av VR zone/xbitlab. De verkar enligt dom (väldigt insatta lol) att all info till VR zone kommer från xbitlab, de skriver att dom är bekräftade av xbitlab, vilket dom inte är för xbitlav i sin tur tar info från NV zone å kallar de bekräftad.

Alltså dom 2 siterna bollar info med varann, å kalllar varandras info för "bekräftad"

Visa signatur

|| Intel Core i5 2500K || Corsair Cooling Hydro H60 || Asus Maximus IV Gene-Z || Asus GeForce GTX 570 DirectCU II || Corsair 8GB 1600Mhz VENGEANCE || Corsair HX 650W || Fractal Design Define Mini || 500GB WD Caviar Black || OCZ SSD Agility 3 60GB || Windows 7 Premium 64-bit [thread="1004219"][/thread]

ASUSMaximus IV GENE-Z Owners Club

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av winmine
Gillar man folding så är väl fermi ett jättebra kort, för det är typ det den är gjort för?

Jag tänkte såhär: om yielden är så dålig som det spekulerats, är det då inte stor risk att dom få kretsar som finns också dör i förtid?

t

Det är nog en bra chans att du har rätt i det. Läckage har en förmåga att bli värre med tiden. Kan nog bli så att korten drar mer och mer. Om det rör sig om veckor eller år innan de inte alls går att driva får vi väl se. Jag har för mig att jag läste att Nvidia har dragit ner på garantitiden från två till ett år till partnertillverkarna (Tror det var på Beyond3d för några veckor sen)

Visa signatur

Bänktester är i värsta fall som foton utan blixt i ett mörkt rum. Väggarna blir svarta. Med fantastisk repeterbarhet.
Q9450@3,6, Asus P5E deluxe (x48), True Rev. C PP
Hd5870@1052/1331
Silverstone Fortess II, Corsair HX750

Permalänk
Medlem

Nvidia ger endast 1 års garanti på fermi till sina AIB (add-in boards) partners så all garanti över det ges av korttillverkaren, har inte lyckats gräva fram om detta skiljer från AMD så det är mycket möjligt och troligt att det är på samma sätt.
http://www.shanebaxtor.com/2010/02/22/gtx-400-series-1-year-w...

Edit: Tannat var lite snabbare än mig:)

Är folding det primära korten skall användas till (eller om anser man har stor nytta av det) så är det nog Nvidia man skall välja i nu läget, som jag förstår det har Stanford dock gått över och utför all utveckling av gpu klienter på openmm över opencl och det är möjligt att korten blir mer jämna då. Har dock inte lyckats hitta någon ny information angående hur utvecklingen går, den sista bloggposten var från januari och där pratades det om buggar i antingen klienterna eller i opencl drivarna.

Visa signatur

/havoc

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av tannat
t

Det är nog en bra chans att du har rätt i det. Läckage har en förmåga att bli värre med tiden. Kan nog bli så att korten drar mer och mer. Om det rör sig om veckor eller år innan de inte alls går att driva får vi väl se. Jag har för mig att jag läste att Nvidia har dragit ner på garantitiden från två till ett år till partnertillverkarna (Tror det var på Beyond3d för några veckor sen)

Det är lite i dom tankebanorna jag är också. nVidia har ju dragit ned på spänningen för att läckaget blir för stort annars. Ponera då att du sitter med en överklockad processor, kanske även överklockat grafikkort och spelar crysis. Har du då inte ett nätagg på 1500w så lär du ha både spänningsfall och spikar som jag tror fermi kommer vara extra känslig för.

Om vi får rätt eller ej återstår ju att se, roligt att spekulera är det iaf

Visa signatur
Permalänk
Medlem
Citat:

Ursprungligen inskrivet av havoc
Nvidia ger endast 1 års garanti på fermi till sina AIB (add-in boards) partners så all garanti över det ges av korttillverkaren, har inte lyckats gräva fram om detta skiljer från AMD så det är mycket möjligt och troligt att det är på samma sätt.
http://www.shanebaxtor.com/2010/02/22/gtx-400-series-1-year-w...

Edit: Tannat var lite snabbare än mig:)

Är folding det primära korten skall användas till (eller om anser man har stor nytta av det) så är det nog Nvidia man skall välja i nu läget, som jag förstår det har Stanford dock gått över och utför all utveckling av gpu klienter på openmm över opencl och det är möjligt att korten blir mer jämna då. Har dock inte lyckats hitta någon ny information angående hur utvecklingen går, den sista bloggposten var från januari och där pratades det om buggar i antingen klienterna eller i opencl drivarna.

Just Folding tror jag är sekundärt för väldigt många, roligt ett tag tills elräkningen kommer. Det finns ju många andra områden som nvidia och CUDA är ledande på just p.g.a. att dom var först. Jag tror satsningen på OpenCL kan vara ett vinnande kort för AMD. Kraften finns i deras kort också, det har dock varit svårare för programmerare att få ut något av den jämfört med nvidia.

Visa signatur
Permalänk
Medlem
Citat:

Ursprungligen inskrivet av winmine
Just Folding tror jag är sekundärt för väldigt många, roligt ett tag tills elräkningen kommer. Det finns ju många andra områden som nvidia och CUDA är ledande på just p.g.a. att dom var först. Jag tror satsningen på OpenCL kan vara ett vinnande kort för AMD. Kraften finns i deras kort också, det har dock varit svårare för programmerare att få ut något av den jämfört med nvidia.

Många som foldar har elen inkluderad i hyran. Och många har, som jag, en elräkning på 20-25k om året oavsett och då syns inte ens foldingen i det ändå. Jo, de flesta foldar nog sekundärt så att säga, man gör vad man kan med de grejer man har. Men för egen del är det självklart att jag tar det kort som foldar bäst om konkurrenten är ungefärligt likvärdig. Så det spelar roll, åtmonstone för en sån som jag. Just nu har jag ett 5850 och foldar på cpu (att folda på ATI kort just nu är elslöseri om något). Jag kommer tveklöst att byta till ett 470 om det foldar lika bra som man kan hoppas. Spelar ingen roll om det blir en tusing mellan eller det visar sig att 470 är lite långsamare än 5850 i spel. Så på så vis är foldingen sekundär, visst, men fäller ändå avgörandet.

Visa signatur

"What doesn't kill you makes you smaller" - Super Mario

Permalänk

Det är GTX 490 som kommer att ha 512 cuda kärnor och det kommer att bli dyrt om den ens går att få tag på för svenskar.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Herr Andersson
Det är GTX 490 som kommer att ha 512 cuda kärnor och det kommer att bli dyrt om den ens går att få tag på för svenskar.

Skulle inte GTX 480 ultra ha 512 CUDA-kärnor samt ha högre klockfrekvenser?

Visa signatur

AMD 955 BE | Corsair 1600 MHz XMS3 |Gigabyte 890GPA-UD3H | HD5850 PCS+ | Fractal Design Tesla 550 Watt | Fractal Design Define R2 | Samsung Spinpoint F3 1TB

Permalänk
Medlem

Jo det var tanken, men pga designmisstag så blev Nvidia tvungna att strypa kretsarna för att ha några att sälja. Personligen väntar jag nog på en B1 respin.

Visa signatur

/havoc