Nvidia Fermi: Nästa generation Geforce

Permalänk
Medlem

Jag tror fortfarande det inte är något att bekymra sig för i den ena eller andra riktningen, för här är et klipp direkt från info mail till en stor produsent jag har lite kontakter med från Nvidia egentligen inte för konsumenters ögon, men det har ju inga hemligheter.....

This is the first PC GPU architecture designed specifically for Supercomputing. We're delivering the features and performance at generally one-tenth the cost and one-twentieth the power of the previous generation for great increased affordability, furthermore purpose of use will be severly more general than ever due to flexibility of the new architecture. This will happen this year, we are still on top of our roadmap and are not in lack of time, and more documentation will find way thru developer news and pressreleases shortly. There are however practical details to be solved but we asure effort to make the products available.
Interestingly, even though the AMD Radeon HD 5800 series has received rave reviews, from a computing perspective, namely Tom Halfhill who characterizes Nvidia's Fermi as uncontested. Fermi surpasses anything announced by Nvidia's leading GPU competitors.
"Conceptually", Fermi's closest competitor is Intel's Larrabee.
Expected to debut next year, Larrabee chips will attack the market from the opposite direction. They will use general-purpose x86-architecture cores for both 3D graphics and GPU computing – a radically different approach than adapting a specialized 3D-graphics architecture for general-purpose computing. Until the first Larrabee chips appear, it's not clear whether the x86 can make such a leap.

Andy Keane

General manager of TESLA business unit at Nvidia.

Här är mer från en annan okänd källa inom Nvidia.

To implement ISA inside the GPU took a lot of bravery, and with GT200 project over and done with, the time came right to launch a chip that would be as flexible as developers wanted, yet affordable.

In a nutshell, this is just baseline information about what nVidia is going to introduce in the next couple of weeks. Without any doubt, we can see that nVidia reacted to Larrabee by introducing a part that is extremely efficient, natively support key industry standards and more importantly, doesn't cost an arm and a leg.

The line-up is consisted out of high-end consumer part [GeForce], commercial [Quadro] and scientific [Tesla]. You can expect memory sizes from 1.5GB for consumer GeForce 380 to 6GB for commercial Quadro and Tesla parts.

Det sista avsnittet gjorde jag en bra kvalifiserad gissning om i en tidigare tråd

Permalänk

Jag tycker nog Nvidia tar hela grafikkort´s marknaden till en helt ny nivå faktiskt.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av typewriter
Holly shit. Så var dom gröna förbi igen!

Med vad? med en papperslansering? lol
Vänta lite så ska jag skriva ihopa nåt. Då är jag lätt också förbi alla

Tyvärr är det länge till januari men men...vi får vad framtiden visar.

Visa signatur

Mmmarabou

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av wazman
Fattar ingenting av all tekno-mumbojumo och ärligt talat har jag ingen lust att gå igenom tekniska papir för att bilda mig en uppfattning om hur många mflops dom klarar.

Känns som dom försöker dränka publiken i "häftiga" nummer och påståenden eftersom man inte har något att visa upp.

Jag menar lixom:

"Fermi architecture operates at 512 Fused Multiply-Add [FMA] operations per clock in single precision mode, or 256 FMA per clock if you're doing double precision.
The interesting bit is the type of IEEE formats. In the past, nVidia supported IEEE 754-1985 floating point arithmetic, but with GT300, nVidia now supports the latest IEEE 754-2008 floating-point standard. Just like expected, GT300 chips will do all industry standards - allegedly with no tricks"

Kan någon på svenska enkelt förklara vad i H-E dom menar?

De refererar till en standard som skall förenkla flyttning av vetenskaplig kod och data mellan datorsystem genom att garantera funktionalitet på bit-nivå både i lagrad data och i operationer.

Det har inget överhuvudtaget med spel att göra. NVidia har satsat stora resurser på teknologier (mjukvara och hårdvara) som de hoppas skall ge dem ett ekonomiskt ben att stå på i framtiden. För närvarande är det emellertid spelgrafik deras chip används till, och datorspelande konsumenter som finansierar deras satsning. Bra deal? Vi får se. Men de transistorer som satsas på den här typen av funktionalitet är inte avsedda att komma någon spelande köpare till godo. Vi får bara hoppas de inte medför att pris och strömförbrukning trissas upp för högt.

Permalänk
Hedersmedlem

*Tråd rensad*

Visa signatur

Rocking hard !!!

Kontakt: malo@sweclockers.com eller skicka ett PM

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av d0nnie
Med vad? med en papperslansering? lol
Vänta lite så ska jag skriva ihopa nåt. Då är jag lätt också förbi alla

Tyvärr är det länge till januari men men...vi får vad framtiden visar.

Är du blind ? Ser du i mitt inlägg med kopia av ett mail till evga bekräftar en Nvidia chef att det kommer ut på marknaden I ÅR och det kommer mer information fortlöpande framöver... Det brevet betyder i stort sett att korten är under tillverkning och att det är smådetaljer antagligen om försändelsefördelning och hur man ska promotera , kanske massa avtal med skatter och myndigheter och handelsavtal och prissättning inne i bilden mm.

Permalänk
Medlem

blir till att köpa, min 9800gt börjar bli lite seg och jag är tyvärr inte allt för förtjust i Ati:s programvara, Catalyst center. Vänta på specs o pris

Visa signatur

R7 5800X - RTX 3080

Permalänk
Hjälpsam
Citat:

Ursprungligen inskrivet av tannat
De är helt klart undvikande angående marknadsdatum. Vete katten om man håller ut utan grafikkort över julen.

Från [H]ardocp:

Tycker att dom säger att det dröjer ett par månader ganska rent ut.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av shagy
Är du blind ? Ser du i mitt inlägg med kopia av ett mail till evga bekräftar en Nvidia chef att det kommer ut på marknaden I ÅR och det kommer mer information fortlöpande framöver... Det brevet betyder i stort sett att korten är under tillverkning och att det är smådetaljer antagligen om försändelsefördelning och hur man ska promotera , kanske massa avtal med skatter och myndigheter och handelsavtal och prissättning inne i bilden mm.

Blir väl en papperslansering igen då:)
MvH albanen..

Visa signatur

Fractal Design Refine R2 Asus Commando(1901) Q6600@3600mhz@Vattenkylning Corsair HX620W 4Gb 2x2 dominator 8500 Powercolor HD4870X2 Ikari Laser WD MyBook 500Gb@E-Sata 3dmark06@20436+/-
Win xp sp3/win 7 ultimate

Permalänk
Avstängd

Sitter och funderar på minnesmängden. Skulle Nvidia verkligen använda sig av en 384bit-buss om de körde 1 eller 2GB minne? Varför inte gå på en 512 eller nöja sig med 256?

Visa signatur

"Jo men det var exakt det jag menade med att den enda moddningen detta galleriet innehåller är Sanningsmodifikation och photoshoppande :)"

Permalänk
Citat:

Ursprungligen inskrivet av P1nGviN
Sitter och funderar på minnesmängden. Skulle Nvidia verkligen använda sig av en 384bit-buss om de körde 1 eller 2GB minne? Varför inte gå på en 512 eller nöja sig med 256?

512 kanske för att det blir för komplex, för dyrt. 256 för att dom kanske anser att det är för klent?

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Medlem

BSN säger att TDP ligger på drygt 225W för 6GB versionen. Konsumentversioner med mindre minne kommer ha lägre TDP.

http://brightsideofnews.com/news/2009/10/1/nvidia-gt300-real-...!.aspx

Permalänk
Medlem

De råkar inte va så att dom har döpt den nya serien till Fermi pga Enrico Fermi född 29 september 1901 i Rom död 28 november 1954 i Chicago, Cook County, Illinois, USA, var en italiensk fysiker.

Fermi fick en professur i Rom 1927 och hade omkring sig en speciellt utvald grupp forskare som ägnade sig åt såväl teoretiska som experimentella studier för vilka Fermi senare erhöll Nobelpriset i fysik 1938. I motiveringen för priset anges att han tilldelats priset för sitt ”bevisande att nya grundämnen som är radioaktiva åstadkoms genom bestrålning med neutroner och för sin upptäckt av kärnreaktioner åstadkomna med långsamma neutroner”. Han fick senare grundämnet fermium uppkallat efter sig.

När Fermi hade hämtat sitt pris i Stockholm emigrerade han till USA. Italien hade då nyligen fastställt speciella judelagar och Fermis hustru var av judisk härkomst.

Kort efter ankomsten till New York fick Fermi en professur vid Columbia University där han var kvar till 1945 då han flyttade sin verksamhet till Chicago. Arbetet hade tidigt inflätats i Manhattanprojektet och Fermi brukar hänföras till de ledande bakom atombomben.

1954 avled Fermi av cancer, som han sannolikt hade drabbats av på grund av sitt arbete.

http://sv.wikipedia.org/wiki/Enrico_Fermi

Visa signatur

[Phanteks Enthoo Pro TG] [ASUS ROG Strix 850W Vit] [Delidad i7 7700K] [Corsair iCUE Hydro H150i ELITE CAPELLIX Vit] [Corsair Vengeance RGB PRO SL DDR4 16GB 3200MHz/CL16 Vit] [ASUS Z270-F] [Gigabyte RTX 2070 Super 8GB GAMING OC Vit] [C:WD Black SSD 256GB M.2, E:Seagate Firecuda 1TB, F:Samsung 860 EVO 1TB, G:Seagate IronWolf 4TB & H:Seagate Momentus XT 7200.1 500]

Permalänk
Medlem

Det är exakt varför ! På samma sätt döpte dom Tessla efter en annan grym fysiker !
Jag tycker dock det är fusk att dom säger att korten är strömsnålare och billigare än gt200 ! IOFS om man ser till prestanda som ska vara tillsvarande från två till fyra GTX 285 kort så kan man säga om det drar lika mycket i från väggen som ett GTX 285 och presterar som två GTX 285 då räknar dom att dom halverat förbrukningen.... Men jag ser ju bara att de dragit lika mycket på lysräkningen På samma sätt räknar de ekonomi på detta också För kortet det kommer kosta som ett GTX 285 men dra hälften så mycket ström per prestandaenhet och presterar det dubbla då har man ett kort som är fyrfaldigt prisvärdigare i förhållande till ett GTX 285.... Ja nu var detta bara ett exempel hur dom räknar, dom räknar egentligen lite extremare än så och kortet kommer ju i vissa användingsområden vara upp til 16 gånger snabbare...... Men det kostar dom bara en tiondel så mycket att tillverka ett nytt fermikort om man tagit med relevans til prestandaskillnaderna och de har använt bara en tjugondedel kraft, det är imponerande att de lagt ner tid på att bli miljövänliga, men det är nog den krympta arkitekturen som står för hela kakan på innskärningsidan och när dom berättar redan nu för tredjeparts produsenter om ekonomi i tillverkningen och ger så klara hint om prisättning i förhållande till dom , så känns det antingen fel att räkna så eller fegt att vi inte får billigare vara.... Jag vet att även om kortet presterar kanske tio gånger mer än ett GTX 285 så visar min strömmätare ungefär samma och min plånbok blir tillsvarande mycket smalare som när jag handlade ett GTX 285..... OK JAG VET man får så mycket mer prestanda men jag ser det fortfarande inte som sparade pengar ! dock är jag nöjd att det inte blir dubbla priser med den dubbla prestandan eller vad det nu blir för prestanda till slut

Permalänk
Medlem

Det här snacket om larabee, är det inte så att spelen måste vara reaytraceade(?) för att den ska kunna fungera alls? tror det blir en stor flopp.

Visa signatur

13900KS | 32GB 6400 DDR5 | 4090 FE | Samsung G8 Oled
ASUS ROG Strix Z790-F Gaming | Fractal Torrent White | Corsair HX1200

Permalänk
Avstängd

Visa signatur

Cherry MX Brown:Compaq MX 11800, Cherry MX Blue: Razer Blackwidow, Cherry MY: Schneider g81, Black ALPS : Delll AT102W Black, Buckling Spring: IBM Model M, IBM Model N2, Rubber Dome: Keytronic ErgoForce....Senast aktiv Idag

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Oneone
Det här snacket om larabee, är det inte så att spelen måste vara reaytraceade(?) för att den ska kunna fungera alls? tror det blir en stor flopp.

Nej. Larabbe kommer att kunna rendera vanlig grafik som ett vanligt grafikkort.

Visa signatur

Antec 182b | Intel Quad Q6600 @ 3 GHz| Thermalright Ultra 120 | Gigabyte P35 DS3 | Corsair PC6400 CL4 4x1024 MB | 8800 GTS 320 | Raptor 36 GB | Samsung SpinPoint 320 GB | Corsair Powersupply 520W | Eizo S2201W

Permalänk

Så ytterliggare ett kort som är ännu mer gjort för att användas till annat än grafik. Kommer inte det här heller att fungera ifall man inte använda Nvidia som GPU också?

Visa signatur

Belysningstekniker låter väl lagom flummigt?
signature your as this use backwards this read to enough dumb were you if

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av mortifer666
Så ytterliggare ett kort som är ännu mer gjort för att användas till annat än grafik. Kommer inte det här heller att fungera ifall man inte använda Nvidia som GPU också?

Vad menar du? Då det här är en NVidia GPU så det är väl rätt självfallet att man använder en sådan ifall man har kortet. Eller försöker du vara "roligt ironisk" på något svårbegripligt sätt?

Permalänk
Hjälpsam
Citat:

Ursprungligen inskrivet av Buio
Vad menar du? Då det här är en NVidia GPU så det är väl rätt självfallet att man använder en sådan ifall man har kortet. Eller försöker du vara "roligt ironisk" på något svårbegripligt sätt?

Är väl inte så tokigt, tänk dig en budget-Fermi för fysik AI och lite annat jox.
En sån skulle säkert vara intressant för både ATI-ägare och ägare av fina GF-kort som inte vill byta grafikkort riktigt än.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Ratatosk
Är väl inte så tokigt, tänk dig en budget-Fermi för fysik AI och lite annat jox.
En sån skulle säkert vara intressant för både ATI-ägare och ägare av fina GF-kort som inte vill byta grafikkort riktigt än.

Du, eftersom ATI supportar öppna standarder kan jag säkert använda mitt HD 4870 för att göra GPU-accelererad fysik på medans jag använder ett nytt Fermikort för grafiken. Det stödjer väl Starcraft 2 som använder Havok?

Permalänk
Hjälpsam
Citat:

Ursprungligen inskrivet av Buio
Du, eftersom ATI supportar öppna standarder kan jag säkert använda mitt HD 4870 för att göra GPU-accelererad fysik på medans jag använder ett nytt Fermikort för grafiken. Det stödjer väl Starcraft 2 som använder Havok?

När väl stödet för GPU-havok finns, kommer det inte vara några problem, förutsatt att inte Nvidiakortet slutar fungera, om det detekterar ett ATI-kort i burken.
Men eftersom Havok skall accelleras av OpenCL, kan du ju även låta ditt GF-kort sköta saken, då slipper du köpa ett ATI-kort.
Även Bullet och ODE kommer kunna köras från vilket kort som helst.
Verkar bara vara en fysikmotor som kommer vara låst till en viss hårdvara.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Ratatosk
Tror jag förstår vad du menar.
Du verkar vara inne på en breddning av upplevelsen tex via bättre AI och fysik, inte nödvändigtvis bara grafiken?
Men är det inte lite det jag säger? ATI satsar bara på grafiken, Nvidia på fler saker tex via PhysX och Cuda.
Jag tror att ATI:s fokus på grafiken kommer ATI kunna leverera just bra grafik till bra pris, det blir svårare för Nvida eftersom dom tänkt leverera mer än bara grafik.
Bästa systemet är kanske ett ATI-kort för grafiken och ett Nvida-kort för annat?
Men visst är det många som kommer att satsa lite extra, på ett Nvidia kort, som dom tycker ger tillräckligt bra grafik plus en massa annat.

Tidiga spekulationer runt 5xxx och gt300 var just så, dvs att nvidia hade satsat mycket på annat än ren spelprestanda, och att ATI skulle ha övertaget på den fronten. Vilket delvis verkar stämma hittills. Väntar med spänning på lite mera siffror. Det som visats hittills är mycket trevligt, men att inte ge den minsta pik om spelprestanda måste ju faktiskt ses som lite märkligt. Men samtidigt förstår man nvidia, dom vill ju självklart stjäla lite focus från ATI, och gör det med det dom har tillhands atm.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av wez
Men samtidigt förstår man nvidia, dom vill ju självklart stjäla lite focus från ATI, och gör det med det dom har tillhands atm.

Självklart, de vet att ATI får medvind eftersom de har DX11 kort ute nu innan Windows 7 lanseras. NVidia är sena, frågan är bara hur sena de blir. Men deras krets är betydligt mer avancerad så det är inte konstigt.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Buio
Självklart, de vet att ATI får medvind eftersom de har DX11 kort ute nu innan Windows 7 lanseras. NVidia är sena, frågan är bara hur sena de blir. Men deras krets är betydligt mer avancerad så det är inte konstigt.

Sant men samtidigt så är det ju en annan segment gamers som köper dom här korten... Vanliga gamers köper typ 5850 och modeller av Fermi som släpps i ett senare release....
Men Nvidia är inte sena ännu, dom har inte brutit nåt utlovat datum utan det som händer nu håller till och med en roadmap som jag kikade på som är 8 år gammal och då vill jag inte säga dom är försenad. Att Ati släpper dx11 kort innan dom är ju smolk i bägaren , men på inga sätt en katastrof... för dom som inte klarar att vänta på Fermi skulle förmodligen hitta nån anledninga att köpa Ati ändå, som exempelvis ekonomiska skäl, och det är legitimt, men att kalla det för att ati tagit marknadsandelar njaaa , jag är väl inte helt inne på den. Men man kan väl inte kalla försenat när inget datum finns ännu och dom bara säger att man får reda på mer snart, och det har börjat dyka upp lite info från lite varstans helt plötsligt, och DÅ börjar folk kalla det försenat för att dom inte gått ut offentligt med information om vad dom utvecklar i ett tidigare skede ! nei jag köper inte den, jag har läst för mycket trollande nu och har haft kontakt med flera människor som har direktkontakt med Nvidia och där sitter man och försöker på ett enkelt vis att dela med sig av det dom får säga, då misstolkar naturligtvis nån det så blir det uppslag, exempelvis gick det ett varv rundt jorden att det inte var ett gamerkort för det FÖR stor beräkningskraft..... Ja hur relevant är det ?

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Ratatosk
Verkar bara vara en fysikmotor som kommer vara låst till en viss hårdvara.

Och vad beror det på då egentligen? Ingen konkurrens. NVidia gör som de vill helt enkelt. Var finns Havok på GPU eller någon annan fysikmotor på GPU? Finns ingen som pushar för fysik på GPU alls utom NVidia.

ATI har varit kassa på mjukvara och att supporta/pusha utvecklare. De gör bra kort och drivrutinen är stabil, men kontrollpanelen är skrattretande dåligt designad (jag har ett ATI kort så jag kommenterar från egen upplevelse). Kan inte kommentera om Stream då jag inte är utvecklare, men vid en novis anblick ser det ut som CUDA är oerhört mycket längre fram i support och bredd.

Dessutom så ägs Havok av Intel och när Larrabee är släppt kommer du säkert att se att Havok fungerar bäst på den även om Havok använder en öppen standard i vissa delar.

Att NVidia stängt PhysX om man har ett ATI+NVidia suger, får hoppas att de öppnar det igen efter påtryckningar från publik opinion.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Buio
Och vad beror det på då egentligen? Ingen konkurrens. NVidia gör som de vill helt enkelt. Var finns Havok på GPU eller någon annan fysikmotor på GPU? Finns ingen som pushar för fysik på GPU alls utom NVidia.

ATI har varit kassa på mjukvara och att supporta/pusha utvecklare. De gör bra kort och drivrutinen är stabil, men kontrollpanelen är skrattretande dåligt designad (jag har ett ATI kort så jag kommenterar från egen upplevelse). Kan inte kommentera om Stream då jag inte är utvecklare, men vid en novis anblick ser det ut som CUDA är oerhört mycket längre fram i support och bredd.

Dessutom så ägs Havok av Intel och när Larrabee är släppt kommer du säkert att se att Havok fungerar bäst på den även om Havok använder en öppen standard i vissa delar.

Att NVidia stängt PhysX om man har ett ATI+NVidia suger, får hoppas att de öppnar det igen efter påtryckningar från publik opinion.

Ja den är jag faktiskt med på ! Att dom kanske öppnar för att dom är snälla är en sak, men att tvinga dom det tror jag inte på för jag tycker det är deras rättighet att inte boosta en konkurent. men i mitt stilla indre så tror jag det handlar om att dom stänger av ett tag för att inte ta fokus ifrån Fermi så folk säger dom uppnår liknande effekter genom att blanda Ett par som Tex Hemlock och ett billigare Nvidia kort... När dom etablerat Fermi ordentligt och visat att man kan uppnå det man vill ha med ett enda singelkort från dom för mindre pengar sammanlagt, för man hintar ju kraftigt att Fermi kommer kosta ungefär som GTX 280/ 8800GTX gjorde vid release. Ja vi får se men jag hoppas ju det är så att dom skippar spärren senare, men jag tycker fullt och fast det är deras rättighet att bestämma det själva.

Permalänk
Avstängd

Because we're going down
In a spiral to the ground
Noone, noone's gonna save us now
Not even God

Ok, där slutar jag, men det kvarstår att Nvidias aktie har rasat rejält under 2009.

Visa signatur

"Jo men det var exakt det jag menade med att den enda moddningen detta galleriet innehåller är Sanningsmodifikation och photoshoppande :)"

Permalänk
Hjälpsam
Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Avstängd

Vågar man säga att GT300s unveiling kan ha gett motsatt effekt mot vad man kanske hoppats?

Visa signatur

"Jo men det var exakt det jag menade med att den enda moddningen detta galleriet innehåller är Sanningsmodifikation och photoshoppande :)"