Nvidia Fermi: Nästa generation Geforce

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av The Mupp
så om man tar crossfire i HD 5870 så kommer man få ~4miljader vs ~3miljader transistorer?

hemlock någon?*host host*

ATI har sagt att hemlock inte är 5870x2. Tydligen rör det sig snarare om ett 5850x2. Enligt testerna ligger ju dock 5850 väldigt nära 5870 så det blir med största sannolikhet fler transistorer än det nvidia tänker släppa nu som singel-kort.

Jag skulle dock inte hänga upp mig på transistorer. Visst kliar det i fingrarna, men vänta till korten kommer så ser vi vem som "vann"

Visa signatur

//Bacon

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av P1nGviN
Hur tappad får man vara? Till skillnad från dig så identifierar jag mig kanske inte med mina inköp? Jag har både AMD, Intel och Nvidia utspritt bland mina datorer i hemmet. I spelburken sitter ett HD4870, för det var överlägset det bästa köp man kunde göra för 1 år sedan. Näst på kö står 2 st HD5850, av precis samma anledning, förtom att jag vill ha mer den här gången och jag orkar inte vänta 3-4 månader på att GT300 börjar dyka upp.

Som sagt: alla behandlar inte hårdvaran som sin bästa vän, jag köper det som passar mig, varesig det står Nvidia eller AMD på kartongen.

Men faktum kvarstår (eftersom du av okänd anledning valde att radera de när du citera). Så ja frågar dej igen angående din hänvisning om en intervjuv gjord med nåra Nvidia anställda:

"Nånting som du helt klart missat är å va käll kritisk. Står de exakt NÄR de va involverade? Om inte betyder den intervjuv inte ett skit tyvärr"

Visa signatur

|| Intel Core i5 2500K || Corsair Cooling Hydro H60 || Asus Maximus IV Gene-Z || Asus GeForce GTX 570 DirectCU II || Corsair 8GB 1600Mhz VENGEANCE || Corsair HX 650W || Fractal Design Define Mini || 500GB WD Caviar Black || OCZ SSD Agility 3 60GB || Windows 7 Premium 64-bit [thread="1004219"][/thread]

ASUSMaximus IV GENE-Z Owners Club

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Bacon
ATI har sagt att hemlock inte är 5870x2. Tydligen rör det sig snarare om ett 5850x2. Enligt testerna ligger ju dock 5850 väldigt nära 5870 så det blir med största sannolikhet fler transistorer än det nvidia tänker släppa nu som singel-kort.

Tror också något liknande när det gäller Hemlock. Kanske döper de också kortet lite annorlunda pga det. Varför inte HD 5895?

Fermi är väldigt vågat av NVidia, det blir intressant att se hur de håller i spelprestanda jämfört med RV870. De har helt klart ökat kapaciteten för GPGPU enormt i flera delar av Fermi. Om det inte blir alltför dyrt och har minst lika bra prestanda om 5870 är jag intresserad.

Permalänk
Medlem

Något som kommer kontra eyefinity? Eller läste jag skiten för snabbt?

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Merlinen
5870 går ju bort för mindel efter som det inte ryms i mitt chassi :/

Så hoppas att detta kort håller samma storlek som tex GTX 280 som jag har idag.

Du har nog råd med ett nytt chassi och dubbla 5870 om du ska komma upp i Nvidias prisklass

Visa signatur

Core I7 920,Cosair 12gb ddr3,GA-ex58-UD5,Gigabyte GTX580,Corsair HX 850W,Intel X25MG2 160GB,2st WS 2TB@7200,Wacom Intous4 medium.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Robbaz
Något som kommer kontra eyefinity? Eller läste jag skiten för snabbt?

Informationen om Fermi handlar ingenting om spel eller extra finesser för vanliga användare. Det handlar om GPGPU.

Information om spel etc kommer väl senare när de ligger närmare release.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Buio
Informationen om Fermi handlar ingenting om spel eller extra finesser för vanliga användare. Det handlar om GPGPU.

Information om spel etc kommer väl senare när de ligger närmare release.

Det känns dock som om nvidia borde släppt någon information om någonting i stil med eyefinity. Skulle tro att det blir 2 skärmar som standard.

Visa signatur

//Bacon

Permalänk
Medlem

Antagligen, men teknologin verkar inte patentskyddad, så NVidia kan göra sin egen lösning om de vill.

Permalänk
Hjälpsam
Citat:

Ursprungligen inskrivet av snozan
Men faktum kvarstår (eftersom du av okänd anledning valde att radera de när du citera). Så ja frågar dej igen angående din hänvisning om en intervjuv gjord med nåra Nvidia anställda:

"Nånting som du helt klart missat är å va käll kritisk. Står de exakt NÄR de va involverade? Om inte betyder den intervjuv inte ett skit tyvärr"

http://www.anandtech.com/video/showdoc.aspx?i=3651
Jag undrar om dom ändå inte kör utveckling av ett mer grafikorienterat grafikkort också, att slåss med ATI med detta verkar i stolligaste laget.
Det skulle också förklara varför dom bara tjatar om Tessla-applikationer med Ferm och inte hur det presterar i spel.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av snozan
Men faktum kvarstår (eftersom du av okänd anledning valde att radera de när du citera). Så ja frågar dej igen angående din hänvisning om en intervjuv gjord med nåra Nvidia anställda:

"Nånting som du helt klart missat är å va käll kritisk. Står de exakt NÄR de va involverade? Om inte betyder den intervjuv inte ett skit tyvärr"

Jag har mailat Anand med den frågan tidigare idag, vi får se när han svarar.

Visa signatur

"Jo men det var exakt det jag menade med att den enda moddningen detta galleriet innehåller är Sanningsmodifikation och photoshoppande :)"

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av jj_viking
För oss som arbetar med 3D Applikationer som inte har stöd för SLI än, så är det jättebra med kraftfulla single GPU cores. Det är välkänt att ATI inte har tillräckligt stabila drivrutiner för att kunna användas i sammanhang med 3D och grafik applikationer. Inte ens deras FireGL serie är stabila. För spelande är dem säkert jättebra =).
Jag är glad och nöjd med nVidias grafikkort bara för att dem är så himmla stabila, och så behöver man inte ens köpa Quadro serien, det räcker med ett mainstream kort. Kraftfulla single kort är varmt välkomna :D!

Offtopic:
Ati-kort fungerar utmärkt för 3d, jag har haft samma problem som du men omvänt på quadroFX 4500 och geforce 8600 men det betyder inte att alla Nvidias kort och drivrutiner är kassa. Nu vet jag inte vad du använder för program men det låter som om du testat alla program på marknaden med både proffs och mainstreamkort från Nvidia och ATI?

Ontopic:
Hoppas det är lika kraftfullt i praktiken som på papprena och att priserna inte drar iväg för mycket, En sak som är säkert är att det behöver utvecklas mer programvara som tar vara på Grafikkortens kraft iaf

//Micke

Visa signatur

Fractal Design Define S - Asus Prime X570-P - AMD Ryzen 9 3950X - Corsair Hydro H115i PRO - Gainward RTX 4090 - Corsair 64GB (4x16GB) DDR4 3200MHz - Corsair RM1000x - Samsung 970 EVO Plus 1TB x2 - massor av mekaniska lagringsdiskar.

Är här dagligen men skriver inte så mycket...

Permalänk
Medlem

Känns trist att dom aldrig visar benchmarks nån månad eller tre innan dom släpper korten, ofta har ju privatpersoner redan fått kort innan den ploppar upp riktiga benchmarks. Förstår inte vad nvidia har o vinna på att inte visa att deras kort är mkt bättre (även om det inte säkert är det). Borde det inte vara strategiskt rätt att visa nåra benchmarks nu när amd släppt sina? (om dom är bättre dvs), samt lite pris info. Nåt kort borde väl ändå vara klart tycker man.

Visa signatur

Fractal R3, Corsair AX 850W, 2x Gigabyte 580 Windforce + Gigabyte 210, I7 2600k @ 4.6 GHz, Asus P8P67 PRO, Corsair 32GB 2133 MHz, Corsair H80, Intel 320 300GB, 5x2TB WD GP, 5xSchyte F-Flex 1600, 2xFractal 140mm Silent, 7xFanmate, 3xDell U3014, LG BH10LS30, Qpad 5k, Logitech Z-5500, Sennheiser 360, 2xDinovo Edge. Samsung 900X4C, 256GB SSD, 16 GB Ram.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av RasmusB
Skulle nog vilja säga att oviljan att gå ifrån kraftfulla single-GPUs är vad som gör att 3D-applikationer inte har bra stöd för beräkning på med hjälp av SLI eller Crossfire, finns helt enkelt inget behov av att optimera/utveckla mjukvaran för det om det redan finns tillräckligt kraftfulla single-GPUs. Har själv ingen erfarenhet av 3D-applikationer i den bemärkelsen men om det är som du säger så hjälper det verkligen inte utvecklingen att man fortsätter på det spåret.

Man kan inte sitta och utveckla större och större GPUs för varje år utan någonstans får man inse att det kan kanske vara bättre och tillverka fler, mindre och billigare kärnor - förutsatt att man får bukt på skalbarhetsproblemen inom en hel del applikationer.

Personligen så är jag positivt inställd till AMD när det kommer till inriktningen på billigare och mindre GPUs. Om det är pga. dålig ekonomi eller inte låter jag vara osagt men det ser ju ut att fungera bra för både konsumenter och tillverkare.

Jag håller med dig om att det är lite retro med single GPUS. Det är faktiskt rätt dumt och dyrt att inte kunna använda SLI i 3D Applikationer. "Multithreading" är något eftertraktat och smart lösning tycker jag, men 3D applikationer ligger lite efter.
MEN, om ja gbehöver rädda ett jobb, säg att jag har 10 000+ objects/föremål i en scen som motsvara i mitt fall ca 10+ miljoner trianglar som laggar och som jag måste fortsätta att modellera, då kan en kraftfull single GPU vara en tillfällig räddning eller lösning, men det är ju inte lönt långsiktligt. Så nu tänker jag kortsiktigt i alla fall.
Tyvärr om ATI inte uppdaterar sina drivrutiner eller firmwares så att dem är kompatibla med 3D Applikationer som Blender, Softimage mm. så är ändå Nvidia the-way-to-go om mjukvarutvecklarna integrerar SLI i sina applikationer. Missförstå mig inte, jag Tycker att ATIs priser och prestanda är imponerande men när det gäller jobb så är stabilitet nästan det enda som räknas.

Nu ser jag fram emot ett GPGPU (eller vad det nu heter ) lösning så att man kan rendera med grafikortet!

Visa signatur

Core i7 920 C0 @ 3.5Ghz stock volt || Gigabyte GA-EX58-UD5 BIOS V. F12|| Noctua NH-U12P SE1366 || 12GB Ram 1333Mhz Corsair 1.5V || WD Caviar Black 640GB - WD Caviar Black 1TB || Gigabyte GTX 580 || Be Quiet! Dark Power 650W || - HAF-X

Permalänk
Medlem

Ska bli intressant att se hur väl den nya serien presterar med deras implementation av raytracing. Ser onekligen kraftfullt ut iaf.

Permalänk
Medlem

Men.. sa inte nVidia att dom inte skulle stödja DX11? och nu gör dom en helomvändning?

Permalänk
Hjälpsam
Citat:

Ursprungligen inskrivet av Haghala
Men.. sa inte nVidia att dom inte skulle stödja DX11? och nu gör dom en helomvändning?

Nja, dom sa ungefär att även om DX11 är intressant, är även mycket annat också intressant, tex Cuda och PhysX.
Och så sa dom att DX11-titlar låg ganska långt in i framtiden.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Haghala
Men.. sa inte nVidia att dom inte skulle stödja DX11? och nu gör dom en helomvändning?

Nvidia sa att DX11 inte var en tillräckligt stor nyhet för att man ska uppgradera sitt grafikkort, inte att de inte skulle implementera det. Ingen seriös grafikkortstillverkare kan stå utan stöd för DX11 när det finns i W7. Mirosoft pekar med hela handen resten följer snällt efter

Visa signatur

"Jag har inte gått 5 år på Chalmers, men till och med jag vet att det är en dum idé att blanda vatten och elektronik"
Min Fru

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Buio
Tror också något liknande när det gäller Hemlock. Kanske döper de också kortet lite annorlunda pga det. Varför inte HD 5895?

Fermi är väldigt vågat av NVidia, det blir intressant att se hur de håller i spelprestanda jämfört med RV870. De har helt klart ökat kapaciteten för GPGPU enormt i flera delar av Fermi. Om det inte blir alltför dyrt och har minst lika bra prestanda om 5870 är jag intresserad.

tja vågat och vågat, nvidia måste börjat svettas när processorjätten intel börjar med grafikkort på riktigt medan Amd nu även dem har processorer och grafikkort. Nvidia måste hålla sig kvar i matchen och än så länge har de iaf inga problem med att göra det. Dessutom så ser ju inte intels grafikprojekt specielt lovande ut, än så länge.
Om hemlock nu skulle vara 5850x2 så lutar det nog åt att det döps till just 5850x2, eller med liten möjlighet 5950

Visa signatur

Om du vill att jag ska se ditt svar så tryck på Citera.

Permalänk
Medlem

Läste nån väldigt intressant intervju med någon huvudutvecklare av Unreal-motorn, och hur han trott och tror att 3D-accelerationen i spelen framöver kommer röra sig bort från OpenGL och Direct3d och mot att bli mjukvaruaccelererad igen (precis som det var när han började utveckla första Unreal, innan Voodoo-revolutionen) och just därför är väl general computing på en GPU väldigt intressant för gamers också.

Nån som kan hitta länk till den?

Visa signatur

I think I'll have myself a beer...

Permalänk
Medlem

Vad hindrar dom egentligen från att slänga in.. 3 eller 4 GB minne? Vore lite roligt med 3 iallafall med tanke på att det redan finns massa kort med 2 GB.

Visa signatur

E8400@3,97 | GA-EP35-DS3L | 5850 BE @ 805 | Corsair Dominator@1081 4x1 GB | Corsair VX550W
MS Intellimouse 3.0 | Logitech Illuminated<3| Steel QcK+ | Steel 5hv2 | Samsung T220 (pissdålig skräpskärm)
Macbook Pro '10 | iPhone 3GS 16GB

Permalänk
Medlem
Citat:

Following official unveiling of Nvidia's next-gen Fermi architecture, Nvidia have notched up a big win in the HPC industry already.

Oak Ridge Natural Laboratory will build a supercomputer using Nvidia's Fermi products, intended to be 10 times more powerful than today's fastest supercomputer. This is a massive magnitude to overtake what is today world's most powerful supercomputer.

Mr. Jeff Nichols, associate director for Computing and Computational Sciences at ORNL, says with Nvidia's Fermi, substantial scientific breakthroughs would not be possible. By using Fermi's parallelization as well as its greater programmability compared to other GPUs, scientific computing will be done at a speed many times faster than CPUs, which currently power most supercomputers.

ORNL has already assembled a Hybrid Multicore Consortium, which will program applications to run and utilize Fermi to its potential.

This is undoubtedly a massive boost to Nvidia's aspirations to be a major player in the HPC industry.

http://vr-zone.com/articles/-press-release-nvidia-fermi-to-po...

Visa signatur

"Maybe one day you will learn that your way, is not the only way"

Permalänk
Medlem

8x snabbare 64-bitars flyttal-prestanda och en cache-hierarki, samt möjlighet att schemalägga två warps i varje klockcykel, mycket trevligt. Fermi verkar vara en stor förbättring jämfört med GT80 och GT200. Synd att det är ett tag kvar innan det kommer, jag skulle behöva ett Fermi-kort nu

Citat:

Ursprungligen inskrivet av olga32
Läste nån väldigt intressant intervju med någon huvudutvecklare av Unreal-motorn, och hur han trott och tror att 3D-accelerationen i spelen framöver kommer röra sig bort från OpenGL och Direct3d och mot att bli mjukvaruaccelererad igen (precis som det var när han började utveckla första Unreal, innan Voodoo-revolutionen) och just därför är väl general computing på en GPU väldigt intressant för gamers också.

Nån som kan hitta länk till den?

CPU:er och GPU:er verkar just nu vara på kollisionskurs. CPU:er får allt fler kärnor, och GPU:er blir allt mer programmerbara. Så det handlar nog inte om att 3D-accelerationen kommer flytta tillbaks till CPU:n, utan att CPU och GPU kommer bli alltmer lika, ändå tills skillnaden försvinner helt. Fast det är nog inget som kommer hända inom den närmsta framtiden, utan CPU och GPU kommer att ha sina roller ett tag till. Det är vad jag tror i alla fall.

Citat:

Ursprungligen inskrivet av bbx8
Vad hindrar dom egentligen från att slänga in.. 3 eller 4 GB minne? Vore lite roligt med 3 iallafall med tanke på att det redan finns massa kort med 2 GB.

Det finns inget som hindrar dem från det, och t.ex. nuvarande Tesla C1060 använder 4 GB minne. Men för spelkort så finns det än så länge ingen orsak till det, då spel oftast inte använder så mycket minne. Men minnesmängden på grafikkorten kommer givetvis att öka, och Fermi kan adressera 40-bitars adresser, vilket betyder att det kan adressera upp till 1 TB minne. Det lär ju räcka ett tag i alla fall.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Andreas D
Varnad för Caps + trams.

Han kanske skrev trams men tycker inte han ska bli varnad för detta?

Han skrev 1 mening med caps för hans a det högt resten normalt.

Och allt som vi diskuterar nu är trams, och filosofi för ingen av oss vet vad priset är, storleken är, vad för verklig prestanda det ger eller om det finns c++ restriktioner inbyggda etc.

Dessutom var han helikopter rån ett roligt inlägg för jag skrattade alla fall.

Eller ska det vara censur nu på händelser som sker på riktigt?
Kändes som Kinna censur. Ingen får prata om det.

Visa signatur

Här för att försöka hjälpa med det jag kan ^_^

Permalänk
Medlem

Allvarligt nu, Kan det ens teoretiskt sätt bli sämre än AMDs kort.
EDIT: Menar förstås prestandan.

Visa signatur

|AMD Ryzen 9 5900X| |ASUS ROG Strix B550-F| |Crucial Ballistix 32GB CL16@3600MHz| |PNY RTX 4090 XLR8 Gaming| |Samsung 990 Pro 2TB| |Samsung 970 Evo Plus 1TB| |Samsung 860 Evo 1TB| |Corsair RM1000| |Fractal Design Define R5| |LG OLED 48" C2 Evo|

Permalänk
Medlem

Detta är också intressant, nVIDIA Nexus ett plugin till Microsoft Visual Studio.

Citat:

What is Nexus?

Nexus brings GPU Computing into Visual Studio 2008. Debug, profile, and analyze GPU code using standard workflow and tools. Nexus supports CUDA C, OpenCL, DirectCompute, Direct3D, and OpenGL.

http://developer.nvidia.com/object/nexus.html

Visa signatur

"Maybe one day you will learn that your way, is not the only way"

Permalänk
Medlem

I'm falling in love all over again=)

Folding@Fermi blir nog snabbt.

Permalänk

Nu är jag glad att jag inte köpte 5870. Inte för att jag har nått emot rödas kort men gröningarna kan dom. Hoppas det inte blir allt för dyrt bara.

Visa signatur

Dator 1: Intel core i7 3930K @ 4,7Ghz, Asus P9X79 Deluxe. Crucial Ballistix Tactical Tracer DDR3 (32GB),Crossfire 2x MSI Radeon 7970 OC Edition 3GB, Tagan 800W NA, SanDisk 120GB systemdisk, EK 360 kit + 120mm extraradiator.
Dator 2: AMD FX 8350, Gigabyte 990FXA UD3, Crucial ballistix DDR3, Nvidia GTX 480, Corsair 650W, 2x OCZ Agility, Thermaltake bigwater 760 vattenkylning.

Permalänk
Citat:

Ursprungligen inskrivet av WrongTarget
Nja, en CPU är fortfarande bättre på generella operationer, men du kan avlasta processorn från operationer som är lätta att parallellisera. DEt blir nog till att även i fortsättningen ha en hyfsad processor om man skall ha ut all prestanda ur ett high-end grafikkort.

Kanske en vacker(eller regnig) dag så...

Citat:

Ursprungligen inskrivet av m3tr0
Alltså, avlasta processorn är ju precis vad ett grafikkort gör. Det roliga är ju att programmerbarheten på grafikkort blir bara större och större med tiden. Och nu kan man alltså skriva vanlig C++-kod, via CUDA eller liknande, till GPU:n. Compute Shaders i DX11 och OpenCL finns också. Trevlig utveckling!

Verkligt imponerad av Fermi iaf.

Om man kan skriva helt fristående drivrutiner så kan man sammanfatta det hela med ett filmcitat: "There's no end to the possibilities!"

Visa signatur

Hoppla hoppla, här va de helikoptersmörgås!

Permalänk
Citat:

Ursprungligen inskrivet av SprengdPanda
295 är väl bara 2st 280 om jag minns rätt

Nope, 2st 260 (ungefär, vet ej om gpu'erna är identiska med 260 men 260 är närmast iaf).

Jag tycker det är bra att de kommer innan jul, priserna på 58x0 lär ju sjunka en del då lagom till julhandeln (vet ej om jag vågar tänka på priset på dessa nya kort, jag tycker 5850/5870 är dyra och jag har en känsla av att nVidia's kort kommer bli dyrare ).

Kul

Edit: Offtopic
Lafiel: Om du inte märkte att det där inlägget var tramsigt så vet jag inte. Även jag tycker att det är irriterande med folk som skriver med enbart versaler. Sweclockers är, till skillnad från Kina som är ett land (vilket jag antar att du menar, eftersom Kinna ligger lite utanför Borås), ett privatägt forum som ägarna får bestämma hur de vill på. Vill de inte ha fåniga/tramsiga inlägg så får de bestämma det själva.

Jag håller med om att det var lite hårt med en varning, om man jämför med alla fåniga inlägg som dagligen görs utan att få någon sådan påföljd. Men det gör det inte mindre onödigt.

Visa signatur

Moderkort: Gigabyte GA-EP45-DS3 CPU: Intel C2Q Q6600 @ 3,61 GHz (1,48 vCore) med ZeroTherm NV120 Prem. GPU: Sapphire Radeon HD6950 1GB Minnen: Kingston HyperX PC6400 2x2GB CL5 HDD: Samsung SpinPoint F1 320GB PSU: Corsair TX650W Chassi: Antec Three Hundred
Citera mig om du vill vara säker på att få svar.

Permalänk

nu börja spliten synas som det snackades för ett tag sen. nv gick för stora monoliter medan ati gick för en mindre modulär design, enligt dom själva. jag tror som alla andra att det kommer bli ett monster utav sällan skadat slag! med en prislap som bara entusiasterna har råd med. så länge kodknackarna inte hänger med så är nv strategi bättre, dvs nu! osv osv!

"only time will tel"(mr albert i cnc ra)

peace out

Visa signatur

I am the Leech King!