Nvidia Fermi: Nästa generation Geforce

Permalänk
Medlem

Låter bra, väldigt bra. Nu lite spel prestanda tester!

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av MarkSix
Handlar tråden om Fermi eller ATI's nya kort?

Det han skriver har direkt relevans till Nvidias marknadandelar för den nya GF serien, och jag måste lägga til att Ati numera är en starkare konkurent för proffesionella aplikationer och bruksområden, så det finns lite att tugga på.
De båda lägren kör med så olika marknadstrategier at det kan verka som de utvecklas åt olika håll, vilket dom till dels gör . Först rör sig Ati inn i en marknad som dom inte tidigare var på allvar representerade i, sedan fokuserar Nvidia på annat än FPS för det finns ingen anledning att skura mer i det hörnet utan man vill ha inn mer features i exempelvis spel som utnyttjar grafikkortet til mer än att ge FPS som till exempel ge hela spelmiljön ett verkligare prägel inte bara i genom snyggare ansikten och mer definerade texturer, utan att hela miljön uppför sig som närmare verkligheten på många områden samtidigt som man innför naturligare utseende på allt och det i en miljö som ska anpassa sig i realtid baserat på tex vad många andra spelare i ett online spel gör som man inte kan förutse. Det handlar om så mycket mer än att bilden ska flyta naurligt för dina ögon, man ska förankra din spelmoljö upp emot verklighet i hela ditt sinne. Sedan är det ju värsta bonusen att vi kan folda och använda andra aplikationer från berkley osv för att hjälpa våra vetenskapsmän rädda våran framtid.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av MarkSix
Dom är tvugna att utveckla sig, det kommer inte att räcka att bara leverera GPU kretsar för grafik i framtiden. Nu när Intel är med i spelet så är ju risken att Nvidia försvinner i skuggan av AMD och Intel.

Baserat på att det skulle vara ett faktum att det är rätt väg att gå. Som jag sa så är det vågat, då deras majoritet av inkomster ligger från att sälja grafikkort för spel och nu gör de en krets som avviker från att vara dedikerad åt just spel. Det är inte säkert att det finns någon rik marknad för GPGPU.

Det är självklart därför de pushar PhysX så hårt, de försöker skapa en marknad där spel inte bara är grafik på grafikkortet.

Permalänk
Medlem

Fattar ingenting av all tekno-mumbojumo och ärligt talat har jag ingen lust att gå igenom tekniska papir för att bilda mig en uppfattning om hur många mflops dom klarar.

Känns som dom försöker dränka publiken i "häftiga" nummer och påståenden eftersom man inte har något att visa upp.

Jag menar lixom:

"Fermi architecture operates at 512 Fused Multiply-Add [FMA] operations per clock in single precision mode, or 256 FMA per clock if you're doing double precision.
The interesting bit is the type of IEEE formats. In the past, nVidia supported IEEE 754-1985 floating point arithmetic, but with GT300, nVidia now supports the latest IEEE 754-2008 floating-point standard. Just like expected, GT300 chips will do all industry standards - allegedly with no tricks"

Kan någon på svenska enkelt förklara vad i H-E dom menar?

Visa signatur

Intel 12900k/32GB/Noctua NH-P1/Seasonic Fanless 600W

Permalänk
Medlem

Ser otroligt bra ut på pappret, inte mycket snack om själva gpu'n dock.
Nvidias nya serie kan verkligen bli en riktig dräpare.

Visa signatur

| CPU i7-13700KF | Mobo Asus PRIME Z790 D4 | Ram 32Gb 3600Mhz cl17 DDR4 | GFX RTX 3080 | HDD 2x 1024Gb M.2 SSD | Corsair 850W | Playstation 5 | Xbox Series X |
"Om allt verkar gå bra vet du förmodligen inte alls vad som pågår."

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av wazman
Fattar ingenting av all tekno-mumbojumo och ärligt talat har jag ingen lust att gå igenom tekniska papir för att bilda mig en uppfattning om hur många mflops dom klarar.

Kan någon på svenska enkelt förklara vad i H-E dom menar?

Det är en teknisk presentation för GPGPU och inte över spelprestanda.

Läs Andreas D inlägg en tidigare i tråden så ser du att vi antagligen får en mer normal information om spelprestanda och liknande i november.

Permalänk

Kommer inte nvidia med mellansegments kort ? typ i samma prestandar grupp som 260 gtx ?

Visa signatur

Intel i5 @ 2,66Ghz | Noctua NH-D14 | 4gb corsair 1600mhz | Asus P7P55D-E PRO | Antec p182 | Corsair 550w |Asus 6950 2gb upplåsta shaders, ASUS 5770 V2|Samsung SpinPoint F3 1 TB |Benq BL2400PT | LG 42PQ6500 | Steelseries Siberia v1 |Asus Xonar DX |Creative EP-630 | AKG K601 | Dynavoice F-6 EX 5.0 |Canton Reference 9.2 DC | Atacama Nexus 6| Onkyo 607

Permalänk
Moderator
Testpilot

Jag ser att Nvidia gör allt som stor i deras makt för att hypa sin kommande grafikarkitektur... Det låter alltid så spännande på pappret men är alltid ack så mycket besvikelse när de väl kommer.

Jovisst spännande, men vart är korten?

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Hjälpsam
Citat:

Ursprungligen inskrivet av Stefanken
Vi säger att jag kommer köpa GT300 kort som används för grafiken.

Spelar det någon roll hur gammalt physkortet är?. Kan man använda typ gt8800? Blir physet bättre med ett nyare nvidiakort?

Tror jag inte behövs, GT300 kommer att springa åttor runt ett GT8800, vad gäller PhysX och Cuda.
Det är grafiken jag är lite mer tveksam till, kortet kommer att kunna leverera fin grafik, men jag tror att många har för höga förhoppningar.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Citat:

Ursprungligen inskrivet av Buio
Att ett företag går med vinst eller förlust har med många faktorer att göra. T.ex. den rådande finansiella ekonomiska krisen. Går t.ex. AMD/ATI med vinst?

Edit: Jag ser helst att båda företagen går med vinst och fortsätter precis som de gjort förut och skapar bra konkurrens för varandra. NVidia fick lära sig en del när ATI släppte HD 48xx serien, och de tänker nog inte göra samma fel igen.

Jag säger åter igen, hade tekniken varit så billig att man kunde göra så bra kort och sedan sälja korten för så lite pengar som de faktiskt måste göra för att konkurrera med ATI så torde ATI redan gjort detsamme för längesedan.

Först och främst måste man anta att man säljer så mycket kort att man har tjänat mer pengar än utvecklingen av produkten kostade - detta är det dyra -, sen måste man se till att kortens försäljningspris överstiger dess produktionskostnad.

Jag har inget annat än min gissning att gå på här men jag skulle nog vilja påstå att just grafikdelen av AMD - alltså ATI - faktiskt går med vinst =P Om så inte är fallet får någon gärna säga till.

Visa signatur

i7 2600K | XFX 6970 | 8GB DDR3 1600mhz Vengeance| 1TB HDD | DVD-RW Dual Layer

Permalänk
Hjälpsam
Citat:

Ursprungligen inskrivet av RasmusB
Nej, jag säger inte att fysik är att likställa med grafik. Det jag säger är att fokus på fysik kommer att ge upphov till betydligt bättre grafisk upplevelse då den vävs samman med spelen. Och nej, jag skriver verkligen inte att AMD/ATI eller någon annan är trött på "grafik". Det jag spekulerar i är hurvida de tycker det är intressant att hela tiden "jaga FPS". Visst blir spelen mer krävande och det är ju självklart att beräkningskraften måste användas till att försöka få spelen att flyta på men samtidigt som det är sant så är det ju intressant för tillverkarna att representera sina kort på andra sätt; genom att då visa vad fysikberäkningar kan ge för resultat då de vävs in i den övriga grafiken - mer realism.

Personligen så tycker jag det är mer intressant att läsa om tillverkarnas försök att bringa mer realism till oss (som tex. denna rapporten indirekt gör) än att höra om hur många fler "bildrutor i sekunden" grafikkorten kan spotta ut baserat på "gamla spel" som redan flyter på med föregående grafikkortsgeneration.

Visst säger antalet "bilder per sekund" en del om grafikkortets prestanda men även om detta är sant så säger det ju inte lite mycket om grafikkorttillverkarnas försök att bringa oss mer realism som fysiksatsningarna faktiskt gör.

Tror jag förstår vad du menar.
Du verkar vara inne på en breddning av upplevelsen tex via bättre AI och fysik, inte nödvändigtvis bara grafiken?
Men är det inte lite det jag säger? ATI satsar bara på grafiken, Nvidia på fler saker tex via PhysX och Cuda.
Jag tror att ATI:s fokus på grafiken kommer ATI kunna leverera just bra grafik till bra pris, det blir svårare för Nvida eftersom dom tänkt leverera mer än bara grafik.
Bästa systemet är kanske ett ATI-kort för grafiken och ett Nvida-kort för annat?
Men visst är det många som kommer att satsa lite extra, på ett Nvidia kort, som dom tycker ger tillräckligt bra grafik plus en massa annat.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av typewriter
Holly shit. Så var dom gröna förbi igen!

Bara mossa på övervåningen?
korten är inte släppta ännu så du kan låta party mössan stå på hyllan en stund till.

OT:
Korten kan nog bli riktigt bra, hoppas bara att dem sätter en aggressiv prislapp på sakerna så att man får nåt för sina pengar.

Visa signatur

| CPU i7-13700KF | Mobo Asus PRIME Z790 D4 | Ram 32Gb 3600Mhz cl17 DDR4 | GFX RTX 3080 | HDD 2x 1024Gb M.2 SSD | Corsair 850W | Playstation 5 | Xbox Series X |
"Om allt verkar gå bra vet du förmodligen inte alls vad som pågår."

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Nypifisel
Jag säger åter igen, hade tekniken varit så billig att man kunde göra så bra kort och sedan sälja korten för så lite pengar som de faktiskt måste göra för att konkurrera med ATI så torde ATI redan gjort detsamme för längesedan.

Jag förstår inte vart du vill komma med detta? Tidigare sa du:

Citat:

Möjligt.. Men de kommer ju gå med förlust? Om sådan teknik hade gått att få gratis hade självklart ATI använd den för längesen.

Menar du att alla måste göra kort på en viss prisnivå för att kunna sälja? Så det finns det inte billigare NVidia kort än det absoluta toppkortet? NVidia har inte klarat sig bra tidigare trots att deras toppkort i princip alltid varit dyrare än ATIs?

För att dra paralleller till CPU-världen så kostar Intels dyraste ungefär 10 000:- medans AMDs dyraste kostar 2 100:- (snabb koll på Komplett). Trots det så verkar Intel gå rätt bra.

Permalänk
Hjälpsam
Citat:

Ursprungligen inskrivet av jooelhoglund
Kommer inte nvidia med mellansegments kort ? typ i samma prestandar grupp som 260 gtx ?

Bra fråga.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av ulath666
Vad baserar du det på?

ATi har fått ut sina kort INNAN en av de bästa spelhösterna på väldigt länge med tillräcklig prestanda för att få många att allvarligt fundera på att byta från Nvidia till ATI.
ATI korten kommer gå åt som smör med de stora PC releaser som kommer de närmaste månaderna och Nvidia kommer knappast släppa och slåss med ATI förens kring/efter jul.
ATI har lyckats med:
Sweetspot för tiden för release (win 7, massor av nya spel)
Prestanda på ett singlekort som i flera fall är bättre än dubbla av den förra generationen
En prisbild som inte får folk att sätta saker i halsen
De går samtidigt ut hårt med en open source fysikmotor som fungerar på BÅDE geforce och Radeon kort samtidigt som Nvidia tvingar physx till harakiri genom att låsa en del av kundbasen.

Nvidia kommer lida av ATIs släpp, det går inte säga något annat, om de sedan återhämtar sig återstår att se, men företaget verkar mer och mer tappa visionen att jobba för gamers och istället jobba för den egna plånboken, något som i på längre sikt alltid leder till MINDRE i plånboken...

Okej, först för att bemöta ditt prat om fysiken - varför nöja sig med Open CL, när man kan få Open CL och PhysX (jag vet inte hur många spel med fysikstöd från Open CL du har sett än så länge, men jag har sett ett gäng spel med PhysX-stöd, därmed inte sagt att det på något sätt är bättre, men det faktum att det faktiskt finns på riktigt är ju ett argument du själv verkar tycka väga tungt, så varsågod
Sen har du helt rätt i att ATi lyckades med sin lansering med de faktorer du nämner, men det är trots allt "GT300" och HD58XX som ska "slåss" framöver, alltså är de två de man bör jämföra (såvida du inte tror att ATi hinner spotta ur sig en HD68XX-serie innan jul då ). Och ska man göra jämförelser med det material vi har (ja, det går endast att göra grymt grova jämförelser) så kan man fortfarande dra slutsatsen att om GT300 håller hälften av vad det lovar, så slår det fortfarande HD58XX på fingrarna - alltså är det värt att vänta några ynka månader och "stå ut" med sin gamla lösning tills man sitter med facit i hand, såvida man inte är überkåt och sitter med en femtioelva år gammal lösning idag vill säga, då är ATi det givna valet.
Själv är jag - som någon annan forumit så vackert uttryckte det - "stolt kappvändare i märkesvinden", kanske är det bara en känsla, men du känns lite mer insnöad än så

Permalänk
Medlem

äntligen händer det saker, det var ett bra tag sen jag såg så pass grymm generations skifte från båda amd och nvidia. det brukade vara små marginaler på prestanda varje gång nytt kort kommer.
nu återstår att se vad 3dmark test säger sen

Visa signatur

يارَبْ إذا أسَأت إلى الناس فَاعْطِني شجَاعَة الإعتذار وإذا أسَاء لي النَّاس فاعْطِنْي شجَاعَة العَفْوَ وَعَلّمنْي أنْ التسَامح هَو أكْبَر مَراتب القوّة وَأنّ حبّ الإنتقام هَو أولْ مَظاهِر الضعْف

Permalänk
Medlem

Här är lite info om kortet, fokuserar en del på kostnaden för chippet.
http://www.jasoncross.org/2009/09/30/a-few-thoughts-on-nvidia...

Permalänk

några saker:

strömförbrukning? dom lär ju dra typ 300 w!?
ljudnivå? ati 5870 är ju relativt tysta vad jag vet (http://www.sweclockers.com/album/?id=4503)
pris? dom där lär ju kosta 6 långschalar, medans 5870 korten nog utan problem kan sänkas under 3 papp. och 2 5870 lär nog sparka rumpa en hel del

Permalänk
Medlem

Kommer dessa nya GeForce att kunna hantera ljud också som AMDs Radeon kan?
Vore bra dåligt annars, men har inte sett någon info om det.

Visa signatur

Sometimes autocorrect makes me say things I don't Nintendo.

Permalänk
Medlem

Det här verkar ju onekligen intressant. Framförallt att de är så mycket snabbare på matrismultiplikationer. För det är ju det som trollar om och renderar 3drummet du rör dig i när du spelar till en 2dbild som du ser på din skärm. Att det är bättre på Physx är ju välkommet det med. Då kan man ju tappa färre fps samtidigt som man får bättre fysik.

Nu får vi bara hoppas på att kortet inte blir oöverkomligt dyrt, varmt eller stort. Då kommer jag få svårt att inte spara ihop till en stor summa pengar och köpa en ordentlig speldator igen, det var sisådär en 3 år sen sist...

Visa signatur

En potatis

Permalänk
Citat:

Ursprungligen inskrivet av Buio
Jag förstår inte vart du vill komma med detta? Tidigare sa du:

Menar du att alla måste göra kort på en viss prisnivå för att kunna sälja? Så det finns det inte billigare NVidia kort än det absoluta toppkortet? NVidia har inte klarat sig bra tidigare trots att deras toppkort i princip alltid varit dyrare än ATIs?

För att dra paralleller till CPU-världen så kostar Intels dyraste ungefär 10 000:- medans AMDs dyraste kostar 2 100:- (snabb koll på Komplett). Trots det så verkar Intel gå rätt bra.

Jag sa precis samma sak fast på två olika sätt. Skit i det. Tekniken som nvidias nya kort implementerar verkar vara ytterst komplicerad och dyr sådan. Detta kommer självklart att avspeglas på kortets pris.

Glöm för all del inte att Intel också har processorer för 2100, sen kan du ju fråga dig själv hur många som har Intel i7 975 (tror den heter så) för 10.000 kronor?

Om alla nvidias kort om någon mån bygger på det nya chipet (vilket är självklart) trots nerbantat sådant så kommer slutprodukten bli väldigt dyr - alltså det viktiga mellansegmentet -, Jag tror helt enkelt att ATI kommer sälja fler kort och göra större vinst.

EDIT:
Jag kom just till slutsatsen att mina argument kunde summeras i en kort mening:

Nvidias nya kort kommer bli PÅ TOK FÖR DYRT!

Visa signatur

i7 2600K | XFX 6970 | 8GB DDR3 1600mhz Vengeance| 1TB HDD | DVD-RW Dual Layer

Permalänk
Medlem

Jag tror att Nvidia kan ha något fantastiskt på gång. Men jag är tveksam till om de kan matcha ATIs prestanda/krona och om de lyckas är det bara att lyfta på hatten. Kul höst det här kommer att bli

Bara jag som hoppas att Hemlock och GT300 ska prestera lika bra? Då kan vi ju få ett sjukt bra priskrig.

Permalänk
Moderator
Testpilot

ATi och nVidia drar ju inte direkt åt samma håll.

I ärlighetens namn undrar jag vart det är nVidia vill komma? Vad finns det för program idag och inom en halvårs framtid som drar nytta av CUDA? Man kan köra C++ tydligen men jag är helt övertygad om att det måste specialskrivas etc. I'm confused.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av ulath666
Vad baserar du det på?

ATi har fått ut sina kort INNAN en av de bästa spelhösterna på väldigt länge med tillräcklig prestanda för att få många att allvarligt fundera på att byta från Nvidia till ATI.
ATI korten kommer gå åt som smör med de stora PC releaser som kommer de närmaste månaderna och Nvidia kommer knappast släppa och slåss med ATI förens kring/efter jul.
ATI har lyckats med:
Sweetspot för tiden för release (win 7, massor av nya spel)
Prestanda på ett singlekort som i flera fall är bättre än dubbla av den förra generationen
En prisbild som inte får folk att sätta saker i halsen
De går samtidigt ut hårt med en open source fysikmotor som fungerar på BÅDE geforce och Radeon kort samtidigt som Nvidia tvingar physx till harakiri genom att låsa en del av kundbasen.

Nvidia kommer lida av ATIs släpp, det går inte säga något annat, om de sedan återhämtar sig återstår att se, men företaget verkar mer och mer tappa visionen att jobba för gamers och istället jobba för den egna plånboken, något som i på längre sikt alltid leder till MINDRE i plånboken...

"geforce och Radeon kort samtidigt som Nvidia tvingar physx till harakiri genom att låsa en del av kundbasen"

Exakt,är man så korkad att man kickar många av sina physxanvändare bara för att dom har ett icke nvidiakort i sin dator så tror jag att många kommer att skita i nvidia ett tag framöver.Lär ju inte ge mina pengar till nvidia efter deras många fulspel(assassins creed,batman) och utpressning den sista tiden.
MvH albanen

Visa signatur

Fractal Design Refine R2 Asus Commando(1901) Q6600@3600mhz@Vattenkylning Corsair HX620W 4Gb 2x2 dominator 8500 Powercolor HD4870X2 Ikari Laser WD MyBook 500Gb@E-Sata 3dmark06@20436+/-
Win xp sp3/win 7 ultimate

Permalänk
Medlem

Angående strömförbrukning, värme och sånt;

Förra generationen:
HD 4870 - 55nm - 263 mm2 - 956 mil trans - TDP 157W
GTX 285 - 55nm - 470 mm2 - 1400 mil trans - TDP 183W

Här var det 17% högre TDP. Dock har NVidia GDDR3 i förra generationen vilket också förstås gör skillnad. Jag jämförde först med andra generationen G200 (dvs G200b) då första var gjord med 65nm och hade en gigantisk krets (576 mm2) och en TDP på 236W.

Nya generationen:
HD 5870 - 40nm - 334 mm2 - 2150 mil trans - TDP 188W
"GTX 385" - 40nm - 480mm2 (??) - 3000 mil trans - TDP (??)

Teoretiskt borde TDP-skillnaden vara lägre än förra generationen eftersom skillnaden i antal transistorer är något lägre procentmässigt. Skulle tro att den ligger på runt 210W, men det är en supervild gissning. Beror förstås på klockfrekvenser och sådant också.

Permalänk
Medlem

Nvidia fick mycket skit när de sa att fps inte är så viktigt längre. Jag håller med. Finns prisvärda kort, eller kombinationer av kort, som driver 1920x1200 jättebra redan innan ATI's och Nvidia's nya. ATI har ju gått mot eyefinity och andra finesser, Nvidia mot gpgpu. Vilket som är det rätta kan man diskutera tills man dör. Själv är jag bara nöjd att båda lagen kommer med singelkort som ser ut att kunna leverera riktigt bra i mänskliga upplösningar. Och så länge de gör det får det gärna komma annat godis på köpet. Personligen värderar jag spelprestanda först. Det kan jag få med både Nvidia och ATI. Därefter är det folding som är prioriterat. Så för mig verkar det som att valet blir enkelt. Som någon sa, alla ser inte hårdvaran som sin bäste vän. Man köper det som passar ens behov.

Och @ den som anmärkte att två 5870 förmodligen ändå foldar lika bra som ett nvidia-vad-de-nu-kommer-heta för samma pris. ATI foldar redan ungefär hälften så långsamt som nvidia (ett gtx260 klarar nästan dubbelt mot ett 4890). Så jag har svårt att tro att det förskjuts närmare ATI än nuvarande generation. Detta kommer att bli ett folding monster. Skiter väl jag i säger förmodligen 90 procent av alla här. Och jag skiter i eyefinity. Vi har olika behov, är det så svårt att repektera? Allvarligt?

Visa signatur

"What doesn't kill you makes you smaller" - Super Mario

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av teejee
Här är lite info om kortet, fokuserar en del på kostnaden för chippet.
http://www.jasoncross.org/2009/09/30/a-few-thoughts-on-nvidia...

Exakt vad jag tänkte på när jag läste specen om Fermi...

Tyvärr tror jag nVidia kommer begrava sig själv med så stora chip och features som vanliga gamers aldrig kommer behöva.

Visst ECC och C++ i all ära men hur många utav oss här programmer i C++ egentligen? Och även om man nu skriver program i C++ så kan man lika gärna göra det på sin AMD\Intel CPU hur bra som helst.

Visst, nVidia kommer ta bra betalt då företag/forskare/universitet har råd med (och behov av) specialanpassad mjukvara för parallella beräkningar, men jag är rädd för att vanliga gamers kommer i skymundan.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av A1200
Tyvärr tror jag nVidia kommer begrava sig själv med så stora chip och features som vanliga gamers aldrig kommer behöva.

Och hur många blockbuster-spel idag utvecklas först och främst för PC? De görs för konsoll, vilket innebär att grafiken inte kan ligga så högt att konsoller inte klarar av det även om en PC version förstås kan använda sig av textures med högre upplösning t.ex.

Till och med Cryengine 2 som fått grafikkort att gå på knäna har nu gjorts om för att fungera på konsoller i Cryengine 3.

Det NVidia försöker att göra är chip som kan göra annat än bara grafik. Om det lyckas får vi se.

Det intressanta är att dessa chip kommer sitta i framtida konsoller och då komma att utnyttja den extrema kapaciteten till precis vad utvecklaren vill. Egen rendreringsmotor? Fysik, AI, Pathfinding?

När spelbolagen får detta som grund för spel efter nästa konsollgeneration kommer vi få se spel som tar inlevelsen till nya höjder. (Jag skulle jobba på NVidias PR-byrå!)

Permalänk

Killen som håller i graffekortet ser biffig ut. Inte vad jag vänta mig.

Permalänk
Medlem

De är helt klart undvikande angående marknadsdatum. Vete katten om man håller ut utan grafikkort över julen.

Från [H]ardocp:

Citat:

NVIDIA GPU Conference Press Conference Followup
Now attending a press conference that is following up the keynote speech by Jensen Huang, CEO of NVIDIA, at the NVIDIA GPU Conference. Attending are Jensen Huang, Drew Henry - General Mgr GPU, and Tony Tomasi - Senior VP of Content and Technology.

Jensen is opening up stressing the importance of heterogeneous computing and that the GPU is a big part of that. GPU will be utilized far beyond just graphics, but graphics will still be a huge part of NVIDIA's GPU business. New tools have been developed that allow for heterogenous programming and debugging.

Jensen added, Silicon of Fermi is "in house" and "we are bringing it up." Time to market is likely "a few short months." Jensen is stating that Fermi is much more than a video card for gaming and that, "DX is just a feature and it is not enough. We need something big and new!" "We need Fermi to bring excitement and sex appeal back." I am not sure what exactly that means, but it sounded good.

On the topic of 5800 shipping and market competition, Jensen stated, "Nobody likes when the competition has a product. I don't like keeping our enthusiast waiting on our next generation processors. I would rather be shipping today, but we will ship when the product is ready to ship."

On the size of Fermi, Jensen stated, "It is only big right now, because it is the biggest chip ever built." "Power consumption will be the same as today's GPUs. It will fit into today's PCs and 1U servers."

Visa signatur

Bänktester är i värsta fall som foton utan blixt i ett mörkt rum. Väggarna blir svarta. Med fantastisk repeterbarhet.
Q9450@3,6, Asus P5E deluxe (x48), True Rev. C PP
Hd5870@1052/1331
Silverstone Fortess II, Corsair HX750