Rätt och fel om Geforce Fermi

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av C4ampere
Men det är inte ens bekräftat att den kommer ligga strax under 300W.
Sanorlikheten att det skulle göra detta är närmare omöjligt, för att GTX 480 har inte två 8-pins strömförsörjning utan 8 + 6.

Mitt nuvarande graffe hd 5970 har 8+6 och med lite överklockning så kan det dra mer än 300W under full load. VRMs blir för varma om man överklockar det för mycket men det är bara att byta ut kylningen så är det fixat.

Hur som helst har du alltså fel. 8+6 räcker för att kunna komma över 300W och det är med andra ord en möjlig förklaring till ev. förändringar nvidia gjort för sitt 480 kort. Vi får dock se vid leverans eller så snart det kommer ut ett gäng reviews.

Jag hoppas nvidia lyckas sätta bra prestanda / pris i spel så vi konsumenter får se lite krig i konkurrensen.

Visa signatur

Intel Core i7 8700K, MSI GeForce GTX 1080 Ti 11GB Gaming X, Samsung 960 EVO 1TB, MSI Z370 GAMING M5, Corsair 32GB (4x8GB) DDR4 3200MHz CL16 Vengeance, EVGA Supernova G3 850W

INTEL CORE I7 3930K 3.20GHZ 12MB S-2011, FRACTAL DESIGN MIDITOWER DEFINE R3, CORSAIR HX 1050W, ASUS RAMPAGE IV FORMULA, Asus STRIX GTX970, CORSAIR 16GB DDR3 DOMINATOR QUAD 1866MHZ CL9 (4X4GB) Ljud: ASUS Xonar D2X/XDT 7.1 | Elac 5.1 +förstärkare | Cambridge dacmagic plus | Astro gaming A40 | Sennheiser HD 650
You ask me if I have a god complex? Let me tell you something, I am god!

Permalänk
Medlem

Okej, jag vet inte riktigt vad jag ska säga. Det känns som att alla tjatar om att den kommer konkurera ut 5870, men att jämföra den med 5970 är tydligen fel då den har färre gpu:er.

Ska vi sluta jämföra nVidia med ATi bara för att dom har olika specifikationer eller vad? I såna fall försår jag inte hur man kan jämföra alls. Det är väl vad det presterar i slutändan som är viktigt? Jag förstår om dom vill lämna utrymme i för ett kommande 480GX2 eller GTX495 eller så, men hur i hela friden ska dom får in två gpu:er om dom redan nu har tillverkningsproblem pga storleken?

High end jämförs väl ändå med _High end_?

Jag tror inte det blir någon dubbelmacka på fermi ännu, kanske en lite upphottad version, men jag tror Fermi 2 är närmare till hands.

Visa signatur

He who fights with monsters should look to it that he himself does not become a monster. And if you gaze long into an abyss, the abyss also gazes into you.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Deathdancer
Okej, jag vet inte riktigt vad jag ska säga. Det känns som att alla tjatar om att den kommer konkurera ut 5870, men att jämföra den med 5970 är tydligen fel då den har färre gpu:er.

Ska vi sluta jämföra nVidia med ATi bara för att dom har olika specifikationer eller vad? I såna fall försår jag inte hur man kan jämföra alls. Det är väl vad det presterar i slutändan som är viktigt? Jag förstår om dom vill lämna utrymme i för ett kommande 480GX2 eller GTX495 eller så, men hur i hela friden ska dom får in två gpu:er om dom redan nu har tillverkningsproblem pga storleken?

High end jämförs väl ändå med _High end_?

Jag tror inte det blir någon dubbelmacka på fermi ännu, kanske en lite upphottad version, men jag tror Fermi 2 är närmare till hands.

Jag håller med - grafikkort som grafikkort. Spelar ingen roll om det är 1,2 eller 45 GPUer - håller den sig inom samma prisklass, samma strömförbrukning och har liknande prestanda så spelar det inte ingen roll. HD5970, GTX295, HD4870x2, 9800GX2 och HD3870x2 var alla lyckade grafikkort iom att de tog sig till en ny nivå i jämförelse med singel-varianterna.

Vi kan ju ta och titta på vad nackdelarna med stora, enkelGPU om de ska vara på samma nivå:

Fortfarande hög effektförbrukning
Fortfarande högt pris
Samma prestanda (i bästa fall)

Antalet GPUer spelar inte så stor roll, de skalar ju i 9/10 spel som är nysläppta ändå. I värsta fall tar det någon månad, sen är det fixat med nya drivrutiner.

Visa signatur

i5 4670k 4.2Ghz 1.2v
AMD R9 290
Windows 10

Permalänk
Medlem

Håller delvis med. Jag tror att den största anledningen varför de inte drar över 300W gränsen är pga. efterfrågan från kunderna. Att skapa ett monsterkort som drar 600W är nog inga problem, dock är det mer status att kunna skapa monderkort som inte kräver lika mycket soppa. Människorna är mer miljömedvetna nu än för några år sedan och har större krav på tillverkarna. Helt ärligt, vem f*n skulle köpa ett nytt grafikkort nu som drar 300W idle även om man kan? Sen har du även ljudnivån, kort som drar mycket måste kylas på ett effektivt sätt. Se bara 5970, visserligen håller den PCI-E standard men ack så varmt kort.

Citat:

Ursprungligen inskrivet av A7V
PCI-x standardens 300 Watt är väl ingen magisk gräns som slår av datorn om mer förbrukas, speciellt som grafikkorten har en eller flera strömkontakter för den extra kraft som krävs. Om Nvidia eller ATI skulle utveckla ett 320 Watts grafikkort som var fyra gånger snabbar än alla konkurrenter till lägre pris så skulle de ju kränga det för allt vad tygen höll.

Den största anledningen till AMD/Nvidia håller sig under 300W är att så många användare har nätagg och lådor som inte skulle klara av ett sånt kort. Det skulle bli för många klagomål.
Kylning och ljudnivå är ju enklare att fixa om man håller sig under 300W.
Dessutom så imponerar det ju mer med ett 200 Watts kort om prestandan är densamma.

Det går ju alltid lägga förslag på en utökad PCIx 300+ standard om det skulle krävas.

Visa signatur

Save us from fate, save us from hate. Save ourselves before it's too late

Permalänk
Medlem

Angående 300W som är max för PCI-e så handlar det enbart om en sak. OEM-tillverkare. Är det utanför specen så är det utanför specen och då kommer dom inte kunna använda dom i sina maskiner då kraven från kunderna när nått rasar hamnar direkt på deras bord. Så vill du kunna levera till HP, Dell etc så måste man hålla sig inom specen sålänge du vill att dom skall kunna leverera maskiner med ens toppkort. Klarar man inte det så tappar man godwill gentemot kunderna och det är hos OEM-tillverkarna som dom stora pengarna finns.

Visa signatur

Du som inte behärskar när du skall använda de och dem så finns en mycket enkel lösning. Skriv dom så blir det inte fel.
Första egna datorn -> ZX Spectrum 48k '82.
Linux Mint, Asus B550-F, Ryzen 5600X, LPX 64GB 3600, GT730

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av A7V
PCI-x standardens 300 Watt är väl ingen magisk gräns som slår av datorn om mer förbrukas, speciellt som grafikkorten har en eller flera strömkontakter för den extra kraft som krävs. Om Nvidia eller ATI skulle utveckla ett 320 Watts grafikkort som var fyra gånger snabbar än alla konkurrenter till lägre pris så skulle de ju kränga det för allt vad tygen höll.

Tror nog de flesta systembyggare helst ser att de håller sig inom specifikationen för PCI-Express. Får de ens kalla det för ett PCI Express kort eller använda logon om de går utanför specen?

Undrar om de tänker öka det till PCI Express 3.0?

Permalänk
Medlem

Nej, går dom utanför specen så blir inte kortet godkänt, annars hade man ju inte behövt nått specifikation alls för bussen.

Visa signatur

Du som inte behärskar när du skall använda de och dem så finns en mycket enkel lösning. Skriv dom så blir det inte fel.
Första egna datorn -> ZX Spectrum 48k '82.
Linux Mint, Asus B550-F, Ryzen 5600X, LPX 64GB 3600, GT730

Permalänk
Medlem

Det tycks som vi fått ett svar, det är 480 kuda kärnor.

http://www.sweclockers.com/nyhet/10787-fullstandiga_specifika...

Visa signatur

Intel Core i7 8700K, MSI GeForce GTX 1080 Ti 11GB Gaming X, Samsung 960 EVO 1TB, MSI Z370 GAMING M5, Corsair 32GB (4x8GB) DDR4 3200MHz CL16 Vengeance, EVGA Supernova G3 850W

INTEL CORE I7 3930K 3.20GHZ 12MB S-2011, FRACTAL DESIGN MIDITOWER DEFINE R3, CORSAIR HX 1050W, ASUS RAMPAGE IV FORMULA, Asus STRIX GTX970, CORSAIR 16GB DDR3 DOMINATOR QUAD 1866MHZ CL9 (4X4GB) Ljud: ASUS Xonar D2X/XDT 7.1 | Elac 5.1 +förstärkare | Cambridge dacmagic plus | Astro gaming A40 | Sennheiser HD 650
You ask me if I have a god complex? Let me tell you something, I am god!

Permalänk

Andreas, du har skrivit lite fel här.

Citat:

"Geforce GTX 480 kommer att vara dyrare och långsammare än Radeon HD 5970"

De senaste prisuppgifterna från svenska distributörer anger att Geforce GTX 480 kommer att kosta cirka 5 100 kronor inklusive moms. Det är ungefär 700 kronor mindre än konkurrenten Radeon HD 5970. Hur det står till med prestandan avslöjas först på lanseringsdagen.

Visa signatur

CPU i9-9900K GPU ASUS RTX 2080 TI Strix OC MB ASUS STRIX Z390-E RAM Corsair VENGEANCE RGB 32GB DDR4 3200MHz Case Fractal Design Define C PSU EVGA G3 850W Cooling Noctua D15
Monitor MSI Optix MAG342CQR SSD Samsung 970 EVO 500GB 860 EVO 500GB 860 QVO 2TB + QVO 4TB PLEX Server 2x HC560 20TB+WD RED 2x10TB+12TB

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av lideri
Och du kör med ett separat nätagg på bara GPU:n du då eller? För GPU:n är ju det enda som ska matas med 12V i en dator.

Sen finns det 3,3V och 7V linor på ett nätag med, så kan du ha ett 600W nätagg som max kan lämna långt under 500W på 12V linorna. Där av 42A på 12V linorna tillägget.

Edit
Grattis C4ampere du kvalade just in på min blockadlistan med din sista post, om folk ska fortsätta vara så här charmiga kommer jag snart inte se hälften av inläggen i Fermi rellaterade trådarna ;).

Inte säker på va du menar? Specen för nätaget är ju för hela systemet inklusive allt annat som cpu, moderkort osv. Antar att det var vad du syftade på med. Dock är jag inte säker på vad du menar med att GPU:n ör det ända som drar på kräm från +12V railet.

Tror inget mobo sedan ATX 2.0 har använt +5V railet för processorn som förekom på ATX 1.x standarden innan 4 pins kontackten kom till. Då började man gå över till +12V railet för CPU:n med. Fins en del gammla pentium 4 moderkort som matar från både +5V och 12V railen och ännu äldre system, Pentium 3, Socket A med mera använde +5V nästan uteslutet.

Men i dag är det Uteslutet +12V railet för processorn, grafikkort. +5V är främst till för mindre krävande saker så som elektroniken på en Hårddisk tex.

Majoriteten av komponenterna förbrukar mäst effekt från +12V i dag.

Fins en uppsjö spännigar på ett nätag men +3.3,+5,+12,-12V med flera är dom vanligaste. 7V fins inte vad jag nånsin sett därimot kan du använda +5V och +12V för att få 7V ja. Men spännigarna är satta rellativt till nollan eller ground. Men 7V kan fås av +5V och +12V kombineras då relativa spännigskillnaden är 7V.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Ecchi-BANZAII!!!
Andreas, du har skrivit lite fel här.

Han menar nog att det övre är ryktet och under så förklarar han mer sanningen.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Ecchi-BANZAII!!!
Andreas, du har skrivit lite fel här.

Observera citattecknena

Visa signatur

Ryzen 5 5600X/Noctua NH-D15S/XFX Radeon RX6950XT/Gigabyte B550M Aorus Elite/32GB Kingston HyperX 3600MHz/1TB Corsair Force MP600/Corsair HX1000i/Corsair 4000D Airflow/Valve Index

Permalänk

Undrar hur 5870 står sig mot GTX 470? Köpte mitt för en månad sen.
Hade ju varit segt om det blev totalt utklassat...

Visa signatur

Ny burk: 7600x, X670E-plus, RTX3080, 32GB DDR5, 2 TB NVMe, 8TB 3.5"
Pensionerad burk: x5650@3.5 GHz, GTX 670, 12 GB DDR3

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av rallyreavan91
Undrar hur 5870 står sig mot GTX 470? Köpte mitt för en månad sen.
Hade ju varit segt om det blev totalt utklassat...

Vad jag TROR (observera extra väl TROR) så ska du nog inte oroa dig för den saken.

Tror över huvud taget inte Ferni kommer bli nån stor aha-upplevelse faktiskt. Jag känner mig faktiskt relativt besviken faktiskt, det skulle "släppts" för månader sedan och det skulle blir guds skänk från ovan. Nu blir det ett medelmåttakort som vilket som helst. Snacka kan de iaf. =/

Permalänk
Inaktiv

Ursäkta, men är det inte bättre att lägga krutet i diskussionen på kortet istället för att komma med kommentarer fyllda med sarkasm och fjanterier. Sandlådan nästa?

Permalänk
Citat:

Ursprungligen inskrivet av C4ampere
"Geforce GTX 480 kommer endast med 480 CUDA-kärnor aktiverade"

Hahahaha!!

Vilka stolpskott tror att en tillverkare medvetet går in i en GPU och förstör designen för att spara några Watt?

HAHAHAHAHA

Nej ni menar inte allvar va att ni går på detta? Snälla människor, tänk efter.
Vad är 300W?
Det är ingenting, och detsutom inte bekräftat att den skulle dra 300W.
Detsutom finns det bättre lösningar för att sänka energiförbrukningen än att stänga av Cuda Cores.

Och sedan känns det riktigt töntigt att man säger att det ska bli 480 Cuda cores, som om namnet skulle ha något med saken att göra.
När har NVIDIA någonsin använt ett relevant namnshema.

http://www.sweclockers.com/nyhet/10787-fullstandiga_specifika...

Citat från länken ovan:
"Enligt uppgifter som publicerats på tekniksajten VR-Zone landar Geforce GTX 480 på endast 480 CUDA-kärnor, ned från utlovade 512 stycken. Syskonet Geforce GTX 470 har ännu färre beräkningsenheter (448 st.)."

Om man ska uttrycka sin personliga gissning är det dumt att skratta personer med en annan gissning i ansiktet. Särskilt när de får rätt. Det kan skapa lite dålig stämning

Visa signatur

AZRock Z87 Extreme4 | i5 4670K | MSI GTX780 TwinFrozr | 8GB Corsair Vengance | Samsung 840 EVO 250GB | WD 3 TB | Corsair HX520 | HP LP3065 + 2x HP LP2065 (4960x1600) | Trulyergonomic keyboard (bruna) | Mionix Castor

Permalänk
Citat:

"Det är bara Nvidia som har fysik på grafikkortet"

PhysX är ett middleware som kan använda gränssnittet CUDA för att beräkna fysikeffekter på grafikkortet. Det är endast grafikkort från Nvidia som fungerar med systemet och AMD har ingen motsvarande produkt ute på marknaden. Med det sagt är det endast en handfull speltitlar som använder GPU-accelererad PhysX i dagsläget.

Påståendet är för hårdvara. Svaret är för mjukvara.

Både AMD och Nvidia har stöd för icke-grafikrelaterade beräkningar. Med hjälp av till exempel OpenCL så kan spelutvecklarna skapa en fysikmoter som fungerar för båda tillverkarna. Det behövs med andra ord inget speciellt gränssnitt (PhysX eller CUDA) för att utföra fysikberäkningar.

Ska man vara extra petig så verkar det som om AMDs implementation av OpenCL är bättre än Nvidias vilket gör att man skulle kunna dra slutsatsen att AMD har bättre stöd för fysikeffekter än Nvidia.

Permalänk
Medlem

Bra initiativ till artikel men ha i åtanke att denna artikeln bara är en förmedling av nVIDIAs officiella version av händelseförloppet, presenterat som fakta.

nVIDIA planerade att ha en ny generation till Windows 7 release. Det funkade inte så bra. Inte mer med det.

Faktum är att artikeln blir lite komisk i sin ursäktande ton mer än en gång:

Vad gör det för skillnad att förseningen berodde på "interna förseningar" och att det enda officiella releasedatumet är satt till 26/3. Det är bara hårklyverier och tomma ord. "interna förseningar" - till skillnad från vad?

OK att det är svårt att göra ett stort chip. Men det här:?

Citat:

Geforce Fermi är en extremt komplex krets som innehåller närmare 50 procent fler transistorer än AMD Cypress (Radeon HD 5870). Tillsammans med ny arkitektur och krympt tillverkningsteknik är det inte förvånande att arbetet kan dra ut på tiden.

Ni menar verkligen att nVIDIA kunde räkna med att chipet skulle bli problematiskt? - Varför gå direkt på produktion då?

nVIDIA har dessutom aldrig kört ett nytt stort chip på en ny nod direkt förut. De har ingen erfarenhet av problemen.

Varför inte köra en testrunda på mindre chip för 40 nm först för att reda ut de förväntade problemen.

Det finns massor av förarbete och hemläxa att göra för att undvika och försäkra sig om att att problem inte skall uppstå om man förväntar sig problem.

Den här artikeln är lite som Fermi. Bra tanke men problematiskt genomförande.

Visa signatur

Bänktester är i värsta fall som foton utan blixt i ett mörkt rum. Väggarna blir svarta. Med fantastisk repeterbarhet.
Q9450@3,6, Asus P5E deluxe (x48), True Rev. C PP
Hd5870@1052/1331
Silverstone Fortess II, Corsair HX750

Permalänk
Geeks
SweClockers
Citat:

Ursprungligen inskrivet av Korkskruv
Påståendet är för hårdvara. Svaret är för mjukvara.

Både AMD och Nvidia har stöd för icke-grafikrelaterade beräkningar. Med hjälp av till exempel OpenCL så kan spelutvecklarna skapa en fysikmoter som fungerar för båda tillverkarna. Det behövs med andra ord inget speciellt gränssnitt (PhysX eller CUDA) för att utföra fysikberäkningar.

Ska man vara extra petig så verkar det som om AMDs implementation av OpenCL är bättre än Nvidias vilket gör att man skulle kunna dra slutsatsen att AMD har bättre stöd för fysikeffekter än Nvidia.

Nu dribblar du med termerna. Det finns ingen fysikmotor motsvarande PhysX som använder AMD:s grafikkort i dagsläget, och det är det väsentliga i texten (tillsammans med att det inte heller finns särskilt många spel som drar nytta av GPU-fysik). Att det sedan är möjligt att implementera är självklart, därav AMD:s involvering i projekt som Bullet Physics.

Citat:

Ursprungligen inskrivet av tannat
Bra initiativ till artikel men ha i åtanke att denna artikeln bara är en förmedling av nVIDIAs officiella version av händelseförloppet, presenterat som fakta.

nVIDIA planerade att ha en ny generation till Windows 7 release. Det funkade inte så bra. Inte mer med det.

Faktum är att artikeln blir lite komisk i sin ursäktande ton mer än en gång:

Vad gör det för skillnad att förseningen berodde på "interna förseningar" och att det enda officiella releasedatumet är satt till 26/3. Det är bara hårklyverier och tomma ord. "interna förseningar" - till skillnad från vad?

OK att det är svårt att göra ett stort chip. Men det här:?

Ni menar verkligen att nVIDIA kunde räkna med att chipet skulle bli problematiskt? - Varför gå direkt på produktion då?

nVIDIA har dessutom aldrig kört ett nytt stort chip på en ny nod direkt förut. De har ingen erfarenhet av problemen.

Varför inte köra en testrunda på mindre chip för 40 nm först för att reda ut de förväntade problemen.

Det finns massor av förarbete och hemläxa att göra för att undvika och försäkra sig om att att problem inte skall uppstå om man förväntar sig problem.

Den här artikeln är lite som Fermi. Bra tanke men problematiskt genomförande.

Vill man missuppfatta en text kan man alltid göra det. Av alla möjliga tolkningar väljer du den sämsta möjliga, och det säger nog mer om dig än om vi på Swec.

Visa signatur

» Kontakta oss » SweClockers på Facebook » SweClockers på Youtube » Blips of SweClockers (Spotify)
» Pappa till Moderskeppet » SweClockers chefredaktör 2007–2015

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av C4ampere
"Geforce GTX 480 kommer endast med 480 CUDA-kärnor aktiverade"

Hahahaha!!

Vilka stolpskott tror att en tillverkare medvetet går in i en GPU och förstör designen för att spara några Watt?

HAHAHAHAHA

Nej ni menar inte allvar va att ni går på detta? Snälla människor, tänk efter.
Vad är 300W?
Det är ingenting, och detsutom inte bekräftat att den skulle dra 300W.
Detsutom finns det bättre lösningar för att sänka energiförbrukningen än att stänga av Cuda Cores.

Och sedan känns det riktigt töntigt att man säger att det ska bli 480 Cuda cores, som om namnet skulle ha något med saken att göra.
När har NVIDIA någonsin använt ett relevant namnshema.

HAHAHAAHAAA
http://www.sweclockers.com/nyhet/10787-fullstandiga_specifika...

CUDA-kärnor 480 st. 448 st.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Andreas D
Nu dribblar du med termerna. Det finns ingen fysikmotor motsvarande PhysX som använder AMD:s grafikkort i dagsläget, och det är det väsentliga i texten (tillsammans med att det inte heller finns särskilt många spel som drar nytta av GPU-fysik). Att det sedan är möjligt att implementera är självklart, därav AMD:s involvering i projekt som Bullet Physics.

Vill man missuppfatta en text kan man alltid göra det. Av alla möjliga tolkningar väljer du den sämsta möjliga, och det säger nog mer om dig än om vi på Swec.

Inte nödvändigt att bli defensiv. Jag menade inget illa. Den bästa källan ni kan använda är nVIDIA. Om ni har en bättre källa som vet mer än dem så är det ju bra men en sådan existerar väl inte?

Att det finns en del meningar utan verkligt innehåll i modererande/ursäktande ton i artikeln råder det väl inget tvivel om? Om detta är en misstolkning som bara jag ser ber jag självklart om ursäkt.

Jag tror dock inte jag har missuppfattat något och har verkligen ingen häst i loppet. Kritik ar ett tveeggat svärd och det är jag fullt medveten om.

Visa signatur

Bänktester är i värsta fall som foton utan blixt i ett mörkt rum. Väggarna blir svarta. Med fantastisk repeterbarhet.
Q9450@3,6, Asus P5E deluxe (x48), True Rev. C PP
Hd5870@1052/1331
Silverstone Fortess II, Corsair HX750

Permalänk
Permalänk
Medlem

För fan, kan inte alla förstå-sig-påare och tyckare bara hålla käft när ni ändå bara ska spy galla över den stackars redaktionen?

Här sitter folk och reder ut termer och ger förklaringar på det ena och det andra, sedan sitter ni gnälliga små eländen och letar småfel och hävdar att allt bara är nonsens. Som Andreas så fint uttryckte det här uppe, det säger mer om er själva.

Själv är jag tacksam över den info man får och att det sitter folk och lägger tid och energi på detta.

Nu blev språket lite hårdhänt, men det blev också mitt humör i takt med att man läste kommentarerna.

Permalänk
Medlem

Det är ryckten det är inte fackta. Blir fackta när det är bekräftat. Folk tar ryckten som det vore final det är problemet med folk generelt sett. Kan man inte sepparera ryckten från värkligheten så är det nåt fel.

Permalänk
Citat:

Ursprungligen inskrivet av Andreas D
Nu dribblar du med termerna. Det finns ingen fysikmotor motsvarande PhysX som använder AMD:s grafikkort i dagsläget, och det är det väsentliga i texten (tillsammans med att det inte heller finns särskilt många spel som drar nytta av GPU-fysik). Att det sedan är möjligt att implementera är självklart, därav AMD:s involvering i projekt som Bullet Physics.

Jovisst, men påståendet och svaret hör fortfarande inte ihop. Jag tycker att artikeln var smart tilltänkt men du får ursäkta mig att jag tycker att just den biten inte är korrekt eller hade kunnat formulerats på ett annorlunda eller bättre sätt.

Svaret på påståendet är strikt nej. Efter det är klargjort så hade ni kunnat forsätta med att förklara att det inte finns så många spel som för tillfället stödjer fysikberäkningar via grafikkortet . Slutligen så hade ni kunnat fortsätta med att förklara att det endast är ett fåtal titlar i dagsläget som stödjer Nvidia:s egna programmeringsgränssnitt, det vill säga PhysX och CUDA.

Permalänk
Medlem

Gött, förhoppningsvis så pressar top end -kort som detta ut lite varianter som är rimligare i pris och förbrukning så småningom... plus att det ger en chans för drivers att kamma till sig tills middle end kommer ut!!!

Och grabbar, när det gäller nätagg, i regel vill du inte köra exakt på gränsen för vad ett agg ska klara utan ha lite marginal. De åldras med tiden också så du kanske inte får ut exakt din specade effekt där det räknas.

(Nåja, jag har i alla fall aldrig lyckats göra ett så dåligt köp som Q-Tec för några år sen, har hanterat en del agg både hemma och i jobbet sen dess men inga har vart så sunkiga...)

PS. 480 småkärnor eller 512, det spelar mindre roll, dessutom så var den tidigare infon baserat på prototyp.

Färdig hårdvara hos ÅF = verkligheten.

Visa signatur

|[●▪▪●]| #Lekburk#: Ryzen 3700X >-< GB-X570-AE >-< 32GB DDR4 >-< MSI RTX 3070 >-< 970 EVO 1TB SSD>--
--< Arctic Freezer 34 >-< FD Define R4 >-< Seasonic F.+ 650W >-< Acer XF270HUA >-< AOC Q2778VQE >--
#Servering#: Ryzen 1700@3,6GHz >-< Prime X470 Pro >-< 16GB DDR4 >-< GTX 1030 >-< 970 EVO 500GB SSD >--
--< Stockkylare >-< Antec P182 >-< Silver Power 600W >-< Samsung 245T |[●▪▪●]|

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av AtreX
Jämför med Duke Nukem: Forever.. Det kommer "when it's done" Så länge de inte gett ngt officielltlanseringsdatum till konsumenter så är produkten per definition inte försenad, du kan tycka vad du vill men så är det. Sen är det naturligtvis j*vligt trist för nVidias del att det inte kom ut när de hade hoppats. Man måste skilja på vad ord faktiskt betyder och på vad som ibland "egentligen" är sant

Du vet väl att GEARBOX håller på med ett hemligt project och de är inblandade i att köpt rättigheter från 3DReals för runt två mille. Så förmodligen kommer Duke Nukem Forever ut snart i handeln på riktigt.

Visa signatur

Dator - Dell Alienware Oled AW3423DW, Phantek Enthoo Pro, Intel i7 8700K, Noctua NH-14, Asus TUF Z370-PRO, Samsung SSD 840 Pro 128GB, 32 GB DDR4, Gigabyte Geforce GTX 1080 Ti, 2st x 3 TB WD RED, Logitech MX518, Sennheiser Momentum, Qpad Pro MK80.

Permalänk
Medlem

Duke Nukem: Forever dör aldrig. Så det så.

Permalänk
Medlem

Duke's ande dör aldrig i alla fall!

Visa signatur

|[●▪▪●]| #Lekburk#: Ryzen 3700X >-< GB-X570-AE >-< 32GB DDR4 >-< MSI RTX 3070 >-< 970 EVO 1TB SSD>--
--< Arctic Freezer 34 >-< FD Define R4 >-< Seasonic F.+ 650W >-< Acer XF270HUA >-< AOC Q2778VQE >--
#Servering#: Ryzen 1700@3,6GHz >-< Prime X470 Pro >-< 16GB DDR4 >-< GTX 1030 >-< 970 EVO 500GB SSD >--
--< Stockkylare >-< Antec P182 >-< Silver Power 600W >-< Samsung 245T |[●▪▪●]|

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av hakan78
Du vet väl att GEARBOX håller på med ett hemligt project och de är inblandade i att köpt rättigheter från 3DReals för runt två mille. Så förmodligen kommer Duke Nukem Forever ut snart i handeln på riktigt.

Roligt skrivet. Hur kan projektet vara hemligt om du vet om det och hur ska vi vanliga dödliga här på forumet veta om det om projektet om det är hemligt?

Tycker dock att 2 miljoner låter lite litet ja, men om du har bra insyn i detta är det kanon, spelet tror ja kommer rocka när/om de släpps