Aktieanalytiker nedgraderar Nvidia

Permalänk
Medlem
Skrivet av snozan:

Du missa helt va ja försökte säga så de känns som om ja får upprepa mej om och om igen. Du säger att ATI visst håller på å bygga nytt, vad bygger dom? jo från 40nm till 32 alt. 28nm. Känns som ATI gör väldigt lätt för sej, krymp chipytan å boosta frekvenserna istället för att lägga in andra användbara finesser. Du nämner eyefinity, uhm oki, sånt räcker tyvärr inte för mej. Om jag bortser från eyefinity kan jag lika gärna klocka ett kort ur 4xxxx serien från ATI å vips samma prestanda som ett ur 5xxxx serien. Visst de gamla korten har ju inte DirectX 11 men de har vi ju redan dömt ut som en onödig grej iochmed att tillgången på spel är kass.

Så vad skiljer ett HD 4890 med ett HD 5850 egentligen? Mer än bara eyefinity å 40nm?

Antal streamprocessorer (hd4890)800 vs (hd5850)1440, texture units (hd4890)40 vs (hd5850)80, beräktningskapaciteten (hd4890)1.35 TFFLOPS vs 2.09(hd5850), värmeutvecklingen (hd4890)190w vs (hd5850)151w, prestandan, ska vi fortsätta?

http://www.guru3d.com/article/radeon-hd-5850-review-crossfire...
http://www.guru3d.com/article/radeon-hd-4890-review-test/2

Frågan är väl snarare vad som skiljer mellan 8800gt, 9800gt, 9800gt+ och gts250? Eller har jag fel? Så kasta inte glas i sten hur genom att slänga ur dig massa dynga. Det är klart att man inte gör en ny arkitektur för varje ny generation. Fungerar nuvarande generation och går att optimera så varför inte?

Visa signatur

Spelriggen: Intel i5 10400F - GTX 1070 - 16GB DDR4 - ASUS TUF GAMING B460M-PLUS - 500 GB SDD - be quiet! 730W - Define Mini C

Permalänk
Medlem
Skrivet av snozan:

Du missa helt va ja försökte säga så de känns som om ja får upprepa mej om och om igen. Du säger att ATI visst håller på å bygga nytt, vad bygger dom? jo från 40nm till 32 alt. 28nm. Känns som ATI gör väldigt lätt för sej, krymp chipytan å boosta frekvenserna istället för att lägga in andra användbara finesser. Du nämner eyefinity, uhm oki, sånt räcker tyvärr inte för mej. Om jag bortser från eyefinity kan jag lika gärna klocka ett kort ur 4xxxx serien från ATI å vips samma prestanda som ett ur 5xxxx serien. Visst de gamla korten har ju inte DirectX 11 men de har vi ju redan dömt ut som en onödig grej iochmed att tillgången på spel är kass.

Så vad skiljer ett HD 4890 med ett HD 5850 egentligen? Mer än bara eyefinity å 40nm?

Northern Island är lika mycket som Fermi är en helt ny arkitektur. Det är inte bara en krympning i tillverkningsteknik.

Både AMD och Nvidia har med sina senaste serier inte bara krympt dem och tryckt in mer transistorer. De har utvecklat arkitekturen lite smått och gjort den bl.a. mer effektiv.

Visa signatur

Chassi: Corsair 650D | Processor: Intel Core i5 3570K | Moderkort: Gigabyte GA-Z68XP-UD3P | Minne: Corsair 16 GB | SSD: Corsair Force GT 128 GB | Lagring: 3,5 TB | Grafikkort: HIS HD7870 | Nätaggregat: Corsair AX750W | Tangentbord: Microsoft Sidewinder X4 | Mus: Mionix Naos 5000

Permalänk
Medlem
Skrivet av tannat:

Om du tror att HD5870 bara är en dubblad HD4870 med dx11 så vill jag gärna se vart du fått det ifrån.

Vad skiljer ett 4870 mot 5870 mer än eyefinity, 40nm å DirectX11?

Visa signatur

|| Intel Core i5 2500K || Corsair Cooling Hydro H60 || Asus Maximus IV Gene-Z || Asus GeForce GTX 570 DirectCU II || Corsair 8GB 1600Mhz VENGEANCE || Corsair HX 650W || Fractal Design Define Mini || 500GB WD Caviar Black || OCZ SSD Agility 3 60GB || Windows 7 Premium 64-bit [thread="1004219"][/thread]

ASUSMaximus IV GENE-Z Owners Club

Permalänk
Medlem
Skrivet av snozan:

Vad skiljer ett 4870 mot 5870 mer än eyefinity, 40nm å DirectX11?

Var det så svårt att läsa det jag postade högre upp eller ignorerar du svaret?

Visa signatur

Spelriggen: Intel i5 10400F - GTX 1070 - 16GB DDR4 - ASUS TUF GAMING B460M-PLUS - 500 GB SDD - be quiet! 730W - Define Mini C

Permalänk
Skrivet av Klimpen2:

Northern Island är lika mycket som Fermi är en helt ny arkitektur. Det är inte bara en krympning i tillverkningsteknik.

Frågan är vilken riktning Northern Island kommer gå. En vanlig GPU eller en GPGPU, som Fermi är.

Min gissning att nästa arkitektur från AMD inte kommer prioritera GPGPU applikationer. Denna tanke förstärks med att AMD lägger ingen kraft eller stor vilja på att utveckla (sin egen) GPGPU plattform och applikationer. Sedan att skapa en GPGPU som ska också vara riktad för den professionella och industriella marknaden kräver större arbete, mer tid och kapital för att fullfölja och fånga intresse från dessa marknadssfärer.

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk
Medlem
Skrivet av snozan:

Vad skiljer ett 4870 mot 5870 mer än eyefinity, 40nm å DirectX11?

Är det ditt bevis?
Det där är features, inte arkitektur, även om arkitektur har lagts till/ändrats för dem.

Jag minns att Dave Baumann sade att det gjorts ganska stora förändringar på låg nivå fastän den generella utformningen av arkitekturen är densamma. Han borde veta bättre än både du och jag.
Frågan är snarare vilka delar har Atis ingenjörer inte har varit och petat i?

Ibland kan små och många steg vara extremt effektivt. istället för få och stora.
Ett exempel är just utvecklingen av r870 och r770 generationerna från den katastrofala r600 och r670. Än så länge har det varit väldigt framgångsrikt. I synnerhet gällande utvecklingstakt gentemot konkurrenten.

Visa signatur

Bänktester är i värsta fall som foton utan blixt i ett mörkt rum. Väggarna blir svarta. Med fantastisk repeterbarhet.
Q9450@3,6, Asus P5E deluxe (x48), True Rev. C PP
Hd5870@1052/1331
Silverstone Fortess II, Corsair HX750

Permalänk
Medlem
Skrivet av DataNusse:

Frågan är vilken riktning Northern Island kommer gå. En vanlig GPU eller en GPGPU, som Fermi är.

Min gissning att nästa arkitektur från AMD inte kommer prioritera GPGPU applikationer. Denna tanke förstärks med att AMD lägger ingen kraft eller stor vilja på att utveckla (sin egen) GPGPU plattform och applikationer. Sedan att skapa en GPGPU som ska också vara riktad för den professionella och industriella marknaden kräver större arbete, mer tid och kapital för att fullfölja och fånga intresse från dessa marknadssfärer.

Arkitekturen av idag kan redan vara mycket väl lämpad för GPGPU applikationer. Vad gäller NI har vi ingen aning men redan idag har ati korten avsevärt bättre rå beräkningskapacitet än nvidias motsvarigheter. Vad gäller att skapa en egen GPGPU plattform som Cuda tror jag inte det ligger högt på ATis prioritetslista. Men nu talar vi inte arkitektur längre.

Visa signatur

Bänktester är i värsta fall som foton utan blixt i ett mörkt rum. Väggarna blir svarta. Med fantastisk repeterbarhet.
Q9450@3,6, Asus P5E deluxe (x48), True Rev. C PP
Hd5870@1052/1331
Silverstone Fortess II, Corsair HX750

Permalänk
Medlem

Faktum är att AMD(ATI) hade stöd för tessalation i HD2900, det var som jag förstått det ursprungligen tänkt att ingå redan i directx10 men av någon anledning valde Microsoft att ändra dx10 (*hint Nvidia hade inte något kort som stödde funktionerna i 10.1 - slut på konspirationsteori;)

Truform som ATI ursprungligen kallade sin hårdvarutessalation kom förövrigt redan i Radeon 8500.
http://en.wikipedia.org/wiki/TruForm

Snabb fråga snozan vilka speciella funktioner är det som inte AMD stödjer som Nvidia gör, kan inte på rak arm hitta på något annat än Physx/Cuda och det finns väl inget som gör att inte AMD skulle kunna köra samma sak på sin hårdvara (förutom då att det är Nvidias grejer).

Går rykten om en tapeout av Southern Island (AMD) för ett tag sedan, det skulle då givetvis röra sig en uppdatering på 40nm. Ryktena är dock lite osäkra så jag antar det är svårt att hitta vad som är rena gissningar och vad som stämmer.

Visa signatur

/havoc

Permalänk
Medlem
Skrivet av havoc:

Snabb fråga snozan vilka speciella funktioner är det som inte AMD stödjer som Nvidia gör, kan inte på rak arm hitta på något annat än Physx/Cuda och det finns väl inget som gör att inte AMD skulle kunna köra samma sak på sin hårdvara (förutom då att det är Nvidias grejer).

3D vision

Visa signatur

|| Intel Core i5 2500K || Corsair Cooling Hydro H60 || Asus Maximus IV Gene-Z || Asus GeForce GTX 570 DirectCU II || Corsair 8GB 1600Mhz VENGEANCE || Corsair HX 650W || Fractal Design Define Mini || 500GB WD Caviar Black || OCZ SSD Agility 3 60GB || Windows 7 Premium 64-bit [thread="1004219"][/thread]

ASUSMaximus IV GENE-Z Owners Club

Permalänk
Medlem
Skrivet av snozan:

3D vision

Finns sedan catalyst 10.3.

Visa signatur

Spelriggen: Intel i5 10400F - GTX 1070 - 16GB DDR4 - ASUS TUF GAMING B460M-PLUS - 500 GB SDD - be quiet! 730W - Define Mini C

Permalänk
Medlem

Det här var nästan väntat med tanke på de olika problem som Nvidia har haft på senare tid, att aktieanalytiker med dator- och teknikbranschen i grunden blir fundersamma över företagets verksamhet och om dess produkter som tas fram. Tar Nvidia händelsen händelsen på rätt sätt och gör något konstruktivt av det hela kan det bli ett incitament till att se över verksamheten med kommande produktutveckling ut till befintliga och nya kunder.... samt att inte förglömma att ha goda relationer till andra företag och kunder till sina produkter. Vi får se om hur Nvidia hanterar den uppkomna situationen framöver.

/Saint25

Permalänk
Medlem

Intressant att vissa (alltid samma) i tråden ska diskutera och jämföra arkitekturer hos grafikkort utan att förstå begreppet effektivitet, eller åtminstone förstå att en arkitektur aldrig är omodern så länge som den håller hög effektivitet och fortsätter att skala i samma riktning som tillverkningsprocessen som den tillverkas på. Desto mer intressant att tro sig kunna göra beslut i bestämd form på ett forum när man inte vet vad man pratar om.

Visa signatur

[ AMD 7800X3D // EK-Block @ custom loop, 2x420mm ][ MSI B650 Tomahawk ][ 32GB G.Skill Z5 Neo @ DDR6000 CL28 1T ][ AMD 7900XTX @ custom loop ][ Corsair 750D // Corsair RM1000X ][ 2TB Samsung 990PRO M.2 SSD ][ Win10 PRO x64 ][ LG 34GN850 ]

Permalänk
Skrivet av Hotfuzz08:

Antal streamprocessorer (hd4890)800 vs (hd5850)1440, texture units (hd4890)40 vs (hd5850)80, beräktningskapaciteten (hd4890)1.35 TFFLOPS vs 2.09(hd5850), värmeutvecklingen (hd4890)190w vs (hd5850)151w, prestandan, ska vi fortsätta?

http://www.guru3d.com/article/radeon-hd-5850-review-crossfire...
http://www.guru3d.com/article/radeon-hd-4890-review-test/2

Frågan är väl snarare vad som skiljer mellan 8800gt, 9800gt, 9800gt+ och gts250? Eller har jag fel? Så kasta inte glas i sten hur genom att slänga ur dig massa dynga. Det är klart att man inte gör en ny arkitektur för varje ny generation. Fungerar nuvarande generation och går att optimera så varför inte?

Ett mycket bra svar.

Kan man köra 8800gtx SLI med 9800gtx? (utan att det blir större prestandaförluster gentemot 8800x2?)
Förutom mitt 5870 så har jag en dator med ett 8800gtx, eftersom 8800gtx inte går att köpa nytt i affär ska jag då köpa ett 9800gtx och köra SLI med dem två?

Permalänk
Medlem
Skrivet av Hotfuzz08:

Inte direkt så att nvidia kommer gå i konken på grund av detta. Det är ett väldigt starkt ekonomiskt företag så de har nog råd med ett antal svackor innan de behöver höja på ögonbrynen.

Ja det har du helt rätt i, men Ati har däremot inte råd med så mycket svackor, det har man ju märkt. Tycker personligen att det är skit bra att Ati fått sålt riktigt bra på sin 50 serie och att det går lite sämre för Nvidia. Håller starkt på Ati

Permalänk
Medlem

nVidia hade bra gärna kunnat komma ut med ett riktigt monsterkort med fermi II. Grafikkorten går ju närmast upp i pris just nu.
Risken är väl dock att de fermi som har tillverkats snart är slutsålda och vi får vänta tills 2011 med uppföljaren.

Visa signatur

Bänktester är i värsta fall som foton utan blixt i ett mörkt rum. Väggarna blir svarta. Med fantastisk repeterbarhet.
Q9450@3,6, Asus P5E deluxe (x48), True Rev. C PP
Hd5870@1052/1331
Silverstone Fortess II, Corsair HX750

Permalänk
Skrivet av tannat:

Arkitekturen av idag kan redan vara mycket väl lämpad för GPGPU applikationer. Vad gäller NI har vi ingen aning men redan idag har ati korten avsevärt bättre rå beräkningskapacitet än nvidias motsvarigheter. Vad gäller att skapa en egen GPGPU plattform som Cuda tror jag inte det ligger högt på ATis prioritetslista. Men nu talar vi inte arkitektur längre.

AMD’s beräkningskapacitet är svår som bäst att uppnå och det under väldigt specifika förhållande. Sedan spelar inte någon beräkningskapacitet roll om man inte kan föra fram det genom ett väl fungerande, stöd plattform (mjukvara).

Man måste ha en lämpad GPGPU hårdvara och en väl fungerande och utarbetad mjukvara för att kunna erbjuda en intressant GPGPU lösning för en potentiell marknad/kund. nVIDIA har det, de har arbetad hårt med detta sedan 2007. AMD har goda potentiell med sin nuvarande hårdvara för GPGPU applikationer men dess mjukvara/plattform är bristande. Det skulle kräva mycket kapital, tid och kompetens för att AMD ska kunna göra en komplett och välfungerande plattform, hårdvara och mjukvara. Men som det ser ut så har AMD inga planer på att göra det.

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk
Medlem
Skrivet av DataNusse:

AMD’s beräkningskapacitet är svår som bäst att uppnå och det under väldigt specifika förhållande. Sedan spelar inte någon beräkningskapacitet roll om man inte kan föra fram det genom ett väl fungerande, stöd plattform (mjukvara).

Man måste ha en lämpad GPGPU hårdvara och en väl fungerande och utarbetad mjukvara för att kunna erbjuda en intressant GPGPU lösning för en potentiell marknad/kund. nVIDIA har det, de har arbetad hårt med detta sedan 2007. AMD har goda potentiell med sin nuvarande hårdvara för GPGPU applikationer men dess mjukvara/plattform är bristande. Det skulle kräva mycket kapital, tid och kompetens för att AMD ska kunna göra en komplett och välfungerande plattform, hårdvara och mjukvara. Men som det ser ut så har AMD inga planer på att göra det.

Är rädd att jag inte förstår vad du menar.
Hur menar du att Atis beräkningskapacitet är svår att uppnå?. Den är väl snarare väldigt direkt? Om du tänker på lösningen med 5 SPs per core så ger ju den vanligtvis minst 75% effektivitet utan någon som helst optimering vilket fortfarande ger mer flops än något annat chip på marknaden.

Det är möjligt att nVidia (om de har hårdvaran för det) kan skaffa sig lite försprång med en egen mjukvaruplattform under en tid fram tills att ett generiskt alternativ som open CL blir behändigare men nödvändigheten/behovet av en unik mjukvaruplattförm är för mig högst tveksamt. Det kan lika gärna vara att gå över ån efter vatten. Men jag kan självklart ha missat någon viktig parameter i den ekvationen.

Visa signatur

Bänktester är i värsta fall som foton utan blixt i ett mörkt rum. Väggarna blir svarta. Med fantastisk repeterbarhet.
Q9450@3,6, Asus P5E deluxe (x48), True Rev. C PP
Hd5870@1052/1331
Silverstone Fortess II, Corsair HX750

Permalänk
Skrivet av tannat:

Är rädd att jag inte förstår vad du menar.
Hur menar du att Atis beräkningskapacitet är svår att uppnå?. Den är väl snarare väldigt direkt? Om du tänker på lösningen med 5 SPs per core så ger ju den vanligtvis minst 75% effektivitet utan någon som helst optimering vilket fortfarande ger mer flops än något annat chip på marknaden.

Det är möjligt att nVidia (om de har hårdvaran för det) kan skaffa sig lite försprång med en egen mjukvaruplattform under en tid fram tills att ett generiskt alternativ som open CL blir behändigare men nödvändigheten/behovet av en unik mjukvaruplattförm är för mig högst tveksamt. Det kan lika gärna vara att gå över ån efter vatten. Men jag kan självklart ha missat någon viktig parameter i den ekvationen.

Just pågrund av den komplicerade arkitekturen så krävs det väldigt specifika förhållande för att dessa 5 SPs per core ska utnyttjas ordentligt. nVIDIAs arkitektur använde 1 SP per core viket medför att det behövs inga optimeringar eller specifika beräkningsförhållande för att utnyttja de helt ut.

nVIDIA har redan skaffat sig ett stort försprång med egen mjukvaruplattform. CUDA har expanderat kraftigt och medfört att deras GPU/GPGPU plattformen har expanderat till helt nya marknader där billig och effektiv beräkningskapacitet efterfrågas. Som vi har sett så har respons varit väldigt god från användare och industrin.

OpenCL är en bra lösning om man vill samföra olika OS (linux, OSx, Win) samt hårdvara (CPU,GPU) plattform men jag tror inte att det kommer ersätta CUDA, tyvärr. Inte som det ser ut nu när man kan använda CUDA SDK helt grattis och oavsett OS plattform.

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk
Medlem
Skrivet av DataNusse:

Just pågrund av den komplicerade arkitekturen så krävs det väldigt specifika förhållande för att dessa 5 SPs per core ska utnyttjas ordentligt. nVIDIAs arkitektur använde 1 SP per core viket medför att det behövs inga optimeringar eller specifika beräkningsförhållande för att utnyttja de helt ut.

Som jag redan skrev så stämmer inte detta. Utnyttjandet är väldigt högt även ooptimerat. Det är en gammal, väl beprövad lösning som i teorin, för extrema tillämpningar (läs icke existerande), kan bli ineffektiv. För verkliga arbetsbelastningar är den mycket mer arbets- plats- och energi- effektiv än användandet av 1 SP per core. Känt sedan åttiotalet men har bekräftats på ett utmärkt sätt av HD4xxx och HD5xxx serien.

Skrivet av DataNusse:

nVIDIA har redan skaffat sig ett stort försprång med egen mjukvaruplattform. CUDA har expanderat kraftigt och medfört att deras GPU/GPGPU plattformen har expanderat till helt nya marknader där billig och effektiv beräkningskapacitet efterfrågas. Som vi har sett så har respons varit väldigt god från användare och industrin.

OpenCL är en bra lösning om man vill samföra olika OS (linux, OSx, Win) samt hårdvara (CPU,GPU) plattform men jag tror inte att det kommer ersätta CUDA, tyvärr. Inte som det ser ut nu när man kan använda CUDA SDK helt grattis och oavsett OS plattform.

Vilka marknader dominerar CUDA i och hur stora är de? Det finns väl ännu inget direkt försprång för CUDA gentemot existerande mjukvaruplattformar? Snarare behöver väl CUDA fortfarande fästa sig in på redan existerande marknader? Att openCL skulle ersätta något som inte har någon större marknadspenetrering låter för mig som att gå händelserna lite i förväg.

CUDA skall iofs vara en grym mjukvaruplattform. Men det återstår att se hur etablerat det blir. Det beror på behov och mycket annat. Ett fortsatt hinder kan mycket väl den närmaste tiden bli att plattformen finns tillgänglig men inte ny hårdvara.

Visa signatur

Bänktester är i värsta fall som foton utan blixt i ett mörkt rum. Väggarna blir svarta. Med fantastisk repeterbarhet.
Q9450@3,6, Asus P5E deluxe (x48), True Rev. C PP
Hd5870@1052/1331
Silverstone Fortess II, Corsair HX750

Permalänk
Medlem

Verkar tyvärr som att även lösningar som directcompute kräver speciellt optimerad kod för att snurra på de olika hårdvaruplattformarna, benchmarkprogrammet Computemark 1.0 var i dess ursprungliga form utvecklat på AMD's Dx11 hårdvara och var därför betydligt snabbare på de korten är på Nvidias Dx11 kort.
Tom budget kort i 5xxx serien utklassade därför GTX480, Nvidia måste ha uppmärksammat detta och har därför bidragit med tekniker som har skrivit om delar av koden. Benchmarkprogrammet är nu betydligt snabbare på GTX480 men fortfarande långsammare än på ett 5870. Tilläggas skall att om man kör den av Nvidia optimerade varianten på ett 5xxx kort så sjunker prestandan med 30%.

Några citat från Robert Varga angående Computemark på Fermi.

"Changes made by Nvidia engineers are huge. When new version of CM will be out, you will be free to open HLSL files for ATI and NVIDIA and check some of the differences. Performance gain for GTX480 is great, but still under HD5870."

"They switched from 3d textures to 2d texture arrays, made changes in group sizes (yes that is what aviddays said) and more... It isnt like code for nvidia has to be different than the one for ati, but fermi needs optimizations to get good performance. Its strange, I dont like it very much - optimizations for that gpu, then new architecture is here lets optimize again. I do webpages for 10 years now, and this reminds me optimizations for browsers. Yes, its like that, and I hate that memories! So, I feel disapointed.

Btw after optimization for fermi, score on hd5870 went some 30% down."

Visa signatur

/havoc

Permalänk
Hjälpsam

Så ATI:s resultat sjönk med 30% efter Nvidias "optimering", dålig stil av skaparna till Computemark att släppa ut denna version, testet tappar all trovärdighet liksom teamet bakom det.

Kört mycket GPGPU via BIONC på senare, där ser man tydligt att fler Applikationer stödjer CUDA, men de som även stödjer ATI går mycket bättre på ATI-kort än de går på Nvidias, vad gäller dubbel precission utklassar ATI:s kort Nvidias.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

Det är inte riktigt så det är utan det finns nu som jag förstår det i praktiken två olika benchmarkprogram, ett Nvidia specifikt och ett AMD specifikt. Bägge gör samma sak men dock med delvis olika kod, det är inte en bra lösning men frågan är om det finns något annat sätt att få det rättvist.

Visa signatur

/havoc

Permalänk
Hjälpsam

Då missförstod jag.
Tycker att det är det mest rättvisa sättet, att göra det på, som det ser ut i dag.
Det går kanske att köra mer gemensam kod, när DirectCompute och kanske OpenCL mognat.

Stavfel
Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Skrivet av tannat:

Som jag redan skrev så stämmer inte detta. Utnyttjandet är väldigt högt även ooptimerat. Det är en gammal, väl beprövad lösning som i teorin, för extrema tillämpningar (läs icke existerande), kan bli ineffektiv. För verkliga arbetsbelastningar är den mycket mer arbets- plats- och energi- effektiv än användandet av 1 SP per core. Känt sedan åttiotalet men har bekräftats på ett utmärkt sätt av HD4xxx och HD5xxx serien.

Skulle utnyttjandet vara högt även ooptimerat för AMD’s nuvarande arkitektur så skulle dess prestanda i Folding inte vara så ineffektiv i gemförelse med nVIDIA’s.

Det har inte alls bekräftats med HD4xxx och HD5xxx serien, snarare motsatsen. Därmed bekräftar det mitt påstående. För att AMD's nuvarande arkitektur ska användas optimalt måste man gör kraftiga optimiseringar för dess arkitektur.

Citat:

Vilka marknader dominerar CUDA i och hur stora är de? Det finns väl ännu inget direkt försprång för CUDA gentemot existerande mjukvaruplattformar? Snarare behöver väl CUDA fortfarande fästa sig in på redan existerande marknader? Att openCL skulle ersätta något som inte har någon större marknadspenetrering låter för mig som att gå händelserna lite i förväg.

CUDA skall iofs vara en grym mjukvaruplattform. Men det återstår att se hur etablerat det blir. Det beror på behov och mycket annat. Ett fortsatt hinder kan mycket väl den närmaste tiden bli att plattformen finns tillgänglig men inte ny hårdvara.

Marknaden där beräkning behövs. Från forskning till konstruktionsindustrin. Dessa marknader är massiva och väldigt kapitalstarka. Beräknings system som Tesla har varit väldigt lönsamma för nVIDIA, samma gäller Quadro produkter. Det är just därför nVIDIA rikta in sig på GPGPU med GTX400 kretsen.

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk
Hjälpsam

ATI:s dåliga resultat i Folding har nog mer med Foldingprogrammet att göra, där har man skalat dåligt för nya ATI-kort.
Orsaken är kanske att man konsentrerat sig på OpenCL.
UPDATED: Folding@home: ATI Radeon HD 5870 is as slow as 4870! - Bright Side Of News*

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av DataNusse:

Skulle utnyttjandet vara högt även ooptimerat för AMD’s nuvarande arkitektur så skulle dess prestanda i Folding inte vara så ineffektiv i gemförelse med nVIDIA’s.

Rätta mig om jag har fel men foldingprogrammet är väl begränsat till att använda 320 shaderprocessorer, som det var i RV670? Hade det använt alla 1600 som i HD5870 så hade det inte gjort att 4 serien och 5 serien inte hade varit så usla på folding.

Skrivet av DataNusse:

Det har inte alls bekräftats med HD4xxx och HD5xxx serien, snarare motsatsen. Därmed bekräftar det mitt påstående. För att AMD's nuvarande arkitektur ska användas optimalt måste man gör kraftiga optimiseringar för dess arkitektur.

Hur har det bekräftats, genom att arkitekturen är bevisat nästan dubbelt så effektiv per per area och energimässigt som 1SP motsvarighetensom nVidia använder? Hur kommer det sig att HD4890 och HD5870 presterar liknande med 60% större chip från nVIdia om de är mer ineffektiva? Det du säger stämmer inte med hur korten presterar.

Skrivet av DataNusse:

För att AMD's nuvarande arkitektur ska användas optimalt måste man gör kraftiga optimiseringar för dess arkitektur.

Uppenbarligen utnyttjas den effektivt. Har du någon som helst grund för det här påståendet förutom från de lösa spekulationer som florerade vid släppet av HD4870?

Skrivet av DataNusse:

Marknaden där beräkning behövs. Från forskning till konstruktionsindustrin. Dessa marknader är massiva och väldigt kapitalstarka. Beräknings system som Tesla har varit väldigt lönsamma för nVIDIA, samma gäller Quadro produkter. Det är just därför nVIDIA rikta in sig på GPGPU med GTX400 kretsen.

Så du menar att Nvidia är marknadsdominerande generellt med CUDA här, eller är de fortfarande en mindre spelare?
Det är en sak att vara först till en marknad, en annan sak att slå sig in på en existerande. För nVidia kvittar det om det finns en extra spelare (som ATi) eller inte om marknaden redan exixsterar med flera andra konkurrenter.

Visa signatur

Bänktester är i värsta fall som foton utan blixt i ett mörkt rum. Väggarna blir svarta. Med fantastisk repeterbarhet.
Q9450@3,6, Asus P5E deluxe (x48), True Rev. C PP
Hd5870@1052/1331
Silverstone Fortess II, Corsair HX750

Permalänk
Hjälpsam

Även om Nvidia presterar bättre i Folding, gäller det omvända i BOINC, där ser Nvidia-ägarna avundsjukt på resultaten från ATI-korten.
Utveckligen har vänt snabbt där, för ett år sedan fanns inga ATI-clienter, nu dominerar dom.

Jag tror också att man måste se Fermi mer som ett beräkningskort (Tessla) än ett spelkort, då blir det mindre ologiskt, där håller jag med.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av Maattis:

"

Du skall heller inte glömma 5970, som går att få tag i för ca 700-1200 kronor mer än gtx 480 och presterar bätrre än gtx 480.

I USA är tongångarna något annorlunda eftersom priset på GTX 480 är mittemellan 5970 och 5870.
Det är i Sverige folk gnäller över priset.

Visa signatur

q9550@3,4Ghz, GTX275, 4GB DDR2 Corsair XMS2//HTPC AmdX2 4600+ passivt kyld med scythe ninja mini, Antec NSK 2480

Fractal design arc midi r2// core i7 4770k@ 4,4ghz :)
// corsair h100i // corsair hx 850m// asus maximus VI hero//
Corsair vengeance pro 2400mhz// intel ssd 335 180gb// gigabyte gtx 780 OC@1200mhz Core//win 8.1

Permalänk
Hjälpsam

Det folk "gnäller" om, är nog främst att kortet inte infriade sina skyhöga förväntingar, i höstas lät det som om Fermi skulle bli det bästa sedan Jesus, i stället får vi en ganska svag produkt, som de flesta av oss väljer att avstå i från.
För vissa passar Fermi trots allt och jag tänker absolut inte klandra någon som köper den, deras behov är andra mina är.
Det anlytikerna ogillar är, att Fermi inte uppfyllde vad Nvidia sade att det skulle göra och något betydligt värre, GTX400 genererar inte några pengar, korten tillverkas med förlust.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Avstängd

Bra svar.
Hehe var är snozan??
Han måste väl fantisera ihop något bra svar där?

Visa signatur

Asus Commando Q6600@3,6GHZ Coolermaster Gemini2 8GB Corsair Dominator Intel X25-V 40GB Samsung 250gb Gainward GTX295(på garantibyte) Win 7 Home Premium X64.......