Permalänk
Medlem

En text ang dx 11 korten.

Blev lite ledsen då jag precis köpt ny burk och återigen höll mig till Nvidias GPU gällande gfx kortet, nu är väl detta precis som allt annat spekulationer men för en glad amatör som mig så låter det som att Herr Charlie verkar ha alla hästar i stallet och hyfsad koll på vad han snackar om.

Någon som har direkt motstridiga åsikter till textförfattarens?

Gjorde en forumsökning på "Charlie Demerjian" innan jag postade detta och hittade inget inlägg som behandlade just denna nyhet, om det finns så lås gärna och länka till den tråden tack.

http://www.theinquirer.net/inquirer/news/1137331/a-look-nvidi...

"A look at the Nvidia GT300 architecture
Analysis Compromised by wrong vision
By Charlie Demerjian
Thursday, 14 May 2009, 01:55

THERE'S A LOT of fake news going around about the upcoming GPUish chip called the GT300. Let's clear some air on this Larrabee-lite architecture.

First of all, almost everything you have heard about the two upcoming DX11 architectures is wrong. There is a single source making up news, and second rate sites are parroting it left and right. The R870 news is laughably inaccurate, and the GT300 info is quite curious too. Either ATI figured out a way to break the laws of physics with memory speed and Nvidia managed to almost double its transistor density - do the math on purported numbers, they aren't even in the ballpark - or someone is blatantly making up numbers.

That said, lets get on with what we know, and delve into the architectures a bit. The GT300 is going to lose, badly, in the GPU game, and we will go over why and how.

First a little background science and math. There are three fabrication processes out there that ATI and Nvidia use, all from TSMC, 65nm, 55nm and 40nm. They are each a 'half step' from the next, and 65nm to 40nm is a full step. If you do the math, the shrink from 65nm to 55nm ((55 * 55) / (65 *65) ~= 0.72) saves you about 1/4 the area, that is, 55nm is 0.72 of the area of 65nm for the same transistor count. 55nm shrunk to 40nm gives you 0.53 of the area, and 65nm shrunk to 40nm gives you 0.38 of the area. We will be using these later.

Second is the time it takes to do things. We will use the best case scenarios, with a hot lot from TSMC taking a mere six weeks, and the time from wafers in to boards out of an AIB being 12 weeks. Top it off with test and debug times of two weeks for first silicon and one week for each subsequent spin. To simplify rough calculations, all months will be assumed to have 4 weeks.

Okay, ATI stated that it will have DX11 GPUs on sale when Windows 7 launches, purportedly October 23, 2009. Since this was done in a financial conference call, SEC rules applying, you can be pretty sure ATI is serious about this. Nvidia on the other hand basically dodged the question, hard, in its conference call the other day.

At least you should know why Nvidia picked the farcical date of October 15 for its partners. Why farcical? Lets go over the numbers once again.

According to sources in Satan Clara, GT300 has not taped out yet, as of last week. It is still set for June, which means best case, June 1st. Add six weeks for first silicon, two more for initial debug, and you are at eight weeks, minimum. That means the go or no-go decision might be made as early as August 1st. If everything goes perfectly, and there is no second spin required, you would have to add 90 days to that, meaning November 1st, before you could see any boards.

So, if all the stars align, and everything goes perfectly, Nvidia could hit Q4 of 2009. But that won't happen.

Why not? There is a concept called risk when doing chips, and the GT300 is a high risk part. GT300 is the first chip of a new architecture, or so Nvidia claims. It is also going to be the first GDDR5 part, and moreover, it will be Nvidia's first 'big' chip on the 40nm process.

Nvidia chipmaking of late has been laughably bad. GT200 was slated for November of 2007 and came out in May or so in 2008, two quarters late. We are still waiting for the derivative parts. The shrink, GT206/GT200b is technically a no-brainer, but instead of arriving in August of 2008, it trickled out in January, 2009. The shrink of that to 40nm, the GT212/GT200c was flat out canceled, Nvidia couldn't do it.

The next largest 40nm part, the GT214 also failed, and it was redone as the GT215. The next smallest parts, the GT216 and GT218, very small chips, are hugely delayed, perhaps to finally show up in late June. Nvidia can't make a chip that is one-quarter of the purported size of the GT300 on the TSMC 40nm process. That is, make it at all, period - making it profitably is, well, a humorous concept for now.

GT300 is also the first DX11 part from the green team, and it didn't even have DX10.1 parts. Between the new process, larger size, bleeding-edge memory technology, dysfunctional design teams, new feature sets and fab partners trashed at every opportunity, you could hardly imagine ways to have more risk in a new chip design than Nvidia has with the GT300.

If everything goes perfectly and Nvidia puts out a GT300 with zero bugs, or easy fix minor bugs, then it could be out in November. Given that there is only one GPU that we have heard of that hit this milestone, a derivative part, not a new architecture, it is almost assuredly not going to happen. No OEM is going to bet their Windows 7 launch vehicles on Nvidia's track record. They remember the 9400, GT200, and well, everything else.

If there is only one respin, you are into 2010. If there is a second respin, then you might have a hard time hitting Q1 of 2010. Of late, we can't think of any Nvidia product that hasn't had at least two respins, be they simple optical shrinks or big chips.

Conversely, the ATI R870 is a low risk part. ATI has a functional 40nm part on the market with the RV740/HD4770, and has had GDDR5 on cards since last June. Heck, it basically developed GDDR5. The RV740 - again, a part already on the market - is rumored to be notably larger than either the GT216 or 218, and more or less the same size as the GT215 that Nvidia can't seem to make.

DX11 is a much funnier story. The DX10 feature list was quite long when it was first proposed. ATI dutifully worked with Microsoft to get it implemented, and did so with the HD2900. Nvidia stomped around like a petulant child and refused to support most of those features, and Microsoft stupidly capitulated and removed large tracts of DX10 functionality.

This had several effects, the most notable being that the now castrated DX10 was a pretty sad API, barely moving anything forward. It also meant that ATI spent a lot of silicon area implementing things that would never be used. DX10.1 put some of those back, but not the big ones.

DX11 is basically what DX10 was meant to be with a few minor additions. That means ATI has had a mostly DX11 compliant part since the HD2900. The R870/HD5870 effectively will be the fourth generation DX11 GPU from the red team. Remember the tessellator? Been there, done that since 80nm parts.

This is not to say that is will be easy for either side, TSMC has basically come out and said that its 40nm process basically is horrid, an assertion backed up by everyone that uses it. That said, both the GT300 and R870 are designed for the process, so they are stuck with it. If yields can't be made economically viable, you will be in a situation of older 55nm parts going head to head for all of 2010. Given Nvidia's total lack of cost competitiveness on that node, it would be more a question of them surviving the year.

That brings us to the main point, what is GT300? If you recall Jen-Hsun's mocking jabs about Laughabee, you might find it ironic that GT300 is basically a Larrabee clone. Sadly though, it doesn't have the process tech, software support, or architecture behind it to make it work, but then again, this isn't the first time that Nvidia's grand prognostications have landed on its head.

The basic structure of GT300 is the same as Larrabee. Nvidia is going to use general purpose 'shaders' to do compute tasks, and the things that any sane company would put into dedicated hardware are going to be done in software. Basically DX11 will be shader code on top of a generic CPU-like structure. Just like Larrabee, but from the look of it, Larrabee got the underlying hardware right.

Before you jump up and down, and before all the Nvidiots start drooling, this is a massive problem for Nvidia. The chip was conceived at a time when Nvidia thought GPU compute was actually going to bring it some money, and it was an exit strategy for the company when GPUs went away.

It didn't happen that way, partially because of buggy hardware, partially because of over-promising and under-delivering, and then came the deathblows from Larrabee and Fusion. Nvidia's grand ambitions were stuffed into the dirt, and rightly so.

Nvidia Investor Relations tells people that between five to ten per cent of the GT200 die area is dedicated to GPU compute tasks. The GT300 goes way farther here, but let's be charitable and call it 10 per cent. This puts Nvidia at a 10 per cent areal disadvantage to ATI on the DX11 front, and that is before you talk about anything else. Out of the gate in second place.

On 55nm, the ATI RV790 basically ties the GT200b in performance, but does it in about 60 per cent of the area, and that means less than 60 per cent of the cost. Please note, we are not taking board costs into account, and if you look at yield too, things get very ugly for Nvidia. Suffice it to say that architecturally, GT200 is a dog, a fat, bloated dog.

Rather than go lean and mean for GT300, possibly with a multi-die strategy like ATI, Nvidia is going for bigger and less areally efficient. They are giving up GPU performance to chase a market that doesn't exist, but was a nice fantasy three years ago. Also, remember that part about ATI's DX10 being the vast majority of the current DX11? ATI is not going to have to bloat its die size to get to DX11, but Nvidia will be forced to, one way or another. Step 1) Collect Underpants. Step 2) ??? Step 3) Profit!

On the shrink from 55nm to 40nm, you about double your transistor count, but due to current leakage, doing so will hit a power wall. Let's assume that both sides can double their transistor counts and stay within their power budgets though, that is the best case for Nvidia.

If AMD doubles its transistor count, it could almost double performance. If it does, Nvidia will have to as well. But, because Nvidia has to add in all the DX11 features, or additional shaders to essentially dedicate to them, its chips' areal efficiency will likely go down. Meanwhile, ATI has those features already in place, and it will shrink its chip sizes to a quarter of what they were in the 2900, or half of what they were in the R770.

Nvidia will gain some area back when it goes to GDDR5. Then the open question will be how wide the memory interface will have to be to support a hugely inefficient GPGPU strategy. That code has to be loaded, stored and flushed, taking bandwidth and memory.

In the end, what you will end up with is ATI that can double performance if it choses to double shader count, while Nvidia can double shader count, but it will lose a lot of real world performance if it does.

In the R870, if you compare the time it takes to render 1 Million triangles from 250K using the tesselator, it will take a bit longer than running those same 1 Million triangles through without the tesselator. Tesselation takes no shader time, so other than latency and bandwidth, there is essentially zero cost. If ATI implemented things right, and remember, this is generation four of the technology, things should be almost transparent.

Contrast that with the GT300 approach. There is no dedicated tesselator, and if you use that DX11 feature, it will take large amounts of shader time, used inefficiently as is the case with general purpose hardware. You will then need the same shaders again to render the triangles. 250K to 1 Million triangles on the GT300 should be notably slower than straight 1 Million triangles.

The same should hold true for all DX11 features, ATI has dedicated hardware where applicable, Nvidia has general purpose shaders roped into doing things far less efficiently. When you turn on DX11 features, the GT300 will take a performance nosedive, the R870 won't.

Worse yet, when the derivatives come out, the proportion of shaders needed to run DX11 will go up for Nvidia, but the dedicated hardware won't change for ATI. It is currently selling parts on the low end of the market that have all the "almost DX11" features, and is doing so profitably. Nvidia will have a situation on its hands in the low end that will make the DX10 performance of the 8600 and 8400 class parts look like drag racers.

In the end, Nvidia architecturally did just about everything wrong with this part. It is chasing a market that doesn't exist, and skewing its parts away from their core purpose, graphics, to fulfill that pipe dream. Meanwhile, ATI will offer you an x86 hybrid Fusion part if that is what you want to do, and Intel will have Larrabee in the same time frame.

GT300 is basically Larrabee done wrong for the wrong reasons. Amusingly though, it misses both of the attempted targets. R870 should pummel it in DX10/DX11 performance, but if you buy a $400-600 GPU for ripping DVDs to your Ipod, Nvidia has a card for you. Maybe. Yield problems notwithstanding.

GT300 will be quarters late, and without a miracle, miss back to school, the Windows 7 launch, and Christmas. It won't come close to R870 in graphics performance, and it will cost much more to make. This is not an architecture that will dig Nvidia out of its hole, but instead will dig it deeper. It made a Laughabee. "

Visa signatur

eminemBNJA: Oh I like that Baby. I put on my robe and wizard hat.

Permalänk
Antielefant

Det var intressant läsning, men han kunde ha varit lite mer opartisk kanske - men det är Charlie, vad kan man förvänta sig av nån som fick sparken från The Inquirer för att ha rapporterat information han visste var felaktig och höll på att få tidningen stämd.

Oavsett den biten är artikeln ointressant då han inte har mer på fötterna än spekulationer han heller. Varken AMD eller NVidia har släppt specar än, vi får se.

Kommer ihåg liknande domedagsprofeter som dissade GTX-serien för att den saknade DX10.1 och för att de läckta specarna, som visade sig vara korrekta dessutom(!) skulle vara omöjliga att tillverka ekonomiskt - vilket visade sig vara mestadels skitsnack.

Charlie Demerjian var en av dem som skrev det också. Att han avskyr Intel, NVidia, Microsoft, Nokia, Samsung, Sony och andra bolag med marknadsledande position är rätt välkänt.

Han har också skrivit om hur "Windows 7 is just a continuation of a bad idea, just gone even more terribly wrong".

Visa signatur

i7-12700KF | 128 GB DDR4-4000 | RTX 4080 | Samsung 990 Pro | 3xAcer XB270HU G-Sync

Permalänk

Intressant.

Permalänk
Medlem

Längsta fan-boy inlägget i Swecs historia?

Som sagt, vi får väl se. I dagsläget gör ATI bra grafikkort. Det gör Nvidia också. Det kanske ser annorlunda ut om ett år, men det vet varken artikelförfattaren eller vi.

Visa signatur

"What doesn't kill you makes you smaller" - Super Mario

Permalänk
Medlem

Orkar inte ens läsa allt! För mig räcker det som vår käre Zcenicx skrev

Permalänk
Medlem

Jag ska iaf köpa GT300, blir det delayat så blir det det.

Visa signatur

GTX1070 - i7 4790 - 32GB RAM

Permalänk
Medlem

Får man fråga varför du är så ledsen r1cke ?

Visa signatur

"Maybe one day you will learn that your way, is not the only way"

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Zcenicx
Charlie Demerjian var en av dem som skrev det också. Att han avskyr Intel, NVidia, Microsoft, Nokia, Samsung, Sony och andra bolag med marknadsledande position är rätt välkänt.

Var väl han som snackade om hur dålig Radeon 4000 serien skulle bli jämfört med Nvidia med hur mycket sämre 256-bit gddr5 skulle vara i jämförelse med 512-bit gddr3.

Skulle ta mycket av vad han skriver med en nypa salt men om TSMC har han rätt.

Visa signatur

Sex kärnigt på modermodemet och ett gäng 680s i hårddisken

Permalänk

Jättegammal artikel. Och nej, Charlie har inte kritiserat 4000-serien. Han var däremot inte sen att säga att GTX200-serien skulle vara skit jämfört med R4000 vilket han hade rätt i (med utgångspriserna i förhållande till prestandan).

Visa signatur

System:
2500K - EVGA 780 SC

Permalänk
Antielefant

Direkt citat:

"And for the leaked specifications of the upcoming GT200 - they're a lie. 1.4 billion transistors. That's 1400 MILLION transistors! There is simply no frigging way NVidia could almost double the current transistor counts, increase the memory bus and PCI-E links available - all at the same time! Especially as they're not even going down to 55nm manufacturing!

I'm terribly sorry, but you're living in a pipe dream, people. This supposed upscale from the G92 is just too big and nigh impossible to actually manage without a dramatic shift down in manufacturing size."

Jo... och det stämde ju, eller? 1,4 miljarder transistorer är exakt vad som finns i en GT200, de gick från 16 till 24 PCIE-länkar, och 256 till 512bit minnesbuss. På 65nm-teknik dessutom.
En omöjlighet, enligt Charlie.

Det finns fler såna godbitar från honom, men det där var en jag sparat.

Och jag har då aldrig någonsin läst en AMD-kritisk artikel från Charlie... inte ens när Phenom Agena floppade kritiserade han AMD, vilket till och med jag som AMD-anhängare (som CPU iaf) reagerade över.

Visa signatur

i7-12700KF | 128 GB DDR4-4000 | RTX 4080 | Samsung 990 Pro | 3xAcer XB270HU G-Sync

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Zcenicx
[B] Direkt citat:

"And for the leaked specifications of the upcoming GT200 - they're a lie. 1.4 billion transistors. That's 1400 MILLION transistors! There is simply no frigging way NVidia could almost double the current transistor counts, increase the memory bus and PCI-E links available - all at the same time! Especially as they're not even going down to 55nm manufacturing!

I'm terribly sorry, but you're living in a pipe dream, people. This supposed upscale from the G92 is just too big and nigh impossible to actually manage without a dramatic shift down in manufacturing size."

Jo... och det stämde ju, eller? 1,4 miljarder transistorer är exakt vad som finns i en GT200, de gick från 16 till 24 PCIE-länkar, och 256 till 512bit minnesbuss. På 65nm-teknik dessutom.
En omöjlighet, enligt Charlie.

Det finns fler såna godbitar från honom, men det där var en jag sparat.

GTX serien är ju inte precis liten så delvis rätt hade han i det du citerade.

Visa signatur

Sex kärnigt på modermodemet och ett gäng 680s i hårddisken

Permalänk
Medlem

Sanningen är ju att allt om historian stämmer, AMD är vana, Nvidia är ovana. Sedan betyder det ju ingenting men det är något att gå på.

Visa signatur

Arch Linux - i5 12500@4.75GHz - Asrock B760M PG Riptide - 32GB DDR5 6000MHz - RTX 2070 Super - 1TB SN770 - 1TB SN550 - U32PWQU 4K
Dell Latitude 7400 2 in 1 - Arch Linux - i5 8265u

Permalänk
Antielefant

Nej, inte var det en liten GPU, det håller jag med om.

55nm-versionen är förstås betydligt mindre (470 vs 576 mm2), men hela poängen är att han kommenterade att det inte var möjligt att konstruera en sån krets i 65nm alls - och där hade han väldigt fel, inte sant?

Visa signatur

i7-12700KF | 128 GB DDR4-4000 | RTX 4080 | Samsung 990 Pro | 3xAcer XB270HU G-Sync

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Zcenicx
Nej, inte var det en liten GPU, det håller jag med om.

55nm-versionen är förstås betydligt mindre (470 vs 576 mm2), men hela poängen är att han kommenterade att det inte var möjligt att konstruera en sån krets i 65nm alls - och där hade han väldigt fel, inte sant?

Han har mycket fel på många saker.

Personligen tror jag Nvidia kommer leverera ett bra kort, tror dock inte den kommer ut tidigare än julhandeln med tanke på TSMCs problem med 40nm.
Exakt hur bra den kommer vara i jämförelse med dagens kort kan inte vara mer än spekulationer.

Visa signatur

Sex kärnigt på modermodemet och ett gäng 680s i hårddisken

Permalänk
Medlem

Gamla nyheter och spekulationer.

Den som lever får se.

Visa signatur

Bänktester är i värsta fall som foton utan blixt i ett mörkt rum. Väggarna blir svarta. Med fantastisk repeterbarhet.
Q9450@3,6, Asus P5E deluxe (x48), True Rev. C PP
Hd5870@1052/1331
Silverstone Fortess II, Corsair HX750

Permalänk
Medlem

Helt klart intressant läsning. Nvidia kommer ju få punga ut rejält för nästa generation, läste nånstans om att dom köper hela yields av 40nm medan ati bara köper fungerande kretsar. Vilket jag uppfattar som att ati kommer få ut en massa kort på marknaden och nvidia färre. Sen om det han skriver stämmer om att ati haft typ den tekniken sedan 2900 så har ju ati en stor fördel i dx11. Men allt märks väl, är själv sugen på ett 5870X2 när det väl kommer.

Visa signatur

PC1: Ryzen 7 2700X / Noctua NH-D15 / GTX 1080 / 16GB 3200MHz DDR4 / Win 10 / Asus Rog Strix X470-F / 500GB SSD / Define C
PC2: i7 7700k / Cryorig C7 / GTX 1060 6GB / 32GB 3200MHz DDR4 / Win 10 / Asus Strix Z270F / 500GB SSD / In-Win 904
PC3: i5 3570k / Be Quiet pure rock / GTX 960 / 8GB 1600MHz DDR3 / Win 10 / ASRock P67 Extreme4 / 80GB SSD / AeroCool Shard TG

Permalänk
Avstängd

Känns som att man ska detta med en nypa (Lastbils flak) med salt, han skriver ju inte en bra sak om nVidia men allt om AMD är ju klockrent enligt han, när AMD gjorde sin Första Phenom, som enligt mig och säkert många andra, vad böand det sämsta som gjorts, så skrev han fortfarande inget dåligt om det. men om nVidia gör något bra så är det bara skit enligt han...

Det måste ju vara världens största jävla FANBOY

MVH

Visa signatur

Gigabyte: EP45T-EXTREME, Intel: E7400, Kingston: HyperX 1600MHz, MSI: R4830 OC Edition... :P

[img]url=http://valid.canardpc.com/show_oc.php?id=654346][img]http://valid.canardpc.com/cache/banner/654346.png[/img][/url][/img]

Permalänk
Hjälpsam

Han har rätt ibland och fel ibland, the Inquirer ger oss skvaller och kvallificierade gissningar, dom lådsas heller inte ge oss något annat.
Man får ta det för vad det är och ta det med en nypa salt.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Antielefant
Citat:

Ursprungligen inskrivet av NukeHenk
Helt klart intressant läsning. Nvidia kommer ju få punga ut rejält för nästa generation, läste nånstans om att dom köper hela yields av 40nm medan ati bara köper fungerande kretsar. Vilket jag uppfattar som att ati kommer få ut en massa kort på marknaden och nvidia färre. Sen om det han skriver stämmer om att ati haft typ den tekniken sedan 2900 så har ju ati en stor fördel i dx11. Men allt märks väl, är själv sugen på ett 5870X2 när det väl kommer.

De har inte haft tesselators sen 2900-serien, nej. Det är helt ny teknik. Han blandar ihop det med tiled pixel rendering (som jobbar enligt tesselationsprincip), vilket de däremot har haft ett bra tag, och ligger till grund för Crossfireläget SuperTiling.

Det är lätt att blanda ihop, tills man förstår att "tesselation" på svenska betyder "mosaik".

SuperTiling är däremot inte Tesselation, även om det fungerar som en mosaik. Det hugger sönder varje frame i 32x32 pixlar stora fyrkanter som renderas var för sig, och sedan sätts alla dessa småbitar ihop till en färdig frame. Det låter som tesselation, men det är det inte.
I tesselation renderar du varje polygon i en frame för sig, kör den sen genom en eller flera shader pipes, och sen sätter du ihop slutframen från alla dessa polygoner. Det finns ingen begränsning på 32x32 pixlar, de kan vara större eller mindre, och du hugger aldrig sönder dem heller.

Sen finns Geometry Tesselation, men det har både NVidia och AMD stött sedan 8800-serien och HD 2900. Det ligger nämligen med som grundkrav i DirectX 10. Det kanske är det han tänker på? Men isf har NVidia haft det längre än AMD.

Tjejen kan säkert beskriva mer i detalj skillnaden mellan SuperTiling och DX11's Tesselation, men jag förvarnar att det antagligen krävs en hel del baskunskap i API-programmering för att förstå vad hon skriver om.

Det jag vet från hårdvarudelen är att Tesselation kan vara totalt revolutionerande för SLI och Crossfire, eftersom tekniken om den utnyttjas korrekt skulle kunna leda till att man inte längre behöver spegla minnet mellan grafikkorten. Varje enskild GPU skulle enbart arbeta med sina egna polygoner, istället för att båda arbetar med samma men växelvis.

SFR/Scissors minneshantering, men med AFR's skalning mellan korten. Optimalt kortutnyttjande.
Det är däremot ett långt tag kvar innan äkta tesselerade spel finns på marknaden, och ännu längre tills de är så optimerade.

Visa signatur

i7-12700KF | 128 GB DDR4-4000 | RTX 4080 | Samsung 990 Pro | 3xAcer XB270HU G-Sync

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Zcenicx
De har inte haft tesselators sen 2900-serien, nej. Det är helt ny teknik. Han blandar ihop det med tiled pixel rendering (som jobbar enligt tesselationsprincip), vilket de däremot har haft ett bra tag, och ligger till grund för Crossfireläget SuperTiling.

Konstigt, alla skriver att de har haft tesselation-enheter i sina kort.

Visa signatur

Arch Linux - i5 12500@4.75GHz - Asrock B760M PG Riptide - 32GB DDR5 6000MHz - RTX 2070 Super - 1TB SN770 - 1TB SN550 - U32PWQU 4K
Dell Latitude 7400 2 in 1 - Arch Linux - i5 8265u

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Orici
Får man fråga varför du är så ledsen r1cke ?

Haha, sure, ledsen var väl att ta i, men vill inte behöva byta MB igen nu när jag precis köpt nytt om Nvidias DX11 kort skulle floppa (sli/crossfire).

Visa signatur

eminemBNJA: Oh I like that Baby. I put on my robe and wizard hat.

Permalänk
Antielefant
Citat:

Ursprungligen inskrivet av Fire_Ice
Konstigt, alla skriver att de har haft tesselation-enheter i sina kort.

Det har de, men skillnaden är att det är olika sorters tesselation. Som jag skrev ovan, tesselation betyder mosaikrendering, alltså att man renderar en polygon i taget. Skillnaden är hur du gör det och hur APIn ser ut.

Hursomhaver, DX11's Tesselation är inte kompatibel med den som nuvarande Radeonkort använder.

Detsamma gäller faktiskt NVidia, men de kallar inte sina enheter för Tesselators, de kallar dem för Geometry Shaders. Har funnits på Geforcekorten sedan G80 kom.

"Typical uses of the NVidia geometry shader include point sprite generation, geometry mapping, tessellation, shadow volume extrusion, and single pass rendering to a cube map."

Geometry Tesselation är nämligen en av basfunktionerna i DirectX 10's HLSL/SM 4.0 - och NVidia var först att stöda det. Så att NVidia inte har tesselationstöd i sin GPU är ytterligare mer skitsnack från Charlie's sida.

Skillnaden är väl kanske att NVidias Geometry Shaders kan nyttjas som vanliga pixel/vertex shaders också, medan AMD's tesselators enbart kan användas som just tesselators.

Visa signatur

i7-12700KF | 128 GB DDR4-4000 | RTX 4080 | Samsung 990 Pro | 3xAcer XB270HU G-Sync

Permalänk
Medlem

"Hursomhaver, DX11's Tesselation är inte kompatibel med den som nuvarande Radeonkort använder. "

Jepp det vet jag, men det ger ändå en fördel till AMD. Jag reagerade på detta:
"De har inte haft tesselators sen 2900-serien"

Nu skriver du:
FI"Konstigt, alla skriver att de har haft tesselation-enheter i sina kort. "
ZC"Det har de"

Think you get the point Hursomhelst så är det ändå en fördel att de har haft tesselation (oavsett form). Eller?

Visa signatur

Arch Linux - i5 12500@4.75GHz - Asrock B760M PG Riptide - 32GB DDR5 6000MHz - RTX 2070 Super - 1TB SN770 - 1TB SN550 - U32PWQU 4K
Dell Latitude 7400 2 in 1 - Arch Linux - i5 8265u

Permalänk
Antielefant

Det jag försökte få fram (formulerade mig lite olika i de två posterna) är att;

Ja - tesselation är inget nytt, NVidia har haft det sedan 8800-serien kom, Radeon sedan 2900-serien. Det ligger med som krav i DX10.

Nej - ingendera har fullt ut den sorts tesselation som kommer i DX11. Dagens tesselation är en avancerad form av texturbumpmappning, i både NVidia's och AMD's fall.

Grejen jag försöker få fram är att bara för att man säger tesselation innebär det inte att vi pratar samma teknik. Dagens geometry tesselation och framtidens object tesselation är båda tesselation, men inte samma sak för det.
Det är som skillnaden mellan Pixel Shaders och Vertex Shaders, de fungerar på ungefär samma sätt, men det är två helt olika tekniker.

Däremot får vi se hur väl dagens kort klarar av att hantera DX11-tesselation. De borde ha om än ett begränsat sådant så stöd för de flesta delarna av API'n.
Det är hugget som stucket vilken av deras tekniker för tesselation som egentligen fungerar bäst idag, eftersom ens DX10's geometriska tesselation utnyttjas minimalt.
Tekniskt sett är skillnaden att Radeonkorten på pappret är bättre på just bumpingen, med högre mängd beräkningar per textur, medan Geforcekorten gör en OK bumpning men passar på att köra shading på den samtidigt.

På pappret får du alltså en möjligt mer realistisk yta med Radeonkortet, men NVidiakortet ger dig ett möjligt snyggare resultat. Om de utnyttjas fullt ut, vill säga.

Visa signatur

i7-12700KF | 128 GB DDR4-4000 | RTX 4080 | Samsung 990 Pro | 3xAcer XB270HU G-Sync

Permalänk

Zcenicx:

Det du skriver är kanske i mångt och mycket sant. Enda problemet är ju att AMD/ATI har gjort reklam för tesselation som om det vore en grej de hade för sig själva. Hade Nvidia också haft tesselation tror jag vi hade fått höra det både högt och lågt. AMD har dessutom även demonstrerat tekniken (även långt innan DX11) vilket gör det ganska rimligt att tro att detta är en teknik som är dels något de är ensamma om, och dels något som är en feature som inte används och behöver förklaras/promotas.

Visa signatur

System:
2500K - EVGA 780 SC

Permalänk
Antielefant

Läs specen för DX10, och förundras över hur konstigt det vore att NVidia stöder det fullt ut om de helt saknar Tesselation, då det är precis vad Geometry Shaders är till för.

Grejen med AMD's tesselisering är att till skillnad från NVidias Unified Shaders kan inte deras Tesselators göra annat än tesselisering, så de har rätt mycket extra kräm deras kort skulle kunna ge om speltillverkarna utnyttjade Tesselator-APIn bättre.
Ungefär som NVidia pushar för PhysX, vilket ger deras kort en rejäl skjuts framåt. Samtidigt kämpar båda emot den andra, eftersom tesseliseringen fungerar, men inte jättebra då det tar av de tillgängliga shader cores som finns på NVidiakorten, precis som PhysX är bortkastad tid för Radeon.

Sen har de dessutom bråkat om hur tesselisering skulle fungera.
DX10 innehöll inte fullt tesseliseringsstöd eftersom AMD, NVidia och MS inte kunde komma överens om hur APIn skulle fungera. AMD ville ha den som en dedikerad separat funktion, NVidia ville ha den som en del av Shader Pipelinen, och MS ville ha den mer processorbaserad då det annars skulle bli helt låst till AMD/NVidia.
Det är också i de tre inriktningarna de tre bolagen drivit Tesselisering sedan dess - NVidia som en USP, AMD som en dedikerad funktion, och MS med mjukvaruemulering via CPU.

Nu blir det en kombination av dem, där de dels använder dedikerade tesselatorer, men som en del av Shader pipelinen, och med GPGPU-beräkningar. Varken AMD's eller NVidias teknik exakt alltså utan en kombination av de båda.

Det som blir intressant att se är att NVidia påstår (presenterade det tom på GDC 2008) att de ska kunna simulera full tesselering på det sättet via CUDA och DX10's API, vilket skulle kunna göra att dagens grafikkort kan få ett begränsat stöd för DX11 även där. AMD å sin sida hävdar att de kan utnyttja stora delar av APIn på befintlig hårdvara och genom OpenCL.

Visa signatur

i7-12700KF | 128 GB DDR4-4000 | RTX 4080 | Samsung 990 Pro | 3xAcer XB270HU G-Sync

Permalänk
Medlem

Jag trodde att radeon kortens tesselering är rent hårdvarubaserad och därför inte rent kompatibel med dx11 lösningen utan vissa hårdvaruruförändringar. (Vilket är lätt att göra med vissa förändringar i kommande kort)

Däremot är Nvidias version mer mjukvarubaserad och tar därför tid jämfört med Radeons men är mer flexibel. Fortfarande inte DX11 kompatibel.

Att det finns ett missförstånd på kring vad tesselering innebär verkar vara taget ur luften. Att det svenska ordet mosaik har tillfört förvirring låter otänkbart.

Det verkar som att Zcenixc närmar sig den här versionen i sin senaste post. Det verkar däremot inte alls vara där storyn startade.

Förenkla konstruktivt är ett bra tips.

Visa signatur

Bänktester är i värsta fall som foton utan blixt i ett mörkt rum. Väggarna blir svarta. Med fantastisk repeterbarhet.
Q9450@3,6, Asus P5E deluxe (x48), True Rev. C PP
Hd5870@1052/1331
Silverstone Fortess II, Corsair HX750

Permalänk
Medlem

Tja det vore inte fel med en recention som framhäver kvalitet hos en tillverkare och gör lite smygreklam också kanske, men utan att nedlåtande och hätsk racka ner på konkurenten.... kanske HAR idioten rätt men jag litar inte på en människa som inte kan låta bli att smutskasta hit och dit, för mig betyder en sån artikel verkligen noll... den får mig bara att undra hur seriöst inriktatad en redaktion som har honom anställd är.... om han är så säker på sin matematik så betyder väl inte det att inte ati och nvidia inte kan ha utvecklat något som ställer den gamla matematiken lite på sidan... eller ? jag menar att vi kan inget säga säkert om varken det ena eller andra innan någon av oss sitter fysiskt med ett exemplar av hårdvara som är ämnat för marknaden.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Zcenicx
Tekniskt sett är skillnaden att Radeonkorten på pappret är bättre på just bumpingen, med högre mängd beräkningar per textur, medan Geforcekorten gör en OK bumpning men passar på att köra shading på den samtidigt.

Kanske därför AMDs streamprocessorer klarar av fler beräkningar än Nvidias och just därför Nvidia har så många fler.

Citat:

Ursprungligen inskrivet av svenska Charlie
På pappret får du alltså en möjligt mer realistisk yta med Radeonkortet, men NVidiakortet ger dig ett möjligt snyggare resultat. Om de utnyttjas fullt ut, vill säga.

Spekulationer helt utan grund.

Citat:

Ursprungligen inskrivet av Zcenicx

Ungefär som NVidia pushar för PhysX, vilket ger deras kort en rejäl skjuts framåt. Samtidigt kämpar båda emot den andra, eftersom tesseliseringen fungerar, men inte jättebra då det tar av de tillgängliga shader cores som finns på NVidiakorten, precis som PhysX är bortkastad tid för Radeon.

Havoc ger mycket bättre fysik än Physx så när det blir mer eller mindre tillgängligt för både Radeon och Nvidia kommer dom nog släppa taget om Physx, om dom nu inte försöker hålla kvar det i ett eller två år efter spelbranchen valt Havoc.
Med stora företag som Valve och UBIsoft som nyttjat Havoc i sourcemotorn kan vi vara rätt säkra på dess framtid, redan innan GPGPU.

Visa signatur

Sex kärnigt på modermodemet och ett gäng 680s i hårddisken

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Pimpim666
Kanske därför AMDs streamprocessorer klarar av fler beräkningar än Nvidias och just därför Nvidia har så många fler.

Kollar man t ex 4890 så har ju det 800 streamprocessorer, medan GTX280 har 240. Då är det väl snarare tvärt om jämfört med det du skrev.

Visa signatur

GTX1070 - i7 4790 - 32GB RAM