Fortsatta tillverkningsproblem för TSMC

Permalänk
Avstängd

Så fermi var skräp som jag skrivit... hehe, nu ska jag putsa min spåkula

Visa signatur

ATI TALIBAN.
Är inte någon expert, men jag har inte akne heller.
NEVER UNDERESTIMATE THE POWER OF STUPID PEOPLE IN LARGE GROUPS.. "Betala i förskott på blocket?" tråden.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Lunden
Fick troligtvis bättre avtal av TMSC, både AMD och Nvidia har använt TMSC och jag tror TMSC vill att det ska fortstätta vara så. Att tappa AMD som kund skulle vara ödesdigert, således erbjuder de väldigt bra avtal för AMD.¨

SKulle jag tippa på.

Men AMD är ju delägare i GlobalFoundries, dom bör ju kunna få bättre avtal där.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Silverknife
Men AMD är ju delägare i GlobalFoundries, dom bör ju kunna få bättre avtal där.

GF har som redan påpekats fullt upp med att tillverka CPUer, dom har inte möjlighet att tillverka GPUer till ett bättre pris än TSMC med tanke på det.

Sen handlar det också om vilka typer av processer som GlobalFoundries har tillgång till, om jag inte har fel så är majoriteten av deras moderna produktion SOI, silicon-on-insulator, vilket inte är det som används vid tillverkning av dess GPUer.
Det skulle kunna vara det, men då skulle det bli mycket dyrare, och återigen, då erbjuder TSMC ett mycket bättre pris.

Jag är inte direkt insatt och vet inte vad jag snackar om, men det finns många anledningar till varför Global Foundries inte är bättre lämpade än TSMC, trots problemen det skrivs om i den här artikeln.

Något jag iofs tror kommer förändras inom en snar framtid.

Permalänk
Citat:

Ursprungligen inskrivet av TurboMecca
Hoppas att Fermi levererar när det väl lanseras, AMD/Ati börjar bli så stora att Nvidia framstår som "endast" en grafikkortstillverkare i jämförelse (ingen chipsettillverkning eller andra större projekt att tala om etc). Risken fins ju att "någon" slukar Nvidia helt och hållet om Fermi floppar, vilket inte skulle leda till något gott för oss konsumenter

Sedan har jag alltid haft ett gott öga till Nvidia då de alltid legat i framkant och drivit fram nya lösningar och ny teknik. Ati har hela tiden legat i kölvattnet och endast siktat på ren prestanda och där har de klått Nvidia vid olika tilfällen (men långt ifrån alltid).

/TM

Jag tror du har blandat ihop de två företagen med varandra.
Amd var först med DX 10.1, 40 nm, GDDR5, tessilation, DX 11, Eyefinity, Displayport, fler än två grafikkort (Crossfire X) bland annat.

Visa signatur

|| Gigabyte GA-MA790X-UD3P || AMD Phenom II X4 955 @ 3,8 GHz || 2*2 GB Kingston HyperX PC8500 || Asus Radeon HD 5850|| Zalman ZM600-HP600W || Windows 7 64-bit ||

Permalänk
Citat:

Ursprungligen inskrivet av minibite3
Jag tror du har blandat ihop de två företagen med varandra.
Amd var först med DX 10.1, 40 nm, GDDR5, tessilation, DX 11, Eyefinity, Displayport, fler än två grafikkort (Crossfire X) bland annat.

Min uppfattning baserar jag i ett tidsperspektiv som sträcker sig före DX10-korten. På den senaste tiden (börjar iofs bli ganska länge nu) har inte Nvidia levererat särskilt, men om man backar tillbaka och tittar på äldre GeForce-serier (6,7 & 8) så har jag fått intrycket att Nvidia varit drivande i många lägen. Både vad gäller teknik, men även ren prestanda. Då var kampen lite jämnare mellan Ati & Nvidia, den senaste tiden verkar Nvidia mest krampaktigt hålla sig kvar.

2good4you
Sedan om man pratar om dualGPU, vilket jag antar är motsatsen till monolitiska konstruktioner syftar på, så hänger det vad jag förstått väldigt mycket på drivrutiner.
Drivrutiner som fortfarande dras med stora problem att leverera 2x prestanda eller ens i närheten i många applikationer/titlar. "Vem som helst" kan klappa ihop två GPU:er på ett och samma kort (vilket bevisligen tycks vara fallet med Ati:s 5970) och det är inget som jag ser som någon större teknisk prestation.
Det är mycket möjligt att dessa lösningar blir alltmer effektiva vartefter programmerare lär sig optimera för SLI/Crossfire, men fram tills att man ser konsistenta resultat som stadigt ligger nära (antal GPU x prestanda) så känns det mer som att elda för kråkorna

Visa signatur

Lenovo Thinkpad T400: Intel® Core™ 2 Duo Processor P8600 (2.40Ghz, 3MB, 1066MHz), 4GB 1066 MHz DDR3, 256 MB ATI® Radeon™ HD 3470/Intel GMA 4500MHD, 80 GB Intel G2 SSD, 320 GB HDD, Intel WiFi Link 5300/WWAN, 14,1-tums LED WXGA+ (1 440 x 900)

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av TurboMecca
Min uppfattning baserar jag i ett tidsperspektiv som sträcker sig före DX10-korten. På den senaste tiden (börjar iofs bli ganska länge nu) har inte Nvidia levererat särskilt, men om man backar tillbaka och tittar på äldre GeForce-serier (6,7 & 8) så har jag fått intrycket att Nvidia varit drivande i många lägen. Både vad gäller teknik, men även ren prestanda. Då var kampen lite jämnare mellan Ati & Nvidia, den senaste tiden verkar Nvidia mest krampaktigt hålla sig kvar.

Om man ser från den tiden då Nvidia lanserade sin 8000 serie och ATi hade sin HD2000 serie, vilket är den tidsperiod som jag följt grafikkortsindustrin, så var Nvidia dominerande när det gällde rå spelprestanda. Det var inte direkt ett jämnt läge mellan de två, som du antydde.

ATi följde senare upp med sin HD3000 serie och Nvidia uppdaterade sin redan dominerande grafikkortsfamilj med lite små uppdateringar under 9000 serien. Det var inte förrän ATi lanserade sin HD4000 serie som de började ta in på Nvidia. Nvidia hade dock en bättre presterande krets men kretsytan var enorm vilket medförde väldigt höga priser. ATi hade en lite krets som presterade förhållandevis bra. Där hade ATi ett tekniskt övertag och de hade mycket större möjligheter att ha låga priser.

Men det är först nu med HD5000 serien som ATi verkligen dominerar, bortsett från budget marknaden där ATi haft riktigt överlägsna kort sedan långt tillbaka som tex HD4670 och HD4770 som levererat betydligt mer prestanda för pengarna än Nvidia kort i samma prisklasser.

Visa signatur

Main Rig FD Define R4 |Intel C2Q Q9650@3.6GHz|Asus P5Q-E|OCZ Reaper 4GB@800MHz|WD6400AAKS|HD6850|Corsair HX650
HTPC HDPLEX H1.S |Intel Core i3 4330|ASRock Z87E-ITX|8GB|128GB mSATA
Work Dell Vostro 3360 |Intel Core i5-3317U|8GB|Samsung 840 Pro 256GB

Permalänk
Citat:

Ursprungligen inskrivet av this
Om man ser från den tiden då Nvidia lanserade sin 8000 serie och ATi hade sin HD2000 serie, vilket är den tidsperiod som jag följt grafikkortsindustrin, så var Nvidia dominerande när det gällde rå spelprestanda. Det var inte direkt ett jämnt läge mellan de två, som du antydde.

ATi följde senare upp med sin HD3000 serie och Nvidia uppdaterade sin redan dominerande grafikkortsfamilj med lite små uppdateringar under 9000 serien. Det var inte förrän ATi lanserade sin HD4000 serie som de började ta in på Nvidia. Nvidia hade dock en bättre presterande krets men kretsytan var enorm vilket medförde väldigt höga priser. ATi hade en lite krets som presterade förhållandevis bra. Där hade ATi ett tekniskt övertag och de hade mycket större möjligheter att ha låga priser.

Fast enligt min uppfattning krävs det ett större tekniskt kunnande att bygga en mer komplex och omfattande krets som levererar bättre prestanda.
Sedan att det inte kanske var det mest ekonomisk sunda alternativet sett till vad de flesta konsumenter var villiga att betala för ett grafikkort är ju en annan femma.
När 4870 lanserades var Nvidia helt ifrånsprunget vad beträffar prisvärdhet IMO, den lilla prestandaskillnaden (i vissa titlar skall tilläggas) som Nvidia gav kunde inte motivera prisskillnaden.

Citat:

Men det är först nu med HD5000 serien som ATi verkligen dominerar, bortsett från budget marknaden där ATi haft riktigt överlägsna kort sedan långt tillbaka som tex HD4670 och HD4770 som levererat betydligt mer prestanda för pengarna än Nvidia kort i samma prisklasser.

Sant, Ati har ganska länge varit det mer prisvärda alternativet. Mitt senaste grafikkortsinköp var ett 4870 1GB för ~2500:- (knappt ett år sedan) och när jag köpte det fanns inget lika prisvärt alternativ öht.

Visa signatur

Lenovo Thinkpad T400: Intel® Core™ 2 Duo Processor P8600 (2.40Ghz, 3MB, 1066MHz), 4GB 1066 MHz DDR3, 256 MB ATI® Radeon™ HD 3470/Intel GMA 4500MHD, 80 GB Intel G2 SSD, 320 GB HDD, Intel WiFi Link 5300/WWAN, 14,1-tums LED WXGA+ (1 440 x 900)

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av TurboMecca
Fast enligt min uppfattning krävs det ett större tekniskt kunnande att bygga en mer komplex och omfattande krets som levererar bättre prestanda.
Sedan att det inte kanske var det mest ekonomisk sunda alternativet sett till vad de flesta konsumenter var villiga att betala för ett grafikkort är ju en annan femma.
När 4870 lanserades var Nvidia helt ifrånsprunget vad beträffar prisvärdhet IMO, den lilla prestandaskillnaden (i vissa titlar skall tilläggas) som Nvidia gav kunde inte motivera prisskillnaden.

Okej. Enligt min uppfattning, å andra sidan, krävs det mer tekniskt kunnande att göra en krets som är mindre än hälften så stor som konkurrentens men som ändå presterar tillräckligt bra för att kvala in i samma viktklass som denne. (RV770 vs GT200)
Slutsatsen att större krets per automatik är mer komplex än en mindre är nog ganska långt ifrån sanningen. I min mening har AMDs GPUer varit mer avancerade än Nvidias de senaste två generationerna.

Visa signatur

"We're paratroopers, lieutenant. We're supposed to be surrounded!" - Lt. Winters, Bastogne 1944

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av TurboMecca
Fast enligt min uppfattning krävs det ett större tekniskt kunnande att bygga en mer komplex och omfattande krets som levererar bättre prestanda.

Nja, där tror jag nog väldigt få håller med dig.

Grejen med att tillverka processorer av olika slag är att få dom så effektiva som möjligt.
"Vem som helst" kan designa en processor som utklassar allt vi har idag om man inte behöver begränsa sig till energiförbrukning, chip-storlek och kylningskrav.

Tycker du verkligen det krävs mer tekniskt kunnande att bygga en processor som presterar 50% bättre men kräver 200% mer energi, kostar 200% mer att tillverka och kräver 200% bättre kylning?

När Intel designade Nehelem-arkitekturen så handlade allting om effektivitet. Varje ny finess var tvungen att ge minst 2% bättre prestanda för 1% energiförbrukning.
Det kräver tekniskt kunnande, att tillverka processorer som ger rå prestanda är en barnlek, det är bara att köra på med mer av allt.
Men det blir ineffektivt, opraktiskt och ej prisvärt.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Kilroy
Nja, där tror jag nog väldigt få håller med dig.

Grejen med att tillverka processorer av olika slag är att få dom så effektiva som möjligt.
"Vem som helst" kan designa en processor som utklassar allt vi har idag om man inte behöver begränsa sig till energiförbrukning, chip-storlek och kylningskrav.

Tycker du verkligen det krävs mer tekniskt kunnande att bygga en processor som presterar 50% bättre men kräver 200% mer energi, kostar 200% mer att tillverka och kräver 200% bättre kylning?

När Intel designade Nehelem-arkitekturen så handlade allting om effektivitet. Varje ny finess var tvungen att ge minst 2% bättre prestanda för 1% energiförbrukning.
Det kräver tekniskt kunnande, att tillverka processorer som ger rå prestanda är en barnlek, det är bara att köra på med mer av allt.
Men det blir ineffektivt, opraktiskt och ej prisvärt.

Så sant som det är sagt.

Visa signatur

Playstation 4 + Nintendo Switch
R7 5800x3d - MSI B450 - RTX 3080 TUF - EVGA 650w G3 - ASUS PG279Q

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Kilroy
Nja, där tror jag nog väldigt få håller med dig.

Grejen med att tillverka processorer av olika slag är att få dom så effektiva som möjligt.
"Vem som helst" kan designa en processor som utklassar allt vi har idag om man inte behöver begränsa sig till energiförbrukning, chip-storlek och kylningskrav.

Tycker du verkligen det krävs mer tekniskt kunnande att bygga en processor som presterar 50% bättre men kräver 200% mer energi, kostar 200% mer att tillverka och kräver 200% bättre kylning?

När Intel designade Nehelem-arkitekturen så handlade allting om effektivitet. Varje ny finess var tvungen att ge minst 2% bättre prestanda för 1% energiförbrukning.
Det kräver tekniskt kunnande, att tillverka processorer som ger rå prestanda är en barnlek, det är bara att köra på med mer av allt.
Men det blir ineffektivt, opraktiskt och ej prisvärt.

Kunde inte ha sagt det bättre själv.

Visa signatur

Main Rig FD Define R4 |Intel C2Q Q9650@3.6GHz|Asus P5Q-E|OCZ Reaper 4GB@800MHz|WD6400AAKS|HD6850|Corsair HX650
HTPC HDPLEX H1.S |Intel Core i3 4330|ASRock Z87E-ITX|8GB|128GB mSATA
Work Dell Vostro 3360 |Intel Core i5-3317U|8GB|Samsung 840 Pro 256GB

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av TurboMecca
2good4you
Sedan om man pratar om dualGPU, vilket jag antar är motsatsen till monolitiska konstruktioner syftar på, så hänger det vad jag förstått väldigt mycket på drivrutiner.
Drivrutiner som fortfarande dras med stora problem att leverera 2x prestanda eller ens i närheten i många applikationer/titlar.

Det hänger på drivrutiner väldigt mycket i multi-gpu lösningar. Dock lyckats man rätt bra. Kolla t.ex på HD4870X2 som presterar och skalar riktigt bra. Man kan inte förvänta sig 2x prestanda även om det någon enstaka gång sker så. Samma sak gäller även en grafikprocessor där du dubblerar alla resurser, så kommer den inte alltid nå exakt dubbelt så bra prestanda så länge den är utav samma arkitektur. Man kan dock förvänta sig väldigt godtagbara prestandaökningar då koden är ruskigt parallelliserad.

[QUOTE]"Vem som helst" kan klappa ihop två GPU:er på ett och samma kort (vilket bevisligen tycks vara fallet med Ati:s 5970) och det är inget som jag ser som någon större teknisk prestation.
Det är mycket möjligt att dessa lösningar blir alltmer effektiva vartefter programmerare lär sig optimera för SLI/Crossfire, men fram tills att man ser konsistenta resultat som stadigt ligger nära (antal GPU x prestanda) så känns det mer som att elda för kråkorna
[/QUOTE]

Om du jämför GTX280 och GTX285 mot ett HD4870X2 så är dom rätt körda, och det till samma kostnad. Det är där du har betydligt lättare att nå "the sweet spot" mellan pris/prestanda med ATI's lösning som innefattar mer effektiva grafikprocessorer som är billigare att tillverka och att man använder två utav dom. nVidia kontrade givetvis med dubbla GT200 GPU'er på GTX295, men det var också ett mycket dyrare kort med marginella prestandaskillnader jämfört med HD4870X2 beroende på spel.

Visa signatur

[ AMD 7800X3D // EK-Block @ custom loop, 2x420mm ][ MSI B650 Tomahawk ][ 32GB G.Skill Z5 Neo @ DDR6000 CL28 1T ][ AMD 7900XTX @ custom loop ][ Corsair 750D // Corsair RM1000X ][ 2TB Samsung 990PRO M.2 SSD ][ Win10 PRO x64 ][ LG 34GN850 ]