Fler streamprocessorer och DX11 i Radeon HD 5800

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Buio
Fuad säger att RV870 är senarelagt och inte ska komma så tidigt som sagt. Inga källor, utan "but we are hearing". Men det är inte osannolikt och kanske öppnar för andra minnen dessutom (snabbare GDDR5).
http://www.fudzilla.com/index.php?option=com_content&task=vie...

Jag har ju iofs hela tiden trott att sommaren var alldeles för optimistiskt. Jag tror de lägger den nära eller strax efter Windows 7 release av taktiska skäl jag.

Permalänk
Medlem

Precis, inte alls otänkbart. Med tanke på de positiva rösterna om Windows 7, så kan de få lite extra sving i marknadsföringen samtidigt som Windows 7 tåget rullar igång. Med blurbs som "Fully Windows 7 and DX11 compatible graphics card" osv.

Permalänk
Citat:

Ursprungligen inskrivet av DataNusse
Realiteten är en annan.

AMD förlorar marknadsandelar och visar måttliga till dåliga kvartal medans nVidia visar en god tillväxt av marknadsandelar och redovisar goda kvartalsrapporter.

Läser du inte nyheterna? Denna kom idag, EFTER att jag uttalat mig alltså:
http://www.sweclockers.com/nyhet/9329-nvidia_gor_miljardforlu...

Visa signatur

|| Gigabyte GA-MA790X-UD3P || AMD Phenom II X4 955 @ 3,8 GHz || 2*2 GB Kingston HyperX PC8500 || Asus Radeon HD 5850|| Zalman ZM600-HP600W || Windows 7 64-bit ||

Permalänk
Citat:

Ursprungligen inskrivet av minibite3
Läser du inte nyheterna? Denna kom idag, EFTER att jag uttalat mig alltså:
http://www.sweclockers.com/nyhet/9329-nvidia_gor_miljardforlu...

Nyheten kom den åttonde, du gjorde ditt uttalande den fjärde.

Saken ändras inte att AMD fortsätter vissa dåliga rapporter och deras marknadsandelar sjunker.

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk
Citat:

Ursprungligen inskrivet av DataNusse
Nyheten kom den åttonde, du gjorde ditt uttalande den fjärde.

Saken ändras inte att AMD fortsätter vissa dåliga rapporter och deras marknadsandelar sjunker.

Huvudsaken var att jag skrev det innan. Och att jag inte hoppas AMD utnyttjar sitt läge nu när Nvidia ligger lite efter. AMD har redan kommit med 40 nm, har god yield börjar bygga upp företaget ordentligt, medans nvidia visar nästan motsatsen.

Visa signatur

|| Gigabyte GA-MA790X-UD3P || AMD Phenom II X4 955 @ 3,8 GHz || 2*2 GB Kingston HyperX PC8500 || Asus Radeon HD 5850|| Zalman ZM600-HP600W || Windows 7 64-bit ||

Permalänk
Citat:

Ursprungligen inskrivet av minibite3
Huvudsaken var att jag skrev det innan. Och att jag inte hoppas AMD utnyttjar sitt läge nu när Nvidia ligger lite efter. AMD har redan kommit med 40 nm, har god yield börjar bygga upp företaget ordentligt, medans nvidia visar nästan motsatsen.

Faktum är att 40nm kommer inte dra ut AMD från deras motgångar som de har haft sedan 2006. TSMC har problem med 40nm tillverkning vilket betyder att både nVidias och AMD's top 40nm grafikkort kommer bli försenade. nVidia kommer vissa 40nm GPU mobile om några veckor. nVidias marknadsandelar har inte rubbats alls av AMD GPU serie.

Det har propagerats sedan HD3xxx serien med AMD's goda yield och bra tillverkningsprocess att nu är AMD på uppsving precis som du gör nu, men än idag har det bara varit önsketänk och realitet helt annan.

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av DataNusse
Det har propagerats sedan HD3xxx serien med AMD's goda yield och bra tillverkningsprocess att nu är AMD på uppsving precis som du gör nu, men än idag har det bara varit önsketänk och realitet helt annan.

Fast hur har det varit propaganda? Det är ju knappast en argument för att köpa AMD. Det är mer ett konstaterande att om så är fallet så gynnar det AMD.
Om de har jättebra yield så är det i sig inget argument för att man ska köpa deras produkter. Argument är prestanda, pris, stabilitet, värme, ljudnivå och överklockningsutrymme. Yield är inte något som är intressant ur konsumentsynpunkt.

Permalänk
Moderator
Testpilot
Citat:

Ursprungligen inskrivet av DataNusse
Faktum är att 40nm kommer inte dra ut AMD från deras motgångar som de har haft sedan 2006. TSMC har problem med 40nm tillverkning vilket betyder att både nVidias och AMD's top 40nm grafikkort kommer bli försenade. nVidia kommer vissa 40nm GPU mobile om några veckor. nVidias marknadsandelar har inte rubbats alls av AMD GPU serie.

Vad vet du som ingen annan vet om du säger att AMD:s GPU-serie "inte alls" har rubbats nVidias marknadsandelar? Det var det naivaste jag har hört sen jag konfimerade mig.

Precis som du säger så har TSMC problem med 40nm enligt rykten men faktum är att AMD har redan har en GPU tillverkad i 40nm på marknaden, sen får vi se hur nVidias nya mobile-serie ser ut.

[QUOTE]
Det har propagerats sedan HD3xxx serien med AMD's goda yield och bra tillverkningsprocess att nu är AMD på uppsving precis som du gör nu, men än idag har det bara varit önsketänk och realitet helt annan.
[/QUOTE]

Du är väldig vidlyftig i dina uttalanden, som vanligt. Förstår inte din mentalitet. Hur kan du uttala dig så starkt om saker och ting du uppenbarligen inte har någon expertkkunskap inom? Eller sitter du kanske som ingenjör och utvecklar halvledare?

Titta på den här review. Den har en väldigt intressant detalj om just yield, titta på kärnornas storlek och jämför sedan prestandan. AMD har ett klart övertag, som de har haft redan sedan de lanserade RV770, nVidia har hållt kvar mycket av sina marknadsandelar tack vare aggresiv prissättning men man har inte alls samma marginaler som AMD. Precis den motsatta situationen sker på processorsidan, AMD får konkurrera med större kärnor mot mindre, rent prismässigt alltså.

Inte en bra affär.

http://www.techreport.com/articles.x/16820

PS. I tidigare diskussioner vi har haft så har du anklagat mig för att vara AMD fan boy. Just nu så äger jag ett 9800GTX eftersom det var det bästa kortet för pengen så kom inte dragandes med sådant pubertetssnack den här gången också. DS.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Citat:

Ursprungligen inskrivet av Dinoman
[B]Vad vet du som ingen annan vet om du säger att AMD:s GPU-serie "inte alls" har rubbats nVidias marknadsandelar? Det var det naivaste jag har hört sen jag konfimerade mig.

Precis som du säger så har TSMC problem med 40nm enligt rykten men faktum är att AMD har redan har en GPU tillverkad i 40nm på marknaden, sen får vi se hur nVidias nya mobile-serie ser ut.

Du är väldig vidlyftig i dina uttalanden, som vanligt. Förstår inte din mentalitet. Hur kan du uttala dig så starkt om saker och ting du uppenbarligen inte har någon expertkkunskap inom? Eller sitter du kanske som ingenjör och utvecklar halvledare?

Titta på den här review. Den har en väldigt intressant detalj om just yield, titta på kärnornas storlek och jämför sedan prestandan. AMD har ett klart övertag, som de har haft redan sedan de lanserade RV770, nVidia har hållt kvar mycket av sina marknadsandelar tack vare aggresiv prissättning men man har inte alls samma marginaler som AMD. Precis den motsatta situationen sker på processorsidan, AMD får konkurrera med större kärnor mot mindre, rent prismässigt alltså.

Inte en bra affär.

http://www.techreport.com/articles.x/16820

PS. I tidigare diskussioner vi har haft så har du anklagat mig för att vara AMD fan boy. Just nu så äger jag ett 9800GTX eftersom det var det bästa kortet för pengen så kom inte dragandes med sådant pubertetssnack den här gången också. DS.

Jag läser rapporter och nyheter vilket du verkar inte göra och förblir oinformerad.
nVidias marknadsandelar inte rubbats, faktsikst växt med 0,5% gemför med AMD som har förlorat 2,2%. Det är under den tiden då HD4xxx har varit på marknaden ett tag.
http://www.sweclockers.com/nyhet/9286-amd_tappar_till_intel_o...

Det är inget vidlyftande utan sund förnuft men analysförmåga. AMD's GPU har god yield och god tillvekningsprocess sedan RV670 gemför med nVidias GPU. Detta har setts av många som ett försprång över nVidia vilket skulle leda till att AMD skulle vinna både marknadsandelar och vända minus till plus i sina rapporter. Två år har gått och de har varken vunnit några marknadsandelar eller vänt minus till plus. Därför motsätter jag mig minibite3 uttalande då den är naiv och bristande.

Om nVidia skulle inte ha goda marginal skulle de inte tjäna pengar och därmed inte vissa goda rapporter. Men det har nVidia gjort sedan 2006 vilket man kan dra en slutsatts av att de har haft goda marginal på sin tillverkning. Saken är att AMD CPU teori som du drar upp verkar inte gälla när det kommer till nVidias GPU. Trots att kärnor är större än AMDs så fortsätter nVidia behålla sina marknadsandelar och vissa vinst, AMD gör inte det trots den fördel att de har mindre kärna.

En försiktigt slutsatt man kan dra är att varken bättre tillverkningsprocess eller bättre yield är svaret på AMDs problematik med dåliga dagar. Lösning? Kanske försöka marknadsföra sig. Bättre sent än aldrig.

PS: länken är död

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk
Moderator
Testpilot
Citat:

Ursprungligen inskrivet av DataNusse
Jag läser rapporter och nyheter vilket du verkar inte göra och förblir oinformerad.
nVidias marknadsandelar inte rubbats, faktsikst växt med 0,5% gemför med AMD som har förlorat 2,2%. Det är under den tiden då HD4xxx har varit på marknaden ett tag.
http://www.sweclockers.com/nyhet/9286-amd_tappar_till_intel_o...

Enligt Mercury som har gjort analysen så är det så. nVidia har tagit tillbaka en del av de marknadsandelar som man förlorade fjärde kvartalet förra året men samtidigt går man med förlust, närmare ~200 miljoner dollar back gick man Q1 2009. AMD blöder pengar sedan innan och det är väldigt svårt att jämföra nVidia och AMD på grafikkortsfronten. För den vinsten som ATi-korten drar in i företaget sväljs av AMD-storbolag och blir förlust.

[QUOTE]
Det är inget vidlyftande utan sund förnuft men analysförmåga. AMD's GPU har god yield och god tillvekningsprocess sedan RV670 gemför med nVidias GPU. Detta har setts av många som ett försprång över nVidia vilket skulle leda till att AMD skulle vinna både marknadsandelar och vända minus till plus i sina rapporter. Två år har gått och de har varken vunnit några marknadsandelar eller vänt minus till plus. Därför motsätter jag mig minibite3 uttalande då den är naiv och bristande.
[/QUOTE]

För mig en rätt dålig analysförmåga.
De har visst vunnit marknadsandelar och förlorat de igen eftersom nVidia har en väldigt aggresiv prissättning. Som jag sa ovan så vet vi inte hur ATi ensamt går utan bara att AMD som helhet med processortillverkning och allt går med förlust.

[QUOTE]
Om nVidia skulle inte ha goda marginal skulle de inte tjäna pengar och därmed inte vissa goda rapporter. Men det har nVidia gjort sedan 2006 vilket man kan dra en slutsatts av att de har haft goda marginal på sin tillverkning. Saken är att AMD CPU teori som du drar upp verkar inte gälla när det kommer till nVidias GPU. Trots att kärnor är större än AMDs så fortsätter nVidia behålla sina marknadsandelar och vissa vinst, AMD gör inte det trots den fördel att de har mindre kärna.
[/QUOTE]

AMD får bättre siffror medans nVidia störtdyker ner i förlust. Vad säger det? Alla påverkas av det ekonomiska klimatet visst, men nVidia som har gått så bra innan borde klarat sig ändå precis så som Intel gör, men det gör man inte. Det, i alla fall för mig, tyder på att man säljer sina produkter med för tight marginal. Man måste sälja sina produkter billigare än vad man har räknat på vilket innebär att forecast och annat blir helt annan än den beräknad, alltså får man mindre pengar än man räknat med.

[QUOTE]
En försiktigt slutsatt man kan dra är att varken bättre tillverkningsprocess eller bättre yield är svaret på AMDs problematik med dåliga dagar. Lösning? Kanske försöka marknadsföra sig. Bättre sent än aldrig.

PS: länken är död

[/QUOTE]

En helt totalt rörig slutsats är det. Om du får ut FLER processorer på samma kiselplatta så kan du sälja fler per kiselplatta, eller hur? Om då dessutom processorerna är så effektiva att de kan konkurrera med konkurrentens större processorer så har man per automatik större marginal på sina processorer. Enkel matematik.

Länken är inte alls bruten. Testa med IE.

Annars gå in på www.techreport.com och titta på HD4770-reviewn. Kolla då på RV770-kärnar och den krympta G92b så ser du att de är ganska jämnstora, men RV770 är betydligt effektivare, speciellt med GDDR5!

EDIT:
Lite mer kött på benen angående yield-debatten.

RV770 die size = 256mm
GT200b die size = 470mm
G92b die size = 231mm
(i kvadratmeter).

Om du tittar på de storlekarna och jämför med prestandan på grafikkorten så märker du snart hur mycket effektivare RV770 är per krona jämfört med sina konkurrenter.

Rv770 är cirka 55% av GT200b, presterar ett HD4870 1GB 55% av GTX 285? Svar verkligen inte, när det kommer till GTX 260 är det ännu värre för där presterar HD4870 1GB i vissa fall till och med bättre. Alltså generellt tjänar AMD dubbelt så mycket på sina g-kort. Nu är det inte så enkelt, men det ger en fingevisning.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Citat:

Ursprungligen inskrivet av Dinoman

Om du tittar på de storlekarna och jämför med prestandan på grafikkorten så märker du snart hur mycket effektivare RV770 är per krona jämfört med sina konkurrenter.

Rv770 är cirka 55% av GT200b, presterar ett HD4870 1GB 55% av GTX 285? Svar verkligen inte, när det kommer till GTX 260 är det ännu värre för där presterar HD4870 1GB i vissa fall till och med bättre. Alltså generellt tjänar AMD dubbelt så mycket på sina g-kort. Nu är det inte så enkelt, men det ger en fingevisning.

Jag förnekar inte effektiviteten. Vad jag håller inte med om är marginaler. Då det inte har kunnat styrkas på något sätt att AMD GPU har bättre marginaler än nVidia. Inte heller kan man bara förenkla med att påstå att kärnans storlek är direkt gemförelse till vinst.

nVidia inte haft några större problem att följa AMD prissättning av grafikkort och samtidigt göra bra vinst och behålla/ta marknadsandelar. Det betyder att de har haft en god marginal på sin tillverkning av produkter. I AMD’s fall kan detta inte bekräftas på något sett då vi inte vet vinst för GPU avdelningen bara marknadsandelar. Vilket är ofullständigt för att dra någon slutsatt.

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk
Moderator
Testpilot
Citat:

Ursprungligen inskrivet av DataNusse
Jag förnekar inte effektiviteten.

Nej jag svävade iväg där lite grann.

[QUOTE]
Vad jag håller inte med om är marginaler. Då det inte har kunnat styrkas på något sätt att AMD GPU har bättre marginaler än nVidia. Inte heller kan man bara förenkla med att påstå att kärnans storlek är direkt gemförelse till vinst..
[/QUOTE]

Nej som sagt det går inte att styrkas, hittade en hemsida som hade detaljerade rapporter angående diskreta grafikkort men det kostade 2000$ att få ladda ner den så jag hoppade det.

Min åsikt är dock att vi vet att både nVidia och AMD använder samma företag (TSMC) att tillverka sina GPU:er. Så torde man ligga på liknande omkostnader för tillverkning. Det som kan skilja är utvecklingskostnaden som i nVidias fall faktiskt kan vara lägre med tanke på att GT200 i stort sett bara är en evolution av G92 och inte en helt ny omarbetad kärna. Där skiljer sig RV770 från t.ex. RV670, det har skett, till synes, större förändringar och skulle kunna innebära större utvecklingskostnader.

Spekulationer.

[QUOTE]
nVidia inte haft några större problem att följa AMD prissättning av grafikkort och samtidigt göra bra vinst och behålla/ta marknadsandelar. Det betyder att de har haft en god marginal på sin tillverkning av produkter. I AMD’s fall kan detta inte bekräftas på något sett då vi inte vet vinst för GPU avdelningen bara marknadsandelar. Vilket är ofullständigt för att dra någon slutsatt.
[/QUOTE]

Där håller jag absolut inte med. Att nVidia har följt AMD i prissättning är ren överlevnadsinstikt, man har helt enkelt inte kunna ha kvar sina MSRP-priser. Dessa priser har man beräknat långt innan när man utvecklar produkten och om dessa dramatiskt förändras när produkten är lanserade så kommer man obönhörligen att förlora stora summor pengar och hamna snett i budgeten. GTX 260 lanserades med ett MSRP på 399$ (4000-4500kr) och på ett år har man mer än halverat priset och lanserat nya varianter av kortet med fler SP:s m.m. Allt detta för att matcha AMD:s priser och kort. Till och med nVidia själa erkänner att de underskattade AMD(ATi). HD4870 512MB hade MSRP på 299$.

nVidia har förlorat mycket pengar visar det sig i den senaste kvartalsrapporten. Så visst har man tagit mycket stryk av AMD:s RV770 och mår inte alls bra i dagsläget. Det spelar ingen roll att man har massivs med marknadsandelar om man inte tjänar pengar. Man kan ge bort produkter och ta hela marknaden men så gör man ingen "business".

Säkerligen kommer GT300 vara betydligt mer balanserad och matcha RV870 bättre än vad GT200 matchade RV770 prismässigt.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Citat:

Ursprungligen inskrivet av Dinoman

Där håller jag absolut inte med. Att nVidia har följt AMD i prissättning är ren överlevnadsinstikt, man har helt enkelt inte kunna ha kvar sina MSRP-priser. Dessa priser har man beräknat långt innan när man utvecklar produkten och om dessa dramatiskt förändras när produkten är lanserade så kommer man obönhörligen att förlora stora summor pengar och hamna snett i budgeten. GTX 260 lanserades med ett MSRP på 399$ (4000-4500kr) och på ett år har man mer än halverat priset och lanserat nya varianter av kortet med fler SP:s m.m. Allt detta för att matcha AMD:s priser och kort. Till och med nVidia själa erkänner att de underskattade AMD(ATi). HD4870 512MB hade MSRP på 299$.

nVidia har förlorat mycket pengar visar det sig i den senaste kvartalsrapporten. Så visst har man tagit mycket stryk av AMD:s RV770 och mår inte alls bra i dagsläget. Det spelar ingen roll att man har massivs med marknadsandelar om man inte tjänar pengar. Man kan ge bort produkter och ta hela marknaden men så gör man ingen "business".

Säkerligen kommer GT300 vara betydligt mer balanserad och matcha RV870 bättre än vad GT200 matchade RV770 prismässigt.

MSRP priser är en beräknade på kortets produktionskostnad, vinst och dess konkarens mot konkurrentens produkter. Ingen kan förespå vad konkurrenten har för produkter på lineup, bara gissa. Det är mer av en preliminär prissättning. Att MSRP och den reala prissättningen ändras är ingenting nytt och det finns inget som styrker att det är en direkt indikation på att det går dåligt för en, det visar snarare att konkurrensen funkar. Pris sänkning med tiden kan också indikera att processtillvekning har förbättrats.

Sant, 200 miljoner är pengar men inte något man höjer ögonbrynet över för så kapitalt starkt företag som nVidia. Men denna diskussion är ett dött slut då du kan påstå hur nVidia tar stryk utan på något sätt kunna bevisa att AMD’s GPU avdelning inte gör det heller, eller tvärtom. nVidias situation kan diskuteras, analyseras och styrkas, med AMD GPU avdelning så är det omöjligt då det blir bara hypoteser och spekulationer.

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk
Moderator
Testpilot
Citat:

Ursprungligen inskrivet av DataNusse
MSRP priser är en beräknade på kortets produktionskostnad, vinst och dess konkarens mot konkurrentens produkter. Ingen kan förespå vad konkurrenten har för produkter på lineup, bara gissa. Det är mer av en preliminär prissättning. Att MSRP och den reala prissättningen ändras är ingenting nytt och det finns inget som styrker att det är en direkt indikation på att det går dåligt för en, det visar snarare att konkurrensen funkar. Pris sänkning med tiden kan också indikera att processtillvekning har förbättrats.

Att man justerar priser är fullt naturligt som du säger men MRSP är inte någon preliminär siffra, det är den siffra som nVidia rekommenderar sina AIB-partners att sälja kortet för eftersom man som du sa via det priset har räknat med ett antal faktorer.

Min poäng är inte att man aldrig sänker MRSP-priserna, min poäng är att man sällan halverar det rekommenderade försäljningspriset på en produkt strax efter "launch". Det tyder på grova missberäkningar. T.ex. att man blir överumplad av ATi:s prissättning som var extremt låg, bara för att vi vant oss vid de priserna som råder nu så ska man inte glömma att förr i tiden var man tvungen att punga ut minst 3-4000:- för den prestandan man får för 1500-2000:- idag.

Detta tack vare ATi:s val av mindre och billigare kärnor. ATi:s processorer är billigare att tillverka inget snack om saken. Som jag sa RV770 är 256mm² och GT200 är 470mm² om du ska printa ut båda dessa på en 300mm rund wafer så är det inte så svårt att räkna ut att GT200 blir betydligt dyrare per wafer.

[QUOTE]
Sant, 200 miljoner är pengar men inte något man höjer ögonbrynet över för så kapitalt starkt företag som nVidia. Men denna diskussion är ett dött slut då du kan påstå hur nVidia tar stryk utan på något sätt kunna bevisa att AMD’s GPU avdelning inte gör det heller, eller tvärtom. nVidias situation kan diskuteras, analyseras och styrkas, med AMD GPU avdelning så är det omöjligt då det blir bara hypoteser och spekulationer.
[/QUOTE]

Hmmm... 200 miljoner $ i förlust är verkligen inget man rycker på axlarna åt. Du får det å framstå som att nVidia är någon slags bank full av kapital. Jag har ingen aning om hur mycket kapital nVidia sitter inne på men några stora vinster har man inte gjort, läste att första halvåret 2008 gjorde man en vinst på 50 miljoner $ och första halvåret 2007 gjorde man en vinst på ~300 miljoner $. Vad får du ifrån att nVidia är ett kapitalstark företag? Att nVidia ska kunna ha samla på sig kapital att ta 200 miljoners förlust med en axelryckning är naivt att tro.

Dessutom så är det stor chans att det kapital man gått med vinst andra år har gått åt investeringar inom bolaget vilket alltså innebär att man förmodligen har denna förlusten på kredit, precis som AMD.

Nej, vi två kommer aldrig komma överens om något troligt scenario men jag känner mig väldigt bekväm med min slutsats eftersom den är mer logisk än vad din är, din bygger bara på att nVidia kan trolla med knäna, vilket företag sällan kan göra.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Citat:

Ursprungligen inskrivet av Dinoman

Nej, vi två kommer aldrig komma överens om något troligt scenario men jag känner mig väldigt bekväm med min slutsats eftersom den är mer logisk än vad din är, din bygger bara på att nVidia kan trolla med knäna, vilket företag sällan kan göra.

Jag gjorde ett djup dyk in i de finansiella rapporter för nVidia och AMD då det ger mycket mer påbyggt verklighet om situationer om företagen än spekulationer och illa uppbyggda argument. Plus att det är där mitt största intresse ligger när det kommer till nVidia och AMD, inte själva hårdvara som de flesta entusiast koncentrerar sig på och hänger upp sig på.

Rapport #1
För året 2007 gjorde nVidia en vinst på $797.6 miljoner. För hela året 2008 gjorde de en förlust på $30 miljoner.
Rapport #2
Samma tidsperiod gjorde AMD en förlust på $3.379 miljarder för året 2007 och $3.098 miljarder för hela 2008 året. Man ska dock inte gemföra dessa siffror i sin roa form då AMD är en CPU/GPU tillverkare och nVidia är en GPU tillverkare. Men vi kan titta på något som kan gemföras.

Rapport #3
I slutet av rapporten vissas inkomst (ej vinst) för CPU och GPU avdelningen för Q1 09 i gemförelse med tidigare kvartal. Q1 09 hade AMD’s GPU avdelningen en inkomst på $222 miljoner. Samma kvartal hade nVidia en inkomst på $664.2. Det visar också att inkomst för AMD GPU avdelningen har sjunkit med 18% sedan föra kvartal Q4 08 och sjunkit med 15% i gemförelse med Q1 08.

En inkomst är faktiskt mer intressantare att titta på än en vinst då det säger mer. För en dålig vinst eller en negativ vinst behöver inte betyda att det går dåligt för ett företag. Det kan betyda att företaget har investerat i tillverkning, utveckling, forskning eller gjort en stor beställning.

Slutsatsen är att nVidia gör en god inkomst på sina produkter, AMD GPU gör mindre god. En förklaring till detta kan vara att de har mindre/samma marginaler i sin tillverkning och prissättning som nVidia. Att nVidia gick back med $200miljoner denna kvartal är kanske inte så förvånande när 40nm produktionen är i sitt första skedde. Sedan har de lagt ner väldigt mycket pengar och tid för att marknadsföra, lansera och utveckla CUDA, Tesla-platformen, Ion och nya produkter.

Och nej, vi kommer aldrig komma överens så länge du bygger allt på din egen logik och inga källor.

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk
Moderator
Testpilot
Citat:

Ursprungligen inskrivet av DataNusse
...

Rapport #3
I slutet av rapporten vissas inkomst (ej vinst) för CPU och GPU avdelningen för Q1 09 i gemförelse med tidigare kvartal. Q1 09 hade AMD’s GPU avdelningen en inkomst på $222 miljoner. Samma kvartal hade nVidia en inkomst på $664.2. Det visar också att inkomst för AMD GPU avdelningen har sjunkit med 18% sedan föra kvartal Q4 08 och sjunkit med 15% i gemförelse med Q1 08.

En inkomst är faktiskt mer intressantare att titta på än en vinst då det säger mer. För en dålig vinst eller en negativ vinst behöver inte betyda att det går dåligt för ett företag. Det kan betyda att företaget har investerat i tillverkning, utveckling, forskning eller gjort en stor beställning.

Slutsatsen är att nVidia gör en god inkomst på sina produkter, AMD GPU gör mindre god. En förklaring till detta kan vara att de har mindre/samma marginaler i sin tillverkning och prissättning som nVidia. Att nVidia gick back med $200miljoner denna kvartal är kanske inte så förvånande när 40nm produktionen är i sitt första skedde. Sedan har de lagt ner väldigt mycket pengar och tid för att marknadsföra, lansera och utveckla CUDA, Tesla-platformen, Ion och nya produkter.

Och nej, vi kommer aldrig komma överens så länge du bygger allt på din egen logik och inga källor. [/B]

Jag har redan varit runt och tittat i dessa rapport och på en massa andra ställen också och du vet ju att mina påståenden är riktiga, t.ex. nVidias förlust.

Ditt exempel där är ju intressant. Du talar om AMD och hur deras intäkter har sjunkit 15% kvartal mot kvartal men du räknar inte på nVidia samma peroid? Sen pratar du om att vinster inte är intressant men du talar om nVidias vinster.

nVidias intäkter sjönk med 60 procent finanskvartalet Q4 09 mot Q4 08 och du pratar om AMD:s 15%. Är inte det ett tecken om något på att nVidia är hårt ansatta av dåliga marginaler?

"For the fourth quarter of fiscal 2009, revenue was $481.1 million compared to $1.2 billion for the fourth quarter of fiscal 2008, a decrease of 60 percent. For the twelve months ended January 25, 2009, revenue was $3.4 billion compared to $4.1 billion for the twelve months ended January 27, 2008, a decrease of 16 percent."

Jag bygger verkligen inte minna argument på egen logik, det är bara du som är så jävla envis att du aldrig skulle kunna se det klarsynt.

Som jag har talat om för dig innan AMD har en GPU som är hälften så stor som nVidias konkurrerande, AMD använder sig av en minnesbuss som är 256-bits bred, nVidia använder 512 samt 448-bitar. GDDR5 vet jag inte om det är dyrare än GDDR3 i dagsläget, troligen aningens dyrare.

AMD:s grafikkort har en hälften så stor processor, billigare PCB-layout tack vare 256-bits minnesbuss och något dyrare minnesmoduler än GTX 260/280(5).

HD4870 och GTX 260 ligger på samma prisnivå i dagsläget, vilket kort genererar mest pengar då?

HD4850 och 9800GTX+ (GTS 250) är troligen ganska likställda.

HD4770 och 9800GT som egentligen inte lirar i samma liga, där är HD4770 betydligt billigare att producera.

Sen har vi allt annat med IGP, dual-kort etc. m.m. Jag påstår inte att du har fel, jag har fått större respekt för dig nu när du i alla fall visar att du läser på innan du öppnar munnen men du har en väldigt rosad bild av nVidia enligt min åsikt, det är ingen "vinstmaskin". Det är ett företag som alla andra som kämpar med näbbar och klor för att behålla sin ställning på marknaden och jag påstår att de har fått offra mycket för att behålla sina marknadsandelar, som är nog så viktigt.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Citat:

Ursprungligen inskrivet av Dinoman

Jag bygger verkligen inte minna argument på egen logik, det är bara du som är så jävla envis att du aldrig skulle kunna se det klarsynt.

Som jag har talat om för dig innan AMD har en GPU som är hälften så stor som nVidias konkurrerande, AMD använder sig av en minnesbuss som är 256-bits bred, nVidia använder 512 samt 448-bitar. GDDR5 vet jag inte om det är dyrare än GDDR3 i dagsläget, troligen aningens dyrare.

AMD:s grafikkort har en hälften så stor processor, billigare PCB-layout tack vare 256-bits minnesbuss och något dyrare minnesmoduler än GTX 260/280(5).

Du drar dina egna personliga slutsatser utan veta den konkreta betydelsen och utan ha direkt insyn i verksamheten. Vi vet specs för AMD GPU’s, vi vet den ekonomiska situationen för AMD’s GPU där deras intäkter har minskat. Sedan fyller du in mellanrum med dina ogrundade hypoteser att AMD GPU har goda marginaler.

Hur skulle det gå till?

Om de ekonomiska situationer för AMD GPU skulle vara god med bra intäkter så skulle din hypotes om AMD GPU goda marginaler vara trovärdigt. Men den ekonomiska situationen är den motsatta vilket gör att ditt argument är inte hållbart. Det är kanske sant som du säger att du inte använder din logik, för om du skulle göra det så skulle du inte påstå något så obegripligt.

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk
Moderator
Testpilot
Citat:

Ursprungligen inskrivet av DataNusse
Du drar dina egna personliga slutsatser utan veta den konkreta betydelsen och utan ha direkt insyn i verksamheten. Vi vet specs för AMD GPU’s, vi vet den ekonomiska situationen för AMD’s GPU där deras intäkter har minskat. Sedan fyller du in mellanrum med dina ogrundade hypoteser att AMD GPU har goda marginaler.

Hur skulle det gå till?

Om de ekonomiska situationer för AMD GPU skulle vara god med bra intäkter så skulle din hypotes om AMD GPU goda marginaler vara trovärdigt. Men den ekonomiska situationen är den motsatta vilket gör att ditt argument är inte hållbart. Det är kanske sant som du säger att du inte använder din logik, för om du skulle göra det så skulle du inte påstå något så obegripligt.

Det gör vi båda två, du framstå dig själv som om du har helkoll på läget men du vet inte heller hur allting är urbenat, det vet bara ekonomerna på respektive företag. Mitt argument om att AMD har bättre marginaler på sina grafikkretsar är fullkomligt logisk och välgrundad. Din är det inte, istället för att snacka skit så kan du ge mig bra exempel på varför nVidia skulle ha bättre marginaler på sina grafikkretsar.

AMD har gått back länge nu, AMD:s GPU avdelning vet vi inte hur lönsam den är, mer än att intäkterna har gått ner med 15% mot förra året. Med dagens ekonomiska klimat skulle jag kalla det för hyffsade siffror.

nVidia har gått från riktigt fina resultat i slutet av 2007 till att halvera intäkterna på ett år. Är det helt enkelt så att man säljer grafikkort i dagsläget med låga marginaler?

"For the first quarter of fiscal 2010 (ended April 26, 2009), revenue was $664.2 million compared with $1.2 billion for the first quarter of fiscal 2009, a decrease of 42%"

Intäkterna har totalt rasat med 42% sedan förra året. AMD och nVidia håller båda på och uvecklar nya processorer så det finns ingen logik i att nVidia skulle ha sådana abnormt mycket större utvecklingskostnader.

Att AMD:s intäkter gick ner med 15% från Q1 '08 till Q1 '09 kan lika gärna förklaras av det ekonomiska läget just nu, Q1 '08 var vi inne i högkonjuktur i västvärlden och sedan hösten '08 är vi inne i lågkonjunktur. Så, nVidia 42% ner, AMD GPU 15% ner, vi ligger i lågkonjunktur, vem har klara det bäst? nVidia?

http://jonpeddie.com/press-releases/details/graphics_aib_mark...
Hela marknaden gick ner med 42,7% Q4 '08 mot Q4 '07. När hela marknadens intäkter går ner med 42,7% så går AMD:s intäkter ned med 15%, det tycker du är dåligt?

Där har du beviset på bättre marginaler.

Du stirrar dig blind på just summor och vinster när det är hur intäkterna har förändrats som är det som kan visa på hur företaget tjänar sina pengar.

"Ogrundade hypoteser", vad fan dillar du om. Du bara snackar i det blå och svarar inte på mina argument. För övrigt är du ute på fruktansvärt djupt vatten när du börjar märka ord. Jämförelse stavas t.ex. med J och Ä.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Citat:

Ursprungligen inskrivet av Dinoman
Det gör vi båda två, du framstå dig själv som om du har helkoll på läget men du vet inte heller hur allting är urbenat, det vet bara ekonomerna på respektive företag. Mitt argument om att AMD har bättre marginaler på sina grafikkretsar är fullkomligt logisk och välgrundad. Din är det inte, istället för att snacka skit så kan du ge mig bra exempel på varför nVidia skulle ha bättre marginaler på sina grafikkretsar.

Efter att jag har informerat mig lite mer om ämnet så tar jag tillbaka när jag sa att intäkten är mer intressantare att titta på än vinst. Så är inte fallet då vinst ger en vissning på marginaler. Intäkter (försäljning) minus kostnader ( tex tillverkning) ger vinst (marginal). Förenklat; stolek på marginal beror på kostnad på tillverkning och intäkter från försäljning.

Du kan omöjligen stödja ditt påstående med bevisning att AMD GPU har goda eller dåliga marginal när vi/du inte vet lönsamheten för GPU avdelningen. Det har jag påståt från första början dock så har du brustit helt i att motbevisa eller bemöta kritiken på ett konstruktivt sätt. Tills vi får veta lönsamheter för GPU avd. så förblir ditt påstående om AMDs GPU marginaler en hypotes oavsett hur logiskt och välgrundad du tycker personligen den är.

I nVidias fall har deras marginaler varit positiva och negativa det kan vi se på deras års och kvartal rapport.

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk
Avstängd

Grabbar... Seriöst.

Permalänk
Medlem

Finns bara en sak som är intressant när man köper något, bara jag får det så billigt & enkelt som möjligt... Sen vad det heter & dyl. är sekundärt.

Visa signatur

XFX Radeon RX 7700 XT Speedster QICK 319 Black Edition | AMD Ryzen R7 5700X | Noctua NH-D15 | Asus TUF Gaming B550-Plus | Kingston Fury Beast DDR4 3600MHz 4x8GB | Samsung 990 Pro 1TB | Corsair HX1000i | Fractal Design Define S | LG 27GL83A | Corsair K95 Platinum | Corsair Sabre RGB PRO Wireless | Corsair Void Elite Wireless

Permalänk
Moderator
Testpilot
Citat:

Ursprungligen inskrivet av DataNusse
Efter att jag har informerat mig lite mer om ämnet så tar jag tillbaka när jag sa att intäkten är mer intressantare att titta på än vinst. Så är inte fallet då vinst ger en vissning på marginaler. Intäkter (försäljning) minus kostnader ( tex tillverkning) ger vinst (marginal). Förenklat; stolek på marginal beror på kostnad på tillverkning och intäkter från försäljning.

Självfallet gör du det. Här svänger det fram och tillbaka beroende på vad som passar sig bäst i fallet. Sen får jag passa på att tacka för din lilla lektion, tur att du redde ut begreppen för mig, verkligen rörigt där ett tag. Jag menar jag fattar ju inte så...

[QUOTE]
Du kan omöjligen stödja ditt påstående med bevisning att AMD GPU har goda eller dåliga marginal när vi/du inte vet lönsamheten för GPU avdelningen.
[/QUOTE]

Eftersom vi inte kan veta "vinsten" som AMD GPU-avdelning gör så måsta man ju se på andra parametrar. Vilket du envist vägrar eftersom just det faktum att det inte går att få några exakta siffror gör att du mer än gärna gömmer dig bakom detta i din argumentation.

Som jag sa tidigare, när den totala intäkten för hela marknaden går ner med ~43% så går intäkterna för AMD:s GPU-avdelning ner 15%, för nVidias avdelning så rasar man i takt med markanden. Vad säger det? Du påstår att nVidia har BÄTTRE marginaler på sina produkter än vad AMD har. Hur i helvete går det ihop? Har man investerat så jävla mycket pengar att man lyckats dribbla bort 43% av intäkterna? Om man mot förmodan har gjort det så sitter det ett stort gäng inkompetenta ekonomer på nVidia.

Om du nu frågar dig varför jag ger mig in i att diskutera det här så är det för att jag sitter med just produktutveckling, på IKEA of Sweden. Hade man gjort sådana missberäkningar här så hade man åkt med huvudet för fortare än kvickt. Vilket drar mig till slutsatsen att nVidia har fullt medvetet sänkt marginalerna på sina produkter för att behålla sin ställning på marknaden och hoppats på att öka volymerna, vilket man inte gjort, inte detta förra kvartalet i alla fall.

[QUOTE]
Det har jag påståt från första början dock så har du brustit helt i att motbevisa eller bemöta kritiken på ett konstruktivt sätt. Tills vi får veta lönsamheter för GPU avd. så förblir ditt påstående om AMDs GPU marginaler en hypotes oavsett hur logiskt och välgrundad du tycker personligen den är.
[/QUOTE]

Ja då får du väl köpa hem en sådan rapport då, som sagt det ligger ute på analysföretag för tusentals dollar.

[QUOTE]
I nVidias fall har deras marginaler varit positiva och negativa det kan vi se på deras års och kvartal rapport.
[/QUOTE]

Ja ha, och? Marginalerna har varit positiva och negativa? Vad dillar du om. En marginal handlar om en kalkylerad vinst på sin produkt, den ska aldrig vara negativ för annars sköter man sina affärer på helt fel sätt. Sen som jag sa så kan man medvetet sänka marginalerna för att vinna marknadsandelar och för att hålla upp volymerna, mer sålt, mindre pengar per produkt blir förhoppningsvis bättre än mindre sålt, mer pengar per produkt.

@skruvis: Det är inte det vi diskuterar, vi diskuterar en småsak som har blivit en stor ska för att det irriterar mig när man uttalar sig om saker mot all logik.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Citat:

Ursprungligen inskrivet av Dinoman

Eftersom vi inte kan veta "vinsten" som AMD GPU-avdelning gör så måsta man ju se på andra parametrar. Vilket du envist vägrar eftersom just det faktum att det inte går att få några exakta siffror gör att du mer än gärna gömmer dig bakom detta i din argumentation.

Jag gömmer mig inte bakom några argument. Jag vill bara att du ska vissa grundlig bevisning (läs, ej tolkning, hypotes, spekulation) på att AMD GPU har (eller inte har) marginaler. Eftersom ingen av oss har exakta siffror så kan inte din hypotes bevisas. Vad du gör dock är att du tolkat. Du använder din personliga erfarenhet, kunskap och logik för att tolka information till en slutsats. En slutsats av tolkning kan aldrig vara en bevisning inte heller användas som bevis och inte heller kan den vara ojävig.

Vi vet inte vinst/marginal för AMD GPU, inte heller vet vi kostnader för AMD GPU. Bara intäkter. Vi har en känd faktor och två okända.

1-x=z

Matematiskt är det omöjligt att lösa denna ekvation på ett rätt sätt då rätt svar kan vara vad som helt och därmed tolkningsbar. Vi måste ha en till korrekt känd faktor för att kunna lösa ekvationen. Vilket vi inte har. Men du säger att du har löst ekvation med bara en känd faktor, intäkter. Att du säger att du har löst den och säger att AMD GPU har goda marginal visar att du har tolkat på ditt eget sätt därmed kan inte högmodigt säga att det är bevis. För det är inte. Om du inte förtår detta går denna diskution till en återvändsgränd.

Faktor tid är irrelevant tills ekvation löst. Då faktor tid och faktor intäkt kan inte lösa ekvationen då det finns fortfarande två okända faktorer. Kostnad och vinst/marginal.

Citat:

Du påstår att nVidia har BÄTTRE marginaler på sina produkter än vad AMD har. Hur i helvete går det ihop?

Det går inte ihop då det var helt fel av mig att påstå detta. Då varken jag eller du vet AMD GPU avd. vinst/marginal. Därmed kan jag inte uttala mig om nVidia har bättre eller sämre marginaler än AMD GPU.

Citat:

Om du nu frågar dig varför jag ger mig in i att diskutera det här så är det för att jag sitter med just produktutveckling, på IKEA of Sweden. Hade man gjort sådana missberäkningar här så hade man åkt med huvudet för fortare än kvickt. Vilket drar mig till slutsatsen att nVidia har fullt medvetet sänkt marginalerna på sina produkter för att behålla sin ställning på marknaden och hoppats på att öka volymerna, vilket man inte gjort, inte detta förra kvartalet i alla fall.

Detta kan jag hålla med om då den senaste rapportering har visat att nVidia har behållit med en marginal ökning sina marknadsandelar och att deras vinst har gradviss sänkts under 2008 och nu 2009.

Vad din sysselsättning har för relevans till varför du börja diskutera faller mig föga intressant.

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av DataNusse
Jag gömmer mig inte bakom några argument. Jag vill bara att du ska vissa grundlig bevisning (läs, ej tolkning, hypotes, spekulation) på att AMD GPU har (eller inte har) marginaler. Eftersom ingen av oss har exakta siffror så kan inte din hypotes bevisas. Vad du gör dock är att du tolkat. Du använder din personliga erfarenhet, kunskap och logik för att tolka information till en slutsats. En slutsats av tolkning kan aldrig vara en bevisning inte heller användas som bevis och inte heller kan den vara ojävig.

Vi vet inte vinst/marginal för AMD GPU, inte heller vet vi kostnader för AMD GPU. Bara intäkter. Vi har en känd faktor och två okända.

1-x=z

Matematiskt är det omöjligt att lösa denna ekvation på ett rätt sätt då rätt svar kan vara vad som helt och därmed tolkningsbar. Vi måste ha en till korrekt känd faktor för att kunna lösa ekvationen. Vilket vi inte har. Men du säger att du har löst ekvation med bara en känd faktor, intäkter. Att du säger att du har löst den och säger att AMD GPU har goda marginal visar att du har tolkat på ditt eget sätt därmed kan inte högmodigt säga att det är bevis. För det är inte. Om du inte förtår detta går denna diskution till en återvändsgränd.

Faktor tid är irrelevant tills ekvation löst. Då faktor tid och faktor intäkt kan inte lösa ekvationen då det finns fortfarande två okända faktorer. Kostnad och vinst/marginal.

Fast det han säger om marginaler passar utomordentligt bra på de rykten från TSMC som säger att nVidia har haft stora problem, dels med övergången till 55nm och dels med att få sina stora chip att fungera i 65nm. Medan man samtidigt sagt att AMD haft ovanligt bra yields på sin RV770 design, mycket på grund av likheterna med RV670.

Permalänk
Medlem

Datanusse, vad vet du själv?

En mycket viktig ingrediens i bilden är fortfarande att nVidia har haft mest problem med sin tillverkning, vilket är långt ifrån överraskande. Det är fortfarande ett faktum att dom gått med förlust. Om du kan plocka fram tillförlitliga siffror för vinsten enskilt för AMD's grafikdivision så går det att jämföra. Som Dinoman skrev, så sväljs vinsten av den positiva grafikkortsförsäljningen i hela företaget AMD. Att nVidia har mer marknadsföring är inget nytt, men att tillverka en produkt och tjäna pengar på den är ett måste, då bl.a även marknadsföring i sig kostar pengar. Marginalerna _ÄR_ betydligt mindre på nVidia's grafikprocessorer.

Dels för att dom är bland som största kärnor som någonsin tillverkats, och därmed yieldar dåligt. RV670 är samma arkitektur som RV770, men utökad, och FSAA beräkning i ROP'sen, med lite designtweaks från AMD, vilket gjorde att densiteten ökade extremt hos shaderprocessorerna. Designen yieldar bra då kretsarna inte är inärheten av samma storlek som nVidia's grafikprocessorer.

Visa signatur

[ AMD 7800X3D // EK-Block @ custom loop, 2x420mm ][ MSI B650 Tomahawk ][ 32GB G.Skill Z5 Neo @ DDR6000 CL28 1T ][ AMD 7900XTX @ custom loop ][ Corsair 750D // Corsair RM1000X ][ 2TB Samsung 990PRO M.2 SSD ][ Win10 PRO x64 ][ LG 34GN850 ]

Permalänk
Moderator
Testpilot
Citat:

Ursprungligen inskrivet av DataNusse
Jag gömmer mig inte bakom några argument. Jag vill bara att du ska vissa grundlig bevisning (läs, ej tolkning, hypotes, spekulation) på att AMD GPU har (eller inte har) marginaler. Eftersom ingen av oss har exakta siffror så kan inte din hypotes bevisas. Vad du gör dock är att du tolkat. Du använder din personliga erfarenhet, kunskap och logik för att tolka information till en slutsats. En slutsats av tolkning kan aldrig vara en bevisning inte heller användas som bevis och inte heller kan den vara ojävig.

Det handlar om en kvalificerad gissning, vilket förekommer dagligen när man ska bedömma värdet av nya produkter.

Jag har lagt fram många parametrar som talar för att AMD GPU-avdelning skulle ha en god marginal på sina produkter, du har talat om att nVidia har god marginal på sina produkter. Mina argument bygger på logiska gissningar och olika parametrar som talar för mina gissningar. Du har hittils inte lyckats komma med något logiskt argument alls.

Den här diskussionen startade inte med att jag propsade på AMD GPU:s hade fantastiska marginaler utan den startade med att du påstod att nVidia har gått helt opåverkade av AMD:s RV770. Vilket för mig är naivt att tro. Ungefär lika oberört som ATi blev av G80.

[QUOTE]
Vi vet inte vinst/marginal för AMD GPU, inte heller vet vi kostnader för AMD GPU. Bara intäkter. Vi har en känd faktor och två okända.

1-x=z

Matematiskt är det omöjligt att lösa denna ekvation på ett rätt sätt då rätt svar kan vara vad som helt och därmed tolkningsbar. Vi måste ha en till korrekt känd faktor för att kunna lösa ekvationen. Vilket vi inte har. Men du säger att du har löst ekvation med bara en känd faktor, intäkter. Att du säger att du har löst den och säger att AMD GPU har goda marginal visar att du har tolkat på ditt eget sätt därmed kan inte högmodigt säga att det är bevis. För det är inte. Om du inte förtår detta går denna diskution till en återvändsgränd.

[/QUOTE]

Som sagt, kvalificerad gissning.

[QUOTE]
Faktor tid är irrelevant tills ekvation löst. Då faktor tid och faktor intäkt kan inte lösa ekvationen då det finns fortfarande två okända faktorer. Kostnad och vinst/marginal.
[/QUOTE]

Det är inte alltid man blir serverad alla faktorer när man ska räkna på saker, vilket innebär kvalificerade gissningar, detta sker dagligen på företag världen över, för att kunna bedömma den kommande konkurrensen.

[QUOTE]
Det går inte ihop då det var helt fel av mig att påstå detta. Då varken jag eller du vet AMD GPU avd. vinst/marginal. Därmed kan jag inte uttala mig om nVidia har bättre eller sämre marginaler än AMD GPU.

Detta kan jag hålla med om då den senaste rapportering har visat att nVidia har behållit med en marginal ökning sina marknadsandelar och att deras vinst har gradviss sänkts under 2008 och nu 2009.

[/QUOTE]

Ja något har ju hänt och inte är det enbart lågkonjunkturen.

[QUOTE]
Vad din sysselsättning har för relevans till varför du börja diskutera faller mig föga intressant.
[/QUOTE]

Förstår det, men det kanske ger dig lite ödmjukhet inför mina åsikter eftersom jag inte tror en massa utan arbetar med just sådant vi diskuterat, dagligen.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Citat:

Ursprungligen inskrivet av Dinoman
Det handlar om en kvalificerad gissning, vilket förekommer dagligen när man ska bedömma värdet av nya produkter.

Jag har lagt fram många parametrar som talar för att AMD GPU-avdelning skulle ha en god marginal på sina produkter, du har talat om att nVidia har god marginal på sina produkter. Mina argument bygger på logiska gissningar och olika parametrar som talar för mina gissningar. Du har hittils inte lyckats komma med något logiskt argument alls.

Den här diskussionen startade inte med att jag propsade på AMD GPU:s hade fantastiska marginaler utan den startade med att du påstod att nVidia har gått helt opåverkade av AMD:s RV770. Vilket för mig är naivt att tro. Ungefär lika oberört som ATi blev av G80.

En gissning, hypotes, spekulation, tolkning, hur väl byggt det är, kan aldrig presenteras som konkret bevisning.

Vilket du gjorde i början när du sade att du har bevisning på att AMD GPU har god marginal men nu är din ton ändrat till att säga att du gjorde en gissning. Jag motsätter mig inte till din gissning, jag motsätter mig att du kalla det för bevis. Jag vill bara få dig förstå att gissning, hypotes, spekulation kan inte kalla för bevis.

Citat:

Förstår det, men det kanske ger dig lite ödmjukhet inför mina åsikter eftersom jag inte tror en massa utan arbetar med just sådant vi diskuterat, dagligen.

Ditt arbete bygger på att analysera och tolka olika parametrar till en slutsatts om kommande produkt. En gissning. Du får efter en tid ett bevis om din gissning är rätt eller inte när produkten har varit på marknaden och rå data om försäljning, kostade osv kommer in.

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk
Moderator
Testpilot

Till att börja med, tillåt mig att citera mig själv.

Citat:
Citat:

Ursprungligen inskrivet av DataNusse
Faktum är att 40nm kommer inte dra ut AMD från deras motgångar som de har haft sedan 2006. TSMC har problem med 40nm tillverkning vilket betyder att både nVidias och AMD's top 40nm grafikkort kommer bli försenade. nVidia kommer vissa 40nm GPU mobile om några veckor. nVidias marknadsandelar har inte rubbats alls av AMD GPU serie.

Vad vet du som ingen annan vet om du säger att AMD:s GPU-serie "inte alls" har rubbats nVidias marknadsandelar? Det var det naivaste jag har hört sen jag konfimerade mig.

Precis som du säger så har TSMC problem med 40nm enligt rykten men faktum är att AMD har redan har en GPU tillverkad i 40nm på marknaden, sen får vi se hur nVidias nya mobile-serie ser ut.

[QUOTE]
Det har propagerats sedan HD3xxx serien med AMD's goda yield och bra tillverkningsprocess att nu är AMD på uppsving precis som du gör nu, men än idag har det bara varit önsketänk och realitet helt annan.
[/QUOTE]

Du är väldig vidlyftig i dina uttalanden, som vanligt. Förstår inte din mentalitet. Hur kan du uttala dig så starkt om saker och ting du uppenbarligen inte har någon expertkkunskap inom? Eller sitter du kanske som ingenjör och utvecklar halvledare?

Titta på den här review. Den har en väldigt intressant detalj om just yield, titta på kärnornas storlek och jämför sedan prestandan. AMD har ett klart övertag, som de har haft redan sedan de lanserade RV770, nVidia har hållt kvar mycket av sina marknadsandelar tack vare aggresiv prissättning men man har inte alls samma marginaler som AMD. Precis den motsatta situationen sker på processorsidan, AMD får konkurrera med större kärnor mot mindre, rent prismässigt alltså.

Inte en bra affär.

http://www.techreport.com/articles.x/16820

PS. I tidigare diskussioner vi har haft så har du anklagat mig för att vara AMD fan boy. Just nu så äger jag ett 9800GTX eftersom det var det bästa kortet för pengen så kom inte dragandes med sådant pubertetssnack den här gången också. DS.

Jag motsäger dig, där det är DU, inte jag som påstår sig veta.

Citat:

Ursprungligen inskrivet av DataNusse
En gissning, hypotes, spekulation, tolkning, hur väl byggt det är, kan aldrig presenteras som konkret bevisning.

Vi har båda två kommit fram till att vi inte utan att betala dyra pengar kunna komma fram till några hårda fakta i fallet. Jag har hela tiden motsagt din argumentation om att AMD GPU inte har haft god yield, goda marginaler m.m. etc.

[QUOTE]
Vilket du gjorde i början när du sade att du har bevisning på att AMD GPU har god marginal men nu är din ton ändrat till att säga att du gjorde en gissning. Jag motsätter mig inte till din gissning, jag motsätter mig att du kalla det för bevis. Jag vill bara få dig förstå att gissning, hypotes, spekulation kan inte kalla för bevis.
[/QUOTE]

Nej det var du som gjorde, inte jag.

[QUOTE]
Ditt arbete bygger på att analysera och tolka olika parametrar till en slutsatts om kommande produkt. En gissning. Du får efter en tid ett bevis om din gissning är rätt eller inte när produkten har varit på marknaden och rå data om försäljning, kostade osv kommer in.
[/QUOTE] I detta fallet kan vi inte komma åt några bevis, vilket leder oss till kvalificerade gissningar. Om man inte har några bevis och det inte går att framställa bevis så måste man ta till de analyseringsmetoder man kan använda sig av. Hur skulle man annars kunna flyga till månen? (Om vi nu har varit där överhuvudtaget )

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Citat:

Ursprungligen inskrivet av Dinoman

Vi har båda två kommit fram till att vi inte utan att betala dyra pengar kunna komma fram till några hårda fakta i fallet. Jag har hela tiden motsagt din argumentation om att AMD GPU inte har haft god yield, goda marginaler m.m. etc.

Jag har aldrig motsatte mig att AMD GPU har god yield och jag har tagit tillbaka mitt påstående att AMD GPU har goda/dåliga marginal då jag hade inte data för att veta AMD GPU har för konkret vinst/marginal. Du o andra sidan fortsatte påstå att du hade bevisning på att AMD GPU har god marginal. Men du ändrade dig till att säga att du gjorde en gissning.

Det var allt jag ville höra.

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk
Moderator
Testpilot
Citat:

Ursprungligen inskrivet av DataNusse
Jag har aldrig motsatte mig att AMD GPU har god yield och jag har tagit tillbaka mitt påstående att AMD GPU har goda/dåliga marginal då jag hade inte data för att veta AMD GPU har för konkret vinst/marginal. Du o andra sidan fortsatte påstå att du hade bevisning på att AMD GPU har god marginal. Men du ändrade dig till att säga att du gjorde en gissning.

Det var allt jag ville höra.

Om du läser igenom mina inlägg så har jag aldrig skrivit att jag har bevis på att AMD har god yield, jag har däremot ifrågasatt dina uttalande och sagt att mycket tyder på att de har goda marginaler på sina produkter.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt