AMD på fel spår enligt Nvidia

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Frostyfog
låt oss hoppas att AMD vet bättre än nVidia hur de skall sköta utvecklingen av deras egna projekt.

Får vi verkligen hoppas

Visa signatur

Thermaltake Armor-vista prem.64-
Asus Maximus Extreme,X38-Q9650 3,00GHz-Corsair TWIN3X 1600MHz DDR3,8GB-ATI 4870X2-3st Barracuda 7200.10 250GB SATA2.raid0-Cooler master real power pro 1250W-Razer barracuda AC-1 gaming ljudkort-Benq FP241W 24"

Permalänk
Citat:

Ursprungligen inskrivet av Mr.Borka
Dra inte in ekonomin som den enda relevanta faktorn. Pengar är det bolagen strävar efter - men pengar skapar automatiskt inte bättre produkter.

Vart kommer pengar från tror du? Bra produkter.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk

Vid närmare eftertanke så tror jag nog att AMD skulle kunna offra just utvecklingen av separata GPUer!
särskillt ifall Intels eventuella försök att skapa ett separat grafikkort misslyckas och Fusion+Larabee blir lyckade (mer ekonomiskt lönsamma än vanliga CPU+ integrerade grafikkretsar) så kan det hända att AMD kommer ha enklare att konkurera med Intel om de satsar på kraftfulla kombinerade cpu-gpu (sno åt sig mer av mainstream) än genom att lägga motsvarande resurser på att slåss med nVidia om marknadens troligtvis minst lönsamma segment.

Visa signatur

Folding - bad in poker, good in real life

Permalänk
Citat:

Ursprungligen inskrivet av Frostyfog
Vid närmare eftertanke så tror jag nog att AMD skulle kunna offra just utvecklingen av separata GPUer!
särskillt ifall Intels eventuella försök att skapa ett separat grafikkort misslyckas och Fusion+Larabee blir lyckade (mer ekonomiskt lönsamma än vanliga CPU+ integrerade grafikkretsar) så kan det hända att AMD kommer ha enklare att konkurera med Intel om de satsar på kraftfulla kombinerade cpu-gpu (sno åt sig mer av mainstream) än genom att lägga motsvarande resurser på att slåss med nVidia om marknadens troligtvis minst lönsamma segment.

Exakt.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Citat:

Ursprungligen inskrivet av nervös nVidia-mupp
Nvidia äger inga egna fabriker och slipper därför den här utgiftsposten.

Mmm, precis. För nVidia har en kompis som lånar ut sina fabriker gratis om de får lite coola klistermärken av nVidia...

Visa signatur
Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Kjell Brel
Mmm, precis. För nVidia har en kompis som lånar ut sina fabriker gratis om de får lite coola klistermärken av nVidia...

Haha.. ser ut som de kanske vänder för nvidia.. de har ju inget dx10.1 kort o de betalade dessutom futuremark för att inte köra dx10.1 test i senaste 3dmark... de är nog allt lite skraja nu när marknaden ändrar sig.. kanske de inte sitter kvar i tronen .. vem vet..

Permalänk
Medlem

Tycker nvidias mun har blivit väldigt stor på sistone, det är iallafall en väldig massa galla som kommer upp genom den. Kirks argument är alltså i grunden "AMD går dåligt för att de inte är lika bra som oss på grafikkort och inte i dagsläget står tå mot tå med intel på CPU-sidan".

Tycker det låter som mer av det självgoda skräp de hävt ur sig på sistone. Börjar nästan ångra att jag köpte ett nvidia-kort till senaste burken. Med sin attityd känns det inte som att de är värda det. Det finns två sätt att hålla fram sig själv. Antingen har man den goda smaken att hålla fram sig själv som bättre med argument varför eller så kör man på det självgoda, taktlösa och väldigt tröttsamma spåret med att hålla fram sig själv genom att sparka på motståndet... Tycker det är grymt smaklöst av nvidia att gå på det senare av de två faktiskt.

Visa signatur

Xbox Live - Firaphex
Jag har inte alltid rätt, men jag utgår från det tills jag ser bevis på annat. Citera för svar
2008-06-18, Dagen då integriteten ställdes tå mot tå med maktmissbruket och förlorade.

Permalänk

Varken ATI eller Nvidia tillverkar några grafikprocessorer i egna frabriker.

Dessutom är tillverkningstekniken som används för att utveckla grafikkort starkt knutet till utvecklingen för processorer. Med andra ord så är Nvida starkt beroende av framsteg som görs av stora jättar som AMD, Intel och IBM.

Nvidia har alltså mycket att förlora om AMD skulle försvinna.

Med mindre konkurrens finns det en risk att färre tekniska framsteg görs. Detta kan leda till att det går åt mer tid för att utveckla nya tillverkningstekniker.

Med färre beställare hos tillverkarna finns det även en risk för att priset går upp för att köpa deras tjänst.

ps. Ovanstående text bör ej tas på fullt allvar. Lite mer ironiskt menat

Permalänk
Medlem

Amd Har en monster under sängen ..

Permalänk
Hedersmedlem
Citat:

Ursprungligen inskrivet av AlbinNdoja
Vart kommer pengar från tror du? Bra produkter.

Ja, nu är det väl inte så enkelt att det bara är bra produkter som genererar pengar. Man behöver absolut inte vara bäst på marknaden för att vara störst. Reklamdominans kan exempelvis vara ett alternativ. Men det var nog inte detta Borka ville ha sagt, utan att AMD varit mindre än Intel sedan många år trots att AMD gjorde bättre processorer än Intel inom samma tidsram.

Citat:

Ursprungligen inskrivet av Kjell Brel
Mmm, precis. För nVidia har en kompis som lånar ut sina fabriker gratis om de får lite coola klistermärken av nVidia...

Haha
Nej, kanske inte. Men om nVidia satsar fel så har en utvecklignsprocess gått förlorad, men de slipper stå med en oanvändbar fabrik till exempel. Det finns säkert högar av för/nackdelar med att ha eller inte ha egna fabriker, men om AMD satsar fel nu med alla bollar i luften kan det mycket väl svida i plånboken.

Visa signatur

🎮 → Node 304 • Ryzen 7 5700X3D • Nh-D14 • Gainward RTX 2070 • 32GB DDR4 • MSI B450I Gaming Plus AC
🖥️ → Acer Nitro XV273K Pbmiipphzx
💻 → Lenovo Yoga slim 7 pro 14" Oled

Permalänk

Har lite frågor om det jag inte riktigt förstår. Vad innebär det att grafiken är integrerad i CPUn? Betyder det att CPUn kommer att ta större plats och ha en enda krets för både GPU och CPU? Eller är det som ett kort fast bara integrerat i chipset/moderkortet?

Vad är direct X? Har hört en massa om att grafikkort stödjer dx10, dx10.1 förstår inte riktigt vad det betyder. Någon som kan förklara please?

Och vad är de teoretiska vinsterna med att ha CPU och GPU i ett eller på ett chipset? Är det mindre plats? Bättre prestanda? Strömsnålare? Enklare att handla delar? Billigare för slutkonsoment/producent?

Ursäkta om det är dumma frågor

Visa signatur

Bianconeri siamo noi, ma chi cazzo siete voi?

Permalänk
Inaktiv

De där argumenten har publicerats på xs för en tid sedan och har sedan dess bemötts och motbevisats.

Permalänk
Citat:

Ursprungligen inskrivet av stw78
Haha.. ser ut som de kanske vänder för nvidia.. de har ju inget dx10.1 kort o de betalade dessutom futuremark för att inte köra dx10.1 test i senaste 3dmark... de är nog allt lite skraja nu när marknaden ändrar sig.. kanske de inte sitter kvar i tronen .. vem vet..

Vart har du fått det ifrån? Att Nvidia skulle betalat Futuremark pengar för att inte implementera DX10.1?

Jag förstår inte varför man sprider falsk fakta och vart den faktan kommer ifrån? Det är så här rykten sprids och det är så här det uppstår diskussioner.

Citat:

Det sades att anledningen till avsaknandet av DirectX 10.1 helt enkelt var att Nvidia hade betalt Futuremark för att inte implementera detta, alternativt att ATI inte hade kunnat betala Futuremark för utvecklingskostnade.

Enligt en ansvarig på Futuremark är anledningen till avsaknandet av DirectX 10.1-stöd däremot något helt annat. Den största anledningen är att 10.1-versionen släppts så sent i utvecklingsprocessen av Vantage att man helt enkelt inte hann med att utvärdera och implementera det på ett korrekt sätt. Att Nvidia skulle haft en stor roll i att 10.1-stödet saknades dementerades också då alla partners i Futuremark har full insyn i utvecklingsarbetet och får var sin röst inför varje förändring.

"""As part of creating both PCMark and 3DMark we have a transparency system that allows every change requested to the specification to be seen and commented on by all the members before a change is made and AMD (ATI) participated fully in this process as did all the other members each of whom have an equal say in every decision."""

http://www.sweclockers.com/nyhet/7643-darfor_saknar_3dmark_va...

Citat:

Ursprungligen inskrivet av Söderbäck
Ja, nu är det väl inte så enkelt att det bara är bra produkter som genererar pengar. Man behöver absolut inte vara bäst på marknaden för att vara störst. Reklamdominans kan exempelvis vara ett alternativ. Men det var nog inte detta Borka ville ha sagt, utan att AMD varit mindre än Intel sedan många år trots att AMD gjorde bättre processorer än Intel inom samma tidsram.

Helt rätt och skall man dessutom titta på PR så är ATI usel på det och har alltid vart. ATi kunde aldrig göra PR för sig själva och säkerligen för att det aldrig fanns tillräckligt mycket pengar för att möta Nvidia. Nvidia har alltid haft PR marknaden mer eller mindre just på grund av att de har kunnat slänga upp mer pengar till fler så kallade partners. PR gör otroligt mycket.

Nvidia har ju haft sina styrkretsar som var väldigt populära tidigare för Athlon serien till exempel.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Permalänk
Citat:

Ursprungligen inskrivet av Juventino
Har lite frågor om det jag inte riktigt förstår. Vad innebär det att grafiken är integrerad i CPUn? Betyder det att CPUn kommer att ta större plats och ha en enda krets för både GPU och CPU? Eller är det som ett kort fast bara integrerat i chipset/moderkortet?

Vad är direct X? Har hört en massa om att grafikkort stödjer dx10, dx10.1 förstår inte riktigt vad det betyder. Någon som kan förklara please?

Och vad är de teoretiska vinsterna med att ha CPU och GPU i ett eller på ett chipset? Är det mindre plats? Bättre prestanda? Strömsnålare? Enklare att handla delar? Billigare för slutkonsoment/producent?

Ursäkta om det är dumma frågor

Vi är inte helt säkra men det verkar som att det blir en större processor som också tar hand om grafiken.

Direct X är det API som används till de flesta av dagens windows-kompatibla spel. Det är utvecklat av Microsoft. Direct X 10 är exklusivt till för Vista och DX 10.1 släpptes som en uppdatering. ATI-korten har sedan en tid haft stöd för senaste Direct X medans Nvidia påstår att det är onödigt.

De teoretiska vinsterna vad jag förstått är väl strömsnålare och billigare att tillverka samtidigt som man får monopol över grafikkortet.
Idag så köper folk en ny cpu med några års mellanrum medans ett grafikkort byts oftare. Med den nya tekniken så räknar troligen intel och amd med att de ska få sälja fler cpuer oftare.

Visa signatur

Belysningstekniker låter väl lagom flummigt?
signature your as this use backwards this read to enough dumb were you if

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Söderbäck
invztr:
Anser du testet vara tillförlitligt? Jag har inte sett testet innan och vet inte var det kommer ifrån, så jag ska inte dömma ut testet direkt. Men innan man har en vettig källa bakom så kan man inte tro på staplar från en bild på nätet.
Detta gäller oavsett om det fins andra exempel runt om som när du jämför ett nvidiakort som kanske presterar bra. Det är inte relevant utan vettig källa.

Vem har sagt att det är tillförlitligt? Är inte officiellt precis.

Visa signatur

Knowledge is not achieved until shared.

Permalänk
Citat:

Ursprungligen inskrivet av invztr
Vem har sagt att det är tillförlitligt? Är inte officiellt precis.

HD4870 kan varken i teorin eller i praktiken vara så pass mycket bättre än ett 9800GX2 och det är jag 100% säker på.

Då 9800GX2 presterar 220% bättre än ett HD3870 så har 4000 serien en del att komma ikapp om man säger så.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av AlbinNdoja
HD4870 kan varken i teorin eller i praktiken vara så pass mycket bättre än ett 9800GX2 och det är jag 100% säker på.

Då 9800GX2 presterar 220% bättre än ett HD3870 så har 4000 serien en del att komma ikapp om man säger så.

AMD har en längre tid haft problem att kunna utnyttja sina kort till 100%, därav de "höga" 3DMark-poängen. Om nu AMD lyckats lösa det här är det långt ifrån omöjligt attt slå ett GX2.

Visa signatur

Knowledge is not achieved until shared.

Permalänk
Citat:

Ursprungligen inskrivet av AlbinNdoja
Jag håller med. Det citatet var klockrent!

Jag tycker det är skoj när de stora jättarna käftar med varandra och skriver löjliga saker om varandra och kastar paj över halva bordet. Däremot kan jag nog inte tycka att Nvidia gav sig på AMD speciellt hårt här utan det såg mer ut som sympati text faktiskt. Intel gav de sig på hårt nog att man tydligt kunde se det.

Du har inte hängt med så länge va? Nvidia kunde ha köpt upp ATi med sin ekonomi. Intel är ju större än både ATi och AMD samt Nvidia tillsammans.

För övrigt kan jag kanske inte hålla med Nvidia riktigt men förstår varför dom skriver så här för att som jag skrev tidigare ser detta ut som sympati text och handlar inte bara om ATI vs Nvidia utan även AMD vs Intel och Nvidia har alltid tyckt om AMD för er som inte vet det.

AMD är duktiga på att starta olika projekt och jag kan nog tycka att AMD inte riktigt har ekonomin för det. Hur många av er vet att AMD har ekonomin för det? Är ni tillräckligt på lästa och sitter så pass högt upp i ert företag att ni vet hur det är att styra ett företag? Knappast, en minoritet av er kanske.

Lyckas AMD med Fusion, grattis skriver jag då men varför skulle de lyckas när Intel dominerar den integrerade marknaden och har i princip alltid gjort? Men grattis om de lyckas, verkligen.

Det är superkänt som superfejk tyvärr. Man ser att det är fejk också om man granskar källan och poäng med FPS samt CPU poäng.

Håller med till 100%.

Du tycker att AMD inte har ekonomi för alla sina projekt. Men Albin, snälla, AMD har ett gäng ekonomer som konstant kalkylerar och analyserar den ekonomiska situationen och gör prognoser om förväntade avkastningar etc. Varför jag reagerar är för att det låter nu precis som att du visste mer än hela AMD:s ekonomiavdelning om deras ekonomi och deras projekt och planer.

En sak till angående storlek/omsättning och möjligheten att få fram produkter som är bättre än större konkurrenters: AMD var ju en gång i tiden en oerhört liten aktör i jämförelse med Intel. AMD lanserade sian Athlonprocessorer som visade sig vara riktigt bra... ja bättre än Intels motsvarighet då. Min poäng är att AMD inte är körda bara för att de inte har samma muskler som Intel. Eller Nvidia?

Jag är inte en fanboy fast jag sitter på ett AMD system nu. Jag ville bara lyfta fram en del saker.

Visa signatur

Intel Core i7 965 | Intel DX58SO | Intel X25-M 80 GB SSD | OCZ Platinum 6 GB | Gigabyte 4850 1 GB | Corsair HX 620 | Samsung F1 1TB | Thermaltake DH 101 VF7000BNS

Permalänk
Citat:

Ursprungligen inskrivet av invztr
AMD har en längre tid haft problem att kunna utnyttja sina kort till 100%, därav de "höga" 3DMark-poängen. Om nu AMD lyckats lösa det här är det långt ifrån omöjligt attt slå ett GX2.

Nja det har inte med det att göra. ATis kort utnyttjas till 100% men snarare att arkitekturen inte är bra nog för dagens spel. ATi har en stark grafikprocessor med många shaders men spelen idag är inte speciellt shaderintensiva och där har du bland annat problemet. Man sattsade mer på shaers än på texturenheter vilket var en felgissning från ATi för 4-5 år sedan. Det handlar mycket om gissning när man utvecklar en arkitektur, en grafikprocessor och det kan ta 3-4 år att utveckla en grafikprocessor. Det tog Nvidia 4 år att utveckla G80 till exempel (läs: 8800GTS 320, 640, 8800GTX & Ultra). Men Nvidia valde att implementera fler texturenheter med mera och spelen är texturintensiva idag vilket ger Nvidia fördel eftersom Nvidia gissade rätt för 5.5 år sedan. Nu är inte texurer det ända som styr, långt ifrån men styrkan i Nvidias kort är just texturenheter och inte shaders.

Att HD4870 i detta fallet inte kommer slå 9800GX2 säger jag inte att det inte gör men knappast med den marginalen. Du förstår att HD4870 skulle behöva prestera närmare 300% bättre än ett HD3870, alltså tre gånger så bra och det kommer aldrig att hända. Det skulle vara revolutionerande och ATi kommer inte göra något revolutionerande i prestandaväg 2008.

Det finns ingen talan om att ATi inte utnyttjas till 100%. Det är bara brist på kompetens att skriva så.

Mvh

Citat:

Ursprungligen inskrivet av Fin_sliparn
Du tycker att AMD inte har ekonomi för alla sina projekt. Men Albin, snälla, AMD har ett gäng ekonomer som konstant kalkylerar och analyserar den ekonomiska situationen och gör prognoser om förväntade avkastningar etc. Varför jag reagerar är för att det låter nu precis som att du visste mer än hela AMD:s ekonomiavdelning om deras ekonomi och deras projekt och planer.

En sak till angående storlek/omsättning och möjligheten att få fram produkter som är bättre än större konkurrenters: AMD var ju en gång i tiden en oerhört liten aktör i jämförelse med Intel. AMD lanserade sian Athlonprocessorer som visade sig vara riktigt bra... ja bättre än Intels motsvarighet då. Min poäng är att AMD inte är körda bara för att de inte har samma muskler som Intel. Eller Nvidia?

Jag är inte en fanboy fast jag sitter på ett AMD system nu. Jag ville bara lyfta fram en del saker.

Konstigt att Nvidia som är ett stort företag liksom AMD som vet hur marknaden fungerar och allt inom IT branchen också säger samma sak? Som jag skrev och även andra i forumet så anser jag att dom inte har tillräckligt mycket pengar. Bara att köpa upp ATI har gett dom dåliga år ekonomiskt. Men om det i framtiden kommer gynna dom är en annan sak och givetvis något vi hoppas på.

Jag vet att det sitter ekonomer som konstant kalylerar och analyserar men för det innebär det inte att det kommer gå bra. Att pengarna finns där för utveckling är en sak men vad händer om två av fyra projekt fallerar? Ponera på att AMD misslyckas med Fusion och RV770. Hur tror du detta slår tillbaka på dom?

Sedan att man också kalkylerar och beräknar risker för det måste företag självklart göra vet jag också om att AMD gör men jag anser ändå att dom inte riktigt ligger i rätt tid för att börja med olika projekt inom olika områden när man ligger pyrt till. Varför inte låta utvecklingskostnaderna gå på ett eller två projekt och göra det ordentligt istället för halv färdigt. Titta på Phenom till exempel, usch!

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk

AlbinNdoja: Men självfallet är det en katastrof för AMD om det barkar åt pipan med Fusion och RV770. Och visst har Nvidia ett oerhört branschkunnande. Men samtidigt har jag aldrig hört en aktör säga att sin konkurrents produkter/framtida produkter är lysande och att folk borde köpa dem. Nvidia har ju makt och naturligtvis använder dom den för egen räknings bästa utfall. Bara för att Nvidia säger att de inte tror på AMD:s projekt så betyder ju inte det att det överhuvudtaget är sant. AMD kanske tar en risk, kanske Nvidia är mer risk-averta än AMD? Alltså företagen är olika, tänker inte lika och ser på framtiden olika. Vad de alla har gemensamt är en djupt rotat önskan om att fylla kassavalvet med mer cash.

Visst kan det ju även vara som så att AMD redan har investerat så mycket pengar i riskabla(?) projekt att det nu inte finns någon återvändo gällande just dessa. Jag har inte topp-koll på AMD:S ekonomi, än mindre koll på hur de ser på framtiden. Men jag vet att de managers som styr AMD har ett enda övergripande mål: att förbättra aktieägarnas förmögenhet. I långa loppet är detta enbart möjligt genom investering i nya projekt. Detta i sin tur betyder ju att AMD verkligen tror på sina projekt. Alternativet är ju att AMD ligger så risigt till ekonomiskt att de finansiella bekymrena gör dem oerhört riskbenägna då det, om inget görs, hur som helst är kört. Jag vet inte, men jag tror inte AMD är just i det sista alternativets sits. Har AMD oerhörda skulder? Hur ser fördelningen ut mellan skulder och eget kapital? Det är nog viktiga, om inte annat oerhört intressanta faktorer då man analyserar AMD:s planer och sits.

Visa signatur

Intel Core i7 965 | Intel DX58SO | Intel X25-M 80 GB SSD | OCZ Platinum 6 GB | Gigabyte 4850 1 GB | Corsair HX 620 | Samsung F1 1TB | Thermaltake DH 101 VF7000BNS

Permalänk
Hedersmedlem
Citat:

Ursprungligen inskrivet av invztr
Vem har sagt att det är tillförlitligt? Är inte officiellt precis.

Det är kanske ingen här som sagt att testerna på grafen är tillförlitiliga, men du har tagit in de staplarna i tråden för att backa upp dina argument. Och det håller fortfarande inte utan en bra källa.

Visa signatur

🎮 → Node 304 • Ryzen 7 5700X3D • Nh-D14 • Gainward RTX 2070 • 32GB DDR4 • MSI B450I Gaming Plus AC
🖥️ → Acer Nitro XV273K Pbmiipphzx
💻 → Lenovo Yoga slim 7 pro 14" Oled

Permalänk
Medlem

nVidia har all rätt att vara stora i munnen just nu. När nVidia varit mest dominant nu i 2 år så ser jag det som en självklarhet.

Det kanske till och med får igång AMD att göra något vettigt.

Visa signatur

|AMD Ryzen 9 5900X| |ASUS ROG Strix B550-F| |Crucial Ballistix 32GB CL16@3600MHz| |PNY RTX 4090 XLR8 Gaming| |Samsung 990 Pro 2TB| |Samsung 970 Evo Plus 1TB| |Samsung 860 Evo 1TB| |Corsair RM1000| |Fractal Design Define R5| |LG OLED 48" C2 Evo|

Permalänk
Medlem

kommer man kunna köra Fusion eller Larrabee på sitt gamla moderkort?

Permalänk
Inaktiv
Citat:

Ursprungligen inskrivet av GhOsT#07
AMD kommer att komma upp på fötter igen! AMD kommer att ta över världen! Mohahahah!

Kommentera något vettigt istället! Du har ju inga förklaringar om varför AMD kommer att komma upp på fötterna igen. Tråkigt när så många omogna hänger på swec.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Devil May Cry
nVidia har all rätt att vara stora i munnen just nu. När nVidia varit mest dominant nu i 2 år så ser jag det som en självklarhet.

Det kanske till och med får igång AMD att göra något vettigt.

Du tror alltså att AMD gör produkter bara för att vara "bättre" än Nvidia eller andra motparter? För att kunna våga kaxa upp sig mot de andra bolagen? Och att Nvidias skitsnack (Ja, det är barnsligt skitsnack de sysslar med) skulle motivera AMD att bygga "vettiga" produkter bara för att visa sig kapabla?

Jag kommenterar inte mer, det är ärligt talar för dumt.

--

Albin, du verkar helt förlorat förståndet senaste. Du har klandrat mig för att vara "fanboy" eller vad du än velat kalla det, men ditt predikande senaste tiden slår ju mina rekord med milstolpe.

Du verkar tro att AMD bygger kretsar för att det är hysteriskt roligt utan att alls tänka över de ekonomiska aspekterna i produktionen, utvecklingen och för slutprodukt i förhållande till prestanda, marknadsintresse och målgrupp. RV770XT är som tidigare inte sagt som en revolutionerande arkitektur, men har anpassats för dagens industri bättre, vilket är det felet du ständigt pekar ut AMD för att ha gjort i designen i R600 (vilket i och för sig är sannt). Men när AMD tar sig tiden att rätta till dessa problem så tror du inte heller att prestandan blir särskilt mycket bättre än hårfin i direkt jämförelse med den tekniska skillnaden mellan den nya och befintliga kretsen.

AMD vet vad de sysslar med och satsar sina kort där intresset finns. Bara för att det gjordes en felbedömning vid planeringen kring R600 så betyder inte detta att samtliga anställda/chefer inom företaget är efterblivna gubbar som älskar att slänga pengar i sjön.

Och... Hur ska AMD komma på fötter ekonomiskt om inte genom att investera? Ska de lansera samma produkter om och om igen som konkurrenterna och sedan sitta och vänta? Inte ens AMD (...) får fram produkter i ren magi, lika lite som Nvidia och/eller Intel, men ändå borde AMD inte investera eftersom "det är dyrt"? Den inställningen känns lite underlig.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Fin_sliparn

Visst kan det ju även vara som så att AMD redan har investerat så mycket pengar i riskabla(?) projekt att det nu inte finns någon återvändo gällande just dessa.
(...)
.
.
.
Alternativet är ju att AMD ligger så risigt till ekonomiskt att de finansiella bekymrena gör dem oerhört riskbenägna då det, om inget görs, hur som helst är kört.

Precis, här slog du själv huvudet på spiken. Det är dessa slutsatser man faktiskt kan dra när man läser de dystra ord marknadsanalytiker har att säga om AMD (och så har det låtit under de senaste 2 åren). Självklart har AMD duktiga ekonomer, men såna kan inte automatiskt vända ett företag som hamnat i ett svårt läge och faktiskt alltid varit en dvärg i en stenhård bransch.

Visa signatur

Memento mori...

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Pellias
Precis, här slog du själv huvudet på spiken. Det är dessa slutsatser man faktiskt kan dra när man läser de dystra ord marknadsanalytiker har att säga om AMD (och så har det låtit under de senaste 2 åren). Självklart har AMD duktiga ekonomer, men såna kan inte automatiskt vända ett företag som hamnat i ett svårt läge och faktiskt alltid varit en dvärg i en stenhård bransch.

Det är inte bara de senaste 2 åren de sagt så. Jag kan inte påminna mig om att jag någonsin har hört något annat de senaste 15 åren än att AMD förmodligen bara kommer att överleva högst ett halvår till.

AMD har varit utdömt av s.k. experter så länge jag vet (åtminstonde sedan mitten på 90-talet) och kanske får de rätt någon gång.

Permalänk
Medlem

Troligen kan inte AMD gå i konkurs. AMD är för stora och för världsomfattande för att de ska kunna lämna allt åt sitt öde bara så där. De har avtal med regeringar om deras fabriker, service & underhåll och investeringar i bla superdatorer och andra applikationer.

Företag som är så omfattande fungerar nästan som ett eget land. Sveriges statsskuld är drygt 1 billion SEK. Inte ser du oss gå omkull för det.

Värre är det för tex Nvidia om de hade varit i samma sits. De har inga egna fabriker och har alltså inte blivit finansierade av olika regeringar och har inga bindande avtal på samma sätt.

Men problemen försvinner inte bara för man inte kan gå i konkurs. Det finns mindre eller inga pengar att röra sig med och man måste börja reglera pengaflöden till mera prioriterande områden så som att avtalen följs. Företaget kommer krympa allt mer, avtalen kommer att gå ut och kommer inte förnyas pga krav så som företagets säkerhet och storlek inte uppfylls.

Visa signatur

I like my women how i like my coffee... In a plastic cup.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Gurrty
Kanske när Phenom kommer upp i frekvens och kan slå 6400+?

Ja det kommer nog ta så lång tid. Men de skulle kunna släppa 5600, 6000 och 6400+ med 65 nm snart. Fast det kanske inte är någon idé då 45nm kommer snart.

Visa signatur

Main Rig FD Define R4 |Intel C2Q Q9650@3.6GHz|Asus P5Q-E|OCZ Reaper 4GB@800MHz|WD6400AAKS|HD6850|Corsair HX650
HTPC HDPLEX H1.S |Intel Core i3 4330|ASRock Z87E-ITX|8GB|128GB mSATA
Work Dell Vostro 3360 |Intel Core i5-3317U|8GB|Samsung 840 Pro 256GB