Nvidia behöver x86-licens för att konkurrera

Permalänk
Medlem
Skrivet av MarkSix:
  1. Att AMD skulle fixa fysik i OpenGL kommer aldrig att hända eftersom OpenGL inte har något med fysik att göra

Nu har jag dålig koll på detta men visst var det tänkt att det skulle använda OpenCL?

Visa signatur

Chassi: Corsair 650D | Processor: Intel Core i5 3570K | Moderkort: Gigabyte GA-Z68XP-UD3P | Minne: Corsair 16 GB | SSD: Corsair Force GT 128 GB | Lagring: 3,5 TB | Grafikkort: HIS HD7870 | Nätaggregat: Corsair AX750W | Tangentbord: Microsoft Sidewinder X4 | Mus: Mionix Naos 5000

Permalänk
Inaktiv

För mig låter detta bara korkat, jag vet inte många som kör med via-processor. Qualcomm vore väl ett mycket bättre köp, eller?

Permalänk
Inaktiv
Skrivet av anon99339:

För mig låter detta bara korkat, jag vet inte många som kör med via-processor. Qualcomm vore väl ett mycket bättre köp, eller?

Har Qualcomm x86-licens?

Permalänk
Skrivet av anon99339:

För mig låter detta bara korkat, jag vet inte många som kör med via-processor. Qualcomm vore väl ett mycket bättre köp, eller?

Hade en netbook med en VIA CPU och den var hemsk att använda!

Visa signatur

<signatur>|| i7-930 || Asus P6X58D-E || 6GB Corsair xms3 || HD 6950 || Noctua NH-U12P SE2 || OCZ Revodrive 80GB || Samsung Spinpoint F3 500GB || EcoGreen F2 500GB || WD Blue 500GB || Corsair HX650W || Lian Li PC-v1020 || W7 Home Premium || Samsung SyncMaster EX2200||</signatur>

Permalänk
Skrivet av CrazyDriver:

Vad jag skulle vilja se är en virtualiserad x86 som kan köras på nVidias CUDA. Tänk er ett par hundra kärnor som tuggar i sig x86 kod. Personligen tror jag att det är just den vägen Intel kommer att gå. Det har forskats mycket på parallell computing, men fortfarande finns det inget bra sätt att automatiskt effektivisera kod för multipla kärnor. Därför tror jag att nästa stora grej kommer att bli just virualisering av processorer. Programmen ser bar en processor, men under ytan distribueras koden till flera fysiska kärnor.

just det faller på att dom flesta problem är inte möjliga att parallellisera, tyvärr. Det spelar ingen roll att du har flera kärnor när algoritmen du ska programmera inte är möjlig att parallellisera. skulle man ändå försöka så uppnår man ett gäng trådar som väntar på varandra i någon sekvens, (och som förmodligen tar längre tid att köra för man måste synca trådarna och skyffla data mellan dem).

Permalänk
Inaktiv
Skrivet av cyberkyckling:

Hade en netbook med en VIA CPU och den var hemsk att använda!

Varför?

Permalänk
Skrivet av anon42512:

Den var väldigt slö och hade bland annat problem med PowePoint. Grafikkretsen (som inte har något med CPUn att göra, men nämner den ändå) som satt i hade problem med XP standartema.

Visa signatur

<signatur>|| i7-930 || Asus P6X58D-E || 6GB Corsair xms3 || HD 6950 || Noctua NH-U12P SE2 || OCZ Revodrive 80GB || Samsung Spinpoint F3 500GB || EcoGreen F2 500GB || WD Blue 500GB || Corsair HX650W || Lian Li PC-v1020 || W7 Home Premium || Samsung SyncMaster EX2200||</signatur>

Permalänk
Inaktiv
Skrivet av cyberkyckling:

Den var väldigt slö och hade bland annat problem med PowePoint. Grafikkretsen (som inte har något med CPUn att göra, men nämner den ändå) som satt i hade problem med XP standartema.

Vilken VIA-cpu var det då?

Permalänk
Skrivet av anon42512:

Vilken VIA-cpu var det då?

En VIA C7-M.

Visa signatur

<signatur>|| i7-930 || Asus P6X58D-E || 6GB Corsair xms3 || HD 6950 || Noctua NH-U12P SE2 || OCZ Revodrive 80GB || Samsung Spinpoint F3 500GB || EcoGreen F2 500GB || WD Blue 500GB || Corsair HX650W || Lian Li PC-v1020 || W7 Home Premium || Samsung SyncMaster EX2200||</signatur>

Permalänk
Medlem
Skrivet av Devrer:

Att amd inte klarar att bygga processorer i intels 10 000krs klass är ju bara för att de inte har lika mycket resurser. Intel har alltid varit störst och rikast, inte konstigt att de kan lägga mer pengar på utveckling. Intel har skaffat sig sjukt bra rykte, så det går inte att ta sig förbi dem nu. Inte ens när amd hade sina glans-dagar, då de sålde athlon 64 som var betydligt bättre än intels dåvarande pentium 4 så kunde de egentligen konkurrera. Hur ska man konkurrera mot ett företag när det inte ens hjälper att släppa bättre och billigare produkter, utan att folk väljer det andra företagets produkter ändå?

Tycker det är sjukt att amd ens finns kvar på cpu-marknaden, med tanke på hur orättvis marknaden är.

Absolut. Flaggskeppen är ju egentligen bara för syns skull.
Men sedan vill jag kanske inte påstå att Intel skapat sig ett "grymt bra rykte", men dom har etablerat ett väldigt starkt varumärke.

Sedan så har ju Intel lekt fult ganska länge. Kanske att senare tidens förbättringar kan resultera i att AMD får fler partners och kan jobba sig uppåt i lagom takt på processormarknaden. Om inte annat så har dom en del kort att spela som kanske slår igenom med buller och bång, eller kanske ramlar ner som en parentes i historien. Det är sånt som är svårt att se i förväg - likt Intels introduktion av Core 2 Duo för ett gäng år sedan där Intel plötsligt hade en suck mot AMD:s processorer i prestandasegmentet.

Permalänk
Medlem

Precis som Multiman säger så är nog AMD's största problem just att Intel ligger så långt före på tillverkningssidan, jag tvivlar inte ett ögonblick på att AMD skulle ha möjlighet att designa minst lika kraftfulla processorer som Intel om man hade tillgång till samma sofistikerade produktionteknologi.

Tegra känns lite som en sidospår, Nvidia konkurrerar där med ett flertal andra som också innehar ARM licenser. Har svårt att se hur Nvidia skall lyckas bättre med ARM än exempelvis Samsung och Qualcomm. Ion känns som ett produktgrupp som mer eller mindre riskerar att försvinna pga av Arrendale och Fusion.

Visa signatur

/havoc

Permalänk
Medlem
Skrivet av Walkerboh:

just det faller på att dom flesta problem är inte möjliga att parallellisera, tyvärr. Det spelar ingen roll att du har flera kärnor när algoritmen du ska programmera inte är möjlig att parallellisera. skulle man ändå försöka så uppnår man ett gäng trådar som väntar på varandra i någon sekvens, (och som förmodligen tar längre tid att köra för man måste synca trådarna och skyffla data mellan dem).

Du har helt rätt, men poängen är att med hjälp av virtualisering kan du behålla x86 kompabiliteten även om hårdvaran är helt annorlunda. Det kommer ju knappast vara effektivt (läs PowerPC på Mac OSX), men programmen kommer att fungera. I en förlängning måste man bort från den gamla x86 arkitekturen som är för komplex. Jag tänker mig istället mikrokärnor som är förhållandevis enkla, men som kan jobba i stora matriser. För att programmen ska bli effektiva måste man förstås utveckla nya språk där problemen är nedbrytbara och där man hjälper processorn att styra exekveringen. För mig är det ofattbart att man inte har kommit längre utan fortfarande skriver kod som exekveras rad för rad. Ett program borde ju rimligtvis kunna beskriva på ett annat sätt.

Permalänk
Medlem
Skrivet av Devrer:

Via är väl bra på att spara ström, just på grund av avsaknaden av allt vad prestanda heter;)

mmjo, men det är därför kombon skulle bli bra.

Visa signatur

Akashiro 0.9: Ryzen 5 7600, Radeon RX 7800XT Pure: 64/2000
https://podcasters.spotify.com/pod/show/thomaseron

Permalänk
Medlem
Skrivet av MarkSix:
  1. Att AMD skulle ha "betydligt mycket bättre GPU'er" är inte riktigt sant.

  2. Att AMD skulle fixa fysik i OpenGL kommer aldrig att hända eftersom OpenGL inte har något med fysik att göra

  3. Att AMD kommer att konkurrera ut Nvidia på den proffesionella marknaden genom att göra ATI Streams "betydligt bättre" är bara önsketänkande från dig.

1 Amds hd5000 serie är enligt mig ganska mycket bättre än intels fermi. ett hd5970 presterar ju betydligt bättre än ett gtx480, men trotts det så drar det mindre ström! Jag skrev ju det vid "*". Att med "bättre" så menade jag även effektiviteten, vilket är ganska viktigt i framförallt företagsdatorer. Varför ha ett strömslukande grafikkort när man kan välja ett som presterar lika bra men som drar nästan halva elen och som dessutom är billigare?

2 Kanske blandade ihop det med OpenCL då? Har ju varit jäövligt mycket snack om det i alla fall. Annars hjälper ju Amd till med fysikmotorn "bullet"

3 Ja, men det skulle lika gärna kunna hända om de bara valde att sattsa lite. Jag menar deras firepro är ju redan betydligt kraftigare än nvidias dito i teorin. Tror att de hellre väljer att satsa pengar på att utveckla bättre mjukvara för korten och på så vis få bort nvidia helt, än att sammarbeta med sin kunkurrent

Visa signatur

Intel I7 2600K, 4gb ddr3, gtx 560ti + geforce 9800gt physx. Ocz modxtream 700w nätagg

Permalänk
Hedersmedlem
Skrivet av MarkSix:

Jag tror bara att det inte finns något företag som skulle kunna hota Intel ensamt.
Det jag tänker på är GPU området och mobila enheter. Vad menar du med processområdet?

Jag menade givetvis "inom området processteknik", där nVidias dåliga kunskaper och frånvaro av egna fabriker har ställt till det för dem ett antal gånger. Något Intel aldrig behöver fundera på, de gör sådant i sömnen, och gör det bäst.

Även AMD har garanterat tillfört ATi mycket på detta område, även om de bara äger delar av global foundries numera. Jag tror det är en av de strörre anledningarna till ATis bättre förmåga att komma med produkter i tid och göra dem bra.

Visa signatur

W10, Intel 5820K, Asus X99-S, Crucial DDR4 2133MHz 32GB, Sapphire 290X Tri-X, Intel 730 SSD, WD Black+Green+HGST, Silverstone FT02, Corsair AX1200, Corsair K90, Logitech MX518, Eizo 2736w, Eaton 5115 UPS. Pixel 7 pro

Permalänk
Medlem
Skrivet av MultiMan:

Jag menade givetvis "inom området processteknik", där nVidias dåliga kunskaper och frånvaro av egna fabriker har ställt till det för dem ett antal gånger. Något Intel aldrig behöver fundera på, de gör sådant i sömnen, och gör det bäst.

Även AMD har garanterat tillfört ATi mycket på detta område, även om de bara äger delar av global foundries numera. Jag tror det är en av de strörre anledningarna till ATis bättre förmåga att komma med produkter i tid och göra dem bra.

Men AMD/GF har ju inte tillverkat några grafikkort, TSMC tillverkar dem.

Visa signatur

Chassi: Corsair 650D | Processor: Intel Core i5 3570K | Moderkort: Gigabyte GA-Z68XP-UD3P | Minne: Corsair 16 GB | SSD: Corsair Force GT 128 GB | Lagring: 3,5 TB | Grafikkort: HIS HD7870 | Nätaggregat: Corsair AX750W | Tangentbord: Microsoft Sidewinder X4 | Mus: Mionix Naos 5000

Permalänk
Medlem
Skrivet av MultiMan:

Jag menade givetvis "inom området processteknik", där nVidias dåliga kunskaper och frånvaro av egna fabriker har ställt till det för dem ett antal gånger. Något Intel aldrig behöver fundera på, de gör sådant i sömnen, och gör det bäst.

Även AMD har garanterat tillfört ATi mycket på detta område, även om de bara äger delar av global foundries numera. Jag tror det är en av de strörre anledningarna till ATis bättre förmåga att komma med produkter i tid och göra dem bra.

Ok då förstår jag och jag tror att det du säger stämmer.

Permalänk
Antielefant
Skrivet av Ctrl:

Läst era inlägg och alla disskuterar processorer bara, x86 är så mycket mer. Man måste ha x86 om man skall kunna tillverka styrchip till moderkort.
Vilket är en av orsakerna till att det inte finns någon nVidia krets till i3/i5/i7 moderkorten.
Just nu kör nVidia bara på grafikkort. Men hur länge kan de köra den nishen? Visst gör de ett bra jobb där, men en så smal marknad gör de
väldigt sårbara om tekniken ändras hastigt iom någon upptäckt. Precis som när första GeForce kortet kom ut på marknaden.
Då i princip bara ATi klarade av att hänga på nVidia när det drog iväg.

Nej, du behöver ingen x86-licens för att tillverka styrchip till moderkort, eftersom NVidia tillverkat styrchip till moderkort sedan Athlon släpptes på marknaden. NForce *är* NVidia's styrchip.

Sen har NVidia inte bara grafikkort, de är helt dominerande (typ 95% av marknaden) vad gäller både CAD och GPGPU, plus att de har ramavtalen vad gäller konsolgrafik med både Nintendo och Sony (och som det låter antagligen får tillbaka Microsoft med nästa XBox). De har dessutom ett par produkter inom PDA-området med Tegrachip, och har pratat med ett par mobiltillverkare gällande den marknaden också.

Skrivet av hjonsson:

Det är ju lustigt att Nvidia kunde tillverka styrchip för exempelvis LGA775-platformen då, utan några som helst x86-patent. Det är nog snarare så att Intel inte licensierar ut teknologier som QPI och DMI som behövs för att göra nord och sydbryggor.

Det är faktiskt inte sant, anledningen att NVidia inte tillverkar styrkretsar till 1156/1366 är för att Intel licensierade ett antal av NVidia's patent till sina egna kretsar, samt att styrkretsar till dessa plattformar är otroligt dyra att producera i förhållande till andra plattformar.

De tillverkar fortfarande chipset till AM3, och som det låter kommer de antagligen att tillverka styrkretsar till AM3+ också då AMD vägrar licensiera bl.a. SLI.

Skrivet av Devrer:

Vad har amd att tjäna på att gå ihop med nvidia? Amd har betydligt bättre och effektivare grafikkort och tillverkar dessutom processorer. Ser endast fördelar för Nvidia.

AMD är mycket svagare i grafikkortsmarknaden än NVidia, och har ingen egen tillverkning heller utan har allt lagt på lego hos TSMC och TSC.

Citat:

Det enda fördelarna nvidia har är att de äger physx + att Cuda är bättre än Amds Stream. Satsar amd bara lite på sitt Stream och hjälper till att fixa bra fysik i openGl så kommer nvidia vara helt ute i princip. Deras Quadro och Tesla kort kommer konkurreras ut bara Amd Stream blir betydligt bättre.

Rent önsketänkande va? AMD har ett antal fördelar gentemot NVidia, men de har också en lång lista med nackdelar. Deras största nackdel är att de är komplett urusla på att marknadsföra sig själva - The Way it's Meant to be Played är fortfarande ett enormt starkt SDK, plus att NVidia faktiskt knutit till sig i praktiken hela biblioteket av stora mjukvaruutvecklare inom workstationområdet, exempelvis Autodesk, Cyberlink och Adobe.

AMD tillverkar bra grafikkort för spelande, men de är bara bra så länge vi pratar exakt det - spel.

Skrivet av Valiumballong:

Samarbeta är inte att dela vinster och förluster. Ett ekonomiskt samarbete skulle förmodligen bryta mot VIAs x86-avtal.

Inte enligt domen i USA häromveckan, vilken uttryckligen säger att ett sådant samarbete inte är att betrakta som patentintrång.

Skrivet av Klimpen2:

Nu har jag dålig koll på detta men visst var det tänkt att det skulle använda OpenCL?

Det var när Intel och AMD pratade om att samarbeta om Havok, men det projektet grävdes ner i samma grav som Larrabee.

Skrivet av Devrer:

1 Amds hd5000 serie är enligt mig ganska mycket bättre än intels fermi. ett hd5970 presterar ju betydligt bättre än ett gtx480, men trotts det så drar det mindre ström! Jag skrev ju det vid "*". Att med "bättre" så menade jag även effektiviteten, vilket är ganska viktigt i framförallt företagsdatorer. Varför ha ett strömslukande grafikkort när man kan välja ett som presterar lika bra men som drar nästan halva elen och som dessutom är billigare?

Och GF104 är rätt mycket bättre än Cypress på dessa områden, so what? Ibland lyckas NVidia bättre, som nu, och ibland lyckas AMD bättre. HD 3000-serien var ju inte mycket att hänga i julgranen direkt, precis som HD 2000 krossades fullkomligt av 8800 GT.

HD 5000 vs Fermi är egentligen en dålig jämförelse, då Fermi egentligen är långt förbi vad vi faktiskt kan använda idag och dagens spel utnyttjar det riktigt uselt. GF104 är egentligen steget mellan GT200 och GF100, och Cypress ligger i lä där.

Citat:

2 Kanske blandade ihop det med OpenCL då? Har ju varit jäövligt mycket snack om det i alla fall. Annars hjälper ju Amd till med fysikmotorn "bullet"

Jämför du allvarligt Bullet och PhysX? Jämför du påsksmällare med vätebomber också?

Citat:

Ja, men det skulle lika gärna kunna hända om de bara valde att sattsa lite. Jag menar deras firepro är ju redan betydligt kraftigare än nvidias dito i teorin. Tror att de hellre väljer att satsa pengar på att utveckla bättre mjukvara för korten och på så vis få bort nvidia helt, än att sammarbeta med sin kunkurrent

Vilken värld lever du i? Fermi är så överlägset ett Firepro i workstationapplikationer att det inte ens är lustigt. Det är som att jämföra en Dual-Magny Cours-rigg med en Athlon x2.

GPGPU är vad Fermi är byggt för, och i GPGPU är det mer än dubbelt så snabbt som ett Cypresskort. Workstationmarknaden behöver GPGPU-kraft för rendering och beräkningar, vilket Fermi levererar - inte minst då CUDA är långt förbi Stream.

Skrivet av Klimpen2:

Men AMD/GF har ju inte tillverkat några grafikkort, TSMC tillverkar dem.

Samma gäller dock NVidia. Enda GPU-tillverkaren med egen produktion är Intel.

Visa signatur

i7-12700KF | 128 GB DDR4-4000 | RTX 4080 | Samsung 990 Pro | 3xAcer XB270HU G-Sync

Permalänk
Medlem
Skrivet av Zcenicx:

Sen har NVidia inte bara grafikkort, de är helt dominerande (typ 95% av marknaden) vad gäller både CAD och GPGPU, plus att de har ramavtalen vad gäller konsolgrafik med både Nintendo och Sony (och som det låter antagligen får tillbaka Microsoft med nästa XBox). De har dessutom ett par produkter inom PDA-området med Tegrachip, och har pratat med ett par mobiltillverkare gällande den marknaden också.

Vad man har hört är inte inquirer den bästa källan, men hittade ändå detta:

Intel will design playstation 4 gpu - The Inquirer

Däremot har nvidia tydligen nästa gen med nintendo DS, med sitt Tegra-chip.

Spel-konsoler med ATi-grafik:
Xbox360
Nintendo GameCube
Nintendo Wii

Spelkonsoler med nv-grafik:
PS3
Xbox

Om artikeln jag refererar till stämmer, så kommer nvidia inte tillverka några grafikchip till stationära spelkonsoler i kommande generation.

Visa signatur

Akashiro 0.9: Ryzen 5 7600, Radeon RX 7800XT Pure: 64/2000
https://podcasters.spotify.com/pod/show/thomaseron

Permalänk
Hedersmedlem
Skrivet av Klimpen2:

Men AMD/GF har ju inte tillverkat några grafikkort, TSMC tillverkar dem.

Vad menar du med det konstaterandet? Eller bättre engelskans "What's your point?"

Du vet alltså inte att AMD, med vid tillfället två egenägda anläggningar/områden för tillverkning av wafers, i Texas och i Dresden, köpte ATi 2006? All den kunskap om processrelaterade problem som kan uppstå kom därvid ATi till del. Även om TSMC inte använder silicon-on-insulator som AMD/global foundries gör är ändå många problem samma.

Det är redan bekräftat att ATi fattade en del viktiga beslut som gjorde förseningarna betydligt mindre för 5000-serien än vad annars skulle varit fallet. Dubbla VIAs är en. Möjligen genom sin bättre grundläggande förståelse av tillverkningstekniken valde de att använda hängslen och livrem.

ATi vände ju också inriktning efter att AMD kom in i bilden och bygger numera så kompakta kretsar som möjligt med maximal prestanda/watt. Något de lyckats med. Det är precis samma problematik CPU-tillverkare står inför, så inte speciellt långsökt att AMD bidragit med detta.

En CPUs största fiende är effektutveckling eftersom du då kommer begränsas kraftigt i dina klockfrekvenser och prestandan blir lidande. Ett bra exempel/parallell i praktiken är de nya tekniker inom CPU som kommit där du boostar enstaka kärnor om inte alla används.
Det är välkänt att nVidia inte alls nådde de mål de satt upp gällande detta medan ATi gjorde det, eller i vilket fall kom väldigt nära.

Hade nVidia gjort rätt och GF100 klockat 800-850Mhz standard vid rimlig effektutveckling så skulle inte någon pratat om flopp utan om ett nytt G80. De valde dock att inte implementera hängslen och livrem utan chansa på att det går ändå. Enligt uppgift avrådde (eller iaf varnade) t o m TSMC dem om den väg de tog, något de valde att strunta i. Med större förståelse och kunskap om tillverkning är jag inte så säker att de gjort det.

Tillägg
Visa signatur

W10, Intel 5820K, Asus X99-S, Crucial DDR4 2133MHz 32GB, Sapphire 290X Tri-X, Intel 730 SSD, WD Black+Green+HGST, Silverstone FT02, Corsair AX1200, Corsair K90, Logitech MX518, Eizo 2736w, Eaton 5115 UPS. Pixel 7 pro

Permalänk
Hedersmedlem
Skrivet av Zcenicx:

AMD tillverkar bra grafikkort för spelande, men de är bara bra så länge vi pratar exakt det - spel.

Jag antar att du tror på de där själv eftersom du skriver det.

Du påstår alltså att ATi inte legat långt före nVidia med strömsnåla kort försedda med hårdvaruavkodning för video och inbyggt ljud? Något som inte har med spel att göra.

Eyefinity har enligt dig inget annat användningsområde än spel?

Fusion, som knappast handlar om maximal spelprestanda, tror du också att det inte kommer bli något?

Skrivet av Zcenicx:

AMD är mycket svagare i grafikkortsmarknaden än NVidia, och har ingen egen tillverkning heller utan har allt lagt på lego hos TSMC och TSC.

Du har kanske missat senaste försäljningssiffrorna och nVidias massiva varning om lägre försäljning nästa kvartal? Eller menar du något helt annat? Förklara gärna mer.

Du menar kanske diskreta kort inom vissa segment? Isf kan man nog få fram de siffror man vill beroende på ens utgångspunkt.:)

Visa signatur

W10, Intel 5820K, Asus X99-S, Crucial DDR4 2133MHz 32GB, Sapphire 290X Tri-X, Intel 730 SSD, WD Black+Green+HGST, Silverstone FT02, Corsair AX1200, Corsair K90, Logitech MX518, Eizo 2736w, Eaton 5115 UPS. Pixel 7 pro

Permalänk
Inaktiv
Skrivet av Devrer:

Via är väl bra på att spara ström, just på grund av avsaknaden av allt vad prestanda heter;)

VIA Nano har (eller iaf hade) väl bättre prestanda än Intel Atom?

Permalänk
Hjälpsam
Skrivet av Zcenicx:

---Text---
Vilken värld lever du i? Fermi är så överlägset ett Firepro i workstationapplikationer att det inte ens är lustigt. Det är som att jämföra en Dual-Magny Cours-rigg med en Athlon x2.

GPGPU är vad Fermi är byggt för, och i GPGPU är det mer än dubbelt så snabbt som ett Cypresskort. Workstationmarknaden behöver GPGPU-kraft för rendering och beräkningar, vilket Fermi levererar - inte minst då CUDA är långt förbi Stream.

I de BOINC-applikationer som har stöd för ATI:s GPGPU presterar faktiskt Cypress bättre än Fermi, dock har fler applikationer stöd för Nvidias GPGPU.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Antielefant
Skrivet av MultiMan:

Jag antar att du tror på de där själv eftersom du skriver det.

Du påstår alltså att ATi inte legat långt före nVidia med strömsnåla kort försedda med hårdvaruavkodning för video och inbyggt ljud? Något som inte har med spel att göra.

Eyefinity har enligt dig inget annat användningsområde än spel?

Fusion, som knappast handlar om maximal spelprestanda, tror du också att det inte kommer bli något?

Du har kanske missat senaste försäljningssiffrorna och nVidias massiva varning om lägre försäljning nästa kvartal? Eller menar du något helt annat? Förklara gärna mer.

Du menar kanske diskreta kort inom vissa segment? Isf kan man nog få fram de siffror man vill beroende på ens utgångspunkt.:)

1. Att sätta en S/PDIF-krets på ett grafikkort är alltså innovativt och unikt? Strömsnåla kort tillverkar NVidia också, men normalt sett inte i prestandaklassen, och för att vara helt ärlig är AMD urusla på det de också. Cypress är inte alls dåligt, men GF104 matchar den, precis som GT200b matchade RV770.

2. Eyefinity är lika mycket bling som 3DVision eller 3DVision Surround (som, btw, klarar 4 skärmar). Det är ju dessutom inte något perfekt system, när man måste köpa en adapter för 1000:- för att köra det. Finns dessutom inget som säger att NVidia inte kan köra det, enda anledningen att de inte gör det idag är för att deras kort bara har två RAMDACs, det är heller inget direkt innovativt.

3. Fusion är inte ett grafikkort, det är istället för grafikkort. Vi pratar prestanda i klass med Intel GMA, inte som ett Radeon.

4. Självklart, eftersom NVidias integrated circuit-marknad till stor del försvinner, speciellt i de lägsta prisklasserna. Den diskreta grafikkortsmarknaden har de fortfarande, och i prestandasegmentet är de fortfarande (trots Cypress) marknadsledande.

Skrivet av Ratatosk:

I de BOINC-applikationer som har stöd för ATI:s GPGPU presterar faktiskt Cypress bättre än Fermi, dock har fler applikationer stöd för Nvidias GPGPU.

Cypress presterar ju normalt i samma klass som GT200, enligt samtliga recensioner jag sett, så det är i såna fall extrema undantagsfall vi pratar om.

Skrivet av tosseboll:

Vad man har hört är inte inquirer den bästa källan, men hittade ändå detta:

Intel will design playstation 4 gpu - The Inquirer

Däremot har nvidia tydligen nästa gen med nintendo DS, med sitt Tegra-chip.

Om artikeln jag refererar till stämmer, så kommer nvidia inte tillverka några grafikchip till stationära spelkonsoler i kommande generation.

Med tanke på att Intel lade ner Larrabee, som källan du refererar till har som anbud, lär det inte stämma nej. Däremot finns det gott om rykten om en Tesla-variant som kör ARM. PSP går också över till Tegra, btw.

Visa signatur

i7-12700KF | 128 GB DDR4-4000 | RTX 4080 | Samsung 990 Pro | 3xAcer XB270HU G-Sync

Permalänk
Hedersmedlem

Zcenicx, av någon anledning blir du extremt defensiv och försöker hitta olika krystade förklaringar till varför nVidia är bättre eller lika i allt gällande grafik. Eller varför AMD/ATi-innovatiioner är utan värde. Att ens påstå att det krävs en adapter för 1000.- till 3-skärmars EyeFinity visar ju att du inte längre är intresserad av en saklig diskussion.
Enligt dig finns det ingenting AMD kan bättre inom grafik, än nVidia. Du får gärna tycka så, jag gör det aboslut inte och tänker inte starta ännu en meningslös diskussion eftersom du uppenbart inte är intresserad av teknik i allmänhet, utan enbart teknik från vissa företag.

Visa signatur

W10, Intel 5820K, Asus X99-S, Crucial DDR4 2133MHz 32GB, Sapphire 290X Tri-X, Intel 730 SSD, WD Black+Green+HGST, Silverstone FT02, Corsair AX1200, Corsair K90, Logitech MX518, Eizo 2736w, Eaton 5115 UPS. Pixel 7 pro

Permalänk
Medlem
Skrivet av Zcenicx:

3. Fusion är inte ett grafikkort, det är istället för grafikkort. Vi pratar prestanda i klass med Intel GMA, inte som ett Radeon.

Llano kommer att prestera ungefär som ett 5670 grafikväg vilket täcker minst 95% av marknaden grafikväg.

EDIT: Fuson är varken grafikkort eller processor, det är en APU. Eller Processor med grafikkort inbyggt.

Visa signatur

Chassi: Corsair 650D | Processor: Intel Core i5 3570K | Moderkort: Gigabyte GA-Z68XP-UD3P | Minne: Corsair 16 GB | SSD: Corsair Force GT 128 GB | Lagring: 3,5 TB | Grafikkort: HIS HD7870 | Nätaggregat: Corsair AX750W | Tangentbord: Microsoft Sidewinder X4 | Mus: Mionix Naos 5000

Permalänk
Medlem
Skrivet av Zcenicx:

2. Eyefinity är lika mycket bling som 3DVision eller 3DVision Surround (som, btw, klarar 4 skärmar). Det är ju dessutom inte något perfekt system, när man måste köpa en adapter för 1000:- för att köra det. Finns dessutom inget som säger att NVidia inte kan köra det, enda anledningen att de inte gör det idag är för att deras kort bara har två RAMDACs, det är heller inget direkt innovativt.

3. Fusion är inte ett grafikkort, det är istället för grafikkort. Vi pratar prestanda i klass med Intel GMA, inte som ett Radeon.

2. Man behöver inte köpa en adapter för 1000kr. Det räcker med att en av skärmarna man har är en ny skärm med displayport-kontakt.

3. Fusion är en processor men inbyggd grafikkrets. Denna grafikkretsen ska ju ge prestanda som ett HD5670, vilket är ganska mycket bättre än intels motsvarighet.

Visa signatur

Intel I7 2600K, 4gb ddr3, gtx 560ti + geforce 9800gt physx. Ocz modxtream 700w nätagg

Permalänk
Antielefant
Skrivet av MultiMan:

Zcenicx, av någon anledning blir du extremt defensiv och försöker hitta olika krystade förklaringar till varför nVidia är bättre eller lika i allt gällande grafik. Eller varför AMD/ATi-innovatiioner är utan värde. Att ens påstå att det krävs en adapter för 1000.- till 3-skärmars EyeFinity visar ju att du inte längre är intresserad av en saklig diskussion.
Enligt dig finns det ingenting AMD kan bättre inom grafik, än nVidia. Du får gärna tycka så, jag gör det aboslut inte och tänker inte starta ännu en meningslös diskussion eftersom du uppenbart inte är intresserad av teknik i allmänhet, utan enbart teknik från vissa företag.

Min poäng är att ingetdera bolaget är bättre än det andra. NVidia har en del innovationer, AMD har andra. Båda har både för- och nackdelar, men att hispa upp sig över en specifik (och inte särskilt innovativ funktion, Matrox har kört 3-skärmssystem sen 1998) är rätt roligt när AMD-fans rackat ner på både PhysX, CUDA och 3DVision i ett antal år nu.

Cypress är en riktigt trevlig grafikkrets, och Fermi var ett misslyckande sett som ett spelkort, men att dra ut en enda generation grafikkort och döma hela bolaget efter det är bara naivt och på gränsen till idiotiskt.

Sen bör man inte räkna bort NVidia, till skillnad från AMD har de pengar (de har $2,5 miljarder i kassan enligt sin senaste kvartalsrapport jämfört med AMD's $650 miljoner) vilket är pengar nog för att köpa andra ganska stora bolag som exempelvis VIA som bara är värderat till dryga 1,2 miljarder USD.

Skrivet av Klimpen2:

Llano kommer att prestera ungefär som ett 5670 grafikväg vilket täcker minst 95% av marknaden grafikväg.

EDIT: Fuson är varken grafikkort eller processor, det är en APU. Eller Processor med grafikkort inbyggt.

Inte riktigt sant. APUn kommer att prestera som ett 5670, men släpps i samband med 6000-serien, och har inget eget VRAM utan enbart delat med systemet. Den faktiska prestandan blir alltså en ganska bra bit lägre.

Skrivet av Devrer:

2. Man behöver inte köpa en adapter för 1000kr. Det räcker med att en av skärmarna man har är en ny skärm med displayport-kontakt.

3. Fusion är en processor men inbyggd grafikkrets. Denna grafikkretsen ska ju ge prestanda som ett HD5670, vilket är ganska mycket bättre än intels motsvarighet.

Med tanke på att DisplayPort som bäst är en tveksam standard i dagsläget (enbart Apple använder den egentligen) ställer jag mig avvaktande för det uttalandet. HDMI och DVI är dagens standarder och klarar samma upplösningar, och en migrering till DisplayPort är inte trolig innan du ändå måste byta grafikkort.

Idag finns det ett extremt begränsat utbud, som kostar en bra skopa mer än motsvarande HDMI/DVI-skärmar, just eftersom DisplayPort kräver dyr extrautrustning. Jag accepterar heller inte att man tar upp en eventuell migrering om 3-4 år som anledning att köpa utrustning idag, trots allt kommer ju ett grafikkort från idag att vara näst intill oanvändbart då.

Visa signatur

i7-12700KF | 128 GB DDR4-4000 | RTX 4080 | Samsung 990 Pro | 3xAcer XB270HU G-Sync

Permalänk
Inaktiv

Vad som är innovativt med HD5000-serien är att korten stödjer flera skärmar och (i speciellt HD5800-seriens fall) kan användas i spel. Det var inte igår jag såg ett Matrox-kort som klarade av att driva spel (bra).

Jag tycker det ser ut som att det finns en hel del skärmar med DisplayPort idag förvisso, från strax under 2000kr och uppåt: TFT-skärmar - Hitta de bästa priserna, information och omdömen

Sen är iallafall ett kort påväg som klarar Eyefinity med tre DVI/HDMI-anslutningar: http://www.sweclockers.com/nyhet/12516-sapphire-radeon-hd-577...
Förhoppningsvis kommer det fler sådanna lösningar då det förenklar för den konsument som vill sitta kvar med gamla skärmar. Nya skärmar har DisplayPort och då blir det lite av ett icke-problem.

Permalänk
Hedersmedlem
Skrivet av Zcenicx:

Min poäng är att ingetdera bolaget är bättre än det andra. NVidia har en del innovationer, AMD har andra. Båda har både för- och nackdelar, men att hispa upp sig över en specifik (och inte särskilt innovativ funktion, Matrox har kört 3-skärmssystem sen 1998) är rätt roligt när AMD-fans rackat ner på både PhysX, CUDA och 3DVision i ett antal år nu.

Cypress är en riktigt trevlig grafikkrets, och Fermi var ett misslyckande sett som ett spelkort, men att dra ut en enda generation grafikkort och döma hela bolaget efter det är bara naivt och på gränsen till idiotiskt.

Sen bör man inte räkna bort NVidia, till skillnad från AMD har de pengar (de har $2,5 miljarder i kassan enligt sin senaste kvartalsrapport jämfört med AMD's $650 miljoner) vilket är pengar nog för att köpa andra ganska stora bolag som exempelvis VIA som bara är värderat till dryga 1,2 miljarder USD.

Vem skriver du till? Kan inte vara mig iaf. Jag är inget AMD-fan och har aldrig "rackat ner" på PhysX, CUDA eller 3Dvision.
Har jag "hispat upp mig" över EyeFinity? Nej, inte det heller. Jag använder fortfarande Matrox så jag vet mycket väl att de var först. Men aldrig till de priserna, definitivt inte för 6 skärmar på 1 kort iaf.

En enda generation? De fick lägga ner GT200 i förtid eftersom den inte var lönsam att tillverka längre. För dyr tillverkning i förhållande till prestandan jämfört med konkurrenten. Alldeles oavsett, vem har dömt ut eller räknat ut hela bolaget oavsett tidigare fadäser? Inte jag iaf. Så igen, vem talar du med? Du citerar mig men tillskriver mig uttalanden jag aldrig gjort.

§1
Visa signatur

W10, Intel 5820K, Asus X99-S, Crucial DDR4 2133MHz 32GB, Sapphire 290X Tri-X, Intel 730 SSD, WD Black+Green+HGST, Silverstone FT02, Corsair AX1200, Corsair K90, Logitech MX518, Eizo 2736w, Eaton 5115 UPS. Pixel 7 pro