Nvidia sänker prognoserna – försäljningen av Geforce RTX-serien sämre än väntat

Trädvy Permalänk
Medlem
Plats
Skåne
Registrerad
Apr 2009

Skönt att folk inte köper dessa korten. Lägger till en massa gimmicks och trycker upp priserna och tror att det ska säljas? Kanske vaknar dom nu och inser att det är hög tid att sänka priserna på deras grafikkort.

Speldator: AMD Ryzen 7 2700 I Sapphire R9 270X DualX I 8GB I Kingston SSDNOW V300 120 GB I Crucial BX100 500GB I 320GB 640GB I W10
Acer B1 770 I Moto G6 I Nvidia Shield TV V2 I PS4 I Canon EOS M

Trädvy Permalänk
Medlem
Plats
Jönköping
Registrerad
Aug 2011
Skrivet av hakan78:

Ni som försvarar Nvidias priser?! De som kör samma koncept som Apple. De har en vinstmarginal på 60% på deras grafikkort som säljs privat. Dvs inkomst från försäljning - utveckling+tillverkning
Jämför det med AMDs 36%.
Nvidia är giriga. Observera att det inte är toppmodellerna som har så hög vinstmarginal. De ligger betydligt lägre. 1080ti hade 2% vinstmarginal vid lansering. Det är inte är där ockret sker utan på de kort som ligger i mellan och budgetklassen. Gtx 1050 har över 100% i vinstmarginal.

Var har du hittat dessa siffror?

http://xkcd.com/386/
http://readthefuckingmanual.com/
http://en.wikipedia.org/wiki/Megahertz_myth

”Alltså vad är det med grafikkortsmakare och bokstaven X? Det är precis som med dansbandsmusiker och bokstaven Z.”

Trädvy Permalänk
Medlem
Plats
Umeå
Registrerad
Jun 2009

Det kan kännas lite framtidssäkert med RT i alla fall. Men just nu finns det väl typ bara ett spel som har stöd för det och det är Battlefield. Sämsta tänkbara spelet att implementera RT i. Hade varit riktigt skönt och snyggt i ett bilspel till exempel.

Intel Pentium 2 MMX 233 @263 MHz, 192 mb, Nvidia TNT 16mb, 40gb hdd

Trädvy Permalänk
Medlem
Plats
Ystad
Registrerad
Jan 2012
Skrivet av igelkotte:

Det kan kännas lite framtidssäkert med RT i alla fall. Men just nu finns det väl typ bara ett spel som har stöd för det och det är Battlefield. Sämsta tänkbara spelet att implementera RT i. Hade varit riktigt skönt och snyggt i ett bilspel till exempel.

Eller i RPG/RTS... <3

FPS-spel är sämsta genren för Raytracing.

CPU: i7-8700k @ 5 GHz + Noctua NH-U14S || GPU: Palit RTX 2080 Ti GamingPro OC.
MoBo: Asus Rog Strix Z370-F Gaming || RAM 16 GB G.Skill Trident Z RGB 3200 MHz.
PSU: Seasonic Focus+ 850W Gold || Chassi: Corsair Crystal 460X + 6st Corsair LL120.
Lagring: Samsung 830(128 GB), Samsung 860 EVO(500GB) Crucial MX300(525 GB).
Skärmar: Acer Predator XB271HU + Samsung C27F396 || OS: Win 10 Pro N.

Trädvy Permalänk
Medlem
Registrerad
Okt 2015
Skrivet av Fonus:

Vilket "exakt samma hus" skulle det vara?

Oftast är det väl inte heller husen som är själva grejen så att säga, utan tomten och dess läge.

Finns ett antal exakt identiska hus här i stan som skiljer något enormt i pris, på grund av placeringen av dem.

Trädvy Permalänk
Medlem
Plats
Mölndal
Registrerad
Jun 2002
tillägg

Platon

Trädvy Permalänk
Medlem
Plats
Norrköping
Registrerad
Jul 2015

No shit sherlock?

Hade Nvidia valt en lite mer rimlig prissättning hade de fått sälja bra mycket större volymer och därmed också tjänat bättre.

Trädvy Permalänk
Medlem
Plats
Stockholm
Registrerad
Aug 2004
Skrivet av Sveklockarn:

Var har du hittat dessa siffror?

Google samt att man följer med deras kvartalsrapporter.

Nvidia:
https://ycharts.com/companies/NVDA/gross_profit_margin

AMD:
https://ycharts.com/companies/AMD/gross_profit_margin

om Nvidia:
https://wccftech.com/nvidia-q4-2017-financial-results/

https://www.bloomberg.com/news/articles/2019-01-28/nvidia-sin...

https://www.cnbc.com/2019/01/29/nvidia-warning-is-tip-of-the-...

Att man har lägre marginal på de högpresterande korten är inte konstigt. Det har ofta varit så.
Därför har man en bred produktserie hela vägen som man dessutom utnyttjar dåliga material som inte klarar kvalitetskraven för de högpresterande korten. Dessa kort får ett lägre pris men betydligt högre vinstmarginal.
Det handlar om marknadsekonomi. Vilka kort tror du säljer mest? Budget och mid-range kort. Kolla på hur många sålda GTX 1050 och GTX 1060 det såldes. Med enkel matematik inser man att de har en profit en bra bit över de genomsnittliga 60%. High end korten får bättre vinstmarginal med tiden då man korrigerat och optimerat tillverkningen. GTX 1080 nådde dock en milstolpe med hela 20%, efter en tid, i vinstmarginal tack vare övergången från Maxwell till Pascal. En annan stor betydande faktor för att en hög vinstmarginal kunde hållas är tack vare mining-faktorn. Nu är det inte lika intressant och då är det svårt att hålla samma priser.
Men nu har ju även Nvidia tappat mark på annan mark också som datacenter som har haft en uppgång på flera hundra procent på ett par år men som fullständigt har planat ut. De skyller gärna på USA-Kina konflikten men den är mer som en krydda på den avkylningseffekt som inträffat. Nvidia är inte ensamma att vinstvarna. Många företag vinstvarnar just nu. Vi är på väg in i en lågkonjuktur.

Dator - Eizo S2431W, Phantek Enthoo Pro, Intel i7 4970K, CM Hyper EVO 212, Asus Z97, Samsung SSD 840 Pro 128GB, 16 gb Kingston DDR 3 1833Mhz, Gigabyte Geforce Windforce 970, Asus Zonar DG, 2st x 3 TB WD RED, Logitech MX518, Sennheiser Momentum, Qpad Pro MK80!

Trädvy Permalänk
Medlem
Registrerad
Jan 2019

"Nvidia sänker pr..." *meh* sen blev det fel..
Assetto Corsa Competizione (Blancpain GT Series) hamna just I mitt Steam Biblotek och ser inte så pjåkigt ut.. andvänder sig nu av UE4 motorn.
Lär inte avinstallera rFactor 2 för det..

Trädvy Permalänk
Medlem
Plats
Göteborg
Registrerad
Okt 2009
Skrivet av Dalton Sleeper:

Inte så konstigt att det dimper, nästa år får man detta prestanda för halva priset, där det borde ligga, eller så får man ett nytt kort med dubbelt antal RT cores.

Tänk också på att raytracingen är pinsamt frånvarande i dessa spel, knappt inga av de viktiga effekterna är implementerade just pga att prestandan är kass. Vi vill ha reflektioner, vi vill ha skuggor, vi vill ha global illumination, dessa får man mer eller mindre gratis av raytracing. Då dagens kort bara klarar ett par % av en bildskärm så kommer vi aldrig att få i närheten av dessa, utan "assisted raytracing" blendad med den vanliga rasterizeringen. Man vill också ha många fler rays per pixel, så även om prestandan dubbleras nästa generation så kommer man mer eller mindre inte ha råd med dom mest grundläggande och efterlängtade effekterna i raytracing.

Så var det väl för 10-15 år sedan när lite mer avancerad Antialiasing skulle släppas på bred front. Grafikkorten gick fullständigt på knäna i nån generation innan det gick att använda det fullt ut.
Tycker dock nvidia gör helt rätt som pushar för kvalitetshöjande teknik per pixel istället för att bara pushat ut högre upplösning med mer fps.
Tror nog 1080p med riktig raytracing som du nämner ovan ser betydligt snyggare ut än vanlig rendering i 4k.

Trädvy Permalänk
Moderator, Testpilot
f.d. Dinoman 🦖
Plats
Älmhult
Registrerad
Jan 2002
Skrivet av trickeh2k:

*facedesk* minst vettiga jag läst på förstasidan.

Nu kanske någon har hunnit påpeka detta men jag har för mig att de sa att Turing varit under utveckling i över tio år. Ett år tillbaka täcker knappast in kostnaderna för denna generation så att kalla det fakta blir nog att tumma lite på sanningen. Det som hamnar som utpost för R&D i år kanske inte ser dagens ljus förrän 2024, eller senare.

Nettoinkomsten är det enda vi egentligen kan dra någon slutsats av och det är garanterat till största del pga miningboomen.

Ok, så efter ett antal kommentarer liknande denna i tråden så tröttnade jag lite på killgissandet och gav mig in i Nvidias finansiella rapporter. Så, ytterligare fakta kommer här.

Så en liten förklaring till engelskan;

Revenue = Intäkter
Cost of revenue = Kostnad för tillverkning och service (denna är intressant att ha koll på när vi pratar om tillverkningskostnader)
R&D = Forskning och utveckling
Net Income = Netto inkomst (alltså direkt vinst)

Var så goda att titta på staplarna och bilda er en uppfattning.

Min slutsats är att under de, tio år som det påstås att Turing varit under utveckling så kostnaderna för forskning & utveckling gått försiktigt uppåt med en skarp uppåt-trend 2013, vilket skulle kunna indikera Turing om vi ska tro på att det tar fem år att utveckla en GPU, sen planar det av lite granna och ligger ganska stabilt.

Tillverkningskostnaden har ökat dramatiskt från 2017 och framåt vilket kan indikera det faktum att Turing och Volta är dyra att tillverka.

Vad som är verkligen intressant dock är hur nettoinkomsten fullkomligt skjutit i höjden från 2016 och framåt, alltså då Pascal lanserades.

Tror vi fortfarande på att Nvidia "måste" ta sådana hutlösa priser för Turing? Jag tror att Nvidia valde att behålla samma GM (gross margin) på Turing som Pascal vilket har resulterat i så höga priser eftersom Turing är så pass mycket dyrare att tillverka. 471 mm² 14nm vs 754 mm² 12nm.

Asus Maximus VII Hero - Intel Core i7 4770K @ 4,6Ghz - Corsair H110i - 16GB RAM - ASUS ROG STRIX 1080 Ti @ 2000/12 000MHz - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz

Trädvy Permalänk
Medlem
Registrerad
Nov 2016

Vad innebär nu detta för oss dödliga? kommer priserna att störtdyka till normal nivå på konsument grafikkort det vill säga under 8000-10000? Eller vad kommer hända med dessa konsumentgrafikkort som ingen köper? Jag tycker priserna fortfarande är katastrofalt för högt.

Trädvy Permalänk
Medlem
Plats
kinna
Registrerad
Okt 2010

@e3henri: Kan det vara så att du jämför ett 2070 med ett 1080 ? du borde jämföra det mot ett 1070 . Jag förstår att med dom grafikkorten du hade var det en bra uppgradering . Det går dock inte att jämföra mot dom som sitter med ett 1070 eller bättre . Priserna på 1070 är högre nu är när jag köpte för 2.5 år sen ….. Säger nåt om priserna .

Dator 1: i7 6700 k NH-D14 32gb ram Z170A GAMING M5 500GB 960 EVO 500 GB 850 EVO 500 GB MSI 1070 GTX 2x4 TB HGST Nas 7200 RPM EVGA 850 G2 Define R5 Black Pearl. Win 10 ASUS PG279Q skärm.

Trädvy Permalänk
Medlem
Registrerad
Dec 2018

Men svenskarna har tydligen råd. Jag såg just att mest sålda grafikkortet på Webhallen är RX 2080 Ti.
Priset är ju relativt -Tesla V100 kostar 200 000 med 16 GB HBM2.....så kanske är RX 2080 Ti ett fynd?

Trädvy Permalänk
Medlem
Plats
Stockholm
Registrerad
Apr 2012

Lite som att ICA skulle höja priset på mjölk till 100 spänn litern och sedan skylla på att det ekonomiska läget ser dystert ut i Kalmar. Sänk priset.

/Slut på överdrift

Trädvy Permalänk
Moderator, Testpilot
f.d. Dinoman 🦖
Plats
Älmhult
Registrerad
Jan 2002
Skrivet av Greyguy1948:

Men svenskarna har tydligen råd. Jag såg just att mest sålda grafikkortet på Webhallen är RX 2080 Ti.
Priset är ju relativt -Tesla V100 kostar 200 000 med 16 GB HBM2.....så kanske är RX 2080 Ti ett fynd?

Källa på det?

Dessutom kostar Tesla V100 drygt 90 000:-.

Asus Maximus VII Hero - Intel Core i7 4770K @ 4,6Ghz - Corsair H110i - 16GB RAM - ASUS ROG STRIX 1080 Ti @ 2000/12 000MHz - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz

Trädvy Permalänk
Medlem
Plats
Enköping
Registrerad
Okt 2007

Jomen lite som dagens mobiler. Inte får jag så mycket mera pang om jag lägger dubbla pengarna.
Vi har dessutom ruttnat lite på GPU priserna - mitt 1070 strix har gått upp i pris sedan 2,5 år.
Som mobilerna då, vi byter GPU när vi tycker det är värt det?

Trädvy Permalänk
Medlem
Plats
127.0.0.1
Registrerad
Sep 2003
Skrivet av e3henri:

Så var det väl för 10-15 år sedan när lite mer avancerad Antialiasing skulle släppas på bred front. Grafikkorten gick fullständigt på knäna i nån generation innan det gick att använda det fullt ut.
Tycker dock nvidia gör helt rätt som pushar för kvalitetshöjande teknik per pixel istället för att bara pushat ut högre upplösning med mer fps.
Tror nog 1080p med riktig raytracing som du nämner ovan ser betydligt snyggare ut än vanlig rendering i 4k.

Visst är det kul att det går framåt, dock inte lika kul med priset man får betala för sånt som ses som onödigt av många. En riktig raytracing i 1080p är inte så lätt, nu kanske de har 0.25 rays per pixel i endast reflektioner på selektiva ytor, en riktig rendering skulle behöva kanske 16 rays per pixel över hela scenen, och möjligen en hel del bounces till om belysningen ska se okay ut. Om man fuskar tillräckligt och polerar bort artefakterna/pixligheten kanske man kommer lite lindrigare undan, men jag skulle nog vilja ha 100x mer prestanda i ett kort om det ska klassas som raytracing.

1: Intel i7-3930K | 32GB Corsair Dominator GT | Asus Rampage IV Extreme x79 | 2 x 1080 GameRock Premium 8GB | 2 x Samsung Pro 840 512GB | Corsair AX1200i | BenQ XL2411 24" / W1070 135" | Bose QC25 | Windows 10 Pro x64 | HTC Vive |
2: Intel Core i7-4700HQ | 32GB RAM | Intel HM87 Express | GTX 780M | 17" | Windows 10 Pro x64 |

Trädvy Permalänk
Medlem
Registrerad
Jul 2015
Skrivet av sesese:

När Nvidia går över till 7 eller 5Nm i tillverkningsteknik så kommer RTX korten finnas i alla segment vilket kommer att göra serien mycket populär tror jag. Nvidia släppte 2000 serien minst ett år för tidigt där de var tvungen att tillverka kretsen med "gammal" teknik. Men det gynnar AMD som nu kan bedöma Nvidas framfart med RTX korten. (tvivlar på spel titlar sponsrade av AMD får RT)

Detta är en ganska bra poäng, men skulle gissa att enbart motsvarande 1000 seriens övre midrange i prisklass kommer få RTX på 7nm, och gemene dator (med nvidia kort) kommer stödja användbar RTX först ca 2 generationer efter det, i vilket läge fler spel kommer stödja tekniken i större utsträckning, tänk bara på hur länge det har tagit för VR att funka på övre midrange kort (970/1060 eller bättre) sedan tekniken först började finnas tillgängligt (dev kits under 3013).

"Oh glorious cheeseburger… we bow to thee. The secrets of the universe are between the buns..."
"All my farts come straight from hell, you're already dead if you notice a smell"

Trädvy Permalänk
Medlem
Registrerad
Nov 2013
Skrivet av ottoblom:

@e3henri: Kan det vara så att du jämför ett 2070 med ett 1080 ? du borde jämföra det mot ett 1070 . Jag förstår att med dom grafikkorten du hade var det en bra uppgradering . Det går dock inte att jämföra mot dom som sitter med ett 1070 eller bättre . Priserna på 1070 är högre nu är när jag köpte för 2.5 år sen ….. Säger nåt om priserna .

De som sitter på 1070 eller bättre har ju redan bra grafikkort som klarar marknadens alla spel.

Vet inte om det har med åldern men jag har så svårt för att förstå varför man har behovet att ha alla inställningar på max för att kunna njuta av ett spel.

Jag är även genuint nyfiken på vad det är som driver en människa att betala 14k för ett grafikkort när samma spel går att köra för betydligt mindre peng.

Därmed inte sagt att det är något fel att göra det, var människa har rätten att spendera sina pengar än den behagar. Är som sagt mest nyfiken på drivkraften bakom köpet.

Skickades från m.sweclockers.com

Trädvy Permalänk
Medlem
Plats
Falkenberg
Registrerad
Nov 2009
Skrivet av Ratatosk:

Skiter i hur dyrt det är att tillverka jag tänker ändå inte betala mer än det är värt.
Vega har dyrt HBM2, Primitive Shaders som inte används, HBCC minne som vi inte har nytta av ännu, allt detta kostar, ingen som tänker betala 10 000 kr för ett Vega 64 trots detta, 5000-6000 kr är vad de säljs för inte mer.

Har du redan glömt miningboomen?

Du kunde få 12-13 tusen för ett begagnat Vega64.
Sen allt du nämner är helt ointressant för gamers, ingen som tvingar AMD att sälja dessa kort till gamers heller.
HBM2 är inte så dyrt längre heller, så det argumentet håller ej.

Trädvy Permalänk
Medlem
Plats
kinna
Registrerad
Okt 2010

@Elektron: Jag känner själv att jag vill uppgradera 1070 räcker inte på långa vägar med en 1440p skärm om man vill ha höga fps . Dock så gav jag 3995 kr för över 2 år sen vilket gör det till ett bra köp med dom spelen jag spelade då .

Dator 1: i7 6700 k NH-D14 32gb ram Z170A GAMING M5 500GB 960 EVO 500 GB 850 EVO 500 GB MSI 1070 GTX 2x4 TB HGST Nas 7200 RPM EVGA 850 G2 Define R5 Black Pearl. Win 10 ASUS PG279Q skärm.

Trädvy Permalänk
Medlem
Plats
Piteå
Registrerad
Jul 2017
Skrivet av grönsaksröra:

Lite äckligt att ni kallar raytracing i realtid för en "gimmick".

Men visst, priserna är för höga.

Det är exakt vad det är. För tillfället... eller du kanske menar att Raytracing är vida använt inom spelindustrin? :>

Skrivet av DaddyCoolSwe:

Blir så trött.. folk tänker/beter sig som det vore 1999 igen. En högkonjunktur kan inte stiga för evigt. nVidia är varken första eller sista bolaget som fått/får justera sin prognoser för dom närmsta åren.

Är dock ingen lågkonjunktur och när ett företag får justera sina prognoser när de sitter i Nvidias sits så är det någon som gjort en felberäkning.

Skrivet av Kaine_Uro:

Oftast är det väl inte heller husen som är själva grejen så att säga, utan tomten och dess läge.

Finns ett antal exakt identiska hus här i stan som skiljer något enormt i pris, på grund av placeringen av dem.

Inte bara tomter utan det kan vara lägenheter i samma trapphus bara för att den ena är vänd åt ett specifikt väderstreck. Minns att för ett par år sedan när man tittade på lägenheter i stan så kunde det skilja flera hundra tusen mellan olika lägenheter bara för att de låg en trappa över den andra.. annars var de identiska med varandra.

Skrivet av e3henri:

Så var det väl för 10-15 år sedan när lite mer avancerad Antialiasing skulle släppas på bred front. Grafikkorten gick fullständigt på knäna i nån generation innan det gick att använda det fullt ut.
Tycker dock nvidia gör helt rätt som pushar för kvalitetshöjande teknik per pixel istället för att bara pushat ut högre upplösning med mer fps.
Tror nog 1080p med riktig raytracing som du nämner ovan ser betydligt snyggare ut än vanlig rendering i 4k.

Som jag ser det så gjorde Nvidia ett stor misstag och det var att försöka lansera RT på bred front för tidigt utan någon som helst alternativ för de som inte ville punga upp ett stort prispåslag för en omogen teknologi. Detta gjordes antagligen för att Nvidia överskattade både prestandan man skulle få ut av korten men framförallt.. så överskattade de hur mycket mjukvara det skulle finnas som kunde utnyttja detta från dag ett. Det är ju ändå ganska talande att Nvidia idag mer fokuserar på DLSS än RT när RT var "The big new thing" med denna serie av kort och DLSS var snarare menad som en mindre sak.

Skrivet av dl380g7:

Vad innebär nu detta för oss dödliga? kommer priserna att störtdyka till normal nivå på konsument grafikkort det vill säga under 8000-10000? Eller vad kommer hända med dessa konsumentgrafikkort som ingen köper? Jag tycker priserna fortfarande är katastrofalt för högt.

Finns inga garantier för det. Nvidia sitter i sin egen lilla båt och man har råd att fullständigt ignorera marknaden.

Skrivet av Dinoman:

Källa på det?

Dessutom kostar Tesla V100 drygt 90 000:-.

Dessutom är det inte kortet man betalar för mest utan 24/7 service 365 dagar om året och diverse licenser.

Skrivet av Elektron:

De som sitter på 1070 eller bättre har ju redan bra grafikkort som klarar marknadens alla spel.

Vet inte om det har med åldern men jag har så svårt för att förstå varför man har behovet att ha alla inställningar på max för att kunna njuta av ett spel.

Jag är även genuint nyfiken på vad det är som driver en människa att betala 14k för ett grafikkort när samma spel går att köra för betydligt mindre peng.

Därmed inte sagt att det är något fel att göra det, var människa har rätten att spendera sina pengar än den behagar. Är som sagt mest nyfiken på drivkraften bakom köpet.

Skickades från m.sweclockers.com

För att folk vill ha fin grafik och bra flyt samtidigt? Vilket idag inte är direkt omöjligt och tills ganska nyligen inte överdrivet dyrt heller.

Skrivet av Ryzer:

Har du redan glömt miningboomen?

Du kunde få 12-13 tusen för ett begagnat Vega64.
Sen allt du nämner är helt ointressant för gamers, ingen som tvingar AMD att sälja dessa kort till gamers heller.
HBM2 är inte så dyrt längre heller, så det argumentet håller ej.

Miningboomen är över sedan tid tillbaka. Sedan HBM2 inte dyrt längre? I snitt är en 1GB HBM2 tre gånger så dyrt som lika stor mängd GDDR minnen. 8GB HBM2 kostar t.ex. $160.

https://www.fudzilla.com/news/graphics/43731-vega-hbm-2-8gb-m...

NZXT H440 | Intel i7 7700K @ 5 GHz | Asus strix Z270H Gaming | 16GB Corsair DDR4 3200 mhz | EVGA RTX 2070 Black | 512 GB Samsung Pro 850 SSD | Corsair HX750 |

Trädvy Permalänk
Medlem
Plats
Götet
Registrerad
Apr 2004
Skrivet av wargreymon:

Enda vettiga jag läst i tråden. Vi sitter på ett teknikforum och skämmer ut företag som innoverar och kommer med revolutionerande teknik. Fy vad lågt det har gått när vi ska sakta ner utvecklingen så att folk kan få lite billigare kort till gammal teknik.

Vill ni veta vilka de riktiga pengakåta är? Miners! De förstörde hela systemet och det får alla andra sota för.

Tycker inte det är ett dugg lågt. Nvidia är ett företag med historiskt bra grafikkort, ett företag som är känt för sin girighet. I form av Nvidia partner program, priser etc. Nu lanserar de ett nytt kort som är alldeles för dyrt och har lagt till ny teknik för att få det sålt. 💄 på liket!

Fy för Nvidia och ekonomer som styr företag.

Skickades från m.sweclockers.com

DannyH

Trädvy Permalänk
Medlem
Plats
Sthlm
Registrerad
Apr 2002
Skrivet av Dinoman:

Ok, så efter ett antal kommentarer liknande denna i tråden så tröttnade jag lite på killgissandet och gav mig in i Nvidias finansiella rapporter. Så, ytterligare fakta kommer här.

https://i.imgur.com/921ozYw.png

Så en liten förklaring till engelskan;

Revenue = Intäkter
Cost of revenue = Kostnad för tillverkning och service (denna är intressant att ha koll på när vi pratar om tillverkningskostnader)
R&D = Forskning och utveckling
Net Income = Netto inkomst (alltså direkt vinst)

Var så goda att titta på staplarna och bilda er en uppfattning.

Min slutsats är att under de, tio år som det påstås att Turing varit under utveckling så kostnaderna för forskning & utveckling gått försiktigt uppåt med en skarp uppåt-trend 2013, vilket skulle kunna indikera Turing om vi ska tro på att det tar fem år att utveckla en GPU, sen planar det av lite granna och ligger ganska stabilt.

Tillverkningskostnaden har ökat dramatiskt från 2017 och framåt vilket kan indikera det faktum att Turing och Volta är dyra att tillverka.

Vad som är verkligen intressant dock är hur nettoinkomsten fullkomligt skjutit i höjden från 2016 och framåt, alltså då Pascal lanserades.

Tror vi fortfarande på att Nvidia "måste" ta sådana hutlösa priser för Turing? Jag tror att Nvidia valde att behålla samma GM (gross margin) på Turing som Pascal vilket har resulterat i så höga priser eftersom Turing är så pass mycket dyrare att tillverka. 471 mm² 14nm vs 754 mm² 12nm.

Intressant! Ja, det får väl antas att den lilla peaken är när de fokuserade mer kanske på Turing/Volta. Att kretsen varit under utveckling i tio år kanske man dock ska ta lite med en nypa salt, men har för mig att Jensen sa det på scen under avtäckningen. Sen kanske det inte forskats hejvilt i tio år som han mer eller mindre fick det att framstå som, det var väl tekniken som inte riktigt var på plats för att göra det genomförbart.

Pascal var ju en bra krets, men det har ju också blivit rejält dyrare. Det blir ju inte svårt att öka på sina marginaler när man är så pass dominant på grafikkortsmarknaden i det övre segmentet. Vi kan väl anta att det är där som de stora slantarna finns att hämta.

Ja, jag håller helt med dig angående Turings priser. Däremot var det en jättekonstig lansering som inte hade någon logik alls. 2080 Ti var det enda kortet som gav någon diskutabel prestandaökning, om än inte mycket att hurra för. Lägg där till att man pratade uteslutande om RTX och hur fantastisk tekniken var, vilket iofs inte går att säga något om - det är jätteimponerade!

Men det blir rätt tydligt att kortet inte skulle vara något att hänga i granen för någon som jagade prestanda och kanske funderade att byta från Pascal då vi inte fick några fps-siffror i spel under hela presentationen, däremot fick vi fakeade rtx off/on bilder som var direkt vilseledande om skillnaderna.

Utvecklarna hade dessutom precis fått börja experimentera med Real time raytracing och det skulle gå ungefär två månader efter lansering innan vi ens hade en produkt med stöd för det i BFV. En implementering som visuellt var ball, men det var sånt kraftig påslag på prestandan att en multiplayer shooter nog var det absolut sämsta spel att implementera det i då folk jagar hög och konstant fps snarare än fokus på ögongodis.

Btw, även om vi killgissat här så hade du trots allt rätt i ditt killgissande. Då får man väl typ lite internetpoäng och kvalificerar sig som legitimerad killgissare?

..:: trickeh2k ::.. https://youtube.com/c/trickeh2k Windows 10 Pro - i7 8700k (delid) @ 5Ghz - ASUS Prime Z370-A - 16GB G.Skill Trident Z DDR4 CL14 3000Mhz - Corsair AX860i - EVGA GTX 1080Ti FTW3 Hydrocopper - Acer Predator XB271HU - ASUS VG248QE - QPAD MK-85 (MX-Brown)/SteelSeries Sensei RAW Rubberized - Samsung 960 EVO 250GB, Samsung EVO 860 500GB, SanDisk Ultra II 480GB, 3TB Seagate Barracuda - ASUS Xonar DX - ASUS Strix 7.1 Gaming Headset - Corsair 750D - Custom water loop

Trädvy Permalänk
Medlem
Plats
Lund
Registrerad
Sep 2008
Skrivet av Dalton Sleeper:

Visst är det kul att det går framåt, dock inte lika kul med priset man får betala för sånt som ses som onödigt av många. En riktig raytracing i 1080p är inte så lätt, nu kanske de har 0.25 rays per pixel i endast reflektioner på selektiva ytor, en riktig rendering skulle behöva kanske 16 rays per pixel över hela scenen, och möjligen en hel del bounces till om belysningen ska se okay ut. Om man fuskar tillräckligt och polerar bort artefakterna/pixligheten kanske man kommer lite lindrigare undan, men jag skulle nog vilja ha 100x mer prestanda i ett kort om det ska klassas som raytracing.

För att inte tala om att ljussättning via den traditionella arkitekturen kan se mycket, mycket bra ut. Så är det bättre att investera transistorerna i att få den befintliga pipelinen att köra bättre (vilket kommer alla spel till godo), eller skall man spendera dem på något som i praktiken inte fungerar effektivt, och knappt ens går att testköra mer än i någon enda titel?

Det är möjligt att raytracing kan utvecklas till något som ger generellt bättre resultat, till lägre transistor- och prestandakostnad än alternativen. Men vi är inte där, och det är långt ifrån givet att det någonsin händer. Om inte någon av nästa generations spelkonsoler (som i praktiken styr AAA produktionen) har en rendreringspipeline som förutsätter raytracing, kommer tekniken inte att kunna vara annat än en kuriositet det närmaste decenniet ungefär.

Själv har jag fortfarande inte sett någonting som får mig att tro att detta kommer att slå igenom generellt. På någon tidsskala.

Skickades från m.sweclockers.com

Trädvy Permalänk
Medlem
Plats
Sthlm
Registrerad
Apr 2002
Skrivet av Greyguy1948:

Men svenskarna har tydligen råd. Jag såg just att mest sålda grafikkortet på Webhallen är RX 2080 Ti.
Priset är ju relativt -Tesla V100 kostar 200 000 med 16 GB HBM2.....så kanske är RX 2080 Ti ett fynd?

Vi i Sverige köper ju generellt dyrare saker och 2080 Ti är ju det enda kortet i serien som ger prestandamässiga fördelar mot föregående generations kort.

..:: trickeh2k ::.. https://youtube.com/c/trickeh2k Windows 10 Pro - i7 8700k (delid) @ 5Ghz - ASUS Prime Z370-A - 16GB G.Skill Trident Z DDR4 CL14 3000Mhz - Corsair AX860i - EVGA GTX 1080Ti FTW3 Hydrocopper - Acer Predator XB271HU - ASUS VG248QE - QPAD MK-85 (MX-Brown)/SteelSeries Sensei RAW Rubberized - Samsung 960 EVO 250GB, Samsung EVO 860 500GB, SanDisk Ultra II 480GB, 3TB Seagate Barracuda - ASUS Xonar DX - ASUS Strix 7.1 Gaming Headset - Corsair 750D - Custom water loop

Trädvy Permalänk
Medlem
Registrerad
Okt 2016
Skrivet av dl380g7:

Vad innebär nu detta för oss dödliga? kommer priserna att störtdyka till normal nivå på konsument grafikkort det vill säga under 8000-10000? Eller vad kommer hända med dessa konsumentgrafikkort som ingen köper? Jag tycker priserna fortfarande är katastrofalt för högt.

De kort NVidia har idag kommer knappast att gå ner i pris något nämnvärt (se diskussionen om storleken på de chippen). Däremot är det en ny produktlinje med mellanklasskort på gång.

Trädvy Permalänk
Medlem
Plats
Sthlm
Registrerad
Apr 2002
Skrivet av EntropyQ3:

För att inte tala om att ljussättning via den traditionella arkitekturen kan se mycket, mycket bra ut. Så är det bättre att investera transistorerna i att få den befintliga pipelinen att köra bättre (vilket kommer alla spel till godo), eller skall man spendera dem på något som i praktiken inte fungerar effektivt, och knappt ens går att testköra mer än i någon enda titel?

Det är möjligt att raytracing kan utvecklas till något som ger generellt bättre resultat, till lägre transistor- och prestandakostnad än alternativen. Men vi är inte där, och det är långt ifrån givet att det någonsin händer. Om inte någon av nästa generations spelkonsoler (som i praktiken styr AAA produktionen) har en rendreringspipeline som förutsätter raytracing, kommer tekniken inte att kunna vara annat än en kuriositet det närmaste decenniet ungefär.

Själv har jag fortfarande inte sett någonting som får mig att tro att detta kommer att slå igenom generellt. På någon tidsskala.

Skickades från m.sweclockers.com

Problemet är ju utvecklarna inte hade fått börja testa tekniken när kortet lanserades mer eller mindre. Sen vet ju alla att det tar lång tid för ny teknik att slå igenom. Vid en snabbgoogling kan jag konstatera att det finns 29st spel som har släppts med stöd för DirectX 12, en teknik som lanserades med Windows 10, sommaren 2015.

Så köper man RTX-kort i hopp om att njuta av titlar med realtime ray tracing inom snar framtid är man rätt naiv. Jag tror dock stenhårt på tekniken, men det kommer att ta tid innan dels utvecklarna får kläm implementering och optimering, samt att jag undrar om dagens toppkort är tillräckligt starkt ändå. Först när vi når 1440p med minst 60fps på high/ultra tror jag det blir något som fler eftertraktar.

Men, jag tror inte vi kommer vara där innan nästa generations grafikkort.

..:: trickeh2k ::.. https://youtube.com/c/trickeh2k Windows 10 Pro - i7 8700k (delid) @ 5Ghz - ASUS Prime Z370-A - 16GB G.Skill Trident Z DDR4 CL14 3000Mhz - Corsair AX860i - EVGA GTX 1080Ti FTW3 Hydrocopper - Acer Predator XB271HU - ASUS VG248QE - QPAD MK-85 (MX-Brown)/SteelSeries Sensei RAW Rubberized - Samsung 960 EVO 250GB, Samsung EVO 860 500GB, SanDisk Ultra II 480GB, 3TB Seagate Barracuda - ASUS Xonar DX - ASUS Strix 7.1 Gaming Headset - Corsair 750D - Custom water loop

Trädvy Permalänk
Hjälpsam
Plats
Karlskoga
Registrerad
Jan 2007

Lite off Topic:
Största problemet med DX12 är nog att inte Windows 7 stödjer det, MS har helt klart underskattat hur sugna folk var på att uppgradera till Windows 10.
Eftersom hälften av användarna inte har W10, är inte heller spelutvecklarna intresserade av att koda för DX12, de måste ändå koda för DX11, eftersom de inte vill exludera hälften av sina möjliga köpare.
De flesta DX12 titlar vi sett, är DX11 med lite habrovinker för att DX12, man får då det sämsta av 2 värdar, för att DX12 måste lyfta skall det kodas och optimeras för DX12 redan från början.
Jämför med Vulkan som också är ett lågnivå API, Doom och Wolfenstein presterar kalasbra i dessa titlar.

Åter till RT:
Utvecklarna vill inte koda för DX12, eftersom bara hälften av oss kan köra DX12, hur många procent av oss kan köra DXR?
Enda orsaken till att någon vill koda för DXR i dagsläget, är att Nvidia betalar utvecklingen, jag har svårt att se något annat skäl.

AMD Ryzen 7 1700 | Vega RX 64 Super | 64 GB Corsair @2933 MT/s | https://valid.x86.fr/fgqnte | Stockkylaren | Bitfenix Whisper M 750W.
AMD FX8350 | Polaris RX 460 4 GB | 32 GB Kingston ECC | https://valid.x86.fr/0q5pkm | Cooler Master V 700W.
HTPC | https://valid.x86.fr/ez1zxw |