Rykte: Nvidia Geforce RTX 3080 får 1 408 extra CUDA-kärnor och 10 GB grafikminne

Permalänk
Medlem
Skrivet av Peterrrrr:

Frågan är när man får ett grafikkort för runt 5000 kr som klarar nya spela i 60 fps i 2160p på ultra inställningar på nya spel?

4K har varit standard ett tag nu, men ändå ligger utvecklingen efter när det gäller gpu, när 1080P kom så tog det inte så långt tid för gpu att klara av det.

Sen när blev 4K standard? Standard idag är fortfarande 1080p.

Skrivet av mrqaffe:

Det har varit standard länge för de som inte är datorspelare, det är dags att spelare slutar bromsa utvecklingen på monitorer. normen bör vara minst 4k, oled och stort.

Men det gör det inte till "standard". Sedan är det inte spelare som bromsar 4K och OLED utvecklingen utan det är priserna som gör det och begränsningarna inom sagda teknologi.. samt gränssnitt så som HDMI och DP.

Skrivet av RekiN:

Båda kommande konsolerna har som primärfiness att de ska vara 4K-spelmaskiner. Senast nästa år är 4K fullständig standard för spel när konsolerna ligger på ca. 20 miljoner sålda och 4K TV har varit inom "mainstream"-pris i ett par år nu.

Du menar som PS4 skulle vara en "konsol som skulle leverera i 1080p"? I slutändan var "spel i 1080P" bara slang för "1080P@30FPS.. kanske". Att däremot nästa år skulle vara året som gjorde "4K till standard" är ju verkligen inget som pekar på. Hur många sitter idag ens på en 4K TV om man räknar bort ett fåtal länder?

Visa signatur

Fractal Design Meshify 2 Compact w/ Dark Tint | Intel i5 12600K | Asus ROG Strix B660-F | 32 GB Corsair DDR5 5600 MHz CL36 | MSI Geforce RTX 3060 TI Ventus 2X OCV1 | 512 GB Samsung Pro 850 SSD + 2TB WD Black SN850 NVME PCI-E 4.0 | Corsair RM750X |

Permalänk
Medlem
Skrivet av Mortac:

Saknar tiderna när grafikkort i toppklassen kostade 3000-4000 kr. Nu kommer vi antagligen ligga närmare 15 000 till 20 000 kr för motsvarande. Man kan ju bygga ihop en hel dator med topprestanda för mindre om man bortser från grafikkortet. Helt sjukt.

Varför begränsa tekniken? Och vem ska man begränsa det till i så fall? Det är dyrt att tillverka stora kretsar. Så låt företagen tillverka det bästa de bara kan tills fysikens lagar säger stopp, sedan får man betala om man har råd. Vad "det bästa kostar" är ju ganska oväsentligt, varför är det så viktigt att alla ska ha råd att köpa det bästa egentligen? Viktigast är väl att vi ser en positiv prestanda/valuta, så får man köpa det man tycker man har råd med/vill lägga på ett kort. Det visades ju i artikeln gör senast att det gör. Visst Turing hade ganska liten ökning, men tog ingen beaktning i Ray Tracing.

Jag har aldrig köpt ett nytt högsta prestanda kort, och kommer nog aldrig göra det. Men skulle aldrig för mitt liv bli sur för att folk har råd att betala för det.

Och tycker du att 2080Ti skulle vara billigare bara för "det kan inte kosta så mycket" så kontakta Nvidia eller någon valfri kretstillverkare, säg att du har har lösningen som ingen annan forskare lyckats knäcka och så kommer du bli rikast på jorden.

Permalänk
Medlem
Skrivet av wargreymon:

Varför begränsa tekniken? Och vem ska man begränsa det till i så fall? Det är dyrt att tillverka stora kretsar. Så låt företagen tillverka det bästa de bara kan tills fysikens lagar säger stopp, sedan får man betala om man har råd. Vad "det bästa kostar" är ju ganska oväsentligt, varför är det så viktigt att alla ska ha råd att köpa det bästa egentligen? Viktigast är väl att vi ser en positiv prestanda/valuta, så får man köpa det man tycker man har råd med/vill lägga på ett kort. Det visades ju i artikeln gör senast att det gör. Visst Turing hade ganska liten ökning, men tog ingen beaktning i Ray Tracing.

Jag har aldrig köpt ett nytt högsta prestanda kort, och kommer nog aldrig göra det. Men skulle aldrig för mitt liv bli sur för att folk har råd att betala för det.

Och tycker du att 2080Ti skulle vara billigare bara för "det kan inte kosta så mycket" så kontakta Nvidia eller någon valfri kretstillverkare, säg att du har har lösningen som ingen annan forskare lyckats knäcka och så kommer du bli rikast på jorden.

Redan GTX 280 var en enorm krets på sin tid som borde kostat enormt mycket, men ATI kunde konkurrera med en krets som inte ens var hälften så stor. Annars hade vi säkert sett grafikkort över 10000kr långt tidigare. Nvidia har alltid producerat kretsar precis på gränsen av vad varje nod klarat av, så det är inte priset som satt stopp tidigare. Själva kislet för en 2080ti-gpu kostar nog inte ens 1000kr, troligen mycket mindre. 16/12nm är extremt billigt och gammalt vid det här laget. Knappast så att Nvidia behöver ta ut dessa priser för att gå runt och tjäna pengar. De tar ut dessa priser för att ingen klagar och korten tar slut på hyllorna.

Permalänk
Medlem
Skrivet av medbor:

Redan GTX 280 var en enorm krets på sin tid som borde kostat enormt mycket, men ATI kunde konkurrera med en krets som inte ens var hälften så stor. Annars hade vi säkert sett grafikkort över 10000kr långt tidigare. Nvidia har alltid producerat kretsar precis på gränsen av vad varje nod klarat av, så det är inte priset som satt stopp tidigare. Själva kislet för en 2080ti-gpu kostar nog inte ens 1000kr, troligen mycket mindre. 16/12nm är extremt billigt och gammalt vid det här laget. Knappast så att Nvidia behöver ta ut dessa priser för att gå runt och tjäna pengar. De tar ut dessa priser för att ingen klagar och korten tar slut på hyllorna.

280 är 576mm^2 medan 2080Ti är 775mm^2, det är ganska stor skillnad i storlek och svårigheterna ökar exponentiellt. Visst har terminen gått framåt, så det går ju inte att jämföra rakt av, ragg TSMC sitter nog på exakt hur svårt det är, men det kasseras nog extremt många 2080Ti kretsar, och kolla på hur mycket problem det fanns med korten i början (fortfarande?). Det spelar ingen roll om 12/16nm är billigt att tillverka om yielden är dålig. Att ha tomma hyllor är aldrig bra, varför skulle de satsa på det?

Permalänk
Medlem
Skrivet av Xinpei:

Sen när blev 4K standard? Standard idag är fortfarande 1080p.

Men det gör det inte till "standard". Sedan är det inte spelare som bromsar 4K och OLED utvecklingen utan det är priserna som gör det och begränsningarna inom sagda teknologi.. samt gränssnitt så som HDMI och DP.

Du menar som PS4 skulle vara en "konsol som skulle leverera i 1080p"? I slutändan var "spel i 1080P" bara slang för "1080P@30FPS.. kanske". Att däremot nästa år skulle vara året som gjorde "4K till standard" är ju verkligen inget som pekar på. Hur många sitter idag ens på en 4K TV om man räknar bort ett fåtal länder?

Menar du att 4K @ 30 FPS inte är 4K eller vad är din poäng?

Och på konsolmarknaden som är majoriteten av spelintäkter (sammanlagt) så har de flesta 4K. Du får nog uppdatera din bild TBH då den verkar sakna förankring i verkligheten.

https://www.statista.com/statistics/818419/world-tv-market-sh...

Visa signatur

12900K | 32GB 6000 DDR5 | 3090 FE | PG259QN |

Permalänk
Medlem

18k för ett 3090 incoming

Visa signatur

Corsair Obsidian 1000D* Corsair AX1600i* Asus Z790 Prime-A* Intel 13900K* 32GB G-Skill DDR5 7600Mhz/36* Asus RTX 4090* Corsair MP600 1TB* Samsung 980 Pro 1TB

Permalänk
Medlem
Skrivet av RekiN:

Och på konsolmarknaden som är majoriteten av spelintäkter (sammanlagt) så har de flesta 4K. Du får nog uppdatera din bild TBH då den verkar sakna förankring i verkligheten.

Men de spelar ju med en vanlig TV som bildskärm. I 30 fps. Förmodligen kraftigt uppskalat också. Ska man jämföra får man jämföra renderade pixlar per sekund, anser jag.

Visa signatur

Moderkort: Gigabyte X570 Aorus Master | CPU: AMD Ryzen R9 5900X | CPU-kylare: Noctua NH-D15 chromax.black | RAM: Corsair Vengeance LPX 64 GB (4x16) DDR4-3600 CL18 | GPU: Gigabyte RTX 4080 Eagle OC | SSD: 2 x Samsung 970 EVO Plus 1 TB NVMe + Kingston A400 480 GB + Samsung QVO860 1 TB | PSU: EVGA SuperNOVA G2 1000 W Gold | Chassi: Lian Li O11 Dynamic XL | Skärm: BenQ PD3200U @ 3840x2160 + ASUS ROG Strix XG32VQ @ 2560x1440 | Tangentbord: Corsair K68 RGB Cherry MX Red | Mus: Logitech MX Master 2S

Permalänk
Medlem
Skrivet av cyklonen:

Men de spelar ju med en vanlig TV som bildskärm. I 30 fps. Förmodligen kraftigt uppskalat också. Ska man jämföra får man jämföra renderade pixlar per sekund, anser jag.

Tjaa, huruvida det är 30 eller 60 eller nått annat beror ju på spelet... Men ja, nöjer man sig med 30Hz i de mer krävande liren så räcker ju dagens graffikkort långt, antar att det är det du vill säga.

4K är iaf definitivt standard inom tv-världen, i betydelsen att det är nästan bara det som säljs idag. Oavsett frekvens

Permalänk
Medlem
Skrivet av ipac:

Tjaa, huruvida det är 30 eller 60 eller nått annat beror ju på spelet... Men ja, nöjer man sig med 30Hz i de mer krävande liren så räcker ju dagens graffikkort långt, antar att det är det du vill säga.

4K är iaf definitivt standard inom tv-världen, i betydelsen att det är nästan bara det som säljs idag. Oavsett frekvens

Men vad det är för standard på TV har noll relevans för grafikkort till riktiga datorer. För riktiga datorer kan vi lita på vad Steams statistik säger. 4K är alltså sällsynt. Säkert betydligt vanligare i t ex Sverige jämfört med världssnittet, så klart, men de som spelar på det på sin primära dator hemma är nog fortfarande en klar minoritet. Under 10 procent?

Visa signatur

Moderkort: Gigabyte X570 Aorus Master | CPU: AMD Ryzen R9 5900X | CPU-kylare: Noctua NH-D15 chromax.black | RAM: Corsair Vengeance LPX 64 GB (4x16) DDR4-3600 CL18 | GPU: Gigabyte RTX 4080 Eagle OC | SSD: 2 x Samsung 970 EVO Plus 1 TB NVMe + Kingston A400 480 GB + Samsung QVO860 1 TB | PSU: EVGA SuperNOVA G2 1000 W Gold | Chassi: Lian Li O11 Dynamic XL | Skärm: BenQ PD3200U @ 3840x2160 + ASUS ROG Strix XG32VQ @ 2560x1440 | Tangentbord: Corsair K68 RGB Cherry MX Red | Mus: Logitech MX Master 2S

Permalänk
Medlem
Skrivet av mrqaffe:

Det har varit standard länge för de som inte är datorspelare, det är dags att spelare slutar bromsa utvecklingen på monitorer. normen bör vara minst 4k, oled och stort.

Tänker inte säga emot dig i ditt första påstående, men den jag citerade pratade om just spel (i 4k @ 60).
Och att säga att 4k är "standard" för spelande är helt fel hur man än ser det.
Dock tycker jag att du har fel när du säger att spelare bromsar utvecklingen av monitorer, oavsett hur du motiverar det; eller hur många hög-Hz-skärmar tror du annars hade funnits?
Du får jättegärna motivera hur du tycker att just spelare (och inte skärm-tillverkarna) håller tillbaka utvecklingen av monitorer.
Annars får du jättegärna visa mig var jag kan köpa en 27" 4k 144Hz OLED (utan inbränning) för de ca 6k jag la på min skärm, som dessutom har variabel-refresh.

Visa signatur

CPU: R7 5800X3D | GPU: XFX 6900XT Merc 319 | MB: Gigabyte X570 PRO-I| RAM: 2x16 Corsair LPX@3600MHz CL18|Cooling: Scythe Ninja 5 (Noctua A12x25)|PSU: Corsair SF750|SSD: Samsung 970 EVO Plus 1TB + Corsair MP510 4TB + Samsung 850 EVO 2TB + Samsung 850 PRO 2TB|CASE:NR200P

Permalänk
Medlem
Skrivet av RekiN:

Menar du att 4K @ 30 FPS inte är 4K eller vad är din poäng?

Och på konsolmarknaden som är majoriteten av spelintäkter (sammanlagt) så har de flesta 4K. Du får nog uppdatera din bild TBH då den verkar sakna förankring i verkligheten.

https://www.statista.com/statistics/818419/world-tv-market-sh...

4k@30 är iaf inte spelbart

Visa signatur

CPU: R7 5800X3D | GPU: XFX 6900XT Merc 319 | MB: Gigabyte X570 PRO-I| RAM: 2x16 Corsair LPX@3600MHz CL18|Cooling: Scythe Ninja 5 (Noctua A12x25)|PSU: Corsair SF750|SSD: Samsung 970 EVO Plus 1TB + Corsair MP510 4TB + Samsung 850 EVO 2TB + Samsung 850 PRO 2TB|CASE:NR200P

Permalänk
Medlem
Skrivet av wargreymon:

280 är 576mm^2 medan 2080Ti är 775mm^2, det är ganska stor skillnad i storlek och svårigheterna ökar exponentiellt. Visst har terminen gått framåt, så det går ju inte att jämföra rakt av, ragg TSMC sitter nog på exakt hur svårt det är, men det kasseras nog extremt många 2080Ti kretsar, och kolla på hur mycket problem det fanns med korten i början (fortfarande?). Det spelar ingen roll om 12/16nm är billigt att tillverka om yielden är dålig. Att ha tomma hyllor är aldrig bra, varför skulle de satsa på det?

Jag orkar inte leta efter perfekta källor, men diskussioner på den tiden pratade om att även 280 var nära den absoluta gränsen för vad den noden (65nm) klarade av

https://forum.beyond3d.com/threads/maximum-die-size.48708/

Nu betyder inte just den gpun så mycket jag ville bara visa att nvidia alltid har gjort så oavsett hur mycket de kan sälja korten för och kiselpriset endast är en mycket liten del av totalen.

Självklart finns det ingen anledning att ha tomma hyllor, men det är heller inget argument för att priserna behöver vara så höga. Nvidia vill hålla sina marginaler höga, de skulle kunna tillverka fler kort och sälja dom för 7000kr istället, inga problem alls, men det skulle skada deras ’premium’ och exklusivitet stämpel och helt enkelt inte ge dom så mycket mer pengar heller.

Bara totalt skitsnack att säga att priserna är rimliga eller att de behövs av någon anledning. Oriserna är där dom är för att folk fortsätter köpa. Är ju bara ett kort denna generation som ens var snabbare än förra och det kostade nästan dubbelt så mycket. Folk köper 4 år gammal prestanda för extrema pengar. Det är bara så det är. De som inbillar sig annat vill bara försvara sina köp för sitt eget medvetande och inte erkänna hur mycket det bränner i plånboken

Permalänk
Medlem
Skrivet av RekiN:

Båda kommande konsolerna har som primärfiness att de ska vara 4K-spelmaskiner. Senast nästa år är 4K fullständig standard för spel när konsolerna ligger på ca. 20 miljoner sålda och 4K TV har varit inom "mainstream"-pris i ett par år nu.

Konsolspelande och datorspelande måste dock skiljas åt; kanske är så att 4k kommer vara vanligaste upplösningen för de som spelar på konsol, men även med släppt big-navi och 3000-serien så kommer vi nästan garanterat inte se någon förändring på datorsidan.
Framförallt för att (vad jag tror) många dator-gejmers (som jag) värderar hög fps/Hz, och tycker att smärtgränsen (och sweet-spot) går någonstans runt 1440p@165 med IPS; skarp upplösning, hög refresh, bra färger, och går att driva nya spel ett par år med en hyfsad gpu.
Man får inte glömma i den här diskussionen att spelen faktiskt blir tyngre och tyngre att driva för varje år; varje speltest här på sidan så ser jag mindre och mindre siffra i 1440p för mitt 1080Ti, så även nyare grafikkort kommer ha en mer modest prestanda i 4k med nyare spel.
Hz/FPS är dock fortfarande den springande punkten, jag kommer aldrig att gå tillbaka till 60FPS igen, och att sälja mina syskon till forskning för att få råd med en 4k high-refresh monitor känns inte helt reko

Visa signatur

CPU: R7 5800X3D | GPU: XFX 6900XT Merc 319 | MB: Gigabyte X570 PRO-I| RAM: 2x16 Corsair LPX@3600MHz CL18|Cooling: Scythe Ninja 5 (Noctua A12x25)|PSU: Corsair SF750|SSD: Samsung 970 EVO Plus 1TB + Corsair MP510 4TB + Samsung 850 EVO 2TB + Samsung 850 PRO 2TB|CASE:NR200P

Permalänk
Medlem
Skrivet av RekiN:

Menar du att 4K @ 30 FPS inte är 4K eller vad är din poäng?

Och på konsolmarknaden som är majoriteten av spelintäkter (sammanlagt) så har de flesta 4K. Du får nog uppdatera din bild TBH då den verkar sakna förankring i verkligheten.

https://www.statista.com/statistics/818419/world-tv-market-sh...

Mhmm. Du missade alltså min poäng helt. Min poäng var att PS4 inte kunde leverera en ordentlig upplevelse i 1080P i många spel trots att Sony och Microsoft påstod att det skulle göras. Så jag tar deras "Fokus på 4K" precis som deras fokus på 1080P blev. Alltså max några titlar och då i väldigt låg FPS. Försökte t.ex. Köra GOW i 1080P på mitt PS4 och i alla större miljöer så störtdök FPS:en till garanterat 10 FPS och då blev det ospelbart. Visst PS5 har betydligt kraftigare hårdvara MEN den är inte nog kraftig för att kunna leverera en spelbar upplevelse i 4K.

Sedan kanske du borde ta och tänka lite längre. Jag pratade inte om TV-marknaden utan jag pratade om spelmarknaden i sin helhet. Det inkluderar PC. PC i sin tur är överväldigande 1080P.

Visa signatur

Fractal Design Meshify 2 Compact w/ Dark Tint | Intel i5 12600K | Asus ROG Strix B660-F | 32 GB Corsair DDR5 5600 MHz CL36 | MSI Geforce RTX 3060 TI Ventus 2X OCV1 | 512 GB Samsung Pro 850 SSD + 2TB WD Black SN850 NVME PCI-E 4.0 | Corsair RM750X |

Permalänk
Medlem
Skrivet av infigo:

3090 närmar sig 20000 i msrp och 3090ti som säkert kommer komma, lägger sig på jämna 20000
Blir inte förvånad

Det kommer ju knappt att sälja om priset hamnar så högt. De chansade vilt med priset på 2080Ti och man kan inte direkt säga att kortet är en storsäljare, trots att det inte har någon konkurrent. Denna generation finns AMD med i leken så det vore konstigt om priset hamnade så högt.

Skrivet av Allexz:

Låt mig gissa.
Prisökningen på 20XX korten var bara början!

Skullee nog säga tvärtom, prishöjningen var ett stort misstag.

Skrivet av Knotvillage:

Skulle nog gissa på att dom börjar på 10K för ett 3070. 2080S ligger ju typ där nu och 3070 kommer ju knappast lägga sig under. Nu har man ju vant sig att en GPU kostar 10K, får väl bara gilla lägger att dom kommer kosta 12K. Dock blir det för dyra fps för mig att byta vare sig CPU eller GPU. Jag hoppade från en 2600K till en 9900K så jag håller kvar ganska länge.

Om ett midrange kort börjar på 10k kommer nVidia ligga pyrt till. Toppkorten är ju knappast några storsäljare, det är low och midrange som säljer. Bara för att nVidia kan betyder inte att de måste, speciellt inte när AMD är med i leken denna gången.

Visa signatur

Stationär: AMD Ryzen 7 7800X3D | ASUS ROG Strix B650E-F Gaming WIFI | G.Skill 32GB DDR5 6000MHz CL30 Trident Z5 Neo RGB | Gigabyte 4090 Gaming OC | BeQuiet! Dark Rock 4 Pro | Samsung 980 Pro 1TB M.2 & Intel 660P 1TB M.2 | Corsair RM850x v2 White Series | Phanteks P500A D-RGB | Acer X34GS | Corsair Strafe RGB MX Silent | Razer Deathadder v.2 | Logitech PRO X 7.1
Laptop: AMD Ryzen 7 6800HS | 16GB 4800MHz DDR5 | RTX 3060 140W | 15,6" 144Hz FHD IPS 16:9

Permalänk
Medlem
Skrivet av sweisdapro:

Konsolspelande och datorspelande måste dock skiljas åt; kanske är så att 4k kommer vara vanligaste upplösningen för de som spelar på konsol, men även med släppt big-navi och 3000-serien så kommer vi nästan garanterat inte se någon förändring på datorsidan.
Framförallt för att (vad jag tror) många dator-gejmers (som jag) värderar hög fps/Hz, och tycker att smärtgränsen (och sweet-spot) går någonstans runt 1440p@165 med IPS; skarp upplösning, hög refresh, bra färger, och går att driva nya spel ett par år med en hyfsad gpu.
Man får inte glömma i den här diskussionen att spelen faktiskt blir tyngre och tyngre att driva för varje år; varje speltest här på sidan så ser jag mindre och mindre siffra i 1440p för mitt 1080Ti, så även nyare grafikkort kommer ha en mer modest prestanda i 4k med nyare spel.
Hz/FPS är dock fortfarande den springande punkten, jag kommer aldrig att gå tillbaka till 60FPS igen, och att sälja mina syskon till forskning för att får råd med en 4k high-refresh monitor känns inte helt reko

Problemen med 4K för dator är:
Först bandbredd till skärmen för kompletta färger och hög frekvens. Det andra är GPU-kraft, 2080ti är helt enkelt alldeles för klen för 4k. Hög frekvens på 2560x1440 (säg kanske 165 hz/fps) kräver samma som låg frekvens på 4k (ca 73 hz/fps). DLSS kanske har en potential här med att kunna skala, men kommer krävas minst nästa generation av GPU gör att palla 4k på riktigt. Hamnar vi på 50% ökning som vissa läckor säger så närmar vi ju oss ca 120 bilder per sekund i 4k vilket börjar bli bättre än 200+ i 1440p, MEN då kommer vi till bandbredd och andra saker istället.

4k60 har dock varit ganska standard på tv ett tag, så för alla som lirar med låg frekvens så är 4k redan här skulle jag säga. Många spel går att spela på low/med i 4k utan problem med en gpu i en rimlig prisklass, men det är ju knappast för finsmakaren

Permalänk
Medlem
Skrivet av medbor:

Jag orkar inte leta efter perfekta källor, men diskussioner på den tiden pratade om att även 280 var nära den absoluta gränsen för vad den noden (65nm) klarade av

https://forum.beyond3d.com/threads/maximum-die-size.48708/

Nu betyder inte just den gpun så mycket jag ville bara visa att nvidia alltid har gjort så oavsett hur mycket de kan sälja korten för och kiselpriset endast är en mycket liten del av totalen.

Självklart finns det ingen anledning att ha tomma hyllor, men det är heller inget argument för att priserna behöver vara så höga. Nvidia vill hålla sina marginaler höga, de skulle kunna tillverka fler kort och sälja dom för 7000kr istället, inga problem alls, men det skulle skada deras ’premium’ och exklusivitet stämpel och helt enkelt inte ge dom så mycket mer pengar heller.

Bara totalt skitsnack att säga att priserna är rimliga eller att de behövs av någon anledning. Oriserna är där dom är för att folk fortsätter köpa. Är ju bara ett kort denna generation som ens var snabbare än förra och det kostade nästan dubbelt så mycket. Folk köper 4 år gammal prestanda för extrema pengar. Det är bara så det är. De som inbillar sig annat vill bara försvara sina köp för sitt eget medvetande och inte erkänna hur mycket det bränner i plånboken

Tomma hyllor pekar på att efterfrågan är högre än tillgången är, trots priset. Ganska mycket A och O när det kommer till ekonomi. Och du säkert ju själv att det vore dumt att välja att ha dålig tillgång. De drar således ner efterfrågan med högt pris. Just för att det är en svår krets att tillverka.

Hade varit ruskigt dålig press om det hade tagit halvår till ett år att få sitt 2080Ti för att så många vill ha. Plus att det hade lett till att folk köpt och sedan sålt det dyrt. Kolla bara på Nintendo Switch nu under Corona, total brist i butiker och folk betalar 5000:- för bara konsolen.

Permalänk
Medlem
Skrivet av Xinpei:

Mhmm. Du missade alltså min poäng helt. Min poäng var att PS4 inte kunde leverera en ordentlig upplevelse i 1080P i många spel trots att Sony och Microsoft påstod att det skulle göras. Så jag tar deras "Fokus på 4K" precis som deras fokus på 1080P blev. Alltså max några titlar och då i väldigt låg FPS. Försökte t.ex. Köra GOW i 1080P på mitt PS4 och i alla större miljöer så störtdök FPS:en till garanterat 10 FPS och då blev det ospelbart. Visst PS5 har betydligt kraftigare hårdvara MEN den är inte nog kraftig för att kunna leverera en spelbar upplevelse i 4K.

Sedan kanske du borde ta och tänka lite längre. Jag pratade inte om TV-marknaden utan jag pratade om spelmarknaden i sin helhet. Det inkluderar PC. PC i sin tur är överväldigande 1080P.

Det är ingen som argumenterar för 60 FPS+ på konsol @ 4K.

Du kommenterade mitt inlägg som explicit handlade om XSX och PS5, där överväldigande majoritet spelar på TV och inte datorskärmar, och sedan frågade hur många har 4K-skärmar och där har majoriteten i dag 4K-skärmar.

Visa signatur

12900K | 32GB 6000 DDR5 | 3090 FE | PG259QN |

Permalänk
Rekordmedlem
Skrivet av sweisdapro:

Tänker inte säga emot dig i ditt första påstående, men den jag citerade pratade om just spel (i 4k @ 60).
Och att säga att 4k är "standard" för spelande är helt fel hur man än ser det.
Dock tycker jag att du har fel när du säger att spelare bromsar utvecklingen av monitorer, oavsett hur du motiverar det; eller hur många hög-Hz-skärmar tror du annars hade funnits?
Du får jättegärna motivera hur du tycker att just spelare (och inte skärm-tillverkarna) håller tillbaka utvecklingen av monitorer.
Annars får du jättegärna visa mig var jag kan köpa en 27" 4k 144Hz OLED (utan inbränning) för de ca 6k jag la på min skärm, som dessutom har variabel-refresh.

Ingen aning om det ens finns, tror inte de existerar och det är typ 10 år sedan jag övergav 27" för 30" och nu har jag gått till 43" och skulle vilja ha större.
Jo jag tror att spelare påverkar negativt genom att de håller tillbaka höga upplösningar och stora monitorer och det gör att priserna sjunker väldigt sakta på dem pga att volymerna inte är så stora, det är snarare så att monitorer inte existerar utan det blir spel-tv som kommer medans monitorerna stannar i småbildsformatet.

Visa signatur

R5 5600G, Asus ROG STRIX X470-F Gaming, WD SN850X 2TB, Seasonic Focus+ Gold 650W, Aerocool Graphite v3, Tittar på en Acer ET430Kbmiippx 43" 4K. Lyssnar på Behringer DCX2496, Truth B3031A, Truth B2092A. Har också oscilloskop, mätmikrofon och colorimeter.

Permalänk
Medlem
Skrivet av wargreymon:

Varför begränsa tekniken? Och vem ska man begränsa det till i så fall? Det är dyrt att tillverka stora kretsar. Så låt företagen tillverka det bästa de bara kan tills fysikens lagar säger stopp, sedan får man betala om man har råd. Vad "det bästa kostar" är ju ganska oväsentligt, varför är det så viktigt att alla ska ha råd att köpa det bästa egentligen? Viktigast är väl att vi ser en positiv prestanda/valuta, så får man köpa det man tycker man har råd med/vill lägga på ett kort. Det visades ju i artikeln gör senast att det gör. Visst Turing hade ganska liten ökning, men tog ingen beaktning i Ray Tracing.

Jag har aldrig köpt ett nytt högsta prestanda kort, och kommer nog aldrig göra det. Men skulle aldrig för mitt liv bli sur för att folk har råd att betala för det.

Och tycker du att 2080Ti skulle vara billigare bara för "det kan inte kosta så mycket" så kontakta Nvidia eller någon valfri kretstillverkare, säg att du har har lösningen som ingen annan forskare lyckats knäcka och så kommer du bli rikast på jorden.

Det handlar knappast om att begränsa tekniken eller att det skulle behöva sättas någon ribba för hur mycket korten får kosta. Problemet är snarare utvecklingen mot att erbjuda mindre för mer. När en ny grafikkortsgeneration erbjuder i princip samma prestanda för samma pengar som föregångaren, då är det illa. Mer normalt hade varit samma pris för en betydande prestandaökning. Om vi sett det hade det inte klagats lika mycket på att toppkorten kostar skjortan.

Nu kan man hoppas att det här var något tillfälligt för att få ut kort med strålspårning på marknaden men som ryktena går verkar det lite väl optimistiskt. Risken är att rådande prisläge blir det nya normala.

Permalänk
Medlem

"Det blir dyrt" sa Bill, "det blir jättedyrt" sa Bull

Permalänk
Medlem
Skrivet av DasIch:

Det handlar knappast om att begränsa tekniken eller att det skulle behöva sättas någon ribba för hur mycket korten får kosta. Problemet är snarare utvecklingen mot att erbjuda mindre för mer. När en ny grafikkortsgeneration erbjuder i princip samma prestanda för samma pengar som föregångaren, då är det illa. Mer normalt hade varit samma pris för en betydande prestandaökning. Om vi sett det hade det inte klagats lika mycket på att toppkorten kostar skjortan.

Nu kan man hoppas att det här var något tillfälligt för att få ut kort med strålspårning på marknaden men som ryktena går verkar det lite väl optimistiskt. Risken är att rådande prisläge blir det nya normala.

Det har varit en generation med ett mindre steg i "normal" prestanda/pris, som fortfarande ökat. Och då helt utelämnat RT och Tensor-kärnorna.

Permalänk
Medlem

Kommer bli en dyr historia, inte en chans att 3080 hamnar under 8000kr, med tanke på att det mer eller mindre är ett 2080Ti med förhoppningsvis bättre RT prestanda så räkna med 10.000kr...

Permalänk
Medlem
Skrivet av fesen:

Kommer bli en dyr historia, inte en chans att 3080 hamnar under 8000kr, med tanke på att det mer eller mindre är ett 2080Ti med förhoppningsvis bättre RT prestanda så räkna med 10.000kr...

Tror inte det kommer bli dyrare än vad t.ex. 1080 FE eller dagens 2080S kostade från början iaf. Dvs $699.

Permalänk
Medlem

Verkar svårt hitta någon officiell information om supersnabbt GDDR6 minne med 21Gb/s per pin (eller GDDR6X som det sägs i ryktena). Med tanke på att minnestillverkare är separata entiteter tycker jag vi borde hört information från dem om teknikframsteg. Det vill säga pressmeddelanden om nytt GDDR6 minne med över 20Gb/s hastighet.

Nu är det väl inte omöjligt. Samsung annonserade GDDR6 minne med upp till 18Gb/s per pin för två år sedan.
https://www.anandtech.com/show/12338/samsung-starts-mass-prod...

Permalänk
Medlem
Skrivet av wargreymon:

Tomma hyllor pekar på att efterfrågan är högre än tillgången är, trots priset. Ganska mycket A och O när det kommer till ekonomi. Och du säkert ju själv att det vore dumt att välja att ha dålig tillgång. De drar således ner efterfrågan med högt pris. Just för att det är en svår krets att tillverka.

Hade varit ruskigt dålig press om det hade tagit halvår till ett år att få sitt 2080Ti för att så många vill ha. Plus att det hade lett till att folk köpt och sedan sålt det dyrt. Kolla bara på Nintendo Switch nu under Corona, total brist i butiker och folk betalar 5000:- för bara konsolen.

Jag tror du missade poängen i mitt förra inlägg helt. Nvidia stryper tillgången artificiellt genom att inte tillverka fler kort, detta för att kunna hålla högre priser och marginaler. Ett 2080ti skulle kunna tillverkas och säljas för 7000kr om det funnits konkurrens och deras marknadsandelar var i fara. Nu säljer Nvidia själva korten till extrema överpriser precis som du pratar om med Switch, skillnaden är bara att det görs direkt från fabrik

Permalänk
Medlem
Skrivet av wargreymon:

280 är 576mm^2 medan 2080Ti är 775mm^2, det är ganska stor skillnad i storlek och svårigheterna ökar exponentiellt. Visst har terminen gått framåt, så det går ju inte att jämföra rakt av, ragg TSMC sitter nog på exakt hur svårt det är, men det kasseras nog extremt många 2080Ti kretsar, och kolla på hur mycket problem det fanns med korten i början (fortfarande?). Det spelar ingen roll om 12/16nm är billigt att tillverka om yielden är dålig. Att ha tomma hyllor är aldrig bra, varför skulle de satsa på det?

Om yielden är dålig så blir aldrig noden billig att tillverka eftersom det är aldrig lönsamt att slänga. Alltså en motsägelse där. Och tomma hyllor kan vara bra att ha. För det kan få folk att tro att något är populärare än vad det är. Konstant tomma hyllor, alltså ingen försäljning är ju inte bra men att tillfälligt få det att se ut som det är populärt kan vara en bra sak. Som att krogar kan använda sig av att bygga köer in på stället för att det ska verka som det är populärare och att det är fullt där inne fast så inte är fallet. Fast där är det det omvända som gäller.

Krog med kö = bra
Krog utan kö = inte bra
Butiken med tomma hyllor = bra
Butik med fulla hyllor = inte bra

Permalänk
Medlem
Skrivet av ipac:

Tror inte det kommer bli dyrare än vad t.ex. 1080 FE eller dagens 2080S kostade från början iaf. Dvs $699.

En kan alltid hoppas, 2080Ti+ prestanda för 699$, då är jag all-in.

Permalänk
Medlem
Skrivet av fesen:

En kan alltid hoppas, 2080Ti+ prestanda för 699$, då är jag all-in.

Måste bli lägre än så. Krysslåda o PS5 kommer troligen ha nära/kring 2080S/2080ti prestanda så om motsvarande grafikprestanda hos ex Nvidia ligger kring samma pris för 2080ti prestanda som lådorna kostar så lär det bli massmigration till lådorna. 2080ti prestanda bör kosta max 4-450$ nästa generation om de "troliga" priserna på lådorna stämmer på kring lr strax över 500$.
Eftersom AMD pratat om att vara disruptive.. kan det hända att de kommer med nåt kort kring/över 2080ti prestanda under/kring 4-500$? Och kort över det för ett par hundra mer.
Vi får hoppas helt enkelt..... Hur som helst så gissar jag på en mkt omvälvande Grafikhöst

EDIT: Tror att de som idag sitter på 2080ti/2080S mm kan komma få se ett ruggigt pristapp på sina kort. Beggade sådana kommer tappa rejält i värde efter nästa generation kort från båda lagen samt lådorna kommit ut. Den högre delen av 20 serien kommer nog kännas som ruggigt kasst köp.

Visa signatur

Lian-Li Tu150 (fläktmoddad) w Corsair SF750 Platinum SFX / Asus Strix B550-i Itx / Ryzen 5600x @ 4.92.. Scythe Fuma 2 / Crucial Ballistix 2x16 3600@4000 / WD Black SN850 NVME + Kingston A2000 NVME / MSI Radeon RX 6800 referens / 2x120mm Noctua NF-A12x15 golv. 2x120mm Noctua NF A12x25 In och Utblås. Fläktmod tak 1x140mm Noctua NF A14 utlblås via kammare baktill. Samsung 34" c34j791 3440x1440.

Permalänk

Ni som tjatar om att 4k är standard. Ja det är stabdard i tv världen blir en standard nu på konsolmarknaden nu när nya xbox å ps5an kommer ut men just nu är inte 4k standard för pc spelare utan standarden är fortfarande 1080p snart kanske det blir mer som använder 1440 istället för 1080p å då dem som redan sitter på 1440 kommer gå upp till 4k å dem som sitter på 4k kommer gå upp till 8k. Det beror på när dem billiga gpuerna som nu t.ex gtx 1660 klarar 1440 på high/ultra inställningarna med 120-160 fps utan frame drops. För många kör på billiga gpuer för att dem inte behöver dem dyra för att dem bara har 1080p skärmar.. det är ialla fall min tanke om varför 4k inte blivit standard på pc fronten..