Radeon RX 9000-serien kan bli oväntat billig

Permalänk
Medlem
Skrivet av Aleshi:

Ditt exempel är en mid-generation refresh baserad på nedskalad variant av en krets. De är alltid mycket lägre i pris än de första korten i grnerationen baserade på fulla kretsar. Att du ens drar till med det visar hur svagt ditt resonemang är.

Du får förklara varför storlek avgör slutpris utan att andra faktorer ska påverka. Och varför det bara gäller i det här fallet. För det låter precis som att det är en icke nämnd faktor som avgör varför det är så i det här fallet, men inte i andra fall..

Skrev relativ die-storlek, i det här fallet, ja. Givetvis inte applicerbart på alla noder, från alla chiptillverkare. Utan kontexten är 40->50.

I det här fallet så rör det sig om snarlik nod som tidigare och med en mindre krets än tidigare (vilket även förstärkts av namnet, GB205) fanns inget som skulle föranleda AMD att tro att priset skulle gå upp kraftigt. Vilket sedermera heller inte hände, förstås.

Vad som hände däremot var att 5090 blev dyrare än 4090, spegel av die-size ökningen. Och därmed att avståndet mot 80 ökat, eftersom den låg kvar på både samma pris och die-size. Igen, som den relativa die-size skillnaden har förutspått.

Lite svårt att kalla det svagt resonemang när resonemanget speglar precis vad som hänt i verkligheten, tror du inte?

5070 är nedskalad, förövrigt.

Men en undran... Trodde du själv att 5070 skulle kosta $799?

Permalänk
Medlem
Skrivet av Swedishchef_90:

Du räknar inte transistorer.... De har ju typ 5x så många mellan 1080 och 5070
1080= 7.2m
4070ti = 35.8M
Du räknar också inte prisskillnaden mellan samma nod och storlek.

Anledningen till 9070xt pris och storlek är jämfört med samma nod (nvidia och 7000 serien) där du kan se tidigare pris per mm2

Men är det något som inte spelar roll så är det transistorantal. Utöver val av eventuellt exotiska tillverkningsmetoder så är det mest avgörande för tillverkningskostnad kretsstorlek, nod, och yield. Och yield är till stor del beroende av de första två. Hela poängen med min demonstration var att visa att kretsstorlek inte är en bra indikator på slutpris. I alla fall inte tillräckligt bra för att du ska kunna avgöra om en GPU kommer säljas för $549 eller $640. Som del i detta så är det så att tillverkningskostnad utgör en allt mindre del av totalkostnaden idag. Utvecklingskostnad blir en större och större del av priset. Det tillsammans med priserna på nyare noder är en anledning till att vi ser färre kretsar per generation och att man inte bara kan pumpa ut 250mm² kort för $200.
Och efter utvecklingskostnad och tillverkningskostnad så kommer den avgörande prisjusteringen som helt enkelt är beroende på konkurrensläget. Ju svagare konkurrens, desto mindre spelar tillverkningskostnaden roll för slutpriset. Men oavsett vilket så är det inte transistorantalet som spelar roll. 300mm² cache kostar lika mycket som 300mm² beräkningsenheter på samma process.

Skrivet av ipac:

Skrev relativ die-storlek, i det här fallet, ja. Givetvis inte applicerbart på alla noder, från alla chiptillverkare. Utan kontexten är 40->50.

I det här fallet så rör det sig om snarlik nod som tidigare och med en mindre krets än tidigare (vilket även förstärkts av namnet, GB205) fanns inget som skulle föranleda AMD att tro att priset skulle gå upp kraftigt. Vilket sedermera heller inte hände, förstås.

Vad som hände däremot var att 5090 blev dyrare än 4090, spegel av die-size ökningen. Och därmed att avståndet mot 80 ökat, eftersom den låg kvar på både samma pris och die-size. Igen, som den relativa die-size skillnaden har förutspått.

Lite svårt att kalla det svagt resonemang när resonemanget speglar precis vad som hänt i verkligheten, tror du inte?

5070 är nedskalad, förövrigt.

Men en undran... Trodde du själv att 5070 skulle kosta $799?

Utvecklingsnamnet är inte någonting du kan lägga lika mycket vikt vid som förr. T.ex. var RTX 2070 en 06:a. Som sagt så är konkurrensläget en stor faktor i var nVidia lägger sina priser. Ditt resonemang hade hållit om nVidia inte haft vinstintressen och istället tillverkat till självkostnadspris. För vem som helst räknar såklart ut att tillverkningspriset för 5070 idag är lägre än för 4070Ti för över två år sedan. Lanseringspris är dock något helt annat. Det är väldigt lätt att vara efterklok och sedan få vilket resonemang som helst att framstå som hållbart med facit i hand. De allra flesta kan som du räkna på tillverkningskostnad och lista ut att nVidia kan sälja korten med vinst till $549. De kan nog sälja dem ännu billigare. Men det är inte självklart ur marknadsperspektivet. Jag trodde inte att 5070 skulle kosta $799. Skulle nog också gissa under $600. Men tänk om det kostat $649? Det räcker med att AMD måste sänka sina priser med $100 för att det ska äta upp hela marginalen och mer därtill för partnertillverkaren om de får ta smällen, och då får vi precis det scenariot vi har nu.

När det kommer till att i efterhand förklara vad som hänt i verkligheten så har du inte någon bra förklaring till varför vi sett alla de av varandra oberoende ryktena och plötsliga ändringar som vi sett. Medan precis allt, inklusive nVidias slutgiltiga prissättning, är fullt kompatibelt med teorin att AMD missbedömde 9070s konkurrensläge gentemot 5070.

Dessutom. jag säger inte att det var 5070s låga pris alena som var orsaken. Jag lyfter att mycket pekar på att AMD i brist på rå prestanda tänkt sälja 9070 på sina framsteg med FSR, och att om nVidias framsteg med DLSS 4.0 överträffade AMDs och AMD inte längre kunde motivera sitt pris så blir det problem för AMD. Det behöver faktiskt inte nödvändigtvis innebära att de missbedömde priset på 5070 alls, bara att de förlorat sin säljvinkel.

Varför tror du att AMD plötsligt ändrade sig om lanseringen av 9070 ungefär samtidigt som nVidia la korten på bordet? Varför kommer påståenden om oenigheter om prissänkningar i sista stund?

Permalänk
Medlem
Skrivet av Aleshi:

Varför tror du att AMD plötsligt ändrade sig om lanseringen av 9070 ungefär samtidigt som nVidia la korten på bordet? Varför kommer påståenden om oenigheter om prissänkningar i sista stund?

För att vänta på att Nvidia:s "lanserings pris" kort sålt slut och korten får sitt riktiga pris och AMD pris sätter sina kort mot det priset istället för hittepå msrp?

Permalänk
Medlem
Skrivet av ZaaphodBleebronx:

Läser man i tråden så tror folk att 9700 XT kommer att prestera som ett 4080/super/5080.
AMD själva satsar ju inte ens på detta.
Många kommer att bli besvikna när 9700 XT placerar sig strax under 5070 i prestanda och vara 500kr billigare
Hoppet är det sista som överger en sägs det

AMD satsar bara på 70-klassen denna generation. Problemet blev ju till när nVidia inte presterade som dom brukar över en ny generation. Att varje klass tar ett steg ner 4090=5080, 4080=5070, 4070=5060. Nu blev det ju inget större hopp utan gamla 80 är nästan samma som nya 80. Det var ingen som räknat med det, säkert inte heller AMD.
AMD räknade att 5070 skulle slå 4080 och prestandan däromkring skulle bli nya 70-klassen. Nu blev det inte så. Därför ser deras kort bättre ut och hamnar lite för högt prestandamässigt? Trots vad dom lovat om att inte sikta på prestandakronan.

Permalänk
Medlem

Inte kört NVidia sen GeForce MX400-nånting. Var sugen på 1060/1660, men då kom mining-boomen...

AMD har alltid haft bättre pris/Sweclockers-Index-poäng när det varit köpdags för mig.
Senast blev det en uppgradering från HD7870XT till 6700XT som lär hålla ett tag till. Frun däremot gick från HD7850 till ett GTX 1070 och det har funkat bra det också, så vi får se vad som ser bäst ut i prestanda (kollar enbart ren raster) när det blir dags att uppgradera där.

Vi har nyligen skaffat varsin skärm med 1440/75Hz, så det drar ju lite mer med spelande nu, men kör mest WoW och Diablo 3.

Visa signatur

Shadows never sleep...
Specs: Ryzen 5600X, Powercolor Fighter RX 6700XT, ASUS B550-I ITX, 32GB 3600MHz DDR4, Bitfenix Phenom µ-ATX

Permalänk
Medlem
Skrivet av Aleshi:

Som sagt så är konkurrensläget en stor faktor i var nVidia lägger sina priser.

Vad vi diskuterar är vad AMD trodde att Nvidia skulle lägga sina priser.

Konkurrensläget säger du. Så om AMD trodde att 5070 skulle kosta >$600 så överskattade alltså AMD hur konkurrenskraftig 5070 är? Och denna överskattning ska ha lett till att de reviderade (sänkte) priset på det egna 9070? Ok...

Citat:

Ditt resonemang hade hållit om nVidia inte haft vinstintressen och istället tillverkat till självkostnadspris.

Nej, där har du helt fel. Det finns inget i mitt resonemang som gör att marginaler (inkl olika marginaler för olika chip/kort) måste uteslutas. Att chipyta/BOM påverkar priset innebär inte att BOM är hela prislappen. Absolut inte.

Citat:

Det är väldigt lätt att vara efterklok och sedan få vilket resonemang som helst att framstå som hållbart med facit i hand.

Njae. Resonemanget att AMD gissade för hög prislapp på Nvidias produkt har ingen lätt resa direkt...

Citat:

Jag trodde inte att 5070 skulle kosta $799. Skulle nog också gissa under $600.

Du gissade rätt.
Men AMD klarade inte av det.
Spännande.

Citat:

Men tänk om det kostat $649?

Igen, vad vi diskuterar är vad AMD trodde att kortet skulle kosta.

Citat:

Medan precis allt, inklusive nVidias slutgiltiga prissättning, är fullt kompatibelt med teorin att AMD missbedömde 9070s konkurrensläge gentemot 5070.

Bingo. Så det kan likväl vara 9070 som AMD missbedömt.

Citat:

Det behöver faktiskt inte nödvändigtvis innebära att de missbedömde priset på 5070 alls.

Bingo igen.

Citat:

Varför tror du att AMD plötsligt ändrade sig om lanseringen av 9070 ungefär samtidigt som nVidia la korten på bordet?

Det finns en uppsjö saker som kan uppstå inför en launch som gör att man reviderar sina ursprungliga planer.

Att orsaken var att man missbedömde priset (till >$600) på den produkt som bär GB205-300 hör till de minst sannolika.

Permalänk
Medlem
Skrivet av kelthar:

4000kr är inte ett avrundningsfel för mig. Tror det är få som känner så.

Men jag skiljer mig från mängden när det gäller prestanda. Jag bryr mig inte alls om MFG, FG, DLSS och liknande. Det är poänglöst för mig. Dött kisel.

Jag hade gärna sett att AMD hade levererat ett alternativ där helt utan RT och Tensorcores. Man hade antagligen fått 20-30% högre prestanda på samma mängd transistorer.

Tänk dig då att köper du ett GeForce RTX 5080 Prime OC, eller RTX 5080 Suprim SOC, är prisskillnaden fem tusen spänn bara för lite kylfläns och plast.

AMD är nästan där idag med styrkan i raster (och verkligen endast raster), och det säljer ju ingenting. Dom måste så klart anpassa sig till vad den stora merparten kunder vill ha.

Visa signatur

Intel i9-12900K | Asus STRIX Z690-I | 32 GB DDR5-6400 CL30 | AMD Radeon RX 7900 XTX | WD Black SN850 1 TB
Asus ROG Loki SFX-L 750W | SSUPD Meshlicious | Arctic Cooling Freezer II 280 | Alienware AW3423DWF

Permalänk
Medlem
Skrivet av superapan:

Dom måste så klart anpassa sig till vad den stora merparten kunder vill ha.

Jag vill ha ett bra kort under 5000 spänn.

Permalänk
Medlem
Skrivet av xc:

Jag vill ha ett bra kort under 5000 spänn.

Intel Arc B580 Limited Edition Graphics Card

Permalänk
Medlem
Skrivet av Aka_The_Barf:

Vill amd ta delar och växa så MÅSTE de ha "aggresivt" pris och liknande funktioner som konkurrenterna.

Kan nog bli ett amd kort i framtiden. Det senaste var 7970. Sen kom 1080 från nvida som sopade mattan med amd då det rök om det. Innan dess hade nvidia alltid varit lite snabbare men förlorat på energieffektivitet. 1080 ändrade det rejält.

Får hoppas på ok prestanda och effektivitet för nvidias topp kort går bort pga pris. Kan amd plocka en plats runt 5070-5080 prestanda som är ett par tusenlappar billigare kan de bli riktigt lyckat tror jag.

Nvidia har legat före energieffektivt redan med Maxwell. Pascal förbättrade det försprånget när det hamnade på 16nm.

Permalänk
Medlem
Skrivet av superapan:

Tänk dig då att köper du ett GeForce RTX 5080 Prime OC, eller RTX 5080 Suprim SOC, är prisskillnaden fem tusen spänn bara för lite kylfläns och plast.

AMD är nästan där idag med styrkan i raster (och verkligen endast raster), och det säljer ju ingenting. Dom måste så klart anpassa sig till vad den stora merparten kunder vill ha.

Japp. Jag skiljer mig från mängden.

Visa signatur

Hur många datorer är för många?

Permalänk
Datavetare
Skrivet av andelf:

Anledningen till att Nvidia inte rekommenderas i Linux-sammanhang är inte prestanda utan det faktum att drivrutinerna är HELT stänga, och är således inte ens kompatibla med vissa distributioner.
Att säga att stödet för Nvidia är bättre i Linux än för Intel eller AMD är rent felaktigt då både företagen har open-source:at sina drivrutiner.

Vilket stärker den punkt jag gjorde initialt!

Har man Turing eller senare är Nvidias Linux-drivrutiner sedan en tid tillbaka inte bara effektiva (de är klart snabbare än motsvarigheterna för GPGPU i Windows), de är också öppen källkod.

Samtidigt är det, även för Linux-användare, viktigare att saker fungerar bra än att de är öppen källkod. Detta gäller särskilt för kod som ligger utanför kärnan, vilket utgör majoriteten av den kod som ingår i moderna GPU-drivrutiner.

En viktig orsak till att AMD har tappat en tredjedel av sitt börsvärde det senaste året är att de inte alls har lyckats så bra på AI-marknaden som förutspåtts. Ser man enbart till hårdvaran har AMD flera starka produkter på datacenter-sidan jämfört med Nvidia, bland annat mer VRAM och högre bandbredd – två egenskaper som är kritiska för LLMs.

Det som fäller dem är programvaran. Nvidias CUDA-ramverk är överlägset AMD:s HIP när det gäller stabilitet, funktionalitet och ekosystem. På den punkten har Intel kommit något längre än AMD med OneAPI, men de är fortfarande långt ifrån Nvidias nivå i dagsläget och Intel har misslyckats i exekvering av HW.

Positivt framåt, inte minst för konsumenter, är att jag hoppas och tror att en övergång till UDNA kommer att resultera i både bättre hårdvara och, framför allt, bättre programvara från AMD. Programvara utgör idag lejonparten av arbetet för GPU:er, och därför är det betydligt mer värdefullt att ha en enhetlig arkitektur att bygga på, snarare än att behöva hantera en design för datacenter och en annan för konsumenter.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Swedishchef_90:

Och sen sänker nvidia priset och amd säljer inget :X

Eventuellt. Nvidia är mest benägna att göra det runt x70-serien. x60-serien så säljer på de halo-effekten (dvs, de köparna är mindre kunniga och köper mest på varumärket) och x80 kommer väl inte AMD i närheten.

Skrivet av DiamondDogs:

Förstår inte resonemanget att problemet är att folk inte köper AMD's grafikkort och att det är därför AMD inte är en relevant konkurrent. Det är väl AMD's jobb att övertala folk att köpa deras kort istället för att folk ska stödköpa AMD för att bibehålla någon form av konkurrens. Hade man släppt en mer attraktiv produkt än Nvidia's dito så hade det sett väldigt annorlunda ut.

Tvivlar lite på att det hade gjort det. Eftersom de använder samma producent av chip i TSMC så finns det inget att konkurrera med där. Förbättringarna i rasterisering är små per generation idag. Att utveckla någon ny teknik som speltillverkare kan implementera är meningslöst när man är så mycket mindre som AMD är. Om AMD skall slå igenom igen - speciellt med all som sitter på forum och gnäller över att deras drivrutin kraschade med en 2600XT för 20 år sen och därför aldrig kommer att köpa dem igen - så krävs det nog att Nvidia helt gör bort sig en generation.

Skrivet av osgorth:

Påminner rätt mycket om den lastgamla debatten på hårddiskssidan.. Seagate lever fortfarande med sitt (förvisso välförtjänta) rykte från tiden de producerade Barracuda 3TB-diskarna - i särklass den sämsta hårddisk som producerats, möjligen i konkurrens med IBM's "DeathStar". WD lever fortfarande på sin goodwill från den klassiska WD Red-serien, med 4TB-disken som i princip är den mest pålitliga hårddisk som tillverkats.

Sen att Seagate i princip bara släppt bra produkter sedan Barracuda-fadäsen, alltid är billigare än WD, och WD har roat sig med att mer eller mindre bara släppa dyrt skräp och ljuga hejvilt om allt möjligt OCH har branschens överlägset sämsta support -- who cares: Seagate är skit och WD är bäst.

Under hela denna tid har dessutom Toshiba suttit på avbytarbänken och får inte mycket uppmärksamhet trots utmärkta produkter till utmärkta priser under en väldigt lång tid. Uppstickare, nänä! WD ÄR BÄST!!11!

(för att vara övertydlig: WD är i detta fall synonymt med Nvidia, Seagate är AMD)

On-topic: ser väldigt mycket fram emot 9070XT. Det kan bli mitt första AMD-kort sedan Radeon 5870. Rejält trött på Nvidia.

Nu bryr jag mig inte så mycket om roterande rost längre, men det jag ser om WD är alltid hur de är konsumentfientliga svin.

Skrivet av Swedishchef_90:

9070XT drar 335W tdp

Enligt rykten ja, men 9070 skall enligt samma rykten ha väsentligt lägre effekt.

Skrivet av jOnÄTÄn:

Hade varit kul om AMD/Intel och Nvidia släppte hela serier på samma dag. Folk kommer ju köpa massa grafikkort från Nvidia även om de släpper RTX 5010-5090 på samma dag istället för att sprida ut det över flera år.

Jag är otålig vill se hur korten som ersätter 6600xt/4060 presterar.

De vill ha så mycket uppmärksamhet som möjligt, det är därför de sprider ut sina launcher.

Sen är det bra för sidor som den här om de har lite tid på sig att testa saker.

Skrivet av kelthar:

7900 XTX går upp i pris nu.
Hört rykten om att de säljer som fan utomlands. Undrar om det stämmer?

Är i linje med mitt eget sug...

Flera modeller som är slut nu som fanns för två dagar sedan.

De säljer antagligen slut till amerikaner som är rädda för Trumps tullar och inte vågar vänta.

Visa signatur

5900X | 6700XT

Permalänk
Medlem
Skrivet av Dinkefing:

Nvidia har legat före energieffektivt redan med Maxwell. Pascal förbättrade det försprånget när det hamnade på 16nm.

Det var då det märktes riktigt tydligt och något man verkligen noterade. 180 watt vs 250 med bättre prestanda tror jag det var.

Visa signatur

Ryzen 9800X3D @ Stock, MSI Suprim X 3080 @ game mode.
YT kanal där jag meckar bilar: https://www.youtube.com/@saab900turboT16

Permalänk
Medlem
Skrivet av Aka_The_Barf:

Det var då det märktes riktigt tydligt och något man verkligen noterade. 180 watt vs 250 med bättre prestanda tror jag det var.

Maxwell är på många sätt den bästa designen Nvidia gjort, om vi räknar i IPC-lyftet - och detta från Kepler som inte alls var dålig. Pascal är sedan en dubbelkrympning (TSMC ställde in 20nm-noden för allt utom mobiler, och den var dålig där också) så det är klart att det blev bra kort. Samtidigt tvingades AMD köra med Global Foundries och deras usla 14nm-nod som försenats gång på gång p.g.a av det ökända Wafer Purchase Agreement. De tappade mycket där.

Visa signatur

5900X | 6700XT

Permalänk
Medlem

AMD verkar arbeta på ett grafikkort med 32GB VRAM. Troligen ett AI-kort i så fall. Men tänk om de hade kunnat totalt överraska med ett "Big-RDNA4"-kort och helt ta över prestandakronan från nVidia nu när de sett hur 5090 presterar. Men mest troligt ett utvecklingsexemplar av 9070XT med dubbelt minne.

https://videocardz.com/newz/amd-reportedly-working-on-gaming-...

Visa signatur

Dator 1: Meshify S2 Vit | RM750x | B550-E | 5700X | 32Gb Lpx 3600 | 3060Ti Gaming X Trio | 970 Evo Plus 1TB + 850 Evo 500GB|
Dator 2: FD Define R5 Vit | RM750x | B550-F Wifi | 3800X | 32Gb Lpx 3200 | SN850 1TB+850 Evo 500GB+Sandisk Plus 960GB | 1070 Gaming Z - Playstation 5 | Wii U | Nintendo Switch

Permalänk
Medlem

Hoppas det ska bygga ny dator under våren så.

Visa signatur

CPU: AMD Ryzen 5 2600 Mk: ASUS PRIME B450M-A GPU: XFX AMD Radeon RX 6750 XT Core Gaming Ram: G.Skill Trident Z RGB Series 16GB 3200MHzChassi: NZXT H7 Elite Nätagg: NZXT C750 750W v2Hd: Kingston SSDNOW A1000 240GB M.2, Samsung 850 EVO SSD 250GB, Samsung SSD 860 PRO SSD 512GB x 2 Skärm: Acer KG241

Permalänk
Medlem
Skrivet av kebabmannen666:

Problemet for AMD ar ju att om de bara ar lite billigare och har ungefar samma prestanda som ett nvidia-kort sa koper ju alla nvidia anda.

De skulle forsoka fa till en konkurrent till 5080 men salja det 20-30% mindre an 5080 -- da skulle de ha en konkurrent.

Här, gjorde lite prickar som du kan använda: .: .. .:

OnT: Det är väl bra att prissättningen är aggresiv, men de brunar ju ändå tillslut synka priserna mot varandra. Exempelvis Intels kort menar jag är för dyra för de ska vara intressanta, de skulle behöva sänka priserna rätt rejält.
Förr i tiden när en ny aktör slog sig in på marknaden var det ju rejäla rabatter. Kommer speciellt ihåg Kyro2-korten som slaktade allt annat prismässigt.

Permalänk
Medlem
Skrivet av mpat:

De säljer antagligen slut till amerikaner som är rädda för Trumps tullar och inte vågar vänta.

Alla som velat ha ett 7900 XTX, men väntat på att priserna ska gå ner lite mer eller inte varit redo. Det är troligt.

Visa signatur

Hur många datorer är för många?

Permalänk
Medlem

En fördel är ju om den inte brinner upp och finns i lager

Permalänk
Medlem
Skrivet av Swedman18:

En fördel är ju om den inte brinner upp och finns i lager

Hög ribba du sätter, försök sätta mer realistiska krav 😉

Permalänk
Medlem
Skrivet av hölmiz:

Det är det här beteendet som är problemet...

Hur ska AMD kunna existera och skapa konkurrenskraftiga grafikkort om om konsumenterna köper Nvidias kort även om AMDs är bättre/billigare? Bara för att du hade dåliga erfarenheter av AMDs drivrutiner för x antal år sedan så har det inte särskilt mycket med dagens situation att göra. Att välja bort en tillverkare på grund av tidigare dåliga erfarenhet kan fungera om det finns många olika tillverkare som tex chassin, cpu kylare etc. Men i en duo/oligopol situation som vi har på grafikkortsmarknaden måste konsumenterna vara otrogna och inte bara hålla sig till en tillverkare, dåliga tidigare erfarenheter eller ej.

Nja 4 år sen för mej & arbetskollega. tog drygt 6 månader för stabilisering av drivrutiner o mjukvaran. Köpa amd på releasedatum är knass, 6-12 månader senare helt okej.
Köpte för ville ha bättre vr upplevelse...amd mjukvara tyckte det var en extra skärm. Senare la dom in en har du vr knapp flera månader senare. Nvidia auto detect sånt.
Var flera dagar jag försökte lösa problematiken o månader av skippa spela/användai vr... Polaren köpte innan mej hans fuckade ur rejält på andra sätt en vecka så returnerade han den.

Största anledningen att jag inte byte var det var gpu brist just då.
Varit o förblir lite av en amd fanboy power/kr ..men release datum undviker jag med amd resten av livet.

Permalänk
Medlem
Skrivet av Streamdog:

AMD verkar arbeta på ett grafikkort med 32GB VRAM. Troligen ett AI-kort i så fall. Men tänk om de hade kunnat totalt överraska med ett "Big-RDNA4"-kort och helt ta över prestandakronan från nVidia nu när de sett hur 5090 presterar. Men mest troligt ett utvecklingsexemplar av 9070XT med dubbelt minne.

https://videocardz.com/newz/amd-reportedly-working-on-gaming-...

AMD har ju gjort "jubileumsutgåvor" förr. Förra gången var det 50 års-jubileum för AMD som bolag. Nu får de väl köra 40-årsjubileum av ATi (grundat -85). Alltid är det nån som köper det.

Visa signatur

5900X | 6700XT

Permalänk
Medlem

Jag är mest nyfiken på om någon kommer köpa amd om UDNA blir bra.
Om FSR 4 - 5 är bra nog, RT är bra nog och mjukvaran är bra nog eller kommer psykosen då lyda att amd måste ha mfg annars måste de kosta 50% mindre.

Om ovan inträffar att software stacken är god nog kommer folk fortsätta köpa Nvidia premium trots att de tycker bang for buck är sämre eller börjar folk faktiskt mer köpa ett amd/intel kort som duger gott för deras ändamål?

Där och då känner jag att det är lite upp till bevis för konsumenter mer än amd/intel.

Visa signatur

Asus X470 gaming-f, 5800x, 7900xt, g.skill 32gb 3200 cl 14.

Permalänk
Medlem
Skrivet av mpat:

De vill ha så mycket uppmärksamhet som möjligt, det är därför de sprider ut sina launcher.

Sen är det bra för sidor som den här om de har lite tid på sig att testa saker.

Ja det är ju uppenbart att det är så. Känns ju även som att de får en massa artiklar om minsta lilla läcka emellan släppen också. Bra både för Nvidia och Sweclockers ju fler släpp det blir. Mer reklam för Nvidia och sweclockers får mer trafik. Tråkigt för oss som köper bara.

Visa signatur

Ryzen 5 7600
Rx 6650xt
32Gb

Permalänk
Medlem
Skrivet av Streamdog:

AMD verkar arbeta på ett grafikkort med 32GB VRAM. Troligen ett AI-kort i så fall. Men tänk om de hade kunnat totalt överraska med ett "Big-RDNA4"-kort och helt ta över prestandakronan från nVidia nu när de sett hur 5090 presterar. Men mest troligt ett utvecklingsexemplar av 9070XT med dubbelt minne.

https://videocardz.com/newz/amd-reportedly-working-on-gaming-...

Inte för att jag har stenkoll, men är inte AI typ exklusivt för Nvidiakort p.g.a. CUDA och såna grejer? Har AMD kommit ikapp på den fronten?

Permalänk
Skrivet av Icetec:

Inte för att jag har stenkoll, men är inte AI typ exklusivt för Nvidiakort p.g.a. CUDA och såna grejer? Har AMD kommit ikapp på den fronten?

Nej de ligger långt efter pga deras implementering är efter. Du är deras beta testare och får tyvärr oftast lösa problem, eller andra användare.

AMD har egentligen bra output I scenarion deras grejer fungerar men tyvärr i verkliga livet så duger de som bäst till hobby eller nischade användningar där implementeringen fungerar

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 4x Noctua A14x25 2xT30, 1x Noctua A12x25, 3x ek loop

Permalänk
Medlem
Skrivet av Yoshman:

Ta till exempel Linux-stöd för GPU:er – Nvidia hade tidigare ett välförtjänt dåligt rykte på detta område. Men på senare tid har deras stöd blivit bättre än både AMD:s och Intels. Faktum är att aktuella tester på Phoronix visar att Nvidia ofta presterar bäst och har minst problem. Trots detta lyder många rekommendationer fortfarande att undvika Nvidia om man ska köra Linux.

Kul med ett inlägg som inte handlar om M4!

Open source är väl positivt. Men risken är att man hamnar i samma problem som AMD med att HDMI 2.1 inte fungerar (Intel har dock lyckats). Det ska sägas att Nvidias open-sourcedrivrutiner är taggade som "experimental", och blandningen mellan proprietära blobs i kernel module + userspace kommer sannolikt bricka systemet vid en uppdatering. I gengäld har Nvidiaanvändare tillgång till alla (?) features som till Windows. AMD-användare kan ju bara glömma bort AMFMFMF och allt vad det heter.

När det gäller prestanda; senaste Phoronixtestet placerar 4080 10 % före 7900XTX - ray tracing inkluderat (CP2077 i 4K utan RT är 7900XTX i nivå med 4090...). Och RT i Linux med AMD är katastrofalt. Jag vet inte vart du har läst att det skulle fungera så bra? Då skulle vi väl se en officiell SteamOS distro från Valve; just dålig support från Nvidia var en av huvudanledningarna.

Men ska Year of Linux Desktop någonsin bli av måste Nvidia också ha fullvärdigt stöd.

Visa signatur

Intel i9-12900K | Asus STRIX Z690-I | 32 GB DDR5-6400 CL30 | AMD Radeon RX 7900 XTX | WD Black SN850 1 TB
Asus ROG Loki SFX-L 750W | SSUPD Meshlicious | Arctic Cooling Freezer II 280 | Alienware AW3423DWF

Permalänk
Medlem

"AMD Radeon RX 9070 series briefly listed by Canadian retailer: RX 9070 XT at $697 USD, RX 9070 at $586 USD"

= 9500:- ink. moms.

https://videocardz.com/newz/amd-radeon-rx-9070-series-briefly...

Visa signatur

14900K
5080
5070 Ti
9070 XT
3070

Permalänk
Medlem
Skrivet av SpaceAce:

"AMD Radeon RX 9070 series briefly listed by Canadian retailer: RX 9070 XT at $697 USD, RX 9070 at $586 USD"

= 9500:- ink. moms.

https://videocardz.com/newz/amd-radeon-rx-9070-series-briefly...

Det mest intressanta är att alla olika modeller av kort hade olika priser satt vilket brukar peka på att det inte är en placeholder samt det faktum att det togs bort direkt efter man upptäckte länken var exponerad.

Reaper = MSRP modell: 9500 SEK
Red Devil = 11 800 SEK

Visa signatur

14900K
5080
5070 Ti
9070 XT
3070