Fler 3DMark-resultat visar AMD "Big Navi" i överläge mot Geforce RTX 3080

Permalänk
Redaktion
Praktikant ✨
Skrivet av medbor:

@JonasT? Alltså såklart inte innan nyår för ni behöver ju redan vadarbyxor på er på kontoret för allt ni har att göra nu, men sen, framåt våren när det lugnat sig lite...

Tror det är svårt att få ett grepp om genom att bara lästa release notes på drivrutinsversioner... någon form av helhetsgrepp. Det är ju nästan omöjligt att veta skillnaden eftersom mjukvaran för andra sidan inte finns tillgänglig med det kort man har...

Om vi kommer ut levande på andra sidan den här hårdvaruhösten så vore det ett utmärkt uppslag på en artikel! Speciellt om det nu blir som ryktena säger att prestandan kan ligga rätt nära varandra mellan lägren, vilket gör att features och mjukvara kan avgöra valet.

Permalänk
Medlem
Skrivet av Hevin:

Vi har alla olika uppfattningar om hur viktigt DLSS är, och det spelar också en väldigt stor roll vilka spel du spelar. Det är helt okej att se DLSS som något som man inte kommer ha nytta av i de flesta spel man spelar, men det finns också många som kommer ha väldigt stor nytta av det.

DLSS finns inte i de flesta spelen, men alla framtida COD och Battlefield kommer ha det, Cyberpunk har det, och helt ärligt är det redan en stor deal för mig enbart på grund av det. Sen kommer förmodligen i stort sett alla AAA spel framöver att stödja det.

Det är inte någon gimmick, och det kommer bli standard för alla spel med tiden. Det är därför AMD har ett svar på det, återstår bara att se hur bra svaret är.

Jag har inte alls på något sätt försökt förminska DLSS eller vad det åstadkommer men man måste hålla det i en separat kategori så som VariableRateShaders eller som att ändra nivå eller algoritm för AntiAliasing eller andra saker. Kan vi få uppskalning som hjälper prestandan så mycket och samtidigt behåller så mycket bildkvalitet är det ju extremt trevligt, och troligen kommer det mesta av rendering i framtiden (realtid alltså) använda liknande algoritmer.

Det betyder inte att det ska vara basen för jämförande tester, på precis samma sätt som att PhysX eller HairWorks ska vara det heller.

Permalänk
Datavetare
Skrivet av Bernd_P1:

Minns du Physx? samma snackade man om det då. att det skulle blir standard. Allt som nvidia gör och sen låser ner kommer aldrig blir "standard". det kommer bara finnas med sålänge nvidia har råd att betala för det. om pengerna försvinner så kommer DLSS också försvinna.

Finns massor med exempel där något som ser väldigt lovande ut initialt i slutändan bara försvinner. Vet inte varför PhysX ofta kommer upp som ett sådant exempel.

Vi hör väldigt lite om PhysX just därför att det är en standardfunktion i alla fall Unreal Engine samt Unity. Det är en sådan självklarhet att ha dessa fysikfunktioner att det inte riktigt är något man tänker på. PhysX är inte heller dött, senaste större uppdatering gjordes i år med PhysX 5 där en av nyheterna är simulering av vätskor.

Sedan DLSS 2.0 råder det nog inga tvivel om att den tekniken är här för att stanna. Finns ju redan andra varianter som bygger på DirectML. Vi får se kommande vecka exakt vad som finns i RDNA2, framförallt om det finns något likt Nvidias "tensor-kärnor".

Med DirectML är det möjligt att få till motsvarande som DLSS även utan tensor-kärnor. Skulle rent logiskt gå att köra DLSS på Pascal och tidigare utan större problem. Stora frågetecknet är om en teknik som DLSS blir speciellt vettig i frånvaro av tensor-kärnor. Tensor-kärnorna är kisel som står oanvänd i spel i frånvaro av DLSS, samtidigt som tensor-kärnorna är superoptimerade just för det som behövs för att köra DLSS.

När de första spelen med OpenML stöd hittar ut lär vi se hur viktigt tensor-kärnor är. För OpenML fungerar så att den använder tensor-kärnor om dessa finns, annars utförs beräkning på de "vanliga" GPU-kärnorna. Frågetecknet är om man vinner så mycket om de "vanliga" kärnorna behöver använda mindre kraft till 3D-beräkningar men samtidigt utföra uppskalning med maskininlärning (som är rätt beräkningstungt i sig).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Läckt ut lite om Asus RX 6800XT enginering board. Klockhastigheterna här inte helt stabila än, beroende tydligen på drivers men väldigt imponerande klockhastigheter över 2.5 GHz. Är tydligen som det läckts tidigare att Navi 21 har bra utrymme för överklocking.
Om ni orkar lyssna på "ladies and gentleman" (Redgamingtech) så finns mkt info idag hos dem.
Han har tydligen hört lite om RDNA3 också... verkar vara något i hästväg det lilla han hört. Men det betyder inte att RDNA2 är dåligt, det är det inte utan RDNA3 blir ett rejält skutt igen och ska skala väldigt bra.
https://www.youtube.com/watch?v=Yu6J83vdZ-0

Visa signatur

Lian-Li Tu150 (fläktmoddad) w Corsair SF750 Platinum SFX / Asus Strix B550-i Itx / Ryzen 5600x @ 4.92.. Scythe Fuma 2 / Crucial Ballistix 2x16 3600@4000 / WD Black SN850 NVME + Kingston A2000 NVME / MSI Radeon RX 6800 referens / 2x120mm Noctua NF-A12x15 golv. 2x120mm Noctua NF A12x25 In och Utblås. Fläktmod tak 1x140mm Noctua NF A14 utlblås via kammare baktill. Samsung 34" c34j791 3440x1440.

Permalänk
Medlem
Skrivet av napahlm:

Nintendo är väl den enda konsolen värd att ha om man redan har en dator? 95% av spelen på Xbox och PS kommer redan till PC dessutom är spelen billigare och snyggare på datorn. Så rent upplevelsemässigt så finns det ingen anledning att ska PS/Xbox då du får samma på datorn? Nintendo har ju nästan åt andra hållet mängder av exklusiva titlar på sin plattform och dom är i regel mycket bra spel och inte någon halvdålig portning som ska fungera på tre plattformar PC/PS/Xbox.

Nu har jag bara kollat fysiska spel, då det är det jag vill ha till mitt Nintendo. Kollar min prisjakt så ligger det stadigt runt 560kr. Black Friday förra året var det rea och prisänkt till 539kr!

Jag har aldrig köpt någon komponent i flaggskepp-klassen. Har alltid siktat på den mycket mer plånboksvänliga klassen under. I AMD-termer utan X, kan man säga. Detta är första gången som jag är pumpad och redo att slänga lite kontanter. Jag har satt min övre gräns till 6000kr, det är vad jag har sparat till under snart två år. Vad det sen räcker till det får vi se. Får vi ett 6900XT för 5000 kr som många hoppas på här så blir jag glad. Men det lär ju inte hända.
Jag tror att AMD hade siktet inställt på att lägga sig under nVidia prismässigt och vara strax bakom i prestanda. Men som någon skrev så pratar youtubers (har inte sett videorna själv ännu) om att AMD nu tvekar på prissättningen då dom har en produkt som presterar bättre än vad dom och nVidia har trott.
Nu ser kanske AMD möjligheterna att ge nVidia ett rejält tjuvnyp men sen så kanske inte aktieägarna ser så positivt på att dom "slumpar bort" sina grafikkort. Jag hoppas på 100 $ bakom. Men tror mer på 30-50 $. Om dom inte till och med lägger sig på samma prispunkt. Att dom kommer lägga sig över tror jag inte.
Men man kan nästan vara säker på att nVidia kommer prisjustera i november, om nu AMD presterar över.

6900XT kommer nog snarare kosta 999$ eller strax över 10000kr om det är nära eller över 3090

Permalänk
Medlem
Skrivet av medbor:

6900XT kommer nog snarare kosta 999$ eller strax över 10000kr om det är nära eller över 3090

Är min gissning också sen nån vecka tillbaka att Navi21 XTX kommer hamna på 999$. Sen om den kommer att heta 6900Xt lr ej vet vi inget om. Slår den 3090 helt eller delvis så lär den döpas till 6900XT. Är den sämre kommer de nog inte använda sitt "toppnamn" till den.
Hamnar den på 899$ så kommer folk rusa efter den...

Visa signatur

Lian-Li Tu150 (fläktmoddad) w Corsair SF750 Platinum SFX / Asus Strix B550-i Itx / Ryzen 5600x @ 4.92.. Scythe Fuma 2 / Crucial Ballistix 2x16 3600@4000 / WD Black SN850 NVME + Kingston A2000 NVME / MSI Radeon RX 6800 referens / 2x120mm Noctua NF-A12x15 golv. 2x120mm Noctua NF A12x25 In och Utblås. Fläktmod tak 1x140mm Noctua NF A14 utlblås via kammare baktill. Samsung 34" c34j791 3440x1440.

Permalänk
Medlem
Skrivet av Obiwannabekenobi:

Jag har både typen av kort i olika datorer o tycker att AMDs drivrutin fungerar jättebra. Särskilt gränssnittet är bättre tom (om än delvis rörigt) eftersom den erbjuder mer än Nvidias angående tweaking utan att behöver installera ytterligare ett 3dje parts verktyg.

Cool, jag hade dessvärre en oerhört dålig upplevelse men detta var nu ett par år sedan och AMD har ju börjat komma ikapp på en del fronter så förutsätter att man även blivit bättre på GPUs. Köpte ett Fury X för att bl.a. spela Ark Survival Evolved, frameraten var horribel. Minns även att jag var exalterad över nya Just Cause 3, vars drivrutiner var så brutalt dåliga att det var ospelbart vid launch och i veckor efter. Bestämde mig då för att byta till ett 980 ti med någon på sweclockers, vilket visade sig vara mitt bästa köp någonsin inom datordelar.
Menmen, nu när AMD gör deg på CPU's så hoppas vi på bättre dagar:)

Permalänk
Medlem
Skrivet av medbor:

6900XT kommer nog snarare kosta 999$ eller strax över 10000kr om det är nära eller över 3090

Skulle ha skrivit 6800XT.
Där hoppas jag på 599 för xt och kanske 549 för 6800.

Det är någonstans där man får titta prismässigt. Eller tom 6700xt?

Permalänk
Medlem

Låter min beställning på ett 3080 ligga, men är absolut beredd att byta till AMD om det blir bra det här.

Permalänk
Skrivet av Yoshman:

Finns massor med exempel där något som ser väldigt lovande ut initialt i slutändan bara försvinner. Vet inte varför PhysX ofta kommer upp som ett sådant exempel.

Vi hör väldigt lite om PhysX just därför att det är en standardfunktion i alla fall Unreal Engine samt Unity. Det är en sådan självklarhet att ha dessa fysikfunktioner att det inte riktigt är något man tänker på. PhysX är inte heller dött, senaste större uppdatering gjordes i år med PhysX 5 där en av nyheterna är simulering av vätskor.

Sedan DLSS 2.0 råder det nog inga tvivel om att den tekniken är här för att stanna. Finns ju redan andra varianter som bygger på DirectML. Vi får se kommande vecka exakt vad som finns i RDNA2, framförallt om det finns något likt Nvidias "tensor-kärnor".

Med DirectML är det möjligt att få till motsvarande som DLSS även utan tensor-kärnor. Skulle rent logiskt gå att köra DLSS på Pascal och tidigare utan större problem. Stora frågetecknet är om en teknik som DLSS blir speciellt vettig i frånvaro av tensor-kärnor. Tensor-kärnorna är kisel som står oanvänd i spel i frånvaro av DLSS, samtidigt som tensor-kärnorna är superoptimerade just för det som behövs för att köra DLSS.

När de första spelen med OpenML stöd hittar ut lär vi se hur viktigt tensor-kärnor är. För OpenML fungerar så att den använder tensor-kärnor om dessa finns, annars utförs beräkning på de "vanliga" GPU-kärnorna. Frågetecknet är om man vinner så mycket om de "vanliga" kärnorna behöver använda mindre kraft till 3D-beräkningar men samtidigt utföra uppskalning med maskininlärning (som är rätt beräkningstungt i sig).

Hör till de som inte är imponerad av dlss2.0. Om man harvat runt lite i Photoshop, vilket jag nästan får anta att du också gjort, så känns det som att man tagit en lågupplöst bild (vilket är precis det de gör) och försöker skärpa upp den så "billigt" som möjligt. Mycket kontrastfilter framför allt. Inte hittat mycket som ser bra ut i mina ögon, men kanske är ensam. DF verkade ju inte ens se artefakterna och de lågupplösta sektionerna när de försökte.
Jag ser DLSS som en ny tagning av AA. Man försöker få en låg upplösning att se skarp ut, men kallar det för "targetupplösningen", oavsett vad man skalar upp från. DLSS är ju helt magiskt ur ett marknadsföringsperspektiv på det viset. "Titta det rullar i 100 FPS 4k" (dlss från 1080p)...

Visa signatur

i7 6700k @4,1 base - 4,4 Turbo | XFX 590X Fatboy | Gigabyte Z270 D3 | 2x16 GB Corsair Vengence 3200MHz Cl 16| Intel 750 400GB |EVO 970 1 TB Steamdrive| 64TB thin provision

Permalänk
Medlem
Skrivet av Youjimbo:

AMD äger konsolmarknaden. RT-implementationen i RX6000-korten är antagligen demsamma som i konsolerna (RDNA2 i både 6000 och konsolerna). Utvecklarna optimerar i första hand för konsol.
Så de siffror vi ser på RT-prestanda vid lansering är antagligen långt ifrån representativt för spel som kommer om bara ett år och framförallt 2022+.
Så köper man grafikkort för att spela på i mer än 1 år så skall man nog inte lägga alltför stor vikt på RT-prestanda nu i November 2020.

Sunt resonemang må jag säga.

Visa signatur

MB: Asus ROG Strix Z370-E Gaming // CPU: Intel Core i7-8700K
GPU: Asus RTX 3080 TUF OC // Acer Predator XB271HU
RAM: Corsair 16GB DDR4 3000Mhz // PSU: Corsair 750W HX
SSD: Samsung 840 Pro 128GB + 850 EVO 250GB + 850 EVO 500GB

Permalänk
Medlem

Det kanske finns en anledning till låg tillgång till Nvidia kort. Vet "alla" i branchen att AMD kommer dominera detta släpp så är det dessa grafikkort som man bygger för fullt för att slippa risken med att få mängder med Nvidia kort liggande på lager som är svårsålda. Då Nvidia redan från början satte ett lägre pris mot föregående serie så är känslan att Nvidia viste att AMD har något bra på gång. Min förhoppning är att kommande spel kommer visa en betydligt mycket bättre verklighet mot dagens spel. Skulle 2080ti prestandanivån hamna på ca 4000-4500kr så finns det all anledning till att höja grafiknivån när antalet spelare med den kraften i PCn kommer bli stor.

Jag är glad att jag inte behöver ett nytt grafikkort nu då det är så mycket som är på G. Tror många är glada att deras Nvidia kort inte är levererade om nu ryktarna stämmer att AMD har något stort på gång.

Visa signatur

Ryzen 5800X ROG STRIX X570-f GAMING FlareX DDR43600 cl 14-14-14-34 EVGA FTW3 Ultra RTX 3090

Permalänk
Medlem
Skrivet av napahlm:

Nintendo är väl den enda konsolen värd att ha om man redan har en dator? 95% av spelen på Xbox och PS kommer redan till PC dessutom är spelen billigare och snyggare på datorn. Så rent upplevelsemässigt så finns det ingen anledning att ska PS/Xbox då du får samma på datorn? Nintendo har ju nästan åt andra hållet mängder av exklusiva titlar på sin plattform och dom är i regel mycket bra spel och inte någon halvdålig portning som ska fungera på tre plattformar PC/PS/Xbox.

Nu har jag bara kollat fysiska spel, då det är det jag vill ha till mitt Nintendo. Kollar min prisjakt så ligger det stadigt runt 560kr. Black Friday förra året var det rea och prisänkt till 539kr!

Jag har aldrig köpt någon komponent i flaggskepp-klassen. Har alltid siktat på den mycket mer plånboksvänliga klassen under. I AMD-termer utan X, kan man säga. Detta är första gången som jag är pumpad och redo att slänga lite kontanter. Jag har satt min övre gräns till 6000kr, det är vad jag har sparat till under snart två år. Vad det sen räcker till det får vi se. Får vi ett 6900XT för 5000 kr som många hoppas på här så blir jag glad. Men det lär ju inte hända.
Jag tror att AMD hade siktet inställt på att lägga sig under nVidia prismässigt och vara strax bakom i prestanda. Men som någon skrev så pratar youtubers (har inte sett videorna själv ännu) om att AMD nu tvekar på prissättningen då dom har en produkt som presterar bättre än vad dom och nVidia har trott.
Nu ser kanske AMD möjligheterna att ge nVidia ett rejält tjuvnyp men sen så kanske inte aktieägarna ser så positivt på att dom "slumpar bort" sina grafikkort. Jag hoppas på 100 $ bakom. Men tror mer på 30-50 $. Om dom inte till och med lägger sig på samma prispunkt. Att dom kommer lägga sig över tror jag inte.
Men man kan nästan vara säker på att nVidia kommer prisjustera i november, om nu AMD presterar över.

Kanske för din del- tvivlar på att PS4 och Xbox One skulle ha sålt i sådana siffror som de gjort om alla höll med dig. Och det handlar väl generellt inte om de 95% av spelen som kommer till alla plattformarna- jag överväger själv att köpa PS5 i princip enbart för Demon Souls och för att kanske äntligen köra igenom bloodborne, och tänkte fixa igång en gammal PS3 någon gång snart för att köra igenom de gamla Metal Gear spelen. Om du har sådana specifika krav så är det ju lite annorlunda- du kan inte påstå att spelet aldrig gått ner i pris om det faktiskt har gjort det men du inte vill köpa digitalt...

Jag tror inte att det finns en chans i helvete att AMD's flaggskepp kommer kosta 5000kr såvidare inte nvidia sänker sitt 3080 till typ 5500 eller något, vilket verkar vara motsatsen till vad som händer. Jag tror och hoppas att AMD satsat på att helt enkelt bygga snabbaste möjliga kortet de kan nu när de äntligen bygger ett "stort" kort igen och sätter pris efter vad marknaden ligger. Jag är dock inte lika säker på att Nvidia prisjusterar- åtminstone inte neråt. Om man kollar på 3080 och på hur många kort som faktiskt går att köpa för 7825 (inga) längre så verkar det rätt tydligt att lanseringspriset var något som enbart existerade som en PR-grej och nu när FE inte går att köpa i sverige så tvivlar jag på att vi ser det igen snart :/

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Medlem
Skrivet av medbor:

Jag har inte alls på något sätt försökt förminska DLSS eller vad det åstadkommer men man måste hålla det i en separat kategori så som VariableRateShaders eller som att ändra nivå eller algoritm för AntiAliasing eller andra saker. Kan vi få uppskalning som hjälper prestandan så mycket och samtidigt behåller så mycket bildkvalitet är det ju extremt trevligt, och troligen kommer det mesta av rendering i framtiden (realtid alltså) använda liknande algoritmer.

Det betyder inte att det ska vara basen för jämförande tester, på precis samma sätt som att PhysX eller HairWorks ska vara det heller.

Jag hör det du säger och håller med delvis. Nåja, jag ska inte älta det mer. Men desto fler av dessa tekniker som endast fungerar på en plattform desto svårare kommer relevanta jämförelser att bli, speciellt när DLSS-stöd (t ex) blir mer och mer mainstream.

Med det sagt så blir väl inte bilderna renderade exakt likadant ändå? Spelutvecklare använder en stor hög med speglar och dimridåer för att få spelet att fungera så bra som möjligt på alla plattformar. Funktioner som tummar på kvaliteten men ökar prestanda är säkert redan aktiverade för enskilda grafikkort i vissa spel, i de fallen utvecklarna tyckte det var en vettig avvägning. Det finns säkert inte så bra dokumenterat heller. Eller så har jag kanske helt fel här?

Permalänk
Medlem
Skrivet av sesese:

Det kanske finns en anledning till låg tillgång till Nvidia kort. Vet "alla" i branchen att AMD kommer dominera detta släpp så är det dessa grafikkort som man bygger för fullt för att slippa risken med att få mängder med Nvidia kort liggande på lager som är svårsålda. Då Nvidia redan från början satte ett lägre pris mot föregående serie så är känslan att Nvidia viste att AMD har något bra på gång. Min förhoppning är att kommande spel kommer visa en betydligt mycket bättre verklighet mot dagens spel. Skulle 2080ti prestandanivån hamna på ca 4000-4500kr så finns det all anledning till att höja grafiknivån när antalet spelare med den kraften i PCn kommer bli stor.

Jag är glad att jag inte behöver ett nytt grafikkort nu då det är så mycket som är på G. Tror många är glada att deras Nvidia kort inte är levererade om nu ryktarna stämmer att AMD har något stort på gång.

Är bara att hoppas att de presterar AMD & att de inte skruvat upp max prestanda frekvens från de kort de lanserar för att hänga med & med fläktljud & noll överklockning kvar & ljudnivå som ingen kan leva med precis som de gjorde förut med deras förrförra generation men på onsdag vet vi kanske mer

Visa signatur

Arne Berg

Permalänk
Medlem
Skrivet av napahlm:

Skulle ha skrivit 6800XT.
Där hoppas jag på 599 för xt och kanske 549 för 6800.

Det är någonstans där man får titta prismässigt. Eller tom 6700xt?

Jag skulle gissa på minst 10% billigare än Nvidias morsvarande kort, så troligen 100$ under 3080 och ca 50$ under 3070/3060. Men de verkar ju extremt självsäkra angående nya processorerna, de kanske kommer vara lika kaxiga på GPU-sidan med? Vi får se helt enkelt. Men utan DLSS och med förlust inom RT kan jag bara se logiskt att de prissätter sig under de korten som är närmast i renderingsprestanda

Permalänk
Medlem
Skrivet av Don_Tomaso:

Jag hör det du säger och håller med delvis. Nåja, jag ska inte älta det mer. Men desto fler av dessa tekniker som endast fungerar på en plattform desto svårare kommer relevanta jämförelser att bli, speciellt när DLSS-stöd (t ex) blir mer och mer mainstream.

Med det sagt så blir väl inte bilderna renderade exakt likadant ändå? Spelutvecklare använder en stor hög med speglar och dimridåer för att få spelet att fungera så bra som möjligt på alla plattformar. Funktioner som tummar på kvaliteten men ökar prestanda är säkert redan aktiverade för enskilda grafikkort i vissa spel, i de fallen utvecklarna tyckte det var en vettig avvägning. Det finns säkert inte så bra dokumenterat heller. Eller så har jag kanske helt fel här?

Det har förekommit många ’avslöjanden’ genom åren där olika tillverkare gjort mer eller mindre ’tillåtna’ ändringar av renderingen för att få mer prestanda. Men men... vi får väl se inom sinom tid vart det landar

Permalänk
Medlem
Skrivet av Shiprat:

Kanske för din del- tvivlar på att PS4 och Xbox One skulle ha sålt i sådana siffror som de gjort om alla höll med dig. Och det handlar väl generellt inte om de 95% av spelen som kommer till alla plattformarna- jag överväger själv att köpa PS5 i princip enbart för Demon Souls och för att kanske äntligen köra igenom bloodborne, och tänkte fixa igång en gammal PS3 någon gång snart för att köra igenom de gamla Metal Gear spelen. Om du har sådana specifika krav så är det ju lite annorlunda- du kan inte påstå att spelet aldrig gått ner i pris om det faktiskt har gjort det men du inte vill köpa digitalt...

Jag tror inte att det finns en chans i helvete att AMD's flaggskepp kommer kosta 5000kr såvidare inte nvidia sänker sitt 3080 till typ 5500 eller något, vilket verkar vara motsatsen till vad som händer. Jag tror och hoppas att AMD satsat på att helt enkelt bygga snabbaste möjliga kortet de kan nu när de äntligen bygger ett "stort" kort igen och sätter pris efter vad marknaden ligger. Jag är dock inte lika säker på att Nvidia prisjusterar- åtminstone inte neråt. Om man kollar på 3080 och på hur många kort som faktiskt går att köpa för 7825 (inga) längre så verkar det rätt tydligt att lanseringspriset var något som enbart existerade som en PR-grej och nu när FE inte går att köpa i sverige så tvivlar jag på att vi ser det igen snart :/

Jag kan ha fel, men det är väl inte Nvidia eller partner tillverkarna som höjer priser. Utan de affärer på plats som inet, komplett osv ...

Permalänk
Medlem
Skrivet av Tjeck:

Jag kan ha fel, men det är väl inte Nvidia eller partner tillverkarna som höjer priser. Utan de affärer på plats som inet, komplett osv ...

Det är lite av en meningslös definition- nvidia säljer korten till sina partners, om det fanns gått om marginal att ta av på priset partners betalar till nvidia så hade det garanterat funnits billigare modeller för att fylla det gapet. Om nvidia har gett riktlinjer att ha i utbudet en modell för 7825 vid lansering vars pris inte behöver bestå därefter så är det visserligen inte de som höjer priset, men om priset ligger under vad de garanterat isåfall vet är bekväma vinstmarginaler för sina partners så kunde det ju lika gärna ha varit så. De sätter priserna med vad de ger för priser ut tills sina partners.

Men ja, man skulle kunna argumentera att det inte är biltillverkare som sätter priser på bilar heller utan bilhandlarna...

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Medlem
Skrivet av M89:

Så fort man sätter igång Raytracing så sticker Nvidia iväg.

Så fort man sätter igång raytracing så dyker Radeon menar du. Rätt ska vara rätt.

Om du ska använda "sticker iväg" så blir det såhär: Så fort man stänger av raytracing så sticker Radeon iväg.

Permalänk
Medlem
Skrivet av EntropyQ3:

”Förut”? När det kommer "optimerade drivrutiner för XX" som ger bättre prestanda, är det precis sånt här det handlar om. Det försvann aldrig, det blev mainstream och accepterat.

Optimera drivrutiner görs hela tiden för allt från nätverkskort och ljudkort till grafikkort. Det är skillnad på det och att tex rendera det i lägre detaljnivå. Något som skedde förut. Eller att man i ett benchmark vistelser att en given model var utanför synfältet en stund och då lät bli att rendera den för att få högre score.

Visa signatur

Huvudriggen är en Gigabyte Aorus Xtreme | 128gb DDR5 6000 | Ryzen 7950X | 3080Ti
Utöver det är det för många datorer, boxar och servar för att lista :P

Permalänk
Medlem
Skrivet av Don_Tomaso:

Självklart ska korten rendera i upplösningen som jämförs. Det jag påpekar är att jämföra prestanda i en specifik upplösning är orelevant om ena produkten som jämförs inte primärt (iaf ibland) kommer användas med den inställningen.

Det skulle ju vara lite som att säga att ett 3080, eller en high end CPU, inte bör testas i 1080p för den primärt kanske inte kommer köras där då det är en high end produkt.

Testare får nog testa det mesta och sedan får läsarna plocka ut det relevanta för just dem. För någon kommer helt klart köra en 5950X med ett 3090 i 1080p någonstans

Visa signatur

Huvudriggen är en Gigabyte Aorus Xtreme | 128gb DDR5 6000 | Ryzen 7950X | 3080Ti
Utöver det är det för många datorer, boxar och servar för att lista :P

Permalänk
Medlem
Skrivet av Tjeck:

Jag kan ha fel, men det är väl inte Nvidia eller partner tillverkarna som höjer priser. Utan de affärer på plats som inet, komplett osv ...

Med tanke på vilken vinst marginal handlarna har i Datorbranschen Nej det är Nvidia som höjer priserna .

Visa signatur

Dator 1 5800x 32 GB ram B550 plus TUF Kingston 3000 2048 GB EVO 870 QVO 4TB ASUS 370 ti TUF RM 750 X Corsair 4000D Airflow Noctua NH-D15S WIN 10 ASUS PG279Q skärm

Permalänk
Medlem

Om man går in på en svensk återförsäljare och kollar på ett 2080ti så kostar korten ca 13000:-
Vad är det jag missar?

Permalänk
Skrivet av Sunix:

Om man går in på en svensk återförsäljare och kollar på ett 2080ti så kostar korten ca 13000:-
Vad är det jag missar?

Du missar vel inget? Dom ligger kvar på sina normala priser enn så länge.

Permalänk
Medlem
Skrivet av mellanslag:

I de fall träd och gräs ser ut som pappkulisser håller jag med om att utvecklarna borde lägga tid på detta, men min åsikt är att det finns spel som är på pass snygga att det är ray tracing som är den lägst hängande frukten för att få det ännu snyggare. Control och Metro Exodus tycker jag är ett bra exempel på detta, och det jag sett hittills av CP2077 pekar på att det kommer vara ett sjukt snyggt spel där RT faktiskt gör det underbart vackert.

Som tur är måste inte alla tycka lika, men när vissa kallar de personer som uppskattar ray tracing för blinda eller lättlurade bidrar man inte till ett trevligt debattklimat imo. Jag gillar ljus, jag gillar realistiska reflektioner, jag gillar att realistiska skuggor faller där de ska, och jag är inte ensam om detta.

Debattklimat, du tar det här väldigt seriöst du.

Permalänk
Medlem
Skrivet av inquam:

Optimera drivrutiner görs hela tiden för allt från nätverkskort och ljudkort till grafikkort. Det är skillnad på det och att tex rendera det i lägre detaljnivå. Något som skedde förut. Eller att man i ett benchmark vistelser att en given model var utanför synfältet en stund och då lät bli att rendera den för att få högre score.

Visst. Men du undviker att ta upp att t.ex. ersätta shader-kod, anpassa ... Det finns en gråzon där, där man kan hävda att kunden gynnas, även om det typiska benchmarkförfarandet blir mer tveksamt. När nVidia stog på sig och hävdade att detta var OK, påstod de att det slutgiltiga resultat skulle bli ekvivalent. I praktiken är det ohyggligt tidsödande för en reviewsajt att göra jämförelser av visuella resultatet för varje spel, så det är ingen som någonsin kommer göra en stor översyn av hur läget är idag. Jag har pratat med ett par reviewers från tyska sajter, och de känner till förfarandet och accepterar det i praktiken. Inte så att de tycker det är bra, men de tänker heller inte påpeka problematiken varje gång de skriver en review, när de inte kan göra något åt det ändå.

I praktiken innebär det felmarginalerna i testdata blir större. Och, skulle jag gissa, på ett systematiskt sätt. Folk på insidan sa att en av anledningarna till att AMD presterade "bättre" när DX12 var nytt, var att nVidia inte hade så mycket sådana optimeringar under det nya API:et. Och att deras kort "åldras sämre" är att de inte bryr sig om att göra det jobbet för gamla kort. Det får ju i praktiken de nya korten att se bättre ut i jämförelse och uppmuntrar till nytt köp. AMD, med långt mindre resurser, verkar inte ägnat sig så mycket åt det. I slutändan är det i praktiken omöjligt för en konsument att uppskatta effekterna.

När allt kommer omkring finns ju stora (större?) felmarginaler som kommer från urvalet av titlar, settings och så vidare. Det var ingen slump att Nvidia bara lät Digital Foundry använda specifika titlar i sin preview av rtx3000....

Entusiastmarknaden för grafikkort är lite galen, så om tillverkarna kan ta ut 20% mer för ett kort som presterar 15% bättre än ett annat, så lönar det sig helt enkelt på en mångmiljardmarknad väldigt bra att lite artificiellt öka sin prestanda på, säg de femtio populäraste spelen som används för prestandatestning.

Jag har ingen möjlighet att säga i vilken utsträckning, eller precis hur dessa "optimeringar" ser ut för enskilda titlar. Jag vet bara att det är ett faktum att de förekommer. Ibland är ju grafikkortstillverkarna inblandade redan i produktionen av spelen som naturligtvis kommer att köra bra på deras produkter. Hur skall man betrakta det? Skall sådana spel användas för benchmarktestning?

Att göra bra objektiva tester är inte så himla lätt. All heder åt dem som åtminstone försöker.
På sweclockers och andra entusiastforum görs det stor affär av prestandaskillnader i 15-20% klassen, vilket vårt testförfarande faktiskt inte rättfärdigar. Stegen mellan produkter och ibland generationer är numera så små att de knappt reser sig ur testbruset.

Permalänk
Medlem
Skrivet av Shiprat:

Det är lite av en meningslös definition- nvidia säljer korten till sina partners, om det fanns gått om marginal att ta av på priset partners betalar till nvidia så hade det garanterat funnits billigare modeller för att fylla det gapet. Om nvidia har gett riktlinjer att ha i utbudet en modell för 7825 vid lansering vars pris inte behöver bestå därefter så är det visserligen inte de som höjer priset, men om priset ligger under vad de garanterat isåfall vet är bekväma vinstmarginaler för sina partners så kunde det ju lika gärna ha varit så. De sätter priserna med vad de ger för priser ut tills sina partners.

Men ja, man skulle kunna argumentera att det inte är biltillverkare som sätter priser på bilar heller utan bilhandlarna...

Utgående från information som finns ute på nätet bör kort som TUF, Eagle och en del av andra modeller också kosta 7800 eller vad nu än priset omvandlas till. Medan vad vi ser är att den ena 700$ msrp kort kostar 8500, medan priset på den andra (mer populära) 700$ msrp kortet går över 9000. Vilket talar mig att priser förendras på plats p.g.a efterfrågan. Nvidias slarv är att de har gjort så kallad ''papper launch'' för att vara först på marknad.

Permalänk
Skrivet av tjofritz:

Debattklimat, du tar det här väldigt seriöst du.

Jag tycker bara man kan bete sig vuxet och respektera andra, men som sagt, alla behöver inte tycka lika.

Permalänk

Ska bli väldigt spännande att se fulla tester på hela serien när det väl beger sig. Börjar bli dags att uppdatera datorn nu. Har en Freesync-skärm, men den har fått problem och är utanför garanti, så kanske blir helt nytt system...