Nvidias Jensen Huang dissar AMD Radeon VII

Permalänk
Medlem
Skrivet av Nimin:

Den är väl få som går på Nvidia:s propaganda fortfarande.
De snackar sig varma för tekniker som det knappt finns något spelstöd för bara för att hitta något att motivera deras sinnessjuka priser med. Håller med Coreteks i denna video. "If you see fraud, and do not say fraud, you are a fraud."

https://www.youtube.com/watch?v=LCOx2rPrxxQ&t=9s

Såå vart tycker du stödet för nya funktioner ska komma först, i hårdvara eller mjukvara?

edit: Man skola icke skriva inlägg efter ett gäng fredagsmysiga öl...

Visa signatur

Hata postsorteringen i Ånge.

Permalänk
Medlem
Skrivet av Ratatosk:

Är det fortfarande lönsamt?

2080 ti @ 13000 kr
56 MH/s @ 155 Watt
0.36 MH/J effektivitet
232 kr/MH investeringskostnad
---
1080 ti @ 9000 kr
56 MH/s @ 180 Watt
0,31 MH/J effektivitet
161 kr/MH investeringskostnad
---
Radeon VII @ 8000 kr (gissningar)
125 MH/s @ 155 Watt
0,80 MH/J effektivitet
64 kr/MH investeringskostnad

Här blir kortet helt plötsligt billigt

Visa signatur

Ryzen 5800X ROG STRIX X570-f GAMING FlareX DDR43600 cl 14-14-14-34 EVGA FTW3 Ultra RTX 3090

Permalänk
Hjälpsam
Skrivet av sesese:

2080 ti @ 13000 kr
56 MH/s @ 155 Watt
0.36 MH/J effektivitet
232 kr/MH investeringskostnad
---
1080 ti @ 9000 kr
56 MH/s @ 180 Watt
0,31 MH/J effektivitet
161 kr/MH investeringskostnad
---
Radeon VII @ 8000 kr (gissningar)
125 MH/s @ 155 Watt
0,80 MH/J effektivitet
64 kr/MH investeringskostnad

Här blir kortet helt plötsligt billigt

Är helt okunnig vad gäller mining, hur mycket kan ett R7 dra in per månad och för vilken Crypto valuta, trodde att Asic tagit över helt.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av Ratatosk:

Är helt okunnig vad gäller mining, hur mycket kan ett R7 dra in per månad och för vilken Crypto valuta, trodde att Asic tagit över helt.

1st Ethereum 124 usd idag.

Visa signatur

Ryzen 5800X ROG STRIX X570-f GAMING FlareX DDR43600 cl 14-14-14-34 EVGA FTW3 Ultra RTX 3090

Permalänk
Medlem
Skrivet av sesese:

2080 ti @ 13000 kr
56 MH/s @ 155 Watt
0.36 MH/J effektivitet
232 kr/MH investeringskostnad
---
1080 ti @ 9000 kr
56 MH/s @ 180 Watt
0,31 MH/J effektivitet
161 kr/MH investeringskostnad
---
Radeon VII @ 8000 kr (gissningar)
125 MH/s @ 155 Watt
0,80 MH/J effektivitet
64 kr/MH investeringskostnad

Här blir kortet helt plötsligt billigt

Fast den kanske drar mer än 155W.

Ur sweclockers artikel om R-VII:

Citat:

Den väl tilltagna kylaren kan dock ha sin orsak, där strömmatningen består av hela två stycken 8-pins PCI Express-kontakter. Detta tillsammans med moderkortets strömförsörjning via PCI Express-anslutningen innebär ett maximalt effektuttag om 375 watt. Radeon VII har dock på förhand väntats vara ett törstigt kort.

Drar den nära max så är den ju inte så bra längre.

Permalänk
Medlem

Gilla när Blunty kommentera detta

Visa signatur

AMD Ryzen 5 5600 | EVGA GeForce GTX 1070 8GB ACX 3.0 FTW | Fractal Design North Black TG | MSI MPG B550 Gaming Plus | Kingston Fury 32GB DDR4 3200MHz CL16 Beast | WD Black SN850X 1TB Gen 4 With Heatsink | EVGA SuperNOVA 750 G2 750W | Noctua NH-D15 | Windows 11 Pro

Permalänk
Medlem
Skrivet av thomas_skane:

Eller att han påstår att en majoritet av Freesync-skärmar inte fungerar. Det är en ren lögn.

Skickades från m.sweclockers.com

Kanske det också ja. Men han har ju ändå en poäng där eftersom att det finns många freesync skärmar som helt enkelt inte är bra. Sen hade ju även Nvidia problem med g-sync för ett tag sedan, laddade själv ner en drivrutin som låste fps'en exakt över syncintervallet oavsett om jag hade g-sync aktiverat eller inte. Hade så många fps i vilket fall så spela ingen roll men fick ändå gå tillbaka till en tidigare drivrutin eftersom det blev något konstigt inputlag.

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk
Medlem
Skrivet av ClintBeastwood:

Kanske det också ja. Men han har ju ändå en poäng där eftersom att det finns många freesync skärmar som helt enkelt inte är bra. Sen hade ju även Nvidia problem med g-sync för ett tag sedan, laddade själv ner en drivrutin som låste fps'en exakt över syncintervallet oavsett om jag hade g-sync aktiverat eller inte. Hade så många fps i vilket fall så spela ingen roll men fick ändå gå tillbaka till en tidigare drivrutin eftersom det blev något konstigt inputlag.

Problemet är att han hävdar att ingen visat att freesync fungerar, vilket är direkt faktamässigt fel hur fan man än vänder på det.

Skrivet av PCWorld.com:

“We never competed,” Huang said of upcoming FreeSync support. “(FreeSync) was never proven to work. As you know, we invented the area of adaptive sync. The truth is most of the FreeSync monitors do not work. They do not even work with AMD’s graphics cards.”

nVidia själva använder samma teknik i laptops som freesync, så uttalandet blir i sig rent löjeväckande och för mig helt obegripligt att komma från någon i den positionen.

Visa signatur

| nVidia RTX3090FE | R9 5950x | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 9TB nvme, 3TB sata SSD | RM1000x | Creative X4 | Lian Li o11 Dynamic | Alienware aw3821dw | >Zen2 på 3-400 mobo< | >x570 VRM< | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::

Permalänk
Medlem
Skrivet av Arccai:

Om AMD nu väljer att lägga ut Nvidias kort i tester på deras egna mässa i form av nån slags uthängning, så har väl Nvidia i sin fulla rätt fog att försvara sig.

Nu är det en ganska stor skillnad mellan att försvara sig och börja kasta sand som Heung-Jensen gör. Att försvara sig hade varit att med siffror (precis som AMD gör) bevisa att man har ett övertag. Inte att gå och sprida en massa felaktiga och halvsanna påståenden.

Skrivet av ClintBeastwood:

Kanske det också ja. Men han har ju ändå en poäng där eftersom att det finns många freesync skärmar som helt enkelt inte är bra. Sen hade ju även Nvidia problem med g-sync för ett tag sedan, laddade själv ner en drivrutin som låste fps'en exakt över syncintervallet oavsett om jag hade g-sync aktiverat eller inte. Hade så många fps i vilket fall så spela ingen roll men fick ändå gå tillbaka till en tidigare drivrutin eftersom det blev något konstigt inputlag.

Finns även många G-sync skärmar som inte är bra. Framförallt när det kommer till kombinering med RTX 2000-seriens GPUer. Men tydligen ska det vara dubbla standarder från herr Jensen.

Visa signatur

Fractal Design Meshify 2 Compact w/ Dark Tint | Intel i5 12600K | Asus ROG Strix B660-F | 32 GB Corsair DDR5 5600 MHz CL36 | MSI Geforce RTX 3060 TI Ventus 2X OCV1 | 512 GB Samsung Pro 850 SSD + 2TB WD Black SN850 NVME PCI-E 4.0 | Corsair RM750X |

Permalänk
Medlem
Skrivet av railman:

Många som är negativa till DLSS, det mesta inom datorgrafik handlar om att "fuska" för att uppnå snyggare grafik till bra prestanda. Om de lyckas få att man knappt ser någon skillnad mellan DLSS och native utan man bara får bättre prestanda så ser jag inte varför man ska klaga

Ironin jag har svårt att svälja:

Ray Traceing, äkta ljusspårning, utan fusk...
DLSS, vi fuskar för att få mer prestanda...

Så, man slår på trumman att man inte längre ska fuska med ljuset, men ska istället fuska med hela renderingen?!?!

Jag förstår att självklart är det väldigt mycket fusk och optimering för att få den bild och prestanda vi har i grafikkorten idag. Men det känns ändå lite fel att skryta först med Ray Traceing och sen med DLSS, när de tillsammans ger en fusk-bild ändå, och mer eller mindre kanske ger samma prestanda som idag ändå. Största problemet med både Ray Traceing och med alla former av dynamisk optimering är att det ger väldigt ojämn prestanda. Det är beroende på hur mycket du måste göra "just nu".

Tittar du på objekt och vy som saknar mycket jobb, får du kanonbra FPS... som ger hög snitt FPS och ser kanon ut i en stapel. Men sekunden du får en vy där du inte kan köra all optimering, och får hård last på allt, får du både sämre prestanda/lagg spik, högre frame-tid, och mer värme, vilket gör dessutom att kortet klockar ner sig, och du får ännu sämre prestanda. Så du får kanon bra "snitt FPS", men usla framspikar och tider på vissa ställen. Och att gå från 100+ FPS, till plötsligt 50-60 för att sedan gå upp igen, är inte en kul upplevelse.

Du vill snarare ha jämnare prestanda, även om det är lägre snitt, och köra all form av optimering för att hålla samma prestanda, inte max FPS hela tiden. Och DX12 är otroligt svårt att optimera för här, för inga nya drivare tilli kortet i sig kan eg fixa det som i DX11, utan det är i spelen och deras utvecklare själva. Så vill du underlätta jämn prestanda för spelutvecklarna, ska du ha konstant, jämn prestanda så mycket du kan.

Så frågan är väl hur det påverkar just frame-tider, för om DLSS ger 100 FPS till... men dippar ner till samma minimum... är det meningslöst imho.

Permalänk
Medlem

Haha, Jensen är en jäkla legend alltså. Han kommer inte få jobba kvar länge efter Nvidias minst sagt skakiga 2018. Jag är bara glad att någon försöker konkurrera med Nvidia!