Intel Arc A770 slår Geforce RTX 4090 i AV1

Permalänk
Melding Plague

Intel Arc A770 slår Geforce RTX 4090 i AV1

När flaggskeppen sätts på prov i videoavkodning med AV1 kliver Intel segrande ur striden i både 4K- och 8K-upplösning.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Vive la liberté!

Ändå förväntat i och med att 4090 enligt Nvidia har samma avkodningsenhet som 3090 och resten av 30-serien

Permalänk
Medlem
Skrivet av Apanx:

Ändå förväntat i och med att 4090 enligt Nvidia har samma avkodningsenhet som 3090 och resten av 30-serien

4090 fick väl två som klarar AV1 medans 30 serien inte har någon?

Visa signatur

i9 11900k ||32GB 4000MHz CL15||ASUS ROG STRIX Z590-E||Noctua NH-D15s
Intel Arc a750 ||Samsung 980 pro|| EVGA Supernova G3 850W
Asus xonar essence STX|| Lian-Li O11 Dynamic XL
Asus VG27AQ 165Hz IPS, Sennheiser HD650, Logitech g502 Hero, fUnc f30r, Vortex TAB90M, Audio-Technicha ATR2500x-USB
Server: x10SL7-F, Xeon E3 1230v3, 32GB Samsung ECC ram, 6x3TB WD RED, FD Node 804.

Permalänk
Medlem

Relevant fråga, varför Radeon 6800 och inte 6900 eller 6950. När det mäts mot 4090 och 3090?

Visa signatur

Moderkort: MSI MPG X570 Gaming plus CPU: Ryzen 7 5700X3D
RAM: Crucial Ballistix 16GB DDR4 3600 MHz Kylning: Noctua NH-D15 chromax.black Lagring: 4 x Samsung 840 Pro 500GB
Grafikkort :Sapphire Radeon™ RX 6950 XT PURE NITRO+ Nätaggregat: EVGA SuperNOVA 750 G2
Chassi: Fractal Design Define Vision S2 Blackout Monitor: HP OMEN 27 & Acer XF270HUC
Tangentbord: Corsair Gaming Strafe RGB MX SILENT Mus: SteelSeries Rival 700

Permalänk
Medlem
Skrivet av robbankentor:

Relevant fråga, varför Radeon 6800 och inte 6900 eller 6950. När det mäts mot 4090 och 3090?

Spelar inte så stor roll när det är samma chip (Navi 21) i alla fallen. Det enda som möjligen är intressant här är att AMDs lösning inte riktigt är helt hundra än med AV1 i RDNA2, men det är ju ny generation av den delen (VCN) till RDNA3 i alla fall, så det är snart irrelevant.

Visa signatur

5900X | 6700XT

Permalänk
Medlem
Skrivet av BergEr:

4090 fick väl två som klarar AV1 medans 30 serien inte har någon?

30 saknar encoder, decoder finns

Permalänk
Medlem

Vad betyder min-fps i sammanhanget encoding? Resultatet blir ju en videofil som inte riktigt vryr sig när en viss bildruta skrevs

För streaming till twitch och liknande får man väl hoppas att det finns en buffer på några sekunder så det inte blir ett problem

Tror inte direkt AV1 används för spel-streaming, men jag kanske har fel?

Permalänk
Medlem

Som en som inte är så insatt i codecs så undrar jag varför dom testar just AV1 å inte H.265 som från i alla fall utsidan ser ut att vara mycket populärare.
Har inget med artikeln att göra, bara nyfiken.

Visa signatur

R7 7800X3D | 4070Ti | 32GB DDR5 6000mhz | 1TB SSD | 1TB M.2

Permalänk
Medlem
Skrivet av FreddyK:

Som en som inte är så insatt i codecs så undrar jag varför dom testar just AV1 å inte H.265 som från i alla fall utsidan ser ut att vara mycket populärare.
Har inget med artikeln att göra, bara nyfiken.

Industrin kommer sannolikt att anamma AV1 då det är gratis licensiering medans H.265 kostar.

edit/tillägg: det är dessutom många av industrins huvudspelare som varit med och utvecklat AV1

Permalänk
Medlem
Skrivet av medbor:

Vad betyder min-fps i sammanhanget encoding? Resultatet blir ju en videofil som inte riktigt vryr sig när en viss bildruta skrevs

För streaming till twitch och liknande får man väl hoppas att det finns en buffer på några sekunder så det inte blir ett problem

Tror inte direkt AV1 används för spel-streaming, men jag kanske har fel?

Det är inte encoding, det är decoding. Om jag förstått det rätt så testar de helt enkelt att spela upp en Youtube-video och mäter prestandan, vilket är orsaken till att snittet ligger på 60 fps som bäst.

Att 1% och 0.2% ligger under 60 fps i samtliga fall borde betyda att inget av korten kan hantera den videon optimalt, utan alla tappar bildrutor. Det verkar lite konstigt, är det bara videon som är ovanligt tung eller finns det verkligen ingen hårdvara som klarar AV1 i en 4K@60Hz?

Permalänk
Medlem
Skrivet av FreddyK:

Som en som inte är så insatt i codecs så undrar jag varför dom testar just AV1 å inte H.265 som från i alla fall utsidan ser ut att vara mycket populärare.
Har inget med artikeln att göra, bara nyfiken.

AV1 är runt 30% effektivare än h265 och är således en generation modernare. Den är dessutom helt licens och royalty-fri vilket gör att alla stora streamingtjänster vill använda den i framtiden.
Med en licensbelagd codec som H.265 så kan summorna bli enormt höga om det blir många strömmar, därav har utrullningen gått långsamt.
AMD, Intel, Nvidia, Google, Firefox, Microsoft, YouTube, Netflix, Prime, Adobe, Apple med flera ligger bakom AV1. AV1 är framtiden helt enkelt.

Youtube använder VP9 nu vilken också är royalty-fri och i h265-klass. AV1 blir arvtagaren.

Visa signatur

R&D Elektronikingenjör

Permalänk

Det kanske bara är en bugg trots allt. Vad har ARC som inte Nvidia har i AV1 stöd?

Permalänk
Medlem
Skrivet av Dinkefing:

Det kanske bara är en bugg trots allt. Vad har ARC som inte Nvidia har i AV1 stöd?

Troligen effektivare hårdvara. Intel har historiskt varit väldigt duktiga på att göra små men enormt effektiva hårdvaruavkodare till sina processorer, dvs Quicksync.

Visa signatur

R&D Elektronikingenjör

Permalänk
Skrivet av Rebben:

Troligen effektivare hårdvara. Intel har historiskt varit väldigt duktiga på att göra små men enormt effektiva hårdvaruavkodare till sina processorer, dvs Quicksync.

Okej! Tyvärr verkar ju inte ARC vara särksilt effektiv i viloläge. Det drar nästan 40W. Förmodligen något Intel kan rätta till vi får se.

Permalänk
Medlem

Kanske mer intressant idag och billigare att köra något ur Radeon 6000 serien + ett av Intels billigare kort för spel och streaming än ett dyrare nvidia kort?

Permalänk
Medlem

Intel a310 och a380 ser ju enormt smaskiga ut prismässigt när det gäller encoding och decoding då alla Arc-modeller skall ha samma hårdvara för det.

Visa signatur

R&D Elektronikingenjör

Permalänk
Medlem
Skrivet av perost:

Det är inte encoding, det är decoding. Om jag förstått det rätt så testar de helt enkelt att spela upp en Youtube-video och mäter prestandan, vilket är orsaken till att snittet ligger på 60 fps som bäst.

Att 1% och 0.2% ligger under 60 fps i samtliga fall borde betyda att inget av korten kan hantera den videon optimalt, utan alla tappar bildrutor. Det verkar lite konstigt, är det bara videon som är ovanligt tung eller finns det verkligen ingen hårdvara som klarar AV1 i en 4K@60Hz?

Tack för rättningen, läste lite för snabbt

Men ganska illa att alla korten missar att avkoda så mycket och inte klarar varje bildruta i realtid

Detta borde ju helt invalidera AV1 som codec för de flesta implementationer antar jag

Permalänk
Medlem

4090 borde väl kunna dubbla FPS'en med bildrutegenerering?

Visa signatur

*5600|B350M-A|32GB|A750|GX750W|Core V21|280AIO|1TB+2TB.

AMD Ryzen 5(Zen3) @4891|Asus Prime|Corsair 2x16 RGB PRO 3200C16 @3800C18|Intel Arc LE @2740MHz|Seasonic Focus| Thermaltake mATX kub|Arctic freezer II| NVMe SSD PCIE 3.0x2 Kingston A1000 1500/1000 + 2,5" HDD Toshiba 1TB & Samsung 1TB i RAID 0.

Permalänk
Medlem
Skrivet av FreddyK:

Som en som inte är så insatt i codecs så undrar jag varför dom testar just AV1 å inte H.265 som från i alla fall utsidan ser ut att vara mycket populärare.
Har inget med artikeln att göra, bara nyfiken.

De andra svaren är väl inte fel i sig, men jag tror att det primära skälet att de testar AV1 är att H.265-avkodning är ett löst problem. Ingen har några bekymmer med det längre. AV1 är klart knivigare

Visa signatur

5900X | 6700XT

Permalänk
Medlem

Har läst om detta lite varstans och är väldigt nöjd.
För det innebär att det finns kunder utanför spel som kan tänkas köpa Intels grafikkort. Och det behövs.

Visa signatur

CPU: I7 7700k @ 4.6GHz - Noctua NH D15S - Asus ROG Strix Z270F Gaming.
GPU: RTX 3070TI @2 st 120mm cf-v12hp hydro dynamic fläktar. 👍
RAM: 32GB DDR4 3200MHz. HÅRDDISK: 4 st SSD, 2 Mekaniska.
MONITOR:1 Xiaomi MI 34"- 3440x1440 144Hz MONITOR:2 Optix MAG274R 27" 1080p 144Hz MONITOR/Tv:3 LG 47lv355n-ZB 47". Nätagg: Corsair Newton R2 1000W. Allt i ett Cooler Master CM Storm Stryker.

Permalänk
Medlem
Skrivet av perost:

Det är inte encoding, det är decoding. Om jag förstått det rätt så testar de helt enkelt att spela upp en Youtube-video och mäter prestandan, vilket är orsaken till att snittet ligger på 60 fps som bäst.

Att 1% och 0.2% ligger under 60 fps i samtliga fall borde betyda att inget av korten kan hantera den videon optimalt, utan alla tappar bildrutor. Det verkar lite konstigt, är det bara videon som är ovanligt tung eller finns det verkligen ingen hårdvara som klarar AV1 i en 4K@60Hz?

Jag förstår faktiskt inte heller riktigt testet. Det är dessutom rätt troligt att materialet inte är 60fps, utan 59.94 (60000/1001), och i såfall så är det nvidia som spelar korrekt med 59,9. Och också svårt att tolka den 1%/0,2%, jag hade hellre sett antal droppade frames och faktiskt en frame time graf som dom visar på AMD kortet. För det kan t ex bara vara något vid spelstart under bufffrandet som spökar.

Jag kan iaf spela AV1 2160p60 på min Xe igpu med lavfilters utan problem (D3D11 decoding).

Skrivet av Rebben:

Med en licensbelagd codec som H.265 så kan summorna bli enormt höga om det blir många strömmar, därav har utrullningen gått långsamt.

Det är inte så HEVC licensen fungerar, det är endast fysiskmedia och hw-implementeringen som har licenskostnad. Och där är det ju mer eller mindre ett ickeproblem då branchen redan accepterat denna kostnad då i princip alla enheter för att spela upp media har hw-decoder för HEVC sen många år tillbaka.

Som streaming-leverantör betalar du inga licenspengar för att använda HEVC.

Permalänk
Medlem

Tyvärr så är det just nu den enda fördelen med Intels kort känns det som. Men det är inte så illa, för det finns antagligen gott om folk som kommer behöva det. Och $329 vs $1599 är fan inte fy skam.

Och Linus Clickbait Tech Tips var ju sugen ...

Visa signatur

Hur många datorer är för många?

Permalänk
Medlem
Skrivet av Dinkefing:

Okej! Tyvärr verkar ju inte ARC vara särksilt effektiv i viloläge. Det drar nästan 40W. Förmodligen något Intel kan rätta till vi får se.

Finns lösning för det från Intel

A770 drar 10W i viloläge

Visa signatur

I've somehow been WASDing my whole life

13th Intel 8P@6GHz E-cores off Kraken X73 360mm DDR5 m.2@7000MB/sek Gigabyte Z690
Alltid över AMD 3D med överklocking i fakefikans (swefaker) grafer med intel :)

Permalänk
Medlem

Största fördelen generellt med AV1 är ju kvalite per bitrate. Bortimot 40% bättre kvalitet än h.264 nvenc. Förhoppningsvis får vi se små ARC gpu's som vi kan stoppa i mindre maskiner. Förhoppningsvis får vi se både in och utgångar på gpu's framöver.
Var det inte gamla ATI som hade det tillbaka i ca 2002 eller nått?

Visa signatur

14900KF--Apex Encore--RTX 4090--G.Skill 2x24GB DDR5-8000--Dynamic Evo XL
12900K--RTX 2080Ti--Gigabyte Z690 Aorus Master--4X16GB DDR5 6000
Ljud: Lewitt Connect 6--Shure SM7B
Skärmar: Neo G8 4K 240hz--Huawei 3440x1440 165hz

Permalänk
Medlem
Skrivet av sKRUVARN:

Det är inte så HEVC licensen fungerar, det är endast fysiskmedia och hw-implementeringen som har licenskostnad. Och där är det ju mer eller mindre ett ickeproblem då branchen redan accepterat denna kostnad då i princip alla enheter för att spela upp media har hw-decoder för HEVC sen många år tillbaka.

Som streaming-leverantör betalar du inga licenspengar för att använda HEVC.

Nja, det är inte så lätt. H.264 är som du skriver. Problemet med H.265/HEVC är att det finns essentiella patent där licenstermerna är hemliga eller förhandlas separat. Vi vet alltså inte exakt hur licensen betalas för H.265, vilket är en viktig del av varför AV1 utvecklades.

https://en.wikipedia.org/wiki/High_Efficiency_Video_Coding#Pa...

Visa signatur

5900X | 6700XT

Permalänk
Medlem
Skrivet av mpat:

Nja, det är inte så lätt. H.264 är som du skriver. Problemet med H.265/HEVC är att det finns essentiella patent där licenstermerna är hemliga eller förhandlas separat. Vi vet alltså inte exakt hur licensen betalas för H.265, vilket är en viktig del av varför AV1 utvecklades.

Nej det vet vi inte, men jag vet att distruböterer inte betalar (t ex för att jag delvis jobbar med distrutions komprimering). Om du inte tror mig så läs det här inlägget från Tom Vaughan (före detta VP hos multicoreware dvs x265, och gick sedan till beamr):

https://forum.doom9.org/showthread.php?p=1864184#post1864184

"Again, keep in mind that no one is asking for patent license fees for content distribution (streaming, etc.), except for UHD-Blu-ray disc (a small per-disc fee to HEVC advance). Only hardware device manufacturers need to license HEVC patents, and they are dealing with that issue and they continue to support HEVC in every device they make that supports video. For video services, HEVC is free."

Att sen HEVC har en stökig licens-historik som det var en del frågetecken kring, som säkerligen satte käppar i hjulen för dess adpotion rate, stämmer absolut. Men det är idag ett ickeproblem för distrubitörer.

Permalänk
Medlem
Skrivet av sKRUVARN:

Nej det vet vi inte, men jag vet att distruböterer inte betalar (t ex för att jag delvis jobbar med distrutions komprimering). Om du inte tror mig så läs det här inlägget från Tom Vaughan (före detta VP hos multicoreware dvs x265, och gick sedan till beamr):

https://forum.doom9.org/showthread.php?p=1864184#post1864184

"Again, keep in mind that no one is asking for patent license fees for content distribution (streaming, etc.), except for UHD-Blu-ray disc (a small per-disc fee to HEVC advance). Only hardware device manufacturers need to license HEVC patents, and they are dealing with that issue and they continue to support HEVC in every device they make that supports video. For video services, HEVC is free."

Att sen HEVC har en stökig licens-historik som det var en del frågetecken kring, som säkerligen satte käppar i hjulen för dess adpotion rate, stämmer absolut. Men det är idag ett ickeproblem för distrubitörer.

Intressant. Då kan man tycka att det ligger i allas intresse att sprida den informationen? Men men, jag köper vad du säger.

Visa signatur

5900X | 6700XT

Permalänk
Medlem
Skrivet av mpat:

Intressant. Då kan man tycka att det ligger i allas intresse att sprida den informationen? Men men, jag köper vad du säger.

Alltså HEVC Advance gick ju ut med det när dom ändrade licensmodellen (och det skrevs det en del om). Jag vet dock att det var en del som var skeptiska över att någon annan patenthållare skulle försöka ta ut pengar, men det var aldrig fallet.

I dagsläget så används HEVC av alla premium-tjänster för HDR, vad jag vet har ingen någon implementering för AV1 HDR med den DRM nivån som krävs för premium-innehåll. Netflix har vad jag det endast för dom lägsta kvalitetsnivåerna som har lägre DRM-krav. Så i streamvärlden är HEVC nu för tiden väldigt välanvänt.