Intel släpper Media SDK 2013 – Quick Sync för öppen källkod

Permalänk
Melding Plague

Intel släpper Media SDK 2013 – Quick Sync för öppen källkod

Snabbare kodning av video står på menyn när Intel släpper Media SDK 2013 och gör det möjligt för utvecklare att lägga till stöd för acceleration via Quick Sync.

Läs artikeln

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

Är detta något man bör ladda ner om man kör någon av dessa processorer eller är det bara för dom som sysslar med videoredigering etc?

Permalänk
Medlem

ÄNTLIGEN!

Detta var sannerligen på tiden, riktigt dåligt av Intel att inte släppa ut en teknik dom pushat för så mycket förrän 2 år efter att den är lanserad.

Skrivet av Shiftypants:

Är detta något man bör ladda ner om man kör någon av dessa processorer eller är det bara för dom som sysslar med videoredigering etc?

Det är bara för dom som utvecklad videorenderingsprogram.
Om du inte vet att du behöver det, så behöver du det inte.

Permalänk
Medlem

Och det är egentligen bara för de som har långsammare processor (då QuickSync är lika snabb på allt från 2-kärniga laptops till 4+4-kärniga desktops).
Med de snabbare desktop-CPUerna är x264 snabbare om kvaliteten dras ner till samma nivå. Dock givetvis med maxad CPU-användning medan QuickSync lämnar processorn fri till annat.

Permalänk
Medlem
Skrivet av ajp_anton:

Och det är egentligen bara för de som har långsammare processor (då QuickSync är lika snabb på allt från 2-kärniga laptops till 4+4-kärniga desktops).
Med de snabbare desktop-CPUerna är x264 snabbare om kvaliteten dras ner till samma nivå. Dock givetvis med maxad CPU-användning medan QuickSync lämnar processorn fri till annat.

Det är ju just det mest positiva med detta, att kunna låta CPU'n vara helt oberoende.

Det största om det går att lösa t.ex. för Live Streaming av spel eller generelt sett Live streaming från PC om man kan få QuickSync att göra jobbet, så man kan använda resten av resurserna till det man faktiskt vill göra.

Återstår att se ifall det blir något av det, önskar rejält det kommer till Xsplit

Visa signatur

Speldator: Ryzen 7800X3D, 64GB DDR5, RTX 3070
Server: i7-8700k, 32GB DDR4, RTX2080
Steam deck + de fiesta konsoller.

Permalänk
Medlem
Skrivet av MugiMugi:

Det är ju just det mest positiva med detta, att kunna låta CPU'n vara helt oberoende.

Det största om det går att lösa t.ex. för Live Streaming av spel eller generelt sett Live streaming från PC om man kan få QuickSync att göra jobbet, så man kan använda resten av resurserna till det man faktiskt vill göra.

Återstår att se ifall det blir något av det, önskar rejält det kommer till Xsplit

Därför det var värt att nämnas =). Kom på det där i slutet, så kanske inte bara för långsammare processorer, men mest användbart där.

Permalänk
Avstängd

Väldigt trevligt med öppen källkod!

Tack Intel!

Permalänk
Avstängd

Kanske ser vi snart stöd för detta implementerat i FFmpeg, libav, och MEncoder.

Permalänk
Entusiast

Det tackar vi för. Synd att de skulle vara så långsamma för hade de fått tummen ur med en gång hade det nog varit relativt välanvänt idag.

För er som missat det finns ett par intressanta tester här:

http://www.anandtech.com/show/4083/the-sandy-bridge-review-in...

http://www.anandtech.com/show/5771/the-intel-ivy-bridge-core-...

Hade varit guld värt när jag ett tag konverterade mycket egenfilmat för att slänga upp på Youtube. Köra om 1080i till 720p med en profil specialanpassad för Youtube tog ungefär dubbla spellängden att göra. Hade man då många klipp eller ett par långa så låste det datorn ganska bra. Speciellt jobbigt var det om man hade många klipp och ville fortsätta jobba på fler medan datorn tuggade film i bakgrunden. Det var en seg upplevelse kan jag lova. Så hade jag fått loss processorn för redigeringsbiten hade jag varit överlycklig.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Datavetare

Kan inte låta bli att peka på en sak i det som länkas av Zotamedu ovan då det belyser varför trenden med att öka antal CPU-kärnor har stannat på 4/8, det är inte p.g.a. lata/okunniga programmerare utan att väldigt många problem helt enkelt bara kan dra begränsad nytta av många CPU-kärnor.

As we’ve been noting in our GPU reviews for quite some time now, there’s no advantage to transcoding on a GPU faster than the $200 mainstream parts. Remember that the transcode process isn’t all infinitely parallel, we are ultimately bound by the performance of the sequential components of the algorithm. As a result, the Radeon HD 6970 offers no advantage over the 6870 here. Both of these AMD GPUs end up being just as fast as a Core i5-2500K.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Virtual Void #10
Intressant.
Det får ju en att undra hur AMD egentligen tänkte när dom gick all in med BD?
Det får ju också en att undra över hela HSA-tanken?

Funderingar på kammaren:
Varför, satsade man inte istället på en arkitektur som är skalbar på ett djupare plan. Jag tänker ungefär så här:
1 "modul" med "4" kärnor, vars resurser antingen kan delas upp på 1-2-4 trådar, och därmed använda alla trissor som finns tillgängliga? Låt säga att vi har ett program som endast använder 1 tråd effektivt, då skulle mitt tankefostret använda alla 4 kärnor som om dom vore en enda?

Ok, kanske knepigt att få till i praktiken?

/Jacozz

Visa signatur

🖥️ AMD Ryzen 3700x, MSI B350 Mortar Arctic, Corsair lpx 3200, Sapphire 6900XT Nitro, Mbpro 15, MacMini.

Permalänk
Datavetare
Skrivet av jacozz:

Virtual Void #10
Intressant.
Det får ju en att undra hur AMD egentligen tänkte när dom gick all in med BD?
Det får ju också en att undra över hela HSA-tanken?

Funderingar på kammaren:
Varför, satsade man inte istället på en arkitektur som är skalbar på ett djupare plan. Jag tänker ungefär så här:
1 "modul" med "4" kärnor, vars resurser antingen kan delas upp på 1-2-4 trådar, och därmed använda alla trissor som finns tillgängliga? Låt säga att vi har ett program som endast använder 1 tråd effektivt, då skulle mitt tankefostret använda alla 4 kärnor som om dom vore en enda?

Ok, kanske knepigt att få till i praktiken?

/Jacozz

Att göra en CPU som utför väldigt mycket per klockcykel är väldigt mycket svårare än att klämma dit ett gäng relativt simpla CPU-kärnor. Att vi ser så liten förändring i IPC (Instructions Per Clock) är helt enkelt därför att det blir exponentiellt svårare att extrahera parallellism ur ett enda instruktionsflöde för varje förbättring man gör. Det betyder att plottar du IPC (y-axel) mot antal transistorer du slänger på problemet (x-axeln) så får då en y = ln(x) liknande kurva.

Quick Sync är ett exempel på vad man kan göra med relativt få transistorer. Quick Sync är en s.k. fix-funktions krets, d.v.s den är relativt begränsad i vad den kan utföra men å andra sidan kan den utföra den uppgiften väldigt snabbt, med få transistorer och samtidigt dra lite ström relativt ett mer generiskt chip som en GPU eller än mer än CPU. Våra smarta telefoner innehåller ofta flera sådana här fix-funktions chip just p.g.a. att de dra så lite ström i förhållande till att utföra samma sak med CPUn (även om det är en ARM).

Så inte alls omöjligt att det är just sådana här fix-funktions-block vi kommer få se mer av i framtiden när krypningar tillåter fler transistorer på en given yta, då det kommer ge ganska lite att använda de extra transistorerna till att öka IPC.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Härligt! Nu kanske tillomed Intel börjar kamma sig med resterande drivrutiner och grafikdrivare för linux, eller än bättre släpper öppen kod.

Permalänk
Medlem
Skrivet av jacozz:

Virtual Void #10
Intressant.
Det får ju en att undra hur AMD egentligen tänkte när dom gick all in med BD?
Det får ju också en att undra över hela HSA-tanken?

Funderingar på kammaren:
Varför, satsade man inte istället på en arkitektur som är skalbar på ett djupare plan. Jag tänker ungefär så här:
1 "modul" med "4" kärnor, vars resurser antingen kan delas upp på 1-2-4 trådar, och därmed använda alla trissor som finns tillgängliga? Låt säga att vi har ett program som endast använder 1 tråd effektivt, då skulle mitt tankefostret använda alla 4 kärnor som om dom vore en enda?

Ok, kanske knepigt att få till i praktiken?

/Jacozz

Bra enkeltrådad prestanda uppnås genom att göra ofantliga mängder gissningar på vad som händer i framtiden och beräkna dessa parallellt. När man väl kommer dit så har man potentiellt redan räknat klart saker om man gissat rätt. Framtidsgissningarna beror på vad som händer innan, så man kan inte veta säkert innan man faktiskt kommer dit.
En annan sak man kan göra är att öka mängden cache för att minska antal gånger man får hämta data från det otroligt långsamma RAM-minnet, men om allt redan fick plats i cache så hjälper det inget.
Sen kan man givetvis höja klockfrekvensen på bekostnad av energiåtgång och instabilitet.

Intel har otroliga resurser till att utveckla det första, och ändå ha plats över på kretsen till det andra. Frekvenserna har de varit lite konservativa med som syns på hur mycket man kan överklocka, och även för att de sakta men säkert kan öka den för varje generation för att "verka bättre".
AMD kan inte följa i Intels fotspår, så det finns inte mycket annat att göra än det enkla - smälla in ett antal sämre kärnor och hoppas att folk kommer ha användning för dessa.

Permalänk
Medlem
Skrivet av ajp_anton:

Intel har otroliga resurser till att utveckla det första, och ändå ha plats över på kretsen till det andra. Frekvenserna har de varit lite konservativa med som syns på hur mycket man kan överklocka, och även för att de sakta men säkert kan öka den för varje generation för att "verka bättre".

Japp, och om AMD kom med någonting som kunde hota Intel skulle dom genast släppa processorer med sådär 500MHz högre klockfrekvens utan problem.

Intel vill också jobba hårt på att undvika att gå samma väg som dom gjorde med Pentium 4 och fokuserar helhjärtat på energieffektivitet och nya funktioner nästan.

Lite tråkigt för oss, hade AMD hotat hade vi sett mer utveckling inom andra områden, men jag tror detta är en bra utveckling i längden även om det är lite tråkigt just nu...

Permalänk
Entusiast
Skrivet av Yoshman:

Att göra en CPU som utför väldigt mycket per klockcykel är väldigt mycket svårare än att klämma dit ett gäng relativt simpla CPU-kärnor. Att vi ser så liten förändring i IPC (Instructions Per Clock) är helt enkelt därför att det blir exponentiellt svårare att extrahera parallellism ur ett enda instruktionsflöde för varje förbättring man gör. Det betyder att plottar du IPC (y-axel) mot antal transistorer du slänger på problemet (x-axeln) så får då en y = ln(x) liknande kurva.

Quick Sync är ett exempel på vad man kan göra med relativt få transistorer. Quick Sync är en s.k. fix-funktions krets, d.v.s den är relativt begränsad i vad den kan utföra men å andra sidan kan den utföra den uppgiften väldigt snabbt, med få transistorer och samtidigt dra lite ström relativt ett mer generiskt chip som en GPU eller än mer än CPU. Våra smarta telefoner innehåller ofta flera sådana här fix-funktions chip just p.g.a. att de dra så lite ström i förhållande till att utföra samma sak med CPUn (även om det är en ARM).

Så inte alls omöjligt att det är just sådana här fix-funktions-block vi kommer få se mer av i framtiden när krypningar tillåter fler transistorer på en given yta, då det kommer ge ganska lite att använda de extra transistorerna till att öka IPC.

Ett annat exempel på fix function som ligger nära till hands är ju chipen som sitter i enklare mediaspelare. De äter tung HD-film som även lite nyare processorer får jobba lite på till frukost och drar så lite effekt att de utan problem kan kylas passivt. Men de kan i princip bara avkoda film. Får de ett format som de inte stödjer är det kört och de orkar knappt ge flyt nog i ett GUI. Undrar om inte det blir nästa steg även för Intel. Slänga in lite mer dedikerad videoavkodning istället för att "bara" dumpa över det på grafikkortet. Det känns ju som något som de skulle kunna spara in väldigt mycket ström på när det kommer till laptopar och plattor som ju inte sällan används för just film.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Medlem

Men hallå?
Tack för infon Virtual.
Eftersom jag inte egentligen förstår hur en processor fungerar, så får du ta mina frågor lite som du utbildar på en AMS-kurs

Eftersom du förklarade att singeltråds-prestanda snarare beror på att kunna "gissa rätt" än antal transistorer tillgängliga för beräkning, betyder det då att när man "gissar", således preloadar tidigare instruktioner från L1, L2 resp L3cache och "jämför dessa istället för att processa en helt ny körning?

Är det korrekt tänkt?

Jacozz

Visa signatur

🖥️ AMD Ryzen 3700x, MSI B350 Mortar Arctic, Corsair lpx 3200, Sapphire 6900XT Nitro, Mbpro 15, MacMini.

Permalänk
Medlem
Skrivet av Zotamedu:

Undrar om inte det blir nästa steg även för Intel. Slänga in lite mer dedikerad videoavkodning istället för att "bara" dumpa över det på grafikkortet. Det känns ju som något som de skulle kunna spara in väldigt mycket ström på när det kommer till laptopar och plattor som ju inte sällan används för just film.

Finns redan hos alla Intel-CPUer sedan flera år tillbaka.
Och vad var felet med DXVA på grafikkort innan?

Permalänk
Entusiast
Skrivet av ajp_anton:

Finns redan hos alla Intel-CPUer sedan flera år tillbaka.
Och vad var felet med DXVA på grafikkort innan?

Skillnad i strömförbrukning. Min laptop klarar HD-material om det körs på Intels grafik men det är tungt för den och den drar en del ström vilket märks på batteritiden och på fläkten. Samma film klarar en WD Live av med en krets som kyls passivt i en liten plastlåda. Utan DXVA vill den inte spela vissa HD-filmer utan lagg. Så det känns som om implementationen skiljer sig lite.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Datavetare
Skrivet av jacozz:

Men hallå?
Tack för infon Virtual.
Eftersom jag inte egentligen förstår hur en processor fungerar, så får du ta mina frågor lite som du utbildar på en AMS-kurs

Eftersom du förklarade att singeltråds-prestanda snarare beror på att kunna "gissa rätt" än antal transistorer tillgängliga för beräkning, betyder det då att när man "gissar", således preloadar tidigare instruktioner från L1, L2 resp L3cache och "jämför dessa istället för att processa en helt ny körning?

Är det korrekt tänkt?

Jacozz

Var ajp_anton som nämnde att moderna CPUer "gissar", men det är sant. Gissningen (speculative execution) är en av många metoder som moderna CPUer använder sig av för att öka IPC.

Väldigt förenklat kan beskriva dessa gissningar så här, vilket även förklara varför det kostar transistorer att gissa "bra"
* CPUn har tabeller på hur jämförelser följt av hopp baserade på resultatet av jämförelsen har gått historiskt sett. Större tabeller leder till bättre gissningar, men kostar mer transistorer. Moderna Intel/AMD CPUer innehåller ofta flera tabeller för samma hopp men som spårar lite olika information -> kostar transistorer
* När CPUn gissar är det viktigt att "gissningen" inte blir synlig utanför processorn innan man vet att gissningen var korrekt. För att lösa det så håller CPUn ett gäng med instruktioner som har kört klart i en lista, resultatet görs synligt om det visade sig vara rätt annars slängs det bort. Större lista ger utrymme för fler gissningar som i genomsnitt bättrar på IPC, men större lista kostar transistorer.

I fallet Core2 -> Nehalem -> Sandy Bridge -> Haswell så är en av de absolut största orsakerna till bättre IPC inte det som beskrivits ovan, utan en besläktad sak. Moderna avancerade CPUer har möjlighet att köra instruktioner i en annan ordning än de står i koden (out-of-order execution). Hur många instruktioner CPUn kan undersöka och "keep in flight" (vettig svensk översättning?) var 96 för Core2 och kommer bli 196 i Haswell. Detta kostar en hel del transistorer att öka detta, men det ökar IPC då ett större "in-flight window" ökar sannolikheten att man hittar instruktioner som kan köras direkt.

Edit: out-of-order maskineriet är relaterat till "gissningarna" då det nästan alltid krävs att CPUn gissar för att man överhuvudtaget ska kunna titta 100-200 instruktioner framåt. Båda finesserna delar också egenskapen att instruktioner som kört klart måste vänta med att göra sitt resultat synligt, i fallet out-of-order så måste man vänta till dess att alla instruktioner som logiskt sett låg före i instruktionsströmmen har gjort sina resultat synliga innan man gör nästföljande resultat synligt, i.e. man kan köra instruktionerna out-or-order men för en extern observatör måste det se ut som om allt gjordes "in-order".

Problemet är som sagt att effekten av att öka "in-flight window", öka storleken på CPU-cache etc har formen av en
y = ln(x) kurva, alla dessa metoder vi känner till lider av "diminishing returns". Så i framtiden kommer man nog få funderar på andra saker man kan använda transistorer till som kanske har ett smalare användningsområde, men faktiskt ger en stor effekt.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Häärligt! Det här har man väntat på!

Visa signatur

ASUS PRIME X570, Ryzen 5900x, 32GB 3200MHz, RTX 3080, Corsair SF600, Samsung 980 PRO 2TB

Permalänk
Medlem

Jag hittar inte källkoden. Var det inte öppen källkod?

Permalänk
Entusiast
Skrivet av ronnylov:

Jag hittar inte källkoden. Var det inte öppen källkod?

"With the release of the Intel Media SDK 2013, Intel open sourced its dispatcher code. The dispatcher simply detects what driver is loaded on the machine and returns whether or not the platform supports hardware or software based transcoding. The dispatcher is the final step before handing off a video stream to the graphics driver for transcoding, but previously it was a proprietary, closed source piece of code. For open source applications whose license requires that all components contained within the package are open source as well, the Media SDK 2013 should finally enable Quick Sync support. I believe that this was the last step in enabling Quick Sync support in applications like Handbrake."

http://www.anandtech.com/show/6665/intels-quick-sync-coming-s...

Allt är inte Open Source men tydligen är tillräckligt mycket det för att folk ska vara nöjda.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Medlem

Tack för förklaringen virtual void!
Det uppskattas

/jacozz

Visa signatur

🖥️ AMD Ryzen 3700x, MSI B350 Mortar Arctic, Corsair lpx 3200, Sapphire 6900XT Nitro, Mbpro 15, MacMini.

Permalänk
Medlem
Skrivet av Zotamedu:

"With the release of the Intel Media SDK 2013, Intel open sourced its dispatcher code. The dispatcher simply detects what driver is loaded on the machine and returns whether or not the platform supports hardware or software based transcoding. The dispatcher is the final step before handing off a video stream to the graphics driver for transcoding, but previously it was a proprietary, closed source piece of code. For open source applications whose license requires that all components contained within the package are open source as well, the Media SDK 2013 should finally enable Quick Sync support. I believe that this was the last step in enabling Quick Sync support in applications like Handbrake."

http://www.anandtech.com/show/6665/intels-quick-sync-coming-s...

Allt är inte Open Source men tydligen är tillräckligt mycket det för att folk ska vara nöjda.

Tycker det verkar lite svårtolkat men om det ska funka på Linux måste det väl uppfylla GNU-licens eller någorn kompatibel licens antar jag. Jag kör ju enbart Linux numera hemma på mina datorer (utom på bärbar dator där jag har dual boot). Kan detta betyda att detta alltså har möjligheter att bli äkta fri källkod som kan fungera i Linuxmiljö? Känns ju lite trist om den måste detektera windows-drvrutiner innan det blir åtkomligt.

Å andra sidan så får man bättre kvalitet med x264 i minst samma hastighet om man har en stark CPU. Men som någon skrev det kan ju finnas applikationer där man vill avlasta CPU och där toppkvalitet inte är högsta prioritet. Funderar faktiskt på att köpa mig ett intelsystem med integrerad grafik så detta är ju jättetrevliga nyheter om de kan få det helt fritt utan hindrande licenser eller spärrar för fria operativsystem.

Permalänk
Medlem
Skrivet av Zotamedu:

Skillnad i strömförbrukning. Min laptop klarar HD-material om det körs på Intels grafik men det är tungt för den och den drar en del ström vilket märks på batteritiden och på fläkten. Samma film klarar en WD Live av med en krets som kyls passivt i en liten plastlåda. Utan DXVA vill den inte spela vissa HD-filmer utan lagg. Så det känns som om implementationen skiljer sig lite.

Din laptop har en Core2Duo, på den tiden var Intels "inbyggda" grafik inte så het på varken grafik eller DXVA.
Intels hårdvaruacceleration sedan Sandy Bridge är typ det snabbaste som finns. 1080p Blu-ray avkodas i sådär runt 500fps för mig med CPU-användning på 10%. Ivy Bridge ska vara ännu snabbare, men hastigheten på RAM börjar bli flaskhalsen.
Sen så är det såklart mest strömsnålt när det hela görs på samma krets som CPUn, men DXVA på ett riktigt grafikkort ska inte dra mycket mer då det fortfarande handlar om samma slags dedikerad avkodning.

Permalänk
Inaktiv
Skrivet av Kilroy:

ÄNTLIGEN!

Detta var sannerligen på tiden, riktigt dåligt av Intel att inte släppa ut en teknik dom pushat för så mycket förrän 2 år efter att den är lanserad.

Det är bara för dom som utvecklad videorenderingsprogram.
Om du inte vet att du behöver det, så behöver du det inte.

Nej. Det finns gratismjukvara som använder QuickSync. MediaCoder har funnits sedan Sandy Bridge var ny. Den använder även Nvidias Cuda för dem med Nvidia kort.
Det går ruggigt snabbt med att koda film med QuickSync och programmet utnyttjar alla cores effektivt.

Skickades från m.sweclockers.com

Permalänk
Entusiast
Skrivet av ajp_anton:

Din laptop har en Core2Duo, på den tiden var Intels "inbyggda" grafik inte så het på varken grafik eller DXVA.
Intels hårdvaruacceleration sedan Sandy Bridge är typ det snabbaste som finns. 1080p Blu-ray avkodas i sådär runt 500fps för mig med CPU-användning på 10%. Ivy Bridge ska vara ännu snabbare, men hastigheten på RAM börjar bli flaskhalsen.
Sen så är det såklart mest strömsnålt när det hela görs på samma krets som CPUn, men DXVA på ett riktigt grafikkort ska inte dra mycket mer då det fortfarande handlar om samma slags dedikerad avkodning.

Hade missat att de byggt om det så mycket även på avkodningen.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Medlem

Den öppna källkoden är alltså enbart är en enkel wrapper som dynamiskt laddar det proprietära MSDK-librariet och passar vidare anrop till den. Inget stöd för att tillåta utvecklare att göra egna anrop till lågnivåfunktioner.

Visa signatur

Assembly är ett högnivåspråk.

Permalänk
Medlem
Skrivet av Zotamedu:

Hade missat att de byggt om det så mycket även på avkodningen.

Antagligen i samband med att QuickSync introducerades. Man måste ju kunna avkoda filmen innan man encodar den igen =).
Snabbaste sättet att komma åt avkodningen är just via Quicksync (även på budget-CPUer som "inte har" Quicksync), fast det i praktiken är samma sak som DXVA.