Permalänk

HDMI på Grafikkort?

Hej!
Jag har börjat undra vad HDMI utgången gör på ett grafikkort.
SKulle gärna vilja har svar på denna fråga som gör mig vannsinig!

Visa signatur

Main PC | Gigabyte GA-990FXA-UD3 | AMD Phenom X4 BE 3,4 ghz | Corsair 8gb Vengeance LP | NZXT Switch 810 | Sapphire Radeon 7950 | Fractal Design Tesla 650w 80+ | Realtek 1000 Mbit PCI | Datorn
Laptop | AMD Athlon X2 @1,9 GHZ | GeForce 8700M GT | 160gb seagate | 2gb Internminne

Permalänk
Medlem

den skickar ut på både bild och ljud till en skärm/tv

Permalänk

Som alla andra HDMI! Digitalt ljud och bild! Till exempel en Digital TV

Visa signatur

Intel core i7 6700K, Powercolor Radeon RX 5700 XT 8GB Red Devil, ASUS Z170i Pro Gaming, Corsair Vengeance DDR4 2666MHz 16GB, OCZ Trion 100 240GB, Samsung SSD EVO Basic 840-Series 250GB, Fractal Design Define Nano S, Be Quiet Pure Rock, Corsair SF 600, Windows 10 Pro N 64-bits

Permalänk
Medlem

Jag använder använder det till tvn när jag ska kolla på film

Visa signatur

Chassi: Silverstone Raven RV02-E Moderkort: Asrock Z68 Extreme3 Gen3 CPU: i5 2500k @ 4.2 GHz Ram: Corsair Vengeance 8GB LP GPU: GTX 660 DirectCUII OC PH SLI PSU: Fractal Design Newton R3 600W Kylning: CM hyper 212+

Permalänk
Avstängd

http://sv.wikipedia.org/wiki/HDMI

tog 10 sekunder att leta fram det, testa själv nästa gång

Permalänk
99:e percentilen
Skrivet av BasseeBoii:

SKulle gärna vilja har svar på denna fråga som gör mig vannsinig!

Jag är mest intresserad av varför frågan gör dig vansinnig. Om du inte vet vad HDMI-utgången gör använder du ju inte den, och då bör du rimligen inte ha några problem som är relaterade till den.

Visa signatur

Skrivet med hjälp av Better SweClockers

Permalänk

Jojo jag vet vad HDMI är men jag tänkte mer om den skulle kopplas till moderkortet
Men går det att ha HDMI på de flesta bildskärmar till PC:er?

Visa signatur

Main PC | Gigabyte GA-990FXA-UD3 | AMD Phenom X4 BE 3,4 ghz | Corsair 8gb Vengeance LP | NZXT Switch 810 | Sapphire Radeon 7950 | Fractal Design Tesla 650w 80+ | Realtek 1000 Mbit PCI | Datorn
Laptop | AMD Athlon X2 @1,9 GHZ | GeForce 8700M GT | 160gb seagate | 2gb Internminne

Permalänk
99:e percentilen
Skrivet av BasseeBoii:

Men går det att ha HDMI på de flesta bildskärmar till PC:er?

De flesta nya skärmar har det, men några år äldre skärmar har inte det.

Visa signatur

Skrivet med hjälp av Better SweClockers

Permalänk
Skrivet av Zuggmate:

De flesta nya skärmar har det, men några år äldre skärmar har inte det.

Okej tack för svar allihoppa !

Visa signatur

Main PC | Gigabyte GA-990FXA-UD3 | AMD Phenom X4 BE 3,4 ghz | Corsair 8gb Vengeance LP | NZXT Switch 810 | Sapphire Radeon 7950 | Fractal Design Tesla 650w 80+ | Realtek 1000 Mbit PCI | Datorn
Laptop | AMD Athlon X2 @1,9 GHZ | GeForce 8700M GT | 160gb seagate | 2gb Internminne

Permalänk
Medlem
Skrivet av BasseeBoii:

Okej tack för svar allihoppa !

För att göra det ytterligare lite mer "avancerat" så kan man även använda HDMI från grafikkortet till en hembioreceiver och på den vägen plocka ut både bild och ljud direkt. Ljudet går ut till högtalarna och bilden går till din bildvisare(TV, Datorskärm, Projektor). Allt via ett par HDMI-kablar. Givetvis måste man även ha kablar till högtalarna. (Ville bara klargöra det så det inte blir missförstånd)

Permalänk
Medlem
Skrivet av BasseeBoii:

Jojo jag vet vad HDMI är men jag tänkte mer om den skulle kopplas till moderkortet
Men går det att ha HDMI på de flesta bildskärmar till PC:er?

Hade du tänkt koppla grafikkortet till moderkortet via HDMI?

Visa signatur

Moderkort: Asus P8P67 PRO REV B3 | CPU: Intel Core i5 2500K | GPU: GTX 980 DirectCU II 4GB |
PSU: 850W Gold

Permalänk
Antielefant
Skrivet av BasseeBoii:

Jojo jag vet vad HDMI är men jag tänkte mer om den skulle kopplas till moderkortet
Men går det att ha HDMI på de flesta bildskärmar till PC:er?

HDMI och DVI är samma videosignal och de är elektriskt identiska, så du kan exempelvis med en enkel DVI>HDMI-adapter använda en datorskärm till ett XBox eller PS3, eller för den delen till en DVD. Däremot får man förstås inget ljud då i princip inga datorskärmar har digitalt matade högtalare, så man får dra separat ljud eller gå via en digital receiver.

Det finns också kablar med DVI på ena änden och HDMI på den andra.

Alla moderna grafikkort har också möjlighet att ge både bild och ljud via DVI till HDMI-adaptrar, så de två är i datorvärlden i princip direkt utbytbara mot varandra.

HDMI's nackdel jämfört med DVI är att HDMI inte klarar lika höga upplösningar och lika höga bildfrekvenser.

Visa signatur

i7-12700KF | 128 GB DDR4-4000 | RTX 4080 | Samsung 990 Pro | 3xAcer XB270HU G-Sync

Permalänk
Medlem
Skrivet av Zcenicx:

HDMI's nackdel jämfört med DVI är att HDMI inte klarar lika höga upplösningar och lika höga bildfrekvenser.

Nja, det vet jag inte riktigt om jag håller med om. Vill du utveckla det?
Jag är ingen expert på förhållandet mellan DVI och HDMI, så se mitt svar som en nyfiken fråga och inte som något otrevligt nu!

De "nya" HDMI-kablarna klarar ju 4K upplösningar, det gör väl även DVI då antar jag?
Sen har ju DVI nackdelen med att den endast klarar RGB. HDMI klarar RGB, YCbCr 4:4:4 och YCbCr 4:2:2. Och dessa används flitigt, utanför datorvärlden.
DVI klarar inte heller några värre längder, redan vid 10 m är den begränsad.

Men, jag tror här att man ska vara försiktig med uttalanden. Därför att DVI har sin funktion inom datorvärlden med korta längder vid t.ex bildredigering etc medans HDMI är mer åt "film hållet" om ni förstår hur jag tänker.

Min slutsats är att ingen är bättre eller sämre än den andra. Allt beror på hur/var den ska användas.

Permalänk
Antielefant
Skrivet av Falcon:

Nja, det vet jag inte riktigt om jag håller med om. Vill du utveckla det?
Jag är ingen expert på förhållandet mellan DVI och HDMI, så se mitt svar som en nyfiken fråga och inte som något otrevligt nu!

De "nya" HDMI-kablarna klarar ju 4K upplösningar, det gör väl även DVI då antar jag?
Sen har ju DVI nackdelen med att den endast klarar RGB. HDMI klarar RGB, YCbCr 4:4:4 och YCbCr 4:2:2. Och dessa används flitigt, utanför datorvärlden.
DVI klarar inte heller några värre längder, redan vid 10 m är den begränsad.

Men, jag tror här att man ska vara försiktig med uttalanden. Därför att DVI har sin funktion inom datorvärlden med korta längder vid t.ex bildredigering etc medans HDMI är mer åt "film hållet" om ni förstår hur jag tänker.

Min slutsats är att ingen är bättre eller sämre än den andra. Allt beror på hur/var den ska användas.

DVI har samma teoretiska bandbredd och samma standardstöd som HDMI, men då DVI-kablar oftast är bättre skärmade når de längre. DVI's rekommenderade maximum utan förstärkning är 10 meter, vilket är 33% längre än HDMI (25 fot eller 7,5 m).

Den praktiska skillnaden är egentligen inte DVI vs HDMI, det är samma sak, utan skillnaden är DL-DVI vs HDMI. En Dual-Link DVI-kabel har dubbelt upp vad gäller bandbredd och kan således driva en dubbelt så hög upplösning i samma uppdateringsfrekvens, eller samma upplösning i dubbla frekvensen. Det är därför DL-DVI klarar 120 Hz i 1920x1200 medan HDMI (och Single-Link DVI) bara klarar 60.

Två HDMI-kablar kan förstås ge samma effekt som en DL-DVI-kabel, men det blir svårare att lösa det rent tekniskt.

Vad gäller YCbCr är det huvudsakligen en teoretisk brist eftersom dagens DVI-D faktiskt klarar av det, annars hade man inte kunnat köra DVI till HDMI-konverterare. Den ursprungliga DVI-standarden däremot klarar inte av det. Likaså kan man köra HDCP över DVI i dagsläget, vilket inte heller fungerade från början.

DVI-D ska således i praktiken snarare ses som HDMI med extra bandbredd än som "gamla hederliga" DVI.

Vad gäller 4k-upplösningar stöder både HDMI och DVI det, men enbart DL-DVI klarar av det i 48-bitars färgdjup. Likaså klarar HDMI enbart 24 Hz vid 36-bit, medan DL-DVI klarar 50 Hz.

Visa signatur

i7-12700KF | 128 GB DDR4-4000 | RTX 4080 | Samsung 990 Pro | 3xAcer XB270HU G-Sync

Permalänk
Medlem
Skrivet av Falcon:

För att göra det ytterligare lite mer "avancerat" så kan man även använda HDMI från grafikkortet till en hembioreceiver och på den vägen plocka ut både bild och ljud direkt. Ljudet går ut till högtalarna och bilden går till din bildvisare(TV, Datorskärm, Projektor). Allt via ett par HDMI-kablar. Givetvis måste man även ha kablar till högtalarna. (Ville bara klargöra det så det inte blir missförstånd)

Finns ju trådlösa högtalare ;p

Visa signatur

Ny dator: Acer Predator Orion 5000 (RTX 3080)
[ I7 3770K @ 4.6Ghz | Asus 980 Ti 6GB | 16GB | Asus P8Z77-V PRO | Samsung 830 128GB | Corsair H100 | Cooler Master HAF X | Corsair AX 850W | Samsung DVD±RW ] [ Sony AF9 65" | Sony WF-1000XM3 | HTC Vive | Huawei P40 Pro | PS4 Pro | PS3 Slim | PS2 chippad | PS Vita | DS Lite | SNES Mini ]

Permalänk
Medlem
Skrivet av Zcenicx:

Vad gäller 4k-upplösningar stöder både HDMI och DVI det, men enbart DL-DVI klarar av det i 48-bitars färgdjup. Likaså klarar HDMI enbart 24 Hz vid 36-bit, medan DL-DVI klarar 50 Hz.

Du glömde att DVI inte är särskilt imponerande när det kommer till lite längre kablar.
Jag förstår på ditt resonemang att du är "DVI-killen". Men jag skrev också att HDMI och DVI är bra på olika saker, beroende på var/hur den ska användas. Vad skulle t.ex fördelen med en DVI-kabel som klarar 3840x2400 @ 33 vara för en Blu-ray film(1080 @24) kontra då en HDMI som klarar 1920x1080 @ 24 ?

32-bitars färgdjup eller mer. I vilket sammanhang används det?
Jag menar 24 bitars färgdjup är 16.7 miljoner färger.
Ta 24 till 32 bitar t.ex., där de 8 bitarna inte alls används eller går till en alfakanal, då utöver RGB. Detta är ju säkert jättebra, för en begränsad mängd applikationer.

Jag ska inte sitta här och vara besserwisser, men DVI hör mer hemma inom datorvärlden för bildredigering/foto/photoshop etc.
HDMI tillhör mer filmvärlden.

Permalänk
Medlem
Skrivet av xpanterx:

Finns ju trådlösa högtalare ;p

Inga bra.

Permalänk
Medlem

Men vad kommer ljudet ifrån om man kör via hdmi kabel till en tv, skulle det fortfarande komma från ett ljudkort om man har det i datorn eller har grafikkorten också någon form av ljudkrets?

Visa signatur

Windows 10 Define Nano S I ROG Strix B450 ITX I Ryzen 5 3600 I Sapphire HD 7970 I Corsair SF600W Platinum I HyperX Fury 16GB 2993MHz CL17 I SSD 840EVO 500GB I Asus MG28UQ, 4K, 60Hz, 1ms, Freesync
Annat I Lenovo Y50-70 I Acer 5739G I Razer Imperator I Logitech Z623 I

Permalänk
Antielefant
Skrivet av Falcon:

Du glömde att DVI inte är särskilt imponerande när det kommer till lite längre kablar.
Jag förstår på ditt resonemang att du är "DVI-killen". Men jag skrev också att HDMI och DVI är bra på olika saker, beroende på var/hur den ska användas. Vad skulle t.ex fördelen med en DVI-kabel som klarar 3840x2400 @ 33 vara för en Blu-ray film(1080 @24) kontra då en HDMI som klarar 1920x1080 @ 24 ?

Men HDMI klarar inte längre kablage än DVI? Tvärt om, DVI klarar längre passiva kablar än HDMI gör.
Däremot har jag inte sett speciellt många DVI-förstärkare, medan det finns gott om sådana för HDMI.

Bådadera klarar ju förstås 1920x1080@24, och jag påstår inte att det är någon för- eller nackdel i endera fallet heller. DVI-kabeln klarar däremot fortfarande av att mata fler Hz, vilket oftast är det viktigaste från en dator, konsol etc.

Film må vara njutbart i 24 FPS, men inget annat är det. Att spela på en konsol i 24 FPS är inte direkt kul, likaså har TV-sändningar oftast högre framerates än så.

Även vad gäller film börjar man förresten öka på frameraten, ett exempel är The Hobbit som spelas in i 48 FPS.

Citat:

32-bitars färgdjup eller mer. I vilket sammanhang används det?
Jag menar 24 bitars färgdjup är 16.7 miljoner färger.
Ta 24 till 32 bitar t.ex., där de 8 bitarna inte alls används eller går till en alfakanal, då utöver RGB. Detta är ju säkert jättebra, för en begränsad mängd applikationer.

"30 in 32" bit är iofs vad som normalt används, 3 x 10 för data och två bitar för padding. Det motsvarar sisådär en miljard nyanser. Att du har en alfakanal utanför RGB är huvudsakligen inte sant eftersom 30-bit faktiskt är RGB's standard. I princip alla datorskärmar kör 32-bit och många TV-apparater stöder det, även om TV-apparater ofta kör 24-bit 4:2:2.

Anledningen att jag nämnde 48-bit är huvudsakligen för att skärmar över 4k inte existerar, och vi vet redan att DVI klarar 60 Hz i 4k med 32-bits färgdjup. HDMI gör det inte.

Citat:

Jag ska inte sitta här och vara besserwisser, men DVI hör mer hemma inom datorvärlden för bildredigering/foto/photoshop etc.
HDMI tillhör mer filmvärlden.

Och min poäng kvarstår - det gör ingen skillnad. Som det ser ut idag klarar HDMI allt DVI klarar, och DVI (upp till gränsen för single-link) allt HDMI klarar.

Visa signatur

i7-12700KF | 128 GB DDR4-4000 | RTX 4080 | Samsung 990 Pro | 3xAcer XB270HU G-Sync

Permalänk
Skrivet av Zibbit:

Men vad kommer ljudet ifrån om man kör via hdmi kabel till en tv, skulle det fortfarande komma från ett ljudkort om man har det i datorn eller har grafikkorten också någon form av ljudkrets?

grafikkortet har ingen form av ljudkrets, ljudet kommer antingen från moderkortet eller ett ljudkort.

Visa signatur

AMD Ryzen 3700X | ASUS Rog Strix X570-F | WD Black SN850 1TB | 32Gb | 3060Ti | Fractal Design Meshify C TG | Windows 11
LG 48GQ900 | Qpad 8K | Varmilo VA88M

Permalänk
Medlem
Skrivet av Diablo_Lino:

grafikkortet har ingen form av ljudkrets, ljudet kommer antingen från moderkortet eller ett ljudkort.

Nej, grafikkorten har ingen ljudkrets direkt. Men dagens grafikkort kan skicka ljudet till t.ex en hembioreceiver alldeles perfekt. Jag kör så själv, helt utan ljudkort eller "onboard" på moderkortet.

Permalänk
Inaktiv

Hur svårt är det att googla en sån enkel fråga?

Permalänk
Antielefant
Skrivet av Diablo_Lino:

grafikkortet har ingen form av ljudkrets, ljudet kommer antingen från moderkortet eller ett ljudkort.

Skrivet av Falcon:

Nej, grafikkorten har ingen ljudkrets direkt. Men dagens grafikkort kan skicka ljudet till t.ex en hembioreceiver alldeles perfekt. Jag kör så själv, helt utan ljudkort eller "onboard" på moderkortet.

Fel båda två, iaf om vi pratar moderna kort. Alla Radeonkort sedan 4000-serien, och alla Geforce sedan 400-serien, har inbyggda ljudkretsar för 7.1 S/PDIF. Man behöver inte gå via moderkortets kretsar eller något dedikerat ljudkort.

GTX 670, 680, 690 (och även alla kretsar baserade på GF1x4) har fullt stöd för bitstreamad Dolby True HD och DTS-HD.

Visa signatur

i7-12700KF | 128 GB DDR4-4000 | RTX 4080 | Samsung 990 Pro | 3xAcer XB270HU G-Sync

Permalänk
Medlem
Skrivet av Zcenicx:

Och min poäng kvarstår - det gör ingen skillnad. Som det ser ut idag klarar HDMI allt DVI klarar, och DVI (upp till gränsen för single-link) allt HDMI klarar.

Via HDMI adaptrar ja. Det är väl inte riktigt samma sak, kan jag tycka.

Saxat från engelska wiki:
" The maximum length of DVI cables is not included in the specification since it is dependent on the pixel clock frequency, and hence the video mode's bandwidth requirements (which is a function of resolution and refresh rate). In general, cable lengths up to 4.5 m (15 ft) will work for displays at resolutions of 1,920 × 1,200. This resolution will work even up to 10 m (33 ft) if appropriate cable is used. Cable lengths up to 15 m (50 ft) can be used with displays at resolutions up to 1,280 × 1,024. For longer distances, the use of a DVI booster is recommended to mitigate signal degradation. DVI boosters may use an external power supply. "

HDMI-kablar på 15 m existerar i allra högsta grad och med senaste specifikationen klarar de 4K. Fick faktiskt igår tre olika HDMI-kablar på 15 m av Fynda.se i olika prisklasser som ska jämföras lite. Från 350:- upp till 1250:-. Har inte utvärderat dessa ännu, men jag är rätt säker på att de fungerar.

Permalänk
Antielefant
Skrivet av Falcon:

Via HDMI adaptrar ja. Det är väl inte riktigt samma sak, kan jag tycka.

Saxat från engelska wiki:
" The maximum length of DVI cables is not included in the specification since it is dependent on the pixel clock frequency, and hence the video mode's bandwidth requirements (which is a function of resolution and refresh rate). In general, cable lengths up to 4.5 m (15 ft) will work for displays at resolutions of 1,920 × 1,200. This resolution will work even up to 10 m (33 ft) if appropriate cable is used. Cable lengths up to 15 m (50 ft) can be used with displays at resolutions up to 1,280 × 1,024. For longer distances, the use of a DVI booster is recommended to mitigate signal degradation. DVI boosters may use an external power supply. "

HDMI-kablar på 15 m existerar i allra högsta grad och med senaste specifikationen klarar de 4K. Fick faktiskt igår tre olika HDMI-kablar på 15 m av Fynda.se i olika prisklasser som ska jämföras lite. Från 350:- upp till 1250:-. Har inte utvärderat dessa ännu, men jag är rätt säker på att de fungerar.

Men suck.

Ja - och HDMI's spec ser ännu sämre ut. Den gällande Cat2-standarden är nämligen att kabeln ska klara 1280x720 på en 15 meterskabel och att 1080p enbart måste fungera på en 7,5 meter lång kabel.

Ingendera standard har en maximal kabellängd eftersom bättre material innebär att kabeln kan vara längre. Det enda de har är ett minimikrav för hur långa de måste kunna vara och vilken den lägsta acceptabla upplösningen är.

Det finns betydligt längre DVI-kablar än 15 meter också, exempelvis använder vi ofta 25-meterskablar till projektorer, men både HDMI och DVI stöter på problem över den räckvidden. Efter det får du sätta in en repeater.

Visa signatur

i7-12700KF | 128 GB DDR4-4000 | RTX 4080 | Samsung 990 Pro | 3xAcer XB270HU G-Sync

Permalänk
Medlem
Skrivet av Zcenicx:

Fel båda två, iaf om vi pratar moderna kort. Alla Radeonkort sedan 4000-serien, och alla Geforce sedan 400-serien, har inbyggda ljudkretsar för 7.1 S/PDIF. Man behöver inte gå via moderkortets kretsar eller något dedikerat ljudkort.

GTX 670, 680, 690 (och även alla kretsar baserade på GF1x4) har fullt stöd för bitstreamad Dolby True HD och DTS-HD.

Fel? Jag kör ju så själv. Och jag skriver ju att man inte behöver extra ljudkort eller gå på det som finns "onboard". Grafikkortet skickar ut en "ren rå" digital signal till min förstärkare. Vad jag vet så har nVidia ingen ljudkrets som avkodar ljudet. Så var har jag fel?
Skickas som bitstream och förstärkaren avkodar.
Jag har den gamla PS3an och den "klarar inte av" att skicka bitstream, men den skickar då istället LPCM. Bitstream och LPCM är sak samma, fast i annan ordning. Kvalitén är densamma.

Eftersom tråden handlar om " HDMI på grafikkortet " så behöver jag väl inte nämna att det är via HDMI jag pratar om nu. Alltså USB, Firewire eller S/PDIF är ointressant.

Så här ser mitt "ljudkort" ut...

Permalänk
Medlem
Skrivet av Zcenicx:

Men suck.

Ok, jag lägger ner DVI / HDMI snacket nu. Jag vet vad jag behöver och det är inte DVI. Tack för din lektion, den var intressant.

Permalänk
Medlem
Skrivet av Falcon:

Fel? Jag kör ju så själv. Och jag skriver ju att man inte behöver extra ljudkort eller gå på det som finns "onboard". Grafikkortet skickar ut en "ren rå" digital signal till min förstärkare. Vad jag vet så har nVidia ingen ljudkrets som avkodar ljudet. Så var har jag fel?
Skickas som bitstream och förstärkaren avkodar.
Jag har den gamla PS3an och den "klarar inte av" att skicka bitstream, men den skickar då istället LPCM. Bitstream och LPCM är sak samma, fast i annan ordning. Kvalitén är densamma.

Eftersom tråden handlar om " HDMI på grafikkortet " så behöver jag väl inte nämna att det är via HDMI jag pratar om nu. Alltså USB, Firewire eller S/PDIF är ointressant.

Så här ser mitt "ljudkort" ut...

http://www.inte100.se/bilder/avr.jpg

Mitt GTX 570 har då bitstream och LPCM.

Visa signatur

|AMD Ryzen 9 5900X| |ASUS ROG Strix B550-F| |Crucial Ballistix 32GB CL16@3600MHz| |PNY RTX 4090 XLR8 Gaming| |Samsung 990 Pro 2TB| |Samsung 970 Evo Plus 1TB| |Samsung 860 Evo 1TB| |Corsair RM1000| |Fractal Design Define R5| |LG OLED 48" C2 Evo|

Permalänk
Medlem

finns inget bättra att göra på ett tåg till köping fra stockholn ön att läsa 2 pers argumentera på swec! just sayin!

Skickades från m.sweclockers.com

Visa signatur

Dator specs: Amd FX:8320 @stock 4now, MSI Geforce 770, Bequiet KRAFT 700w, Gigabite 990 FX, Kingston SSDnow 120 GB, WD Green 1 TB, 8Gb 1600mhz Ram och ett no name chassi. Övrigt, 23 tums skärm, 21,5 tums benq, Q-pad mk50, razer naga, Turtlebeach z6a, siberia v2, ATH-M50, Zoom h1

Permalänk
Antielefant
Skrivet av Falcon:

Fel? Jag kör ju så själv. Och jag skriver ju att man inte behöver extra ljudkort eller gå på det som finns "onboard". Grafikkortet skickar ut en "ren rå" digital signal till min förstärkare. Vad jag vet så har nVidia ingen ljudkrets som avkodar ljudet. Så var har jag fel?
Skickas som bitstream och förstärkaren avkodar.
Jag har den gamla PS3an och den "klarar inte av" att skicka bitstream, men den skickar då istället LPCM. Bitstream och LPCM är sak samma, fast i annan ordning. Kvalitén är densamma.

Grafikkortet skickar ut en digital ljudsignal, ja. Vad din förstärkare gör är förstås att avkoda denna och skicka den analogt till högtalarna. Ingen HDMI-kabel i världen stöder analogt (dvs "avkodat") ljud, det använder man stereokabel till.

Vad jag menar med att grafikkortet har en inbyggd ljudkrets är att du inte behöver någon passthrough mellan grafikkort och moderkort för att koda ihop ljud och bildströmmarna. Grafikkortet kan göra detta självt. Backar man till HD 3000- eller Geforce 200-serierna (eller äldre) hade man istället en kabel som satt mellan grafikkort och moderkort eller ljudkort för att hämta ljudströmmen.

LPCM och Bitstream är väl egentligen inte samma sak, men jag håller med om att det till största delen är skit samma vilket för normala öron.

Citat:

Eftersom tråden handlar om " HDMI på grafikkortet " så behöver jag väl inte nämna att det är via HDMI jag pratar om nu. Alltså USB, Firewire eller S/PDIF är ointressant.

S/PDIF är inte ointressant. HDMI är en standard som slår ihop DVI-D för video och S/PDIF för ljud. Anledningen att jag refererade till S/PDIF är för att det är en sådan krets som faktiskt sitter på grafikkortet och matar ljudströmmen.

Visa signatur

i7-12700KF | 128 GB DDR4-4000 | RTX 4080 | Samsung 990 Pro | 3xAcer XB270HU G-Sync