Inlägg

Inlägg som reflux har skrivit i forumet
Av reflux
Skrivet av Ryzer:

Hade gärna sett benchmarks mot GPU i produktivitet, så man ser vad man står sig mot en GPU i pris/ prestanda.
Ingen vettig människa köper dessa för att spela med.

Puget inkluderade även GPU-kombos i vissa av sina tester:

"Moreover, the 3990X is the first processor we've tested that can exceed the performance of a high-end video card when used in V-Ray Next's GPU mode. For reference, a GeForce RTX 2080 Ti scores around 330-340 mpaths in that benchmark, while the 3990X pulled off 438! Of course, the 2080 Ti costs far less money as well - so real video cards still offer the best value for increasing performance in V-Ray Next GPU. If you want to max out your render speed, though, pairing multiple GPUs with a high-end CPU like the 3990X is great!"

https://www.pugetsystems.com/labs/articles/V-Ray-CPU-Renderin...
https://www.pugetsystems.com/labs/hpc/AMD-Threadripper-3990x-...

Av reflux
Skrivet av Teddis:

Men får man fråga.. vad är det ni gör i Resolve-testet? Har ni applicerat LUTar, färgkorrigering, bildstabilisering, denoise o dylikt på en testsekvens eller exporterar ni helt enkelt ut något klipp rakt av?

Mer ingående Resolve-test: https://www.pugetsystems.com/labs/articles/DaVinci-Resolve-CP...

Verkar en smula overkill, 24/32 är klart bättre köp hur man än ser på det.

Av reflux

@Weiman: Trodde 53s fortfarande behövde en bit över 65W men det kanske funkar med en hyfsad USB-C docka? Då är det ju ännu smidigare.

Av reflux

En Thunderbolt-docka är definitivt att föredra eftersom Lenovos kraftigare varianter även kan strömförsöja datorerna i P5x-serien via TB3/USB-C. Då har du bara en kabel att koppla in vid din arbetsplats och kan sätta alla USB-tillbehör samt nätverk direkt i dockan.

Alternativet är en enklare USB-C docka med stöd för DP Alt Mode som ger DisplayPort via USB-C (som nämnde ovan). Då kan du fortfarande sätta USB-tillbehör, skärmar och nätverk i dockan, men måste koppla in både strömkabel och dockans USB-C kabel till datorn. Det är så jag kör min P52 för tillfället eftersom vi inte får Thunderbolt-dockor på jobbet

Av reflux
Skrivet av Krippa75:

Har det alltså hittills sålts utan TB3-certifieringen? Det har ju gått att köpa sedan september.

Ja. Det har funnits moderkort med TB3 från ASRock och Gigabyte, men dessa har inte varit officiellt certifierade vilket inneburit problem för systembyggande företag som ju inte kan leverera en AMD-plattform till kunder med löfte om att TB3 garanterat ska fungera.

Klart intressant utveckling! Hoppas bara att det certifieras lite kraftfullare ATX-kort snart.

Av reflux
Skrivet av Shiprat:

Är väl generellt så att arbetar man med specifika mjukvaror som kräver hög prestanda så är det alltid värt att bygga utefter vilken hårdvara de fungerar bäst med, potentiell prestanda < verklig prestanda.

Jo, men många användare här rekommenderar gärna hårdvara till specifik användning utan att ha den insikten. Många benchmarks för just video tycks bara gå ut på export, där många kärnor ofta är en fördel, men går inte alltid att översätta till den situation där man oftast spenderar mest tid, redigeringen.

Även inom DAW/ljudproduktion har man liknande förutsättningar där vikten av latens är större är exporttid.

Extremt smala områden men viktigt för dem som bygger med dessa syften. Och så är det ju skoj

Av reflux
Skrivet av stoffe_83:

Multitrådprestanda är det som spelar roll vid videokomprimering, videoredigering, stackning och registrering av bilder och film.

Jag vill bara påpeka att det kan vara en smula mer komplicerat än så. En del program för videoredigering, som Premiere Pro (för att inte tala om Final Cut i macOS), använder även Intels integrerade grafikdel för att accelerera _videodekomprimeringen_ vid redigering/rendering.

iGPUn arbetar parallellt med CPU/GPU för att leverera dekomprimerade/framräknade bildrutor från strömmen och avlastar övriga systemresurser. Detta ger en extra skjuts i realtidsprestanda i tidslinjen när man arbetar med vanliga, hårt komprimerade codecs som H.264/H.265. Därför kan en i9-9900K vara ett bättre val för en redigeringsdator än 3900X/3950X (eller Intels X299-serie), beroende på vad man arbetar med för media och hur ens arbetsflöde ser ut, och i9-10900K gör det förmodligen inte sämre.

För mig är idag denna realtidsprestanda under redigeringen långt viktigare än hur lång tid det tar att rendera ut slutresultatet, men på tidigare jobb, där jag arbetade med långa sekvenser som sällan behövde klippas, hade AMD varit ett klart bättre val. Arbetar man främst med Apple ProRes-codec eller RAW-format är det snarare många trådar som gäller.

Av reflux

Viktigt att särskilja olika typer av lösningar för inkopplingar av skärmar via USB-C.

Många dockningsstationer använder ett chip från DisplayLink för att lösa USB, nätverk och skärmar. De funkar med både vanlig USB2/3 och USB-C kablar. Vi har ett par tusen av dessa på jobbet i olika varianter.

DisplayLink-drivrutinen ligger i bakgrunden och låtsas vara en/två skärmar för datorns grafikkort och gör en capture på den bild grafikkortet ritar upp där. Ungefär som skärminspelning. Signalen komprimeras och skickas via USB-kabeln till dockan där bilden dekomprimeras och visas på skärmarna. Detta är EJ att rekommendera för något annat än vanligt kontorsarbete då det dels inte funkar bra med t ex spel, grafiskt krävande applikationer och dessutom stjäl datorkapacitet för bildfångst och kompression. Du måste installera drivrutiner för att använda den här typen av dockor, vilket du kanske inte kan på en företagsdator.

Via USB-C har många datorer också möjligheten att skicka DisplayPort-data, sk DisplayPort Alt Mode, tillsammans med vanlig USB-data. Det innebär att du kan driva två skärmar och samtidigt skicka USB-data via samma sladd, utan att behöva extra drivrutiner som stjäl prestanda eller påverkar systemets prestanda.

Nu skrev du inte vilken dator du har, men rimligtvis borde en så pass ny dator kunna skicka bildsignal via USB-C, men läs den här tråden och se om du blir något klokare: https://www.sweclockers.com/forum/trad/1458109-displayport-ov...

Edit: Här är ett exempel på en USB-C -> HDMI-adapter som använder DisplayPort över USB-C: https://satechi.net/products/aluminum-type-c-to-hdmi-adapter-...

Du får antingen skriva ut modellnamnet på din laptop eller själv kolla i techspecs för den för att avgöra om en sådan kommer att fungera.

Av reflux
Skrivet av saigon:

Någon som har koll på hur man bäst digitaliserar Video8? Jag har en vanlig Video8 utan digitala utgångar, någon som vet om man kanske kan hyra en digital variant? Räcker en bärbar dator för överföringen, tror det sitter en I5, ca 3 år gammal dator. Antar att överföringen i sig inte är så krävande, snarare ev redigering, vilket kanske man inte ens behöver göra?

Kanske inte bäst men förmodligen bra nog: https://www.jula.se/catalog/hem-och-hushall/hemelektronik/dat...

Finns flera liknande adaptrar på marknaden. Tror inte du kommer att få några problem med enkel redigering/klippning.

I den här tråden finns fler tips: https://www.sweclockers.com/forum/trad/1517441-upp-till-bevis...

Av reflux
Skrivet av jan-banan:

Kan inte säga en code då dels jag har flera olika kameror och hyr samt att jag gör jobb för andra. Jag jobbar mest med Premiere, resolve och After effects.

Men lutar åt att köpa något hyffsat och sen göra en uppgradering om kanske 2 år eller så

Om du har så pass blandade uppdrag och codecs får du helt enkelt göra en kompromiss. Så länge du inte har något behov av certifierad Thunderbolt 3-plattform ser 24-kärnors Threadripper 3960X med minst 64GB RAM ut som ett bra val. Gott och PCIex-banor för expansion med multipla GPUs och NVMe-SSDs.

https://www.pugetsystems.com/labs/articles/What-is-the-Best-C...

Prestandan varierar en hel del beroende på upplösning, codec, bitrates, tidslinjeprestanda vs exportprestanda men det finns helt enkelt inget "bäst på allt"-val.

Läs mer om detaljerna för respektive program:
https://www.pugetsystems.com/labs/articles/Premiere-Pro-CPU-p...
https://www.pugetsystems.com/labs/articles/After-Effects-CPU-...
https://www.pugetsystems.com/labs/articles/DaVinci-Resolve-St...

Gällande GPU så är väl ett RTX 2080 Ti eller 2080 Super vettiga val, lite beroende på hur mycket du kommer att jobba i Premiere Pro (mindre skillnad mellan GPUs) eller Resolve (större skillnad mellan GPUs). Quadro-kort känns som bortkastade pengar; dels kan du nu få 10-bitars output från ett RTX-kort och sen vill du förmodligen ändå köra ett rent videokort (typ DeckLink eller liknande) för videobild ut i så fall. Enda skälet skulle väl vara om du behöver mer än 24GB GPU-minne.

https://www.pugetsystems.com/labs/articles/Premiere-Pro-GPU-R...
https://www.pugetsystems.com/labs/articles/DaVinci-Resolve-GP...

Resolve gillar ju också flera GPUs, men prestandavinsten beror helt på vad man gör i programmet. Kolla under rubriken GPU Scaling så får du en idé om det är värt att satsa på utifrån dina behov.

https://www.pugetsystems.com/labs/articles/DaVinci-Resolve-15...

Av reflux

Det beror ju HELT på vad du:
1) Tänker använda för program
2) Vilka codecs du kommer att jobba med

Exempelvis; Davinci Resolve är betydligt bättre på att utnyttja flera GPUer (och till fler saker) än vad Premiere Pro är, och ett bygge som är optimerat för det ena är kanske inte det för det andra programmet.
Arbetar du med 4K H.264-codecs utan att transcoda är förutsättningarna rätt annorlunda mot om du arbetar med 6-8K RAW-format där olika RAW-format dessutom kan belasta CPU/GPU rätt olika.

Jag skulle definitivt lagt mig på en mellannivå, utifrån vad du jobbar med idag och inom överskådlig framtid, och sen lagt undan pengar för att kontinuerligt anpassa och uppgradera varefter du ser behovet/prestandaproblem.

Att bränna alla pengar på en gång är bara att skjuta sig själv i foten om du ändå t ex jobbar med 4K H.265 LONG-GOP från drönare som ändå kommer att kräva transcoding till ex. Prores.

Av reflux
Skrivet av Yoshman:

Du kan utan problem köra saker som YouTube, Spotify och så i bakgrunden. Har man installerat drivarna på rätt sätt tar t.ex. videoavkodning i princip noll CPU-kraft då det bör utföras på dedicerad HW på GPU (har kan man med fördel använda QuickSync om man har en Intel CPU med iGPU, det framförallt då man lär spela på en dGPU).

Av just denna anledninng kommer i9-10900K att bli en uppskattad arbetshäst i Premiere Pro. Det som sällan ses i vanliga CPU-tester är hur programmet utnyttjar både CUDA OCH QuickSync samtidigt för att accelerera olika delar av pipelinen. De flesta som arbetar med material från vanliga videokameror/systemkameror/drönare/mobiler redigerar direkt i h.265 eller h.265 med olika bitrates och här kommer verkligen Intels processorer med iGPU till sin fulla rätt. QuickSync används för att dekoda alla enskilda frames i strömmen, CPU och/eller CUDA för att sköta diverse beräkningar på den redan dekodade bilden. QuickSync accelererar realtidsprestandan i tidslinjen rejält, och som redigerare är det ju DETTA man vill ha. Och det är ingen liten skillnad vid pratar om, t om i7-9700K smiskar en X3950 rejält i realtidsprestanda med multicam och en H.264-codec (källa, H.264 codec 150Mbps 4k, multicam https://www.pugetsystems.com/labs/articles/Premiere-Pro-CPU-p...

Om sen exporten går snabbare på en CPU med 16 kärnor må väl vara hänt, men jag tar personligen hellre bättre prestanda under redigering och att kanske slippa transkoda material till andra codecs innan jag kan redigera.

Sen är det upp till var och en om man vill använda QuickSyncs eller NVencs motorer för kompressionssteget i exporten också, men i min mening ligger den riktigt stora vinsten där du förmodligen lägger mest tid; redigeringen. Synd bara att många, som Sweclockers, bara mäter prestandan vid export och att många som läser testerna tror att det bara är där som QuickSync är relevant.

Arbetar man med andra codecs, som Prores eller t om RAW-format så är blir vinsten mindre/försvinner helt, så det handlar verkligen om att balansera systembyggen utifrån sina _egna behov_ och arbetsflöden. Och plånbok

Av reflux
Skrivet av luri:

Snazzy Labs på youtube byggde en AMD hackintosh. youtube-klipp på hackintosh bygget Det verkar inte helt omöjligt svårt för den som gillar att pilla med sånt. Den är även utrustad med 2st Thunderbolt 3 portar som nu tydligen inte är exklusivt bara tillgängligt för Intel.

Det är inte längre exklusivt, men det finns inte heller några certifierade lösningar för AMD. Gigabyte och ASRock, ev MSI, har visst stöd med instickskort men certifieringen saknas och här skulle Apple och AMD definitivt kunna göra ett jobb ihop och se till att plattformen får ett mer robust stöd för all funktionalitet.

Av reflux
Skrivet av [SmR]BMF:

@XHI: hörsägen från min sida men det ska ha blivit betydligt enklare att göra Hackintoshar med AMD cpuer så det är nog andra faktorer som styr cpu valet till intel än eventuell icke kompatibilitet mellan MacOS och AMD.

T ex. Thunderbolt-certifiering.

Av reflux

Sitter och kollar på ungefär samma, just för RAW-redigering, Premiere Pro, Resolve (och lite spel).

Funderar på det här X570-moderkortet istället för det Asus du hade, främst för att det har tre m.2-platser direkt på moderkortet (+ wifi/BT) och var nedsatt just nu: https://www.komplett.se/product/1132693/datorutrustning/dator...

Vet inte om det är intressant för dig med, men om det ändå är samma peng så kan det vara värt att kolla, såvida inte ett passivt kylt moderkort är prio 1.

Av reflux
Skrivet av frong:

Är den nå bra? Vad skall man kolla på när man köper el-tandborste?

Skrivet av Zipparn:

Jag tänker såhär; Hur stor skillnad mellan eltandborstar kan det vara? Den ska snurra och skaka för att skapa friktion vilket putsar tänderna. Jag behöver inte en massa fluff.

Det är ändå en Oral-B, vilket ger mig tillräckligt förtroende. Jag köpte en till mig och en till frugan.

Det finns egentligen två stora grejer;
Borsthastighet och batterityp.

Jag vågar inte säga "vilken borsthastighet" som är "bra", men den verkar spontant låg på den som länkades OCH den har ett äldre NiMH-batteri vilket gör att den blir segare och segare ju mer batteriets laddas ur och spänningen sjunker. Litiumjon-batteriet håller spänning och fart betydligt längre i veckan utan konstant påfyllning.

När jag senast kollade upp det här så var det modellserierna över 2000 som dels var snabba och dessutom har Litiumjon-batteri.
T ex:
https://www.clasohlson.com/se/Eltandborste-Oral-B-PRO-2-2900,...
https://www.clasohlson.com/se/Oral-B-PRO-2-2200S-eltandborste...

Personligen tyckte jag att det var enorm skillnad när jag bytt från en äldre, segare eltandborste.

Av reflux

1. CPU: Intel. Inte AMD. Handlar främst om chipset och drivrutiner för OS X. Betydligt större chans att hackintoshen kommer att rulla (mer) problemfritt på Intel eftersom det är vad Apple kör och det är också vad hackingscenen använder.

2. Thunderbolt 3 - en av de riktigt bra sakerna på Apples burkar är TB3-stödet och det finns bara till Intel än så länge. De instickskort som finns till ett par olika AMD-moderkort har inget officiellt stöd ens i Windows och ska enligt rapporter från systembyggare som Puget Systems inte fungera särskilt stabilt. Betvivlar att det skulle fungera bättre i OS X om man t ex har enheter som ljud- eller videokort som dessutom har extrema krav på low latency.

3. AMD-grafik. OS X-program använder Metal/OpenCL, och CUDA-stödet lades dessutom precis ner till OS X:
https://www.provideocoalition.com/officially-official-nvidia-...

Du kan således glömma Titan/RTX-kort, de kommer inte att göra någon nytta i den typen av program ändå. AMDs Radeon VII-kort borde vara ett bra val med sina 16GB minne.

Personligen, om jag arbetade kommersiellt med den typen av applikationer, så hade jag aldrig litat på en hackintosh. Är det verkligen värt potentiellt strul om man har en deadline? Antingen skulle jag fortsatt köra Apple-hårdvara, hur surt det än kan vara, eller skippat Logic/Final Cut och gått över till Windows-sidan. Eller kört Mac för Logic och bytt till Resolve på bägge plattformar.

Av reflux

Ett Focusrite 2i2 ska inte ens behöva extra drivrutiner i Windows 10 från och med version 1709. Jag pluggar i mitt och det funkar direkt, utan extra installation, även i Audacity.

Av reflux

Antar att du kollat Pugets benchmarks för att se om det är Intel eller AMD som passar just dina behov, mediatyper och projekt bäst? Annars har ju folk en viss tendens att bara ta någon random youtubers renderbenchmark och kasta ut som Absolut Sanning vad som presterar bäst i PPro och AE, utan att inse hur mycket olika parametrar spelar in.

H.264 1080P är ju inte direkt det samma som REDs RAW-format. Cinema4D-rendering i AE är inte samma sak som enkeltrådad tracking. Export i PPro är inte samma sak som redigering med aktiva effekter. Osv.

https://www.pugetsystems.com/labs/articles/Premiere-Pro-CPU-R...

https://www.pugetsystems.com/labs/articles/After-Effects-CPU-...

Av reflux

Om du läser kommentarerna till Kjells Plexgear Moviesaver 600 så verkar ändå nån ha fått det att funka bra på Windows 10, verkade mest handla om att gör saker i "rätt" ordning.
https://www.prisjakt.nu/produkt.php?o=4324694

Oavsett vad du väljer för produkt, om din kamera/spelare har S-Video utgång så ska du absolut använda det istället för vanlig komposit.