Skrivet av yrfhar:
@pa1983: Bootar själv upp i Linux om jag inte spelar (har 3 OS på 3 separata SSD). Har dock inte hunnit testat fullt ut då jag fick problem att logga in grafikst när jag manuellt uppgraderade kärnan från 4.10 till 4.11 RC3 men det ska lösas med att köra in Nvidias drivare igen i terminal (ett problem som ni med AMD-graffe inte har vid varje "kernel upgrade").
Testat virtualisering (VirtualBox) med både Windows och olika Linuxdistar i Windows och är inte riktigt nöjd med Ryzen där. Men kommer nog bli bra när Ryzen mognat. Angående virtualisering i Linux så har jag läst att "pass trough" PCI-e inte fungerar ännu.
Går inte i närheten att jämföra Virtualbox med QEMU.
QEMU är så mycket mer kapabelt, du kan emulera arkitekturer, du kan använda riktigt hårdvara i en helt annan utsträckning.
Virtualbox stödjer inte VGA passtrough, det kan väl i vis mån kör PCI passtrough men högst experimentellt.
Med QEMU och enbart ett eget dedikerat grafikkort så får du känslan av NATIVE prestanda.
Virtualbox känns slött och icke responsivt när grafiken ska emuleras.
QEMU med VGA pastrough känns som en "ricktig" dator inte som en virituell maskin som Virtualbox.
Själv kör jag Gentoo så kompilerar alltid min kernel själv och det är bara att be portage att installera om drivrutinerna för Nvidia kortet, eller AMD om du har det.
Så en ren vana och ett ickeproblem för mig.
Sedan MÅSTE man ändå kompilera om grafikdrivrutienrna om man går från en kernel utan stöd för hårdvaru viritualisering, gäller även andra moduler tex om du fortfarande kör virtualbox till maskiner utan egen hårdvara.
Annars riskerar du att gå segmenteringsfel och kernel panics, tex Virtualbox moduler skapade detta problem för mig så fick ta bort dom alternativ kompilera om dom.
Linux om något stödjer pci och vga passtrough (pci-e räknas så klart till pci gruppen).
Exakt när Linux fick stöd för pci och pvi vga passtrough kan jag inte men tipper att det fungerat sedan 2012 i alla fall, min C2 steppade 3930K är kapabel av det, annars hade jag inte kört det som jag gör nu, C0 steppigen som kom först, 2011 tror jag stödjer inte VT-d så turn man inte köper ny skit för tidigt
Även moderkortet måste stödja IOMMU i BIOS/UEFI och framförallt vara korrekt implementerat vilket det är på mitt ASUS P9X79.
Läste nånstans att intel baserade Gigabyte moderkort som såldes för LGA115x var dom med bäst stöd under 2015 tror jag.
Sedan måste grafikkorten ha vissa stöd med, alla kort fungerar inte och vissa fungerar perfekt och andra ha lite buggar för sig.
Tex fungerar mitt R7 240 2Gb perfekt, kan starta och stoppa Virtuella Windows 10 maskinen när jag vill, strulade aldrig.
Mitt RX460 börjar efter andra starten av den virtuella maskinen att köra VRAM i 300Mhz enbart, dock krävs enbart en Reboot av windows 10 i QEMU så det är lite av ett icke problem då jag gör det som rutin nu då det löser problemet varje gång och problemet återkommer bara om man stänger av Windows 10 i QEMU.
läst rapporter om RX470 med samma problem.
Även läst att R9 Fury har vissa problem.
Vissa problem kan nog lösas via QEMU och Linux kernel, andra kräver nog nytt VGA BIOS eller så får man leva med "work arounds".
Men med QEMU finns det inget som hindrar dig från att dedikerad en egen USB kontroller, egen SATA kontroller, Grafikkort, nätverk osv till den virtuella maskinen med 95% av native prestanda. Jag tidigare hade en bootbar USB disk med windows, men virtualiseringen är så när som lika snabb, det bootar fortare däremot virtualiserat men jag kör en image från en modern NVME enhet med.
IOMMU tillåter det virtualiserade OS:et full tillgång till den tilldelade hårdvaran precis som dit värd OS har tillgång till sin hårdvara.
Värt att tänka på är att hårdvara, grafikkort, och annat måste anslutas mot processorns PCI-E bussar.
USB chip är nog undantag, många men alla stödjer inte att gäst OS:Et tar över dom men det står i guider hur du kollar just om det USB chip du vill tilldela har stöd eller ej.
Detta gör att man utan problem kan dela enbart CPU, moderkort och PSU och ha dupliceringar av övrig hårdvara till varje OS och på så vis enbart betalar extra för dom delar hårdvara ens gäst system ska ha. För mig ör det 1200Kr för ett RX460 singel slot, får inte en spelkonsol som kan köra 1440p i 30-60fps för det inte så en bra deal för min del.
Sedan om man vill ha ett tangentbord och mus så kör man en KVM switch för dessa (därför man ofta tilldelar ett eget USB chip till virtuella maskinen), sedan kan man ha en eller flera monitorer, då många 4K eller ultra Wide skärmar stödjer Picture in Picture med 2-4 skärm ingångar så kan man få en nästan sömlös upplevelse.
Finns guider för VGA passtrough för många populära distar, gentoo och arch bland annat, sedan får man dock göra en del efterforskning själv, problemlösning och leta upp lösningar på diverse forum och email listor då tyvärr många guider är felaktiga eller saknar information.
Men hårdvaru virtualisering är ett faktum, många av problemen man kan stöta på är tyvärr pga moderkortstillverkarna inte implementerar IOMMU stödet i moderkortets BIOS/UEFI korekt, eller att instickskort saknar stöd eller är buggiga i sina egna BIOS, vanligtvis grafikkort då.
Nvidia som stnadard tillåter inte en att använda deras kort i en virituel maskine utan drivrutinerna ger en felkod 43 tror jag det var.
Dock stödjer QEMU en work around som jag vill minnas helt enkelt lurar systemet att tro att det körs native istället.
AMD bryr sig inte vad du gör med deras grafikkort, men som sagt vissa av dom har inte bra VGA BIOS ändå.
SÅ gäller att välja komponenter klokt och att ha lite "tur".
En annan effekt jag märkt med moderna grafikkort är deras semi passiva funktioner inte fungerar OM du stänger ner den virtuella maskinen INNAN fläkten stannat, då förblir den på och därmed inte ljudlös då detta styrs av grafikdrivrutinerna i dit gäst OS, linux där kör du en modul som effektivt reserverar hårdvaran och gör den redo för VM:et, det kan endast hantera enklare strömsparlägen och kan därmed inte stänga av fläkten när temperaturer osv är låga nog.
Hade dock inte det problemet med R7 240 men det är antikt i jämförelse då fläkten aldrig stannar där.
Men jag stänger bara ner virtuella maskinen när GPU fläkten stannat efter några minuter så fungerar det som det ska.
Just nu har jag igen KVM switch, hade jag haft en sådan så hade VM:et med Windows 10 kunnat rulla i all evighet då jag kunnat hoppa mellan Linux och Windows enkelt. Just nu låter jag QEMU ta kontroll över tangentbord och mus.
Har dock en extra tablet and pen så kan i viss mån styra båda samtidigt men har bara en skärm så lite opraktiskt.
Hade nog gått så långt att det startat vid boot av värd OS:Et, gentoo linux per automatik.
Har viritualiserat såhär sedan januari och jag använder WIndows 10 mest till spel så för mig är det en mycket smidigare form av "dual boot" fast mitt gäst OS kan fortsätta göra anda jobb under tiden utan att jag behöver avbryta nåt.
Men det är framtida projekt att skaffa KVM switch och så för en ännu mer sömlös upplevelse.
Min skärm stödjer 4 ingångar och med touch funktion byter jag på några sekunder så smidigt i det avseendet.
Men jag har ett fullt fungerande Windows 10 PRO med mer eller mindre native prestanda, kan köra mina spel i 1440p nu, vissa håller tom stadiga 60fps i Vsync. Fri licens tydligen med då Windows aktiveras direkt så behövde inte köpa en licens så det sparade pengar, vet dock inte varför MS gratis aktiverar Windows 10 under QEMU.
Skrivet av Enigma:
Beror mycket på vad för typ av applikationer som ska köras. För mycket throughput/server/HPC så hade quadchannel gjort sig vettigt, men för 8c på desktop så räcker bandbredd och latens väl till Ryzen med tanke på hur effektiv minneskontrollern är i Zen. Här är mitt system, och kolla bandbredden i förhållande till den låga frekvens som RAM kör på. Väldigt nära teoretiskt max med ~50k MB/s:
http://i.imgur.com/yCAX2vA.jpg
Jo men något gör ju dom ökade frekvenserna, varför skulle annars folk få "bättre" prestanda. Så siffrorna säger ju bara att du har en effektiv dual channel, inte att det räcker för att mata 8st moderna x86_64 kärnor i spel som drar nytta av 8+ trådar.
Vi såg ju tex att Phenom 2 inte kunde sträcka helt på benen med 6 kärnor på 2 kanaler där skalnigen ofta var 5.5x helt pga att minnes bandbredden inte räckte.
Att AMD valde två kanaler är ju från ett rent ekonomiskt perspektiv och nödvändigtvis inte från ett maximalt prestanda perspektiv.
Själv var och är jag lite skeptisk till enbart 2 kanaler men det beror ju också helt på frekvenserna minnet kan köras i, kan Ryzen hantera 3-3.6Ghz på minnet som det rapporteras med bra ökning i prestanda så är det ju ett mycket mindre problem.
Själv kör jag bara 1.6Ghz minnen på 4 kanaler på mitt LGA2011 system men sedan matar jag bara 6 kärnor med.