Gigabyte uppdaterar Gaming Box med Geforce RTX 3080 och 3090

Permalänk
Melding Plague

Gigabyte uppdaterar Gaming Box med Geforce RTX 3080 och 3090

Den externa Thunderboltdockan Aorus Gaming Box förses med grafikkort ur Nvidias "Ampere"-katalog samt vattenkylning.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

3080 och 3090, grafikkortens John Cena...

Permalänk
Medlem

Är TB3 ens i närheten snabbt nog för dessa grafikkort?..

Permalänk
Medlem

Undrar när det kommer att finnas tillräckligt med kretsar för att tillverka dessa lådor...

Visa signatur

Ryzen 7 5800X, 32GB DDR4 @ 3600mHz, 7900XTX, 4,5 TB SSD

Permalänk
Medlem

Så "Gigabyte uppdaterar Gaming Box med en tom box"

Permalänk
Medlem
Skrivet av Nostradamu:

Så "Gigabyte uppdaterar Gaming Box med en tom box"

Äkta gaming à la 2020.

Permalänk
Medlem
Skrivet av #hallå#:

Är TB3 ens i närheten snabbt nog för dessa grafikkort?..

Tb3 är PCIe 3.0 x4 har jag för mig. Kanske tappar några procent, men borde inte vara direkt märkbart

Permalänk
Inaktiv
Skrivet av #hallå#:

Är TB3 ens i närheten snabbt nog för dessa grafikkort?..

Skrivet av medbor:

Tb3 är PCIe 3.0 x4 har jag för mig. Kanske tappar några procent, men borde inte vara direkt märkbart

Jag har för mig att Thunderbolt3 var för långsam redan med 2080ti (Tror jag hörde det på LTT men orkar inte kolla upp, någon annan vet säkert)

Permalänk
Medlem
Skrivet av medbor:

Tb3 är PCIe 3.0 x4 har jag för mig. Kanske tappar några procent, men borde inte vara direkt märkbart

Skrivet av anon201296:

Jag har för mig att Thunderbolt3 var för långsam redan med 2080ti (Tror jag hörde det på LTT men orkar inte kolla upp, någon annan vet säkert)

Har för mig 2080 ti tappade runt 10-20%, var helt klart ett märkbart tapp iaf.

Men Gigabyte lär ju ha gjort lite egna tester så det kan ju inte vara någon katastrof även om man lär räkna med ett rejält tapp emot desktop

Permalänk
Medlem
Skrivet av Marquzz:

3080 och 3090, grafikkortens John Cena...

Vad betyder det?

Visa signatur

Moderkort: Gigabyte X570 Aorus Master | CPU: AMD Ryzen R9 5900X | CPU-kylare: Noctua NH-D15 chromax.black | RAM: Corsair Vengeance LPX 64 GB (4x16) DDR4-3600 CL18 | GPU: Gigabyte RTX 4080 Eagle OC | SSD: 2 x Samsung 970 EVO Plus 1 TB NVMe + Kingston A400 480 GB + Samsung QVO860 1 TB | PSU: EVGA SuperNOVA G2 1000 W Gold | Chassi: Lian Li O11 Dynamic XL | Skärm: BenQ PD3200U @ 3840x2160 + ASUS ROG Strix XG32VQ @ 2560x1440 | Tangentbord: Corsair K68 RGB Cherry MX Red | Mus: Logitech MX Master 2S

Permalänk
Medlem
Skrivet av medbor:

Tb3 är PCIe 3.0 x4 har jag för mig. Kanske tappar några procent, men borde inte vara direkt märkbart

Lär knappast bli snabbare än en box med ett RTX 2060, detta är rent lurendrejeri!

Permalänk
Medlem
Skrivet av NutCracker:

Lär knappast bli snabbare än en box med ett RTX 2060, detta är rent lurendrejeri!

Det stämmer inte. Du har helt fel. Det beror helt på kortet, vilken applikation som körs etc. Kör du något beräkningstungt som enbart använder grafikminnet är det inte säkert att du tappar något alls. Det beror på hur mycket kortet behöver kommunicera med övrig hårdvara. Teoretiskt kan ett tio år gammalt kort flaska mer än ett 3090 beroende på hur användningen ser ut.

Visa signatur

Error 412: Precondition Failed - You need to use a real browser in order to view this signature!

Permalänk
Medlem
Skrivet av Chibariku:

Har för mig 2080 ti tappade runt 10-20%, var helt klart ett märkbart tapp iaf.

Men Gigabyte lär ju ha gjort lite egna tester så det kan ju inte vara någon katastrof även om man lär räkna med ett rejält tapp emot desktop

Har själv varit i eGPU svängarna och läst på nu när jag skaffade mig en Razer Core X och RTX 3070. Som jag förstått så tappar du inte så mycket vid beräkningar/renderingar utan mer just i spel. Hur mycket du tappar beror på vad du spelar i för upplösning och grafiska inställningar samt din bärbara och hur PCI-E banorna går i den. Hög framerate rimmar dåligt då varje frame skickar en mängd data så färre frames = mindre data som behöver skickas över PCI-E. Vilket gör att spelande i 4K på 60 FPS tappar mindre procentuellt jämfört med att försöka pusha 1080p i 100+ FPS.

Att spela på interna laptopskärmen tappar också prestanda då renderad bild måste skickas tillbaka över linan till bärbara datorn. Och som i mitt fall, när PCI-E banorna går igenom PCH'n (8750H) och inte via CPU'n (som jag förstått att de gör på den nyare 10-serien?) så blir det ytterligare förlust.

För mig var det ändå värt det, har ett 1070 i laptopen och har sett enormt mycket bättre prestanda. Jag kör på 3440x1440 och är helt ok med 60 FPS. Men har inte hunnit prestanda-testa för mycket än däremot.

EDIT: En till punkt som jag glömde, laptop CPU'er kan också vara en flaskhals för att kunna skyffla tillräckligt med data till kortet. Detta är mest ett fall när man har en budget- till mellan-serie CPU i en tunn laptop med medioker kylning. Då kan det vara lätt att den slår i taket temperaturmässigt. Inte direkt PCI-E prestanda specifikt men spelar roll för att få ut maximal prestanda.

Kom på en till punkt till diskussionen
Permalänk

Som refferens kan jag säga att mitt GTX1070 i en Razer Core V1, presterar snäppet sämre än en GTX1060 6GB i motsvarande desktop över riktig PCIe 3.0 16x, när jag testar i 3dmark Firestrike.

TB3 är f.ö. sämre än en äkta 4x slot... Kommer dock inte ihåg om det är att trafiken jammas mot CPU för att den delar bus, eller om det var komprimering i TB3-signalen som sabbar bandbredden.

Visa signatur

Dator: EEE901 N270/ 1GB / 20GB SSD ... Kraftigt nedbantat/tweakat Win7 x86 for speeeEED!
Facebook användare? Hatar tidslinjen? gå med i denna FB-grupp:
Undo Timeline ...med lite tur får h*lvetet ett slut!

Permalänk
Medlem
Skrivet av #hallå#:

Är TB3 ens i närheten snabbt nog för dessa grafikkort?..

Beror mycket på upplösningen. Skaffar man ett RTX 3080/3090 vill man nog spela iaf i 1440p, förmodligen även 4K. Och då blir flaskhalsen inte alls så stor som man får vid ex. 1080p. I tester med ett GTX 980 Ti (som förvisso är ett lite äldre kort vid det här laget) blir summerade prestandaförlusten 15 procent för 1080p men bara 5 procent vid 4K.

https://egpu.io/forums/mac-setup/pcie-slot-dgpu-vs-thunderbol...

Personligen anser jag att totala kostnaden för en e-GPU ännu är för hög för att motivera ett köp. Med prestandaförlusten över Thunderbolt, mjukvaruinkompatibilitet och begränsningar i mobila processorer blir det vettigare att köpa en vanlig liten stationär dator.

Permalänk
Medlem
Skrivet av hakro807:

Beror mycket på upplösningen. Skaffar man ett RTX 3080/3090 vill man nog spela iaf i 1440p, förmodligen även 4K. Och då blir flaskhalsen inte alls så stor som man får vid ex. 1080p. I tester med ett GTX 980 Ti (som förvisso är ett lite äldre kort vid det här laget) blir summerade prestandaförlusten 15 procent för 1080p men bara 5 procent vid 4K.

https://egpu.io/forums/mac-setup/pcie-slot-dgpu-vs-thunderbol...

Personligen anser jag att totala kostnaden för en e-GPU ännu är för hög för att motivera ett köp. Med prestandaförlusten över Thunderbolt, mjukvaruinkompatibilitet och begränsningar i mobila processorer blir det vettigare att köpa en vanlig liten stationär dator.

Jag kör en eGPU till tre olika datorer. En laptop med Windows på som jag spelar med, en macbook, och min jobbdator. Olika syften, en lösning. Vill man bara ha en dator och har behov av en laptop så är det både mer kostnadseffektivt och, framför allt, möjliggör användning som annars hade varit omöjlig.

Spelar man mycket, och inte har behov av en laptop, då är definitivt en stationär maskin bättre.

Visa signatur

Error 412: Precondition Failed - You need to use a real browser in order to view this signature!

Permalänk
Medlem
Skrivet av x86:

Spelar man mycket, och inte har behov av en laptop, då är definitivt en stationär maskin bättre.

Vi har ju alla olika behov, budget och förutsättningar. Skaffade själv min första eGPU redan omkring 2008-2009(?) så jag sågar inte på något sätt idén, tvärtom. Men det verkar alltid saknas de sista pusselbitarna för att få allt på plats. Dyra Thunderbolt-kretsar och låg omsättning har gjort dockorna dyra. Bärbara datorer har antingen suttit fast med tvåkärniga processorer eller lågt klockade fyrkärniga. Kylningen på de datorer som varit aktuella för en eGPU-lösning har ofta varit bristfällig. Och så mjukvarubiten på det. När jag räknade på det något år sedan insåg jag att en liten och lätt bärbar dator och ett vanligt itx-bygge kostade mer eller mindre lika mycket som en vettig bärbar tillsammans med en eGPU när jag såg på reell prestanda. Just nu skulle det exempelvis betyda att istället för ett RTX 3080 för 8300 kronor får man samma prestanda med ett RTX 3070 för 6100 kronor. Istället för en dator med en Intel i7-10750H för 400 dollar kan man skaffa en stationär i5-10400F för 150 dollar etc. Och då har man ju (på gott och ont) faktiskt två datorer, bägge bättre anpassade för sina specifika syften.

Med det sagt kan vi inom något år ha sett betydande förändringar. Ultraportabla bärbara har fått fler kärnor/trådar och är dessutom mer strömsnåla än tidigare. Om Thunderbolt nu blir en integrerad del av USB 4 innebär det lägre kostnader och betydligt fler potentiella kunder. Och vi har ju faktiskt sett kostnaderna för dockor långsamt krypa nedåt. Billigare SSD-lagring innebär dessutom att den kostnadsfördel som stationära system erbjudit med 3,5-tummare snabbt försvinner. Så ja, vem vet. Om två år kanske vi bägge två sitter med varsin eGPU.

Permalänk
Medlem
Skrivet av hakro807:

Vi har ju alla olika behov, budget och förutsättningar. Skaffade själv min första eGPU redan omkring 2008-2009(?) så jag sågar inte på något sätt idén, tvärtom. Men det verkar alltid saknas de sista pusselbitarna för att få allt på plats. Dyra Thunderbolt-kretsar och låg omsättning har gjort dockorna dyra. Bärbara datorer har antingen suttit fast med tvåkärniga processorer eller lågt klockade fyrkärniga. Kylningen på de datorer som varit aktuella för en eGPU-lösning har ofta varit bristfällig. Och så mjukvarubiten på det. När jag räknade på det något år sedan insåg jag att en liten och lätt bärbar dator och ett vanligt itx-bygge kostade mer eller mindre lika mycket som en vettig bärbar tillsammans med en eGPU när jag såg på reell prestanda. Just nu skulle det exempelvis betyda att istället för ett RTX 3080 för 8300 kronor får man samma prestanda med ett RTX 3070 för 6100 kronor. Istället för en dator med en Intel i7-10750H för 400 dollar kan man skaffa en stationär i5-10400F för 150 dollar etc. Och då har man ju (på gott och ont) faktiskt två datorer, bägge bättre anpassade för sina specifika syften.

Med det sagt kan vi inom något år ha sett betydande förändringar. Ultraportabla bärbara har fått fler kärnor/trådar och är dessutom mer strömsnåla än tidigare. Om Thunderbolt nu blir en integrerad del av USB 4 innebär det lägre kostnader och betydligt fler potentiella kunder. Och vi har ju faktiskt sett kostnaderna för dockor långsamt krypa nedåt. Billigare SSD-lagring innebär dessutom att den kostnadsfördel som stationära system erbjudit med 3,5-tummare snabbt försvinner. Så ja, vem vet. Om två år kanske vi bägge två sitter med varsin eGPU.

Jag håller med om allt du skriver. Min laptop var praktiskt taget gratis, och presterar helt OK, men framöver tänkte jag ändå bygga en stationär burk och enbart använda eGPU’n till Macbooken. Ironiskt nog använder jag eGPU’n till macen för att drivrutinerna är så genomruttna i OSX att den dedikerade grafikkretsen idlar på 20w. Helt oacceptabelt och får fläkten att gå på högvarv på nolltid. Med eGPUn är burken helt tyst.

Visa signatur

Error 412: Precondition Failed - You need to use a real browser in order to view this signature!