Gigabyte svarar MSI om PCI Express 3.0 – medger begränsningar

Permalänk
Medlem

använder ens nya grafikkort all brandbrädd som finns i 16x PCIe 2?
själv tror jag inte det så vad folk whinar om har jag lite svårt att förstå. då dom aldrig kommer utnyttja all bandbredd i PICe 3 i all fall.

Permalänk
Antielefant
Skrivet av Rådström:

Kanske den första pajkastningen jag sett som faktiskt är riktig. Det här är verkligen att lura kunderna eftersom moderkorten inte är likvärdiga fastän de är "PCI-E 3.0 compatible".

Hoppas det går till domstol!

Va? Det är PCIe 3.0 eftersom varje kanal har en viss datahastighet, inte för att hela slotten har 16 kanaler.

Skrivet av Mansonite:

Jag tycker detta var lite fult gjort av Gigabyte.. Det är ju verkligen att lura kunderna.
Ska du köpa en bil som marknadsförs med 12 cylindrar så ska det ju inte visa sig att sex av cylindrarna är trasiga..

Nej, det är snarare som att skylta en väg med 110 när bilarna inte går i mer än 30. Det är nämligen exakt där vi är i dagsläget.
Det är inte ens en procentmässig skillnad mellan PCIe 2.0 x8 och PCIe 2.0 x16 med det kraftigaste moderna grafikkortet på marknaden - så vilken skillnad skulle PCIe 3.0 göra?

Dessutom finns det inte ett enda moderkort på Sandy Bridge-marknaden idag som har x16/x16 PCIe 2.0 - nästan alla har x8/x8 2.0 med enstaka kort som ligger på x16/x8.

Skrivet av Mansonite:

Vadå? Marknadsförs ju som PCI-express 3, men levererar lika bra som PCI-express 2.

Och dagens moderkort med x8/x8 (standard) levererar lika bra som x16/x16 PCIe 1.1? Och? Grafikkorten kräver inte mer.

Skrivet av Sergeant44:

Och wips, där försvann mitt förtroende för åtminstonde en tillverkare. Tycker att MSI däremot skärpt till sig rejält de senaste åren, var inte så lång tid sen som jag knappt ville ta i en MSI-produkt (i synnerhet moderkort) med tång.

Wow, tror du ska kolla dagens moderkort innan du skriker - ALLA moderkort har dessa begränsningar trots 2.0. Kan dessutom tilläggas att Ivy inte har tillräckligt många nativa lanes för x16/x16 ändå utan stoppar vid x16/x8 utan externa chip typ NF200 - precis som Sandy gör. Likaså kommer USB3/SATA6 att dra ner antalet tillgängliga lanes ytterligare - precis som med Sandy.

Det är för sjutton samma moderkort.

Skrivet av harith:

mycket fult gjort av gigabyte att marknads föra dom som PCI 3.0 klara när dom inte kan splita kanalerna på ett riktigt sätt.

som jag förstog det så även om du bara har ett grafix card i moderkortet som är sli/crossfire rdy så kommer den bara köra 8x istället för den fulla 16x eftersom controllern inte kan controllera det på ett bra sätt. dock så betyder det att alla kort med bara en 16x lane kommer funka fint med PCI 3.0 så både MSI and gigabyte talade halv lögner.

Och MSI's är inte ens kopplade för x16/x16 *lol* - deras moderkorts nedre PCIe slot kan aldrig köras snabbare än x8 då halva kontakten inte ens är kontakterad.

Skrivet av IceDread:

Jag anser att det är en bluff eftersom de enskilda du bara tillåts använda en plats på moderkortet om du skall få ut den tillräckliga hastigheten. Det är helt stört. Jag grubblar även över om gigabyte uppfyller strömkraven.

Och återigen - what's the difference compared to today?

Skrivet av bengt-re:

Enda orsaken tll PCIe 3 är att köra SLI och då få alla lanes, så spelar roll?!

Nej, det gör återigen ingen skillnad. Det blir exakt som idag, x8/x8 är standard. x8/x8 PCIe 3.0 är dubbelt upp mot vad man får idag och ens idag är x8/x8 2.0 ingen begränsning.

Skrivet av skog1s:

Ja! 0% nej! Vad är det för fråga ?

Vi har en motorväg som skyltar 110 Km/h..................men du kan med xxxxxxx bara köra i 55 Km/h!

Men det tillverkas inga bilar som går fortare än 30 km/h?

Ens ARES stryps inte mer än någon enstaka procent av att sitta på en x8 2.0-port, så vilken skillnad gör det att sätta den på en x16 3.0-port?

Det blir bokstavligen som att bygga dagens moderna E4'a 1911 när T-forden kom och bilarna knappt gick fortare än cyklar.
Varför bry sig - inga grafikkort inom de närmaste typ fem åren kommer att kräva mer än x8 3.0 ändå - vilket vore en fördubbling mot vad de kräver idag.

Skrivet av stesor:

Vi kommer väl i framtiden få moderkort märkta med PCI-e 3.0 ready, True PCI-e 3.0 osv som i början när hd tv's började säljas

Med tanke på att x8/x8 som sagt är standard både på 1156, 1155 och AM3+ lär det inte ens märkas.

Skrivet av FredrikMH:

Gen3 x8 eller Gen2 x16 - det är frågan det...

Gör ingen skillnad annat än att man tappar färre lanes för U3/S6.
Sen är det som sagt i princip inga moderkort som stöder x16/x16 2.0 ändå.

Skrivet av xfmimd:

Detta innebär att mitt moderkort som bara har gen två har stöd för gen tre nu enligt gigabyte! fast den kommer bara gå i gen tre halv fart -.-'

Vilket som sagt är ett ickebekymmer, speciellt då som sagt de flesta inte ens levererar moderkort kontakterade för mer än x16/x8.

Skrivet av Osten87:

använder ens nya grafikkort all brandbrädd som finns i 16x PCIe 2?
själv tror jag inte det så vad folk whinar om har jag lite svårt att förstå. då dom aldrig kommer utnyttja all bandbredd i PICe 3 i all fall.

Nej, som sagt tidigare är det knappt så de använder mer än x16 PCIe 1.x.
Det finns åtskilliga test om prestandaförlusten x8/x8 vs x16/x16 PCIe 2.0 med både SLI och CF, samtliga är eniga om att förlusten är omärkbar och knappt ens mätbar i annat än extrema upplösningar.

Vad Ivy Bridge i praktiken kommer att göra är att dem av oss som kör CF eller SLI blir sittande på x8/x8 PCIe 3.0 istället för x8/x8 PCIe 2.0. Det gör noll prestandaskillnad, men i praktiken får våra grafikkort fortfarande dubbla bandbredden jämfört med idag. De enda moderkort som stöder FAKTISK x16/x16 3.0 med Sandy/Ivy lär vara LGA 2011!

Visa signatur

i7-12700KF | 128 GB DDR4-4000 | RTX 4080 | Samsung 990 Pro | 3xAcer XB270HU G-Sync

Permalänk

Jaha, då ljuger Gigabyte inte iaf. Marknadsföring är vad det är, köper knappast en produkt för att det har vissa fina funktioner skyltade i fina färger på kartongen, köper utifrån recensioner.

Permalänk
Medlem
Skrivet av Zcenicx:

Massiva svar.

Har alltid älskat dina svar! Mycket bra och klargjorde en hel del

Visa signatur

System: Aerocool DS Cube|| i5 4690K @ Stock || Phanteks PH-TC12DX || MSI Z97M-G43 || G.Skill Ripjaws 8-9-9-24 1866 MHz 8 GB || Gigabyte GTX460 1GB OC || PNY Optima SSD 480GB || Crucial C300 128 GB || Samsung Spinpoint F3 1TB || Fractal Design Edison M 750W 80+ Gold

Permalänk
Medlem

MSI är mina nya favoriter helt klart.

Visa signatur

|AMD Ryzen 9 5900X| |ASUS ROG Strix B550-F| |Crucial Ballistix 32GB CL16@3600MHz| |PNY RTX 4090 XLR8 Gaming| |Samsung 990 Pro 2TB| |Samsung 970 Evo Plus 1TB| |Samsung 860 Evo 1TB| |Corsair RM1000| |Fractal Design Define R5| |LG OLED 48" C2 Evo|

Permalänk
Medlem
Skrivet av Zcenicx:

Wow, tror du ska kolla dagens moderkort innan du skriker - ALLA moderkort har dessa begränsningar trots 2.0. Kan dessutom tilläggas att Ivy inte har tillräckligt många nativa lanes för x16/x16 ändå utan stoppar vid x16/x8 utan externa chip typ NF200 - precis som Sandy gör. Likaså kommer USB3/SATA6 att dra ner antalet tillgängliga lanes ytterligare - precis som med Sandy.

Det är för sjutton samma moderkort.

Har inte hävdat ett skvatt om Alla andra kort som du verkar ha fått uppfattningen om. Allt jag skrev är att jag inte längre har samma förtroende för just denna tillverkare, är inte det upp till mig att avgöra?! Det du skriver tror jag till 100% på, men mina synpunkter och åsikter kvarstår. Så ta och knip igen innan du anklagar mig för nånting.

Visa signatur

🖥️ Fractal Design Node 804 • Asrock Fatal1ty X99M Killer • Intel 5820K • Noctua NH-U12S • Corsair Vengeance 16GB • Gigabyte GTX 970 • be quiet! Dark Power Pro 550w • 2x Intel 520 120GB • 2x 1TB • 1x 3TB
💻 Microsoft Surface Pro (8GB/128GB)
 iPhone 11 64GB 🎧 SONY WH-1000XM3
🎵📲 SONY NW-ZX300 64GB [Region changed & Mr Walkman custom firmware loaded] + 256GB xtra • Audio Technica ATH-M50X

Permalänk
Antielefant
Skrivet av Sergeant44:

Har inte hävdat ett skvatt om Alla andra kort som du verkar ha fått uppfattningen om. Allt jag skrev är att jag inte längre har samma förtroende för just denna tillverkare, är inte det upp till mig att avgöra?! Det du skriver tror jag till 100% på, men mina synpunkter och åsikter kvarstår. Så ta och knip igen innan du anklagar mig för nånting.

Visst, so... varför tappar du förtroendet för dem när de i alla fall talar sanning? Du citerade nyheten och det angav orsak, men själva grundpoängen i "orsaken" är ju felaktig. Nu gillar jag inte Gigabyte själv oavsett, de håller enligt min erfarenhet ojämnare kvalitet än MSI eller Asus, men de har heller inte fel och ska inte beskyllas för en begränsning i plattformen heller. Varför bry sig om x16/x16 när 1155-sockeln inte klarar det?

MSI är ju de värsta lögnarna i sammanhanget, då de flesta av deras moderkort inte ens är kopplade för x16/x16 och Ivy inte nativt har lanes nog att stöda det. Rätt svårt att få x16/x16 när det saknas åtta ledningsbanor på moderkortet. Testa, sätt grafikkortet i port 2 och se om det har 16 lanes.
Svaret är - nej.

De enda som är helt ärliga i sammanhanget är Asus som inte säger ett skvatt om PCIe 3.0 trots att de kommer att stöda det lika väl som Gigabyte. Det är ju trots allt inte ens värt att nämnas förrän om tidigast två generationer grafikkort ändå.

Visa signatur

i7-12700KF | 128 GB DDR4-4000 | RTX 4080 | Samsung 990 Pro | 3xAcer XB270HU G-Sync

Permalänk
Hedersmedlem
Skrivet av Sergeant44:

Har inte hävdat ett skvatt om Alla andra kort som du verkar ha fått uppfattningen om. Allt jag skrev är att jag inte längre har samma förtroende för just denna tillverkare, är inte det upp till mig att avgöra?! Det du skriver tror jag till 100% på, men mina synpunkter och åsikter kvarstår. Så ta och knip igen innan du anklagar mig för nånting.

Näe man han har väl inte påstått att du tror att alla kort är dåliga heller. Tror det är du som missförstått det som stod i inlägget.
Zcenicx skriver bara att ALLA kort har denna begränsning. Han tar alltså inte upp något om det du påstår.

Visa signatur

🎮 → Node 304 • Ryzen 5 2600 + Nh-D14 • Gainward RTX 2070 • 32GB DDR4 • MSI B450I Gaming Plus AC
🖥️ → Acer Nitro XV273K Pbmiipphzx • 🥽 → VR: Samsung HMD Odyssey+
🎧 → Steelseries arctic 7 2019
🖱️ → Logitech g603 | ⌨️ → Logitech MX Keys
💻 → Lenovo Yoga slim 7 pro 14" Oled

Permalänk
Medlem

Tilläggas att de flesta här med Gigabytekort köpte det förmodligen innan PCIe 3.0 överhuvudtaget nämnts någonstans, web, teknisk specifikation eller manual. Att då klaga på Gigabyte för att de på en sida sagt att biosuppdatering ger stöd för för PCIe 3.0, och som någon tidigare skrev om, att det slutar i domstol. Störtlöjligt.

Visa signatur

Vägra fx 3of4 Pi 1M 1.84 s Memory remapping
Minnen har ingen egen hastighet. Märkningen anger bara vilken hastighet minnena uppges klara

Permalänk
Antielefant

Nämnvärt är att 1155 har ett antal fysiska begränsningar. Processorn har 16+4 lanes, PCH'n har ytterligare 8. Det ger ett totalt maximum på 28 lanes, varav i Sandy's fall samtliga är PCIe 2.0.

Detta ger alltså ett absolut maximum på x16/x8/x4 - vilket är vad de flesta moderkort har sina PCIe-slottar kopplade som. Det innebär också att allt annat som tar PCIe-lanes, typ en USB3-kontroller, ett nätverkskort, ljudkort eller en SATA6-kontroller, också tar av dessa lanes - i första hand av PCH'ns 8 och CPU'ns extra 4.

Ivy kommer att stöda 16 lanes PCIe 3.0, men PCH'n är fortfarande exakt densamma (P67, Z68 osv) eftersom det är samma moderkort och det är samma antal ledningsbanor från processorn. Det ger alltså ett maximum av;
16 lanes PCIe 3.0
4+8 lanes PCIe 2.0

Visst kan man använda en PCIe splitter för att skapa ytterligare lanes mellan splitter och PCIe-slottarna... men det ändrar inte det faktum att processorn fortfarande bara sitter på 16 lanes.

Kort sagt - Ivy kan ändra så att nuvarande moderkort får 3.0- istället för 2.0-lanes, men att byta processor kan aldrig fysiskt transformera moderkortet till att helt plötsligt få mer ledningsbanor - eller för den delen de 64 fler pinnar (4 per lane och 16 lanes) som skulle krävas.

LGA 2011 däremot kommer att ha 32+4 PCIe-lanes från processorn, plus ytterligare 8 eller 16 (obekräftat) från PCH'n. Denna sockel klarar faktiskt x16/x16 - vilken nytta det nu gör.

Visa signatur

i7-12700KF | 128 GB DDR4-4000 | RTX 4080 | Samsung 990 Pro | 3xAcer XB270HU G-Sync

Permalänk
Medlem
Skrivet av Sergeant44:

Varför envisas folk med att jämföra bilar med datorer?

För att det ibland kan vara en bra jämförelse, svårare än så är det inte

Skrivet av Zcenicx:

Va? Det är PCIe 3.0 eftersom varje kanal har en viss datahastighet, inte för att hela slotten har 16 kanaler.

Nej, det är snarare som att skylta en väg med 110 när bilarna inte går i mer än 30. Det är nämligen exakt där vi är i dagsläget.
Det är inte ens en procentmässig skillnad mellan PCIe 2.0 x8 och PCIe 2.0 x16 med det kraftigaste moderna grafikkortet på marknaden - så vilken skillnad skulle PCIe 3.0 göra?

Dessutom finns det inte ett enda moderkort på Sandy Bridge-marknaden idag som har x16/x16 PCIe 2.0 - nästan alla har x8/x8 2.0 med enstaka kort som ligger på x16/x8.

Och dagens moderkort med x8/x8 (standard) levererar lika bra som x16/x16 PCIe 1.1? Och? Grafikkorten kräver inte mer.

Wow, tror du ska kolla dagens moderkort innan du skriker - ALLA moderkort har dessa begränsningar trots 2.0. Kan dessutom tilläggas att Ivy inte har tillräckligt många nativa lanes för x16/x16 ändå utan stoppar vid x16/x8 utan externa chip typ NF200 - precis som Sandy gör. Likaså kommer USB3/SATA6 att dra ner antalet tillgängliga lanes ytterligare - precis som med Sandy.

Det är för sjutton samma moderkort.

Och MSI's är inte ens kopplade för x16/x16 *lol* - deras moderkorts nedre PCIe slot kan aldrig köras snabbare än x8 då halva kontakten inte ens är kontakterad.

Och återigen - what's the difference compared to today?

Nej, det gör återigen ingen skillnad. Det blir exakt som idag, x8/x8 är standard. x8/x8 PCIe 3.0 är dubbelt upp mot vad man får idag och ens idag är x8/x8 2.0 ingen begränsning.

Men det tillverkas inga bilar som går fortare än 30 km/h?

Ens ARES stryps inte mer än någon enstaka procent av att sitta på en x8 2.0-port, så vilken skillnad gör det att sätta den på en x16 3.0-port?

Det blir bokstavligen som att bygga dagens moderna E4'a 1911 när T-forden kom och bilarna knappt gick fortare än cyklar.
Varför bry sig - inga grafikkort inom de närmaste typ fem åren kommer att kräva mer än x8 3.0 ändå - vilket vore en fördubbling mot vad de kräver idag.

Med tanke på att x8/x8 som sagt är standard både på 1156, 1155 och AM3+ lär det inte ens märkas.

Gör ingen skillnad annat än att man tappar färre lanes för U3/S6.
Sen är det som sagt i princip inga moderkort som stöder x16/x16 2.0 ändå.

Vilket som sagt är ett ickebekymmer, speciellt då som sagt de flesta inte ens levererar moderkort kontakterade för mer än x16/x8.

Nej, som sagt tidigare är det knappt så de använder mer än x16 PCIe 1.x.
Det finns åtskilliga test om prestandaförlusten x8/x8 vs x16/x16 PCIe 2.0 med både SLI och CF, samtliga är eniga om att förlusten är omärkbar och knappt ens mätbar i annat än extrema upplösningar.

Vad Ivy Bridge i praktiken kommer att göra är att dem av oss som kör CF eller SLI blir sittande på x8/x8 PCIe 3.0 istället för x8/x8 PCIe 2.0. Det gör noll prestandaskillnad, men i praktiken får våra grafikkort fortfarande dubbla bandbredden jämfört med idag. De enda moderkort som stöder FAKTISK x16/x16 3.0 med Sandy/Ivy lär vara LGA 2011!

Du är helt fel på det, fast du har rätt! "så vilken skillnad gör det att sätta den på en x16 3.0-port" Jo det gör en väldigt stor skillnad om några månader, tror jag!! Bara för att det flaskar idag, behöver det inte göra det imorgon!
3.0 är framtiden! Och Gigabyte har gjort fel! det kommer att komma graffekort med stöd, och då kör "Dina bilar" i 110Km/h dom med ska du se!
När det kommer en ny standard, så dröjer det ett tag innan alla andra kan "hoppa på tåget" men att gå ut som gigabyte gjort är bara så fel!

Visa signatur

Pc 1--> [AsRock DualSata2][AMD4600+X2][7800GT] [Intel SSD X-25 80GB G2][1TB F3][750GB IDE][4GB XMSCorsiar]Pc 2--> [Asus Crosshair] [AMD 4800+X2] [2st 8800GT i SLI] [RAID 0 2x250GB] [6GB XMSCorsair] [Corsair HX750]Pc 3-->[HP Microserver 12TB]Pc 4--> AsRock P67 Extreme 4,i7 2600K @ 4.0 GHz,830 256GB,16GB 1600MHz, R9 290X Foto [Nikon D7000][70-300/35 1,8/18-55 [Skärmar=24",24",24" Eyefinity]

Permalänk
Medlem
Skrivet av skog1s:

För att det ibland kan vara en bra jämförelse, svårare än så är det inte

Visst, förklara gärna vidare

Visa signatur

🖥️ Fractal Design Node 804 • Asrock Fatal1ty X99M Killer • Intel 5820K • Noctua NH-U12S • Corsair Vengeance 16GB • Gigabyte GTX 970 • be quiet! Dark Power Pro 550w • 2x Intel 520 120GB • 2x 1TB • 1x 3TB
💻 Microsoft Surface Pro (8GB/128GB)
 iPhone 11 64GB 🎧 SONY WH-1000XM3
🎵📲 SONY NW-ZX300 64GB [Region changed & Mr Walkman custom firmware loaded] + 256GB xtra • Audio Technica ATH-M50X

Permalänk
Medlem
Skrivet av skog1s:

Du är helt fel på det, fast du har rätt! "så vilken skillnad gör det att sätta den på en x16 3.0-port" Jo det gör en väldigt stor skillnad om några månader, tror jag!! Bara för att det flaskar idag, behöver det inte göra det imorgon!
3.0 är framtiden! Och Gigabyte har gjort fel! det kommer att komma graffekort med stöd, och då kör "Dina bilar" i 110Km/h dom med ska du se!
När det kommer en ny standard, så dröjer det ett tag innan alla andra kan "hoppa på tåget" men att gå ut som gigabyte gjort är bara så fel!

Bara för att det kommer kort som stödjer PICe 3 imorgon så betyder inte det att dom kommer använda all bandbredd. Precis som Zcenicx skrev så använder inte ens dagens snabbaste kort all bandbredd som finns i PICe 1.x. det behövs helt enkelt inte mer, och kommer inte göra på ett bra tag.

Permalänk
Antielefant
Skrivet av skog1s:

Du är helt fel på det, fast du har rätt! "så vilken skillnad gör det att sätta den på en x16 3.0-port" Jo det gör en väldigt stor skillnad om några månader, tror jag!! Bara för att det flaskar idag, behöver det inte göra det imorgon!

Nej, och som sagt tror jag att 2.0 x16 blir på gränsen om... tja... fem år eller så. Det kommer inget magiskt grafikkort inom några månader som är fyrdubbelt så snabbt som dagens och kräver fyrdubbla bandbredden från processorn. Som sagt - Ett 590 flaskar inte på PCIe 1.1 x16 - vilket motsvarar PCIe 2.0 x8 eller PCIe 3.0 x4.

Citat:

3.0 är framtiden! Och Gigabyte har gjort fel! det kommer att komma graffekort med stöd, och då kör "Dina bilar" i 110Km/h dom med ska du se!
När det kommer en ny standard, så dröjer det ett tag innan alla andra kan "hoppa på tåget" men att gå ut som gigabyte gjort är bara så fel!

Hur orkar du? Som jag beskrev ovan finns det inte ens mer än 16 lanes för grafikkorten att dela på mot processorn oavsett vilka chip Gigabyte, MSI eller någon annan sätter på moderkortet. Det finns inte ett skit någon moderkortstillverkare kan göra åt att Intel designade plattformen med 16 lanes mot grafikkorten - vilket blir just x8/x8. Ivy kan som sagt inte heller göra något åt det då plattformen fortfarande är densamma.

Ja visst är 3.0 framtiden, och när jag väl byter till ett grafikkort som kräver mer än 3.0 x8 hoppas jag innerligt att jag inte sitter på en gammal skrotig Ivy Bridge på ett 1155-kort. Den lär vara lika utdaterad vid det laget som Pentium-D och Socket 478.

Visa signatur

i7-12700KF | 128 GB DDR4-4000 | RTX 4080 | Samsung 990 Pro | 3xAcer XB270HU G-Sync

Permalänk
Medlem
Skrivet av Zcenicx:

Va? Det är PCIe 3.0 eftersom varje kanal har en viss datahastighet, inte för att hela slotten har 16 kanaler.

Eh, jo. Det är slotet som räknas. Kan inte kunden nyttja pcie 3.0 vilket moderkortet säljs som för sina kort så är det falsk marknadsföring.
Uppenbarligen är det även s.k. vilseledande marknadsföring eftersom de flesta anser att gigabyte lurar sina kunder.

Citat:

Nej, det är snarare som att skylta en väg med 110 när bilarna inte går i mer än 30. Det är nämligen exakt där vi är i dagsläget.

Det spelar ingen roll, det är fortfarande falsk samt vilseledande marknadsföring.

Citat:

Det är inte ens en procentmässig skillnad mellan PCIe 2.0 x8 och PCIe 2.0 x16 med det kraftigaste moderna grafikkortet på marknaden - så vilken skillnad skulle PCIe 3.0 göra?

Även om inte nuvarande grafikkort kan dra nytta av hastigheten så har PCIe 3.0 har andra specifikationer för ström. Kortet behöver färre extra strömsladdar eftersom mobo slottet kan försörja kortet med mer ström.

Uppfyller gigabyte specifikationerna för pcie 3.0 ström på sina pcie slot?

Citat:

Dessutom finns det inte ett enda moderkort på Sandy Bridge-marknaden idag som har x16/x16 PCIe 2.0 - nästan alla har x8/x8 2.0 med enstaka kort som ligger på x16/x8.

Själv är jag mer intresserad av socket 2011 för prestanda.

Citat:

Och dagens moderkort med x8/x8 (standard) levererar lika bra som x16/x16 PCIe 1.1? Och? Grafikkorten kräver inte mer.

x4 stryps av dagens grafikkort. x8 kan med andra ord inte vara långt bort från att strypa korten heller med dagens utvecklingstakt, hört talas om grafikkort med 2 gpus på ett kort? Har inte testat själv men skulle bli förvånad om inte hd 6990 blev strypt av en pcie 2.0 x8.
När eller om det sker en plötslig revolutionerande förbättring kan ingen sia om så det är knappast fel med mer än dagens grafikkort kräver. Samt åter igen, gigabyte lurar sina kunder, och det är vad artikeln handlar om och vad som spelar roll. Vad du anser behövs och kommer behövas i framtiden är därför nte relevant.

Citat:

Och MSI's är inte ens kopplade för x16/x16 *lol* - deras moderkorts nedre PCIe slot kan aldrig köras snabbare än x8 då halva kontakten inte ens är kontakterad.

Så nu spelar det roll helt plötsligt? Är du gigabyte fanboy eller vad menar du här?

Citat:

Och återigen - what's the difference compared to today?

Skillnaden är stor. Om du köper ett grafikkort som kräver en viss mängd ström men ditt gigabyte kort levererar inte tillräckligt så kan du lycka till. Men den viktiga biten är fortfarande att gigabyte vilseleder sina kunder.

Visa signatur

Intel Core i7 8700K, MSI GeForce GTX 1080 Ti 11GB Gaming X, Samsung 960 EVO 1TB, MSI Z370 GAMING M5, Corsair 32GB (4x8GB) DDR4 3200MHz CL16 Vengeance, EVGA Supernova G3 850W

INTEL CORE I7 3930K 3.20GHZ 12MB S-2011, FRACTAL DESIGN MIDITOWER DEFINE R3, CORSAIR HX 1050W, ASUS RAMPAGE IV FORMULA, Asus STRIX GTX970, CORSAIR 16GB DDR3 DOMINATOR QUAD 1866MHZ CL9 (4X4GB) Ljud: ASUS Xonar D2X/XDT 7.1 | Elac 5.1 +förstärkare | Cambridge dacmagic plus | Astro gaming A40 | Sennheiser HD 650
You ask me if I have a god complex? Let me tell you something, I am god!

Permalänk
Medlem
Skrivet av Sergeant44:

Visst, förklara gärna vidare

Trimma en motor, och sätt i delarna, även om det är det senaste, och tillverkaren säger att den lämnar xxxxx
Du sätter i det i motorn, men den lämnar inte xxxxx!

Jag har en förklaring till alla "försvar mot Gigabytes fel" och det är att ni alla har GigabytesModerkort!

Visa signatur

Pc 1--> [AsRock DualSata2][AMD4600+X2][7800GT] [Intel SSD X-25 80GB G2][1TB F3][750GB IDE][4GB XMSCorsiar]Pc 2--> [Asus Crosshair] [AMD 4800+X2] [2st 8800GT i SLI] [RAID 0 2x250GB] [6GB XMSCorsair] [Corsair HX750]Pc 3-->[HP Microserver 12TB]Pc 4--> AsRock P67 Extreme 4,i7 2600K @ 4.0 GHz,830 256GB,16GB 1600MHz, R9 290X Foto [Nikon D7000][70-300/35 1,8/18-55 [Skärmar=24",24",24" Eyefinity]

Permalänk
Medlem

Kan dom inte börja med "Full PCI-E 3.0" och "PCI-E 3.0 Ready" lappar då på deras moderkort?
För att vara en så stor tillverkare av moderkort så tycker jag det är förj*vligt att sitta och ljuga kunder rakt upp i ansiktet, men ändå inte.
Sanningshalten är ju 50/50.
Det är bra dock att saker som dessa blubbar fram så att andra kan få sig en egen och personlig åsikt.

P.S!
Det finns visst "Sandy Bridge moderkort" idag som har stöd för 16/16. Asrock Z68 Extreme7 är ett exempel. De använder NF200 chipset för att klara detta.
Punkt och pricka!

Visa signatur

Star Citizen ❤

Permalänk
Medlem
Skrivet av XrOo:

Kan dom inte börja med "Full PCI-E 3.0" och "PCI-E 3.0 Ready" lappar då på deras moderkort?
För att vara en så stor tillverkare av moderkort så tycker jag det är förj*vligt att sitta och ljuga kunder rakt upp i ansiktet, men ändå inte.
Sanningshalten är ju 50/50.
Det är bra dock att saker som dessa blubbar fram så att andra kan få sig en egen och personlig åsikt.

Ett av dom vettigaste inläggen som gjorts i tråden!

Visa signatur

Pc 1--> [AsRock DualSata2][AMD4600+X2][7800GT] [Intel SSD X-25 80GB G2][1TB F3][750GB IDE][4GB XMSCorsiar]Pc 2--> [Asus Crosshair] [AMD 4800+X2] [2st 8800GT i SLI] [RAID 0 2x250GB] [6GB XMSCorsair] [Corsair HX750]Pc 3-->[HP Microserver 12TB]Pc 4--> AsRock P67 Extreme 4,i7 2600K @ 4.0 GHz,830 256GB,16GB 1600MHz, R9 290X Foto [Nikon D7000][70-300/35 1,8/18-55 [Skärmar=24",24",24" Eyefinity]

Permalänk
Medlem
Skrivet av skog1s:

Jag har en förklaring till alla "försvar mot Gigabytes fel" och det är att ni alla har GigabytesModerkort!;)

Nopp! ASUS.

Skrivet av XrOo:

Kan dom inte börja med "Full PCI-E 3.0" och "PCI-E 3.0 Ready" lappar då på deras moderkort?
För att vara en så stor tillverkare av moderkort så tycker jag det är förj*vligt att sitta och ljuga kunder rakt upp i ansiktet, men ändå inte.
Sanningshalten är ju 50/50.
Det är bra dock att saker som dessa blubbar fram så att andra kan få sig en egen och personlig åsikt.

altså saken är att det är ingen skillnad mot vad det är idag. Gigabyte har inte gjort något annorlunda jämfört med vad alla tillverkare redan gör.

Sen tycker jag att diskussionen börja sjunka lite väl lågt från vissa medlemmar.

Permalänk
Medlem

Skulle man få önska något för att öka grafikprestandan i dagsläget är det mer minnes bandbredd. Så övergången till pci-e 3.0 kan troligtvis göra ganska stor skillnad. Däremot skryter man troligtvis inte med det innan det finns att köpa för då lär ju nuvarande försäljningen minska kanske man kan tänka sig. Övrigt verkar ju dessa kortens stöd lite tveksamma, vem vet.

Permalänk

den extra bandbredden kommer väl till pass för nästkommande generations hba/raidkort, så säg inte att det inte finns något som inte behöver så mycke bandbredd...

Visa signatur

så mycket att vilja göra, så lite tid

Permalänk
Medlem
Skrivet av Osten87:

Bara för att det kommer kort som stödjer PICe 3 imorgon så betyder inte det att dom kommer använda all bandbredd. Precis som Zcenicx skrev så använder inte ens dagens snabbaste kort all bandbredd som finns i PICe 1.x. det behövs helt enkelt inte mer, och kommer inte göra på ett bra tag.

Och det vet ni, en sak jag lärt mig inom hårdvara är att allt kan svänga fort! Morgondagens teknik kan vara väldigt nära! Och många gånger har det varit så. Det är det jag menar!

Visa signatur

Pc 1--> [AsRock DualSata2][AMD4600+X2][7800GT] [Intel SSD X-25 80GB G2][1TB F3][750GB IDE][4GB XMSCorsiar]Pc 2--> [Asus Crosshair] [AMD 4800+X2] [2st 8800GT i SLI] [RAID 0 2x250GB] [6GB XMSCorsair] [Corsair HX750]Pc 3-->[HP Microserver 12TB]Pc 4--> AsRock P67 Extreme 4,i7 2600K @ 4.0 GHz,830 256GB,16GB 1600MHz, R9 290X Foto [Nikon D7000][70-300/35 1,8/18-55 [Skärmar=24",24",24" Eyefinity]

Permalänk
Antielefant
Skrivet av IceDread:

Eh, jo. Det är slotet som räknas. Kan inte kunden nyttja pcie 3.0 vilket moderkortet säljs som för sina kort så är det falsk marknadsföring.
Uppenbarligen är det även s.k. vilseledande marknadsföring eftersom de flesta anser att gigabyte lurar sina kunder.

Nej.

PCIe 2.0 = 5 GT/s per lane och 8b/10b encoding, ~20% overhead.
PCIe 3.0 = 8 GT/s per lane och 128b/130b encoding, ~1,5% overhead.

Det är de specifikationerna som säger om det är PCIe 2.0 eller 3.0, inte hur många du kopplar in. Var skriver de att de ska vara x16/x16-kompatibla? Var hittar du ett enda moderkort som faktiskt är det?

Som sagt - existerar inte på 1155 då sockeln inte fysiskt klarar det.

Citat:

Även om inte nuvarande grafikkort kan dra nytta av hastigheten så har PCIe 3.0 har andra specifikationer för ström. Kortet behöver färre extra strömsladdar eftersom mobo slottet kan försörja kortet med mer ström.

Uppfyller gigabyte specifikationerna för pcie 3.0 ström på sina pcie slot?

Umm... Va?

PCIe 3.0-standarden följer samma regler för strömförsörjning som 1.x och 2.0. Moderkortsportarna kör fortfarande bara 75W max, dess specifikationer för 150, 225 och 300 watt är inklusive PCI-E strömkontakterna som omges av samma standard. Ryktet om att PCIe 3.0 skulle öka vad moderkortet kan leverera är skitsnack, det skulle kräva att moderkortet fick lika mycket extra strömförsörjning som det ska kunna ge ut extra, vilket vore omöjligt att konstruera i efterhand då du skulle behöva sätta dina extra 6- och 8-pinskontakter på moderkortet istället för grafikkortet.

Du kan inte magiskt trolla fram <225 watt ström ut ingenting, och moderkortet har då inte några 225W extra att ta av.

Citat:

x4 stryps av dagens grafikkort. x8 kan med andra ord inte vara långt bort från att strypa korten heller med dagens utvecklingstakt. När eller om det sker en plötslig revolutionerande förbättring kan ingen sia om så det är knappast fel med mer än dagens grafikkort kräver. Samt åter igen, gigabyte lurar sina kunder, och det är vad artikeln handlar om och vad som spelar roll. Vad du anser behövs och kommer behövas i framtiden är därför nte relevant.

Strypningen på 2.0 x4 är ca 7-8%, vilket torde innebära att det är ca 45% kvar av kapaciteten på en 2.0 x8, 77,5% av kapaciteten på en 2.0 x16/3.0 x8 och 89% av kapaciteten på en 3.0 x16. Du använder alltså ens i bästa fall en tiondel av kapaciteten i en 3.0 x16 - och klagar över att du inte kan få det?

Citat:

Så nu spelar det roll helt plötsligt? Är du gigabyte fanboy eller vad menar du här?

Nej, men jag är en fanboy av korrekt information. Att klaga över att Gigabyte inte tillåter x16/x16 på en plattform som omöjligtvis kan köra x16/x16 är enligt min åsikt helt poänglöst. Varken Sandy eller Ivy klarar mer än x8/x8 eftersom det inte finns fler lanes att tillgå på 1155.

Citat:

Skillnaden är stor. Om du köper ett grafikkort som kräver en viss mängd ström men ditt gigabyte kort levererar inte tillräckligt så kan du lycka till. Men den viktiga biten är fortfarande att gigabyte vilseleder sina kunder.

Och återigen - nej. Inga grafikkort får gå över 75W från moderkortet enligt PCIe 3.0-standarden, samma som 2.0-standarden, vilket är strömförsörjning med:
Utan extern försörjning = max 75W.
1x6-pin = max 150W
2x6-pin = max 225W
6+8-pin = max 300W
8+8-pin = max 375W

8+8+8 (ARES) = max 525 W. (bryter egentligen spec, men det kortet bryter fan ta mig varenda standard som finns också).

Skrivet av skog1s:

Och det vet ni, en sak jag lärt mig inom hårdvara är att allt kan svänga fort! Morgondagens teknik kan vara väldigt nära! Och många gånger har det varit så. Det är det jag menar!

Visst, men när moderkortet inte tillåter mer än vad som ges är det fortfarande rätt poänglöst att klaga.

Magi finns inte, och att stoppa i en ny CPU på ett gammalt moderkort kan aldrig skapa nya ledningsbanor eller fler pinnar i sockeln. Utan dessa kan du aldrig få dina x16/x16 oavsett hur mycket du försöker.

Visa signatur

i7-12700KF | 128 GB DDR4-4000 | RTX 4080 | Samsung 990 Pro | 3xAcer XB270HU G-Sync

Permalänk
Medlem

Ytterligare en rättelse. Sandy Bridge / Ivy Bridge CPUer klarar visst av 2xPCIe@16. Om man bryggar bandbredden, exempelvis med ett NF200 chip som Asrock har valt att göra på deras Z68 Extreme7 Gen3 bräda så får man ut mer bandbredd iom att all bandbredd inte behöver gå direkt via minneskontrollern på CPUn, och vad betyder detta? Jo vi får altså 2xPCIe@16 men vi lägger även på en viss fördröjning på bandbredden jämfört mot om vi hade kunnat köra hela denna bandbredden direkt in i CPUns minneskontroller. Dvs man fuskar lite om vi skall vara lite kortfattade. Hursom så får man ut full bandbredd, men återigen på bekostnad av ökad latency.

Punkt och pricka!

Edit: För den som fattar NOLL av ovanstående. Man kan altså BRYGGA bandbredden..

Visa signatur

Star Citizen ❤

Permalänk
Antielefant
Skrivet av sweloop64:

den extra bandbredden kommer väl till pass för nästkommande generations hba/raidkort, så säg inte att det inte finns något som inte behöver så mycke bandbredd...

Tveksamt, då PCIe 3.0 klarar 1 GB/s per lane. Ens om du skulle skulle skapa en array med 8 av de snabbaste SSD'erna på marknaden överbelastar du inte en 3.0 x4-port.

Oavsett vilket tvivlar jag starkt på att vi pratar LGA 1155 eller ens 2011 för den sortens arrayer, snarare LGA 1567 eller vad nu dess efterföljare på rackservermarknaden blir.

Skrivet av XrOo:

Ytterligare en rättelse. Sandy Bridge / Ivy Bridge CPUer klarar visst av 2xPCIe@16. Om man bryggar bandbredden, exempelvis med ett NF200 chip som Asrock har valt att göra på deras Z68 Extreme7 Gen3 bräda så får man ut mer bandbredd iom att all bandbredd inte behöver gå direkt via minneskontrollern på CPUn, och vad betyder detta? Jo vi får altså 2xPCIe@16 men vi lägger även på en viss fördröjning på bandbredden jämfört mot om vi hade kunnat köra hela denna bandbredden direkt in i CPUns minneskontroller. Dvs man fuskar lite om vi skall vara lite kortfattade. Hursom så får man ut full bandbredd, men återigen på bekostnad av ökad latency.

Punkt och pricka!

Edit: För den som fattar NOLL av ovanstående. Man kan altså BRYGGA bandbredden..

Man fuskar massor och får inte alls ut full bandbredd, det är ren skitsnack. Latensproblemen är dessutom ett gitter utan dess like då det hjälper till att skapa microstutter.

Det är som att jämföra en dualcore med HT med en quadcore. Quaden är alltid snabbare, men HT'n gör att du kan tjäna några ytterligare få procent på att belasta processorn jämnare.

Det som händer är att kort 2 kan utnyttja bandbredden NÄR KORT 1 INTE GÖR DET. Timeshare. Det är också ett jättebra sätt att skapa synkproblem mellan korten vilket tyvärr också ökar risken för microstutter. Ja, du får teoretiskt ut mer datamängd av din tillgängliga totala x16-brygga än om du kör x8/x8 - men återigen märks ingen skillnad hastighetsmässigt eftersom x8 inte stryper.

Visa signatur

i7-12700KF | 128 GB DDR4-4000 | RTX 4080 | Samsung 990 Pro | 3xAcer XB270HU G-Sync

Permalänk
Medlem
Skrivet av Zcenicx:

Vad Ivy Bridge i praktiken kommer att göra är att dem av oss som kör CF eller SLI blir sittande på x8/x8 PCIe 3.0 istället för x8/x8 PCIe 2.0. Det gör noll prestandaskillnad, men i praktiken får våra grafikkort fortfarande dubbla bandbredden jämfört med idag. De enda moderkort som stöder FAKTISK x16/x16 3.0 med Sandy/Ivy lär vara LGA 2011!

Det finns inget i gigabytes slides som visar att vi kommer få göra så med DERAS kort i alla fall. De är förvisso missvisande när de pratar om solution 1, 2 och 3 när det är solution 3 som egentligen är den som MSI klagar på (dvs, de flesta moderkort från gigabyte har gen. 2 switch). Kör man två grafikkort på ett sådant moderkort så kommer de köra PCIe 2.0 x8/x8 och inte PCIe 3.0 x8/x8.

Det backas upp också av techpowerups analys av gigabytes försvarsmeddelande, ser jag. Så jag tolkar nog inte skvatt tokigt.

Visa signatur

i7-2700K 5 GHz | 16 GB DDR3-1600 | ASUS Maximus V Gene Z77 | GTX 980
i7-4790K 4.8 GHz | 32 GB DDR3-2133 | ASUS Maximus VII Gene Z97 | GTX 980

Permalänk
Medlem
Skrivet av IceDread:

Skillnaden är stor. Om du köper ett grafikkort som kräver en viss mängd ström men ditt gigabyte kort levererar inte tillräckligt så kan du lycka till. Men den viktiga biten är fortfarande att gigabyte vilseleder sina kunder.

Har även läst att PCIe 2.0 fick mer ström inskrivet i specifikationen, vilket inte har någon betydelse. Ingen grafikkortstillverkare vill släppa kompatibiliteten med PCIe 1.1, så de kan inte plocka bort en strömplugg för att istället plocka strömmen från moderkortet.
Blir samma med PCIe 3.0, ingen tillverkare vågar utnyttja eventuell höjd strömtillgång från moderkortet. Marknaden blir i så fall extremt liten. Bättre med ett grafikkort som passar i alla existerande moderkort.

Visa signatur

Vägra fx 3of4 Pi 1M 1.84 s Memory remapping
Minnen har ingen egen hastighet. Märkningen anger bara vilken hastighet minnena uppges klara

Permalänk
Medlem
Skrivet av Zcenicx:

Nej.

PCIe 2.0 = 5 GT/s per lane och 8b/10b encoding, ~20% overhead.
PCIe 3.0 = 8 GT/s per lane och 128b/130b encoding, ~1,5% overhead.

Det är de specifikationerna som säger om det är PCIe 2.0 eller 3.0, inte hur många du kopplar in. Var skriver de att de ska vara x16/x16-kompatibla? Var hittar du ett enda moderkort som faktiskt är det?

Som sagt - existerar inte på 1155 då sockeln inte fysiskt klarar det.

Du har inte läst specifikationerna på för 1366?

Citat:

PCIe 3.0-standarden följer samma regler för strömförsörjning som 1.x och 2.0. Moderkortsportarna kör fortfarande bara 75W max, dess specifikationer för 150, 225 och 300 watt är inklusive PCI-E strömkontakterna som omges av samma standard. Ryktet om att PCIe 3.0 skulle öka vad moderkortet kan leverera är skitsnack, det skulle kräva att moderkortet fick lika mycket extra strömförsörjning som det ska kunna ge ut extra, vilket vore omöjligt att konstruera i efterhand då du skulle behöva sätta dina extra 6- och 8-pinskontakter på moderkortet istället för grafikkortet.

Du kan inte magiskt trolla fram <225 watt ström ut ingenting, och moderkortet har då inte några 225W extra att ta av.

Där har du träligt nog rätt i att pcie 3.0 följer de tidigare specifikationerna. Det var tidigare tal om en förändring här.
Om du tycker det är bättre att dra strömsladdar direkt till graikkortet så får det stå för dig, det smidigare är utan tvekan att dra mer ström till mobo för att få mindre kablar hängande i lådan samt för ett bättre luftflöde, men sådant kanske du trollar med.

Citat:

Strypningen på 2.0 x4 är ca 7-8%, vilket torde innebära att det är ca 45% kvar av kapaciteten på en 2.0 x8, 77,5% av kapaciteten på en 2.0 x16/3.0 x8 och 89% av kapaciteten på en 3.0 x16. Du använder alltså ens i bästa fall en tiondel av kapaciteten i en 3.0 x16 - och klagar över att du inte kan få det?

Vad trollar du med för siffror här? Du kan inte säga att strypningen är 7-8 procent, för det stämmer inte. Det är helt beroende på grafikkortet.

Citat:

Nej, men jag är en fanboy av korrekt information. Att klaga över att Gigabyte inte tillåter x16/x16 på en plattform som omöjligtvis kan köra x16/x16 är enligt min åsikt helt poänglöst. Varken Sandy eller Ivy klarar mer än x8/x8 eftersom det inte finns fler lanes att tillgå på 1155.

1366 stödjer som sagt 2 st 16x pcie 2.0 aktiva samtidigt. Informationen finns lättillgänglig.

Citat:

Magi finns inte, och att stoppa i en ny CPU på ett gammalt moderkort kan aldrig skapa nya ledningsbanor eller fler pinnar i sockeln. Utan dessa kan du aldrig få dina x16/x16 oavsett hur mycket du försöker.

Du lever i tron att framtiden är magisk, det är fel. Framöver inväntar vi sockel 2011 från intel.

Det är anmärkningsvärt att du inte känner till begreppet vilseledande marknadsföring. Om du ser röstningen så ser detta inte så bra ut om gigabyte.

Visa signatur

Intel Core i7 8700K, MSI GeForce GTX 1080 Ti 11GB Gaming X, Samsung 960 EVO 1TB, MSI Z370 GAMING M5, Corsair 32GB (4x8GB) DDR4 3200MHz CL16 Vengeance, EVGA Supernova G3 850W

INTEL CORE I7 3930K 3.20GHZ 12MB S-2011, FRACTAL DESIGN MIDITOWER DEFINE R3, CORSAIR HX 1050W, ASUS RAMPAGE IV FORMULA, Asus STRIX GTX970, CORSAIR 16GB DDR3 DOMINATOR QUAD 1866MHZ CL9 (4X4GB) Ljud: ASUS Xonar D2X/XDT 7.1 | Elac 5.1 +förstärkare | Cambridge dacmagic plus | Astro gaming A40 | Sennheiser HD 650
You ask me if I have a god complex? Let me tell you something, I am god!

Permalänk
Antielefant
Skrivet av Teddis:

Det finns inget i gigabytes slides som visar att vi kommer få göra så med DERAS kort i alla fall. De är förvisso missvisande när de pratar om solution 1, 2 och 3 när det är solution 3 som egentligen är den som MSI klagar på (dvs, de flesta moderkort från gigabyte har gen. 2 switch). Kör man två grafikkort på ett sådant moderkort så kommer de köra PCIe 2.0 x8/x8 och inte PCIe 3.0 x8/x8.

Det backas upp också av techpowerups analys av gigabytes försvarsmeddelande, ser jag. Så jag tolkar nog inte skvatt tokigt.

Det beror på hur deras kort är kopplade, vilket jag inte kan uttala mig om.

Antingen är de kopplade x16/x0 med en switch som gör om det till x8/x8 - i vilket fall du aldrig kan få över dina 8 lanes PCIe 3.0 till slot 2 - eller så är de kopplade x8/x8 med en switch som gör om det till x16/x0 - i vilket fall du aldrig kan få x16 3.0 på ett kort med två PCIe-portar.

Det som får mig att tro det senare är att de specifikt pratar om att enbart kort med en enda x16-port kan få x16.

Personligen bryr jag mig egentligen inte, jag sitter glatt kvar med mitt P8P67 Pro.

Visa signatur

i7-12700KF | 128 GB DDR4-4000 | RTX 4080 | Samsung 990 Pro | 3xAcer XB270HU G-Sync

Permalänk
Medlem

Man FÅR ut mer bandbredd, sen om 16/16 vs 8/8 gör skillnad i spel hör inte hemma. Det är falsk marknadsföring att tala om för kunder att det GÅR att köra 2 portar på 16x samtidigt om dom inte kan det. Och uppenbarligen så har jag inte läst något om att de behöver rättas. Så något gör dom ju rätt tydligen

Att snöa in sig helt på vad ett grafikkort ger och inte ger mellan PCIe 2.0 x8 och x16 hör egentligen inte hemma. Då det finns hårdvara som kan använda bandbredden betydligt kraftigare.

Det finns ju faktiskt lite mer tanke bakom PCIe 3.0 än bara grafikkort

Visa signatur

Star Citizen ❤