Permalänk

de där fläktarna som är msi moderkortstandard låter som tusan . de pajar ganska snabbt å låter som ett jetplan ,. har en sådan på mitt . dock så snurrar den bara i 1000rmp nu å låter inget alls

Visa signatur
Permalänk
Hedersmedlem
Citat:

Ursprungligen inskrivet av volny
Att det drar mindre ström kan ju vara riktigt bra!!!

Hur bra är egentligen ett Go 7800GTX? menar då normalt inte i någon dubbelskumm variant

Ett oklockat 7800GTX i en sån laptop som är i min sig så får man ca 6500p i 3DMark05.
Ett riktigt bra kort!

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Zerblatt
Då kommer det hur många standader till som hellst, Ati och Nvidia kommer säker tinte överrens iaf om en gemensam standard.

Känns som en sund reflektion, speciellt som det här handlar om et kort med integrerad SLi funktion, vilken, även om ATi skulle släppa ett MXM kort, inte fungerar med deras Crossfire kort i alla fall.

MXM är nVidias standard, dock har de släppt den fri, vilket ökar chansen för att nån annan tillverkare ska släppa nånting till den.

B!

Visa signatur

Allting jag skriver är om inget annat uttrycks, min åsikt! Ingenting måste vara dagens sanning enligt din åsikt, och gör du antaganden baserade på mina åsikter hoppas jag att du övervägt mer än bara just min åsikt.

Permalänk
Medlem

åja, det är inte b enl mig.
ett hyffsat försök till innovation.
dock håller jag med om att det förmodligen inte kommer att användas.

Visa signatur

i5 4790K, 8 GB XMS3 1600 Mhz, RX 5700XT, Gigabyte G1.Sniper M5

Permalänk
Medlem

EDIT: *bugg i forumet*

Visa signatur

i5 4790K, 8 GB XMS3 1600 Mhz, RX 5700XT, Gigabyte G1.Sniper M5

Permalänk

Ja va ska man säga. Längden påminner ju faktiskt om creative's soundblaster 16 ljudkort. Klart man förstår att längden måste öka då korten blir bättre och bättre. SLI på samma kort är väl något som behövs nu. Dubbla kort av denna typ hade även varit kul att se. Detta skulle innebära 4 block för GPU's om man kör vattenkylning. Blir väl ett måste att köra dubbla pumpar isf.

Visa signatur

Wasserkühlung::5900X::ASSrock X570 TB3::2x8 Ballistix 3000@3800::6800Nitro+

Vilken leksak>> CH341-biosprogrammerare

Permalänk
Medlem

men vänta nu, det där kortet tar väl bara en plats? och det innebär att om man har ett sli mobo kan man köra 2 st såna och få quad-system med 4 "bärbara" grafikkort!!!

Visa signatur

(\__/)
(O.o )
(> < ) This is Bunny. Copy Bunny into your signature to help him on his way to world domination!

Permalänk
Medlem

du har ingen SLI-brygga på kortet rovvel...

Visa signatur

i5 4790K, 8 GB XMS3 1600 Mhz, RX 5700XT, Gigabyte G1.Sniper M5

Permalänk
Medlem

Synd att inte alla moderkort har nån mojäng ivägen som begränsar längden på graffar.
VERKLIGEN SYND!
Äh köp det här "grafikkortet" +några go nu alla!

Kom igen!

lalalala

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av -=Mr_B=-
Det är precis det man gör, GPU, och minne, på ett pcb.

Om det som åsyftas är den omöjliga möjligheten att köpa en gpu, som ska vara parad med en bios med optimerade värden för specifika minnen, på ett separat chip, för att sen köpa minnen separat, och på något bizzart sätt para ihopa dem, bör du kanske skriva "gpu och minnen var för sig"

Värt att på peka är kanske även det faktumet, att det ser ut att finnas någon form för missförstånd... Det här är altså ett adapterkort, för att köra MXM grafik kort, i sli, på en PCI-E plats. Det är INTE ett dual gpu grafik kort, där du byter ut gpu / minne, utan du byter ut hela grafikkorten.

B!

Det är knappast värre än att man lär sig ställa timings själv eller att köra med spd-lretsar precis som "vanliga" minnen.
Att det skulle vara någon magisk optimering är bara strunt, något som blir rätt uppenbart när du ser hur många olika minnstyper och kretsar som kan finnas till samma gpu. Backa några år i tiden och titta på mx4x0-serien här kommer du hitta diverse minnesmärken, sdram, ddr och till råga på allt massor av märken på minnet eftersom det är budgetkort.
Ganska ofta är det dessutom så att det knappast är några aggressiva timings som kör. Jag har själv varit inne på tankegången separat gpu och minnen sen ett par år tillbaka. alla har inte nytta av extremt stora minnesmängder, vissa behöver litet och snabbt minne, det är en kombination av vad man spelar, med vilka inställningar och vilken upplösning.

Som ett sista ord känns den här lösningen meningslös för de flesta, den är väldigt stor och kommer vara väldigt dyr. Den borde vara intressant för personer som vill ha en väldigt stor och strömsnål dator.
Visst du får sli på ett kort, men o andra sidan är det så stort och dyrt så du har troligtvis råd med ett slimoderkort och plats för två kort med.

Visa signatur

Arch | 1440p 165Hz IPS | 7800X3D | 1080ti | 64GB@6GHz | SN850 2TB

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av adamq10
Att det skulle vara någon magisk optimering är bara strunt, något som blir rätt uppenbart när du ser hur många olika minnstyper och kretsar som kan finnas till samma gpu.

Japp, och allla de där olika grafikkorten har exakt samma komponenter hela vägen, identiska firmware, och det ända som skiljer dem från varandra är minnena... Nä vänta lite här nu. Det brukar inte vara helt omöjligt att få bätrre, eller sämre resultat genom att flasha in ett annat korts firmware, för att de har bland annat olika minnes settings. För att du ska kunna använda spd's måste du köra på någon typ av minneskort, vilket inte är aktuellt, eftersom de olika gpukonfigurationerna använder olika många bitar i sina accesser. Altså blir det lösa kiselbirat som stoppas i socklar, och jag är ledsen, men det sitter en separat krets med spd informationen på minnen, det ligger inte i själva minnes utrymmet. Den här tekniken har till viss del redan använts, på i dag "väldigt gamla" grafikkort, och då förprogramerades firmwaren med värden för de olika tillgängliga konfigurationerna, och sen var du tvungen att köpa minnena från tillverkaren, med ett väldigt högt pris som direkt resultat. Som indirekt resultat, fick de lägga mycket slappare timings på minnena än vad du med fasta minnen enbart hade, vilket gav sämre prestanda, så hela konceptet övergavs.

B!

Visa signatur

Allting jag skriver är om inget annat uttrycks, min åsikt! Ingenting måste vara dagens sanning enligt din åsikt, och gör du antaganden baserade på mina åsikter hoppas jag att du övervägt mer än bara just min åsikt.

Permalänk
Medlem

Det känns som ett bra initiativ - dock inget som kommer hålla i längden.

Visa signatur

R7 5800X | Asus ROG Strix X570-I Gaming | 16 GB RAM | RTX 3080 | 2 TB SSD | CM NF200P | Corsair SF600

Permalänk

Ser inte heller någon egentlig nytta med en sån här konfiguration...

Däremot om man spinner vidare på andra "missförstånd" här i tråden så vore det jäkligt finurligt om nvidia eller ati integrerade grafikkortet i moderkortet där man sedan själv kan montera GPU och G-RAM efter behov.

Permalänk
Medlem

Återigen redan delvis gjort, Fast från en annan gfx designer som legat i teknikens framkant... S3 hade ett virge chip som gick att byta ut då det satt i en sockel. Minne till det grafikchipet gick att upgradera på samma sätt som på pci korten innan de slutade med det, återigen, för att det inte bar sig prestandamässigt. Delvis gjort, menat jg att det är, eftersom det återigen rörde sig om ett chip som gick att byta ut mot "samma" fast i olika revisioner / hastigheter, samt att minnet var av samma typ som det på pci korten gjorde ju det till att de låg på samma prislapp. Inte helt billigt. Inte helt säker, men jag har möjligtvis kvar nån sånn burk, från (hollänska?) Tulip.

B!

Visa signatur

Allting jag skriver är om inget annat uttrycks, min åsikt! Ingenting måste vara dagens sanning enligt din åsikt, och gör du antaganden baserade på mina åsikter hoppas jag att du övervägt mer än bara just min åsikt.

Permalänk
Medlem

Ett grafikkort som har denna "lyx" att kunna byta GPU, så kör kortet inte med dubbla DVI-I.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av tubgirl
vore det inte bättre att lansera 'riktiga' kort med mobile-gpus och samtidigt klistra på en ordentlig kylfläns?
jag antar att de där mxm-modulera är svindyra och har riktiga buzzers till fläktar...

Går kanske att kyla med vatten på något sätt.

Visa signatur
Permalänk
Medlem

Mr B: Nu ska vi ta det här i tur och ordning,

1. Japp, och allla de där olika grafikkorten har exakt samma komponenter hela vägen, identiska firmware, och det ända som skiljer dem från varandra är minnena...

Du har uppenbarligen inte tittat på så många grafikkort i dina dagar, du kommer att se att majoriteten av korten följer en referensstandard med i stort sett identiska komponenter på, där det sällan krävs olika bios mellan olika revisioner eftersom de rent elektriskt är identiska även om de inte är det fysiskt.
Några magiska optimeringar mellan olika bios är det inte prat om men självklart kan ett bios med tightare minnesinställning ge bättre prestanda, detta förnekade jag dock inte själv. Jag kan inte riktigt förstå varför det skulle vara ett hinder att matcha hur du vill vad gäller minnen och gpu, förutsatt att du flashar om kortet med snälla inställningar före du skulle byta minnen, eller att det skulle vara spd-kretsar på minnesstickorna, om man nu skulle göra separata gpu/minne. Observera att jag fortfarande skriver spd-kretsar och inte integrerad spd, varför man nu vill ha spd-information i ett ram-minne?

Att du därför inte skulle kunna matcha lite som du vill vad gäller minnen och gpu:er anser jag som nonsens. De flesta grafikkortsbios har stöd för flera minnestyper och vad som gäller 64/128 bitar eller 128/256 bitar brukar du kunna se skillnaden rätt tydligt, den version med fler bitar har också dubbelt antal minneskretsar. Lika simpel lösning som i en dator med dual/singlechannel

2. För att du ska kunna använda spd's måste du köra på någon typ av minneskort, vilket inte är aktuellt, eftersom de olika gpukonfigurationerna använder olika många bitar i sina accesser. Altså blir det lösa kiselbirat som stoppas i socklar, och jag är ledsen, men det sitter en separat krets med spd informationen på minnen, det ligger inte i själva minnes utrymmet.

Det är inget större problem än att fler kretsar ger fler bitar, titta på lite kort ska du se att lågbitvarianten av korten har hälften så många kretsar som den snabbare vanligtvis. Det skulle inte bli en värre lösning än två minnessocklar. När jag pratade om spd-kretsar var det inte så att jag menade på att det sitter på alla minnen, utan att det skulle kunna vara en lösning på hur lösa gpu:er och lösa minnen skulle gå att blanda på enklast sätt.

3. förprogramerades firmwaren med värden för de olika tillgängliga konfigurationerna, och sen var du tvungen att köpa minnena från tillverkaren, med ett väldigt högt pris som direkt resultat. Som indirekt resultat, fick de lägga mycket slappare timings på minnena än vad du med fasta minnen enbart hade, vilket gav sämre prestanda, så hela konceptet övergavs.

Tvivlar på att konceptet övergavs på grund av för slappa timings på minnena. Dessutom är det ganska motsägelsefullt att tillverkaren var tvungen att köra med slappast möjliga timings om det bara fanns ett märke att tillgå på minnesexpansionerna.
Har du överhuvudtaget tittat på hur slappa minnestimings är på grafikkort nu för tiden? Många är oresonligt slappa, skulle alla de tillverkare behöva lägga ner sina kort därför? Knappast.
Att konceptet övergavs för att det var billigare att köpa ett kort med dubbla minnesmängden från början samt att det var dyrt för att det inte blev någon standard är mer troligt.

Går man med dina tankegångar kanske det är mer värt för alla användare att ha integrerade minneskretsar på moderkort med eftersom det ger bästa timings och pris till alla användare oavsett behov.

Själv äger jag både S3-kort och Matroxkort med plats för minnesexpansion, har svårt att tro att de dog ut av prestandaskäl, snarare den näst intill obefintliga tillgången och försäljningen av de förhållandevis dyra minneskretsarna. Har du något underlag för att två tillverkare lade ned detta av prestandaskäl när bådas klientel troligtvis var större inom företag snarare än gamers.
S3-korten gjorde ju inte ens för att vara snabba, så jag förstår inte ens att du tar upp dem.

På den här tiden var det dessutom aktuellt att ha mycket minne även om det inte var snabbt pga av att 2mb och 4mb var vanliga standardutföranden kunde man inte köra så högupplöst som man ville även om det i sig inte var något minnesintensivt man utförde.

Fluffy: Vad är lyxen med att kunna byta gpu när slutpriset lär bli högre än att köpa ett nytt grafikkort varje gång?

Visa signatur

Arch | 1440p 165Hz IPS | 7800X3D | 1080ti | 64GB@6GHz | SN850 2TB

Permalänk
Medlem

Att du alls orkar.

1. Japp, alla korten följer referens standard, och alla gpu'er har gemensam referensstandard. ända anledningen till att grasfikkortstillverkarna inte massproducerar identiska kort, och bara löder på gpu / minne, är för att de inte vill bli avslöjade, vilket tyvärr är kört nu, skicka dem ett email och förklara. Vad det gäller bitbredd, hur hade du tänkt göra där, ska du konstruera ett kort med 1024bitars minnes access, så att framtida gpu'ers behov är tillgodosedda? eftersom olika gpu'er använder den tillgängliga bitbredden på olika sätt, hur ska du lösa det?1024 1bit breda kanaler, och en minneskontroller som tar hand om det, och gör om det till vad gpu'n anser att den ska ha? Vem ska tillverka mineskontrollern?

2 Eftersom den ända lösningen för bibehållen prestanda på monneskort, är minneskort tillhandahållna av tillverkaren av gpu'n, och som i så fall dnna måste ligga på ett stort lager av, så att de inte halvägs genom försäljningen måste byta minnestyp, för en eller annan anledning, vilket potensiellt gör de nya minnena oanvändbara i äldre kort. För all del, Det bör gå att tanka ner en ny firmware, och först därefter upgradera minnet på kortet i fråga, men det känns som ett orealistiskt krav att en användare inte bara ska klara av att flasha om sin produkt, han eller hon, ska även klara av att identifiera sina minnen, och avgöra vilket minnes krav som ska vara avgörande. Då de flesta än i dag inte kan flasha om nånting mer avanserat än ett usb minne, känns det som höga krav. (se dig om i forumet va? Hur ofta dyker det upp trådar om flashning av ett, eller annat?) Det lär inte bli en lösning på 2 minnes socklar. Det är inte så länge sedan det var vanligt med 128bitars access, ska du ha utrymme för utvekling för du lägga på lite... 4-8, beroände på hur länge du hoppas det ska vara användbart.

3. Konceptet övergavs med förklaringen att det var billigare för kunden att köpa ett annat grafikkort med mer minne, än att köpa lösa minnen, samt att utan möjligheten till uppgradering av minnet, kunde de optimera korten bättre. Det finns kort både med, och utan upgraderingsmöjlighet, jämför firmware'n. Det var ingen som slopade en grafikkortsdesign för att det fanns plats för minnesupgraderingar på dem, de valde helt enkelt att inte löda på socklarna. På efterföljande kort slopades de helt när referens designen togs fram. Självklart fanns det inte bara en minnestillverkare, men eftersom minnena hade så olika specifikationer, var det till att köpa minnena genom grafikkortstillvverkaren, som i sin tur var tvungen att lägga korten med slappare timmings än annars nödvändigt, för att säkerställa funktionen med de minnen de senare skule vara tvugna att köpa, minnen med då, okända specifikationer, eftersom de inte kunde förutspå vem som skule tillverka de ur deras synpunkt "bästa" minnena... sanolikt de billigaste.

Faktum är, att om du kunde köpa moderkort med "rätt" mängd integrerade minnen, så skulle det ge bättre utrymme för optimeringar, och bättre prestanda. Problemet är väll snarare att behovet av minne är så olika, att det inte är en lösning som går att tillämpa.

Jag misstänker att Matrox pressreleaser för tidsperioden är svåra att komma över, men ja, Matrox hävdade att det var anledningen till att de la ner det, främst eftersom de försökte lansera sina kort som lämpliga för cad, vilket inte direkt var ett stort plus när korten var långsamma. S3 nämnde jag, eftersom de var de som höll fast vid lösa minnen längst, om jag inte minns helt fel.

Det ser onekligen ut som om du är för uppptänd för att släppa iden, så jag föreslår att i stället för att springa runt o tycka att du är duktig, och försöka sparka på mig, gör nånting åt det i stället. Ta fram ett kort som kan använda alla tillgängliga grafikchip, även om du måste montera dem i en godtycklig sockel. du kan ju börja med Intel Ati och nVidia. När du har en funkerande massproducerad vara, ska jag faktiskt ställa upp o köpa en, bara för att visa att jag inte är grinig.

Fram tills dess tycker jag vi lägger ner det här.
B!

Visa signatur

Allting jag skriver är om inget annat uttrycks, min åsikt! Ingenting måste vara dagens sanning enligt din åsikt, och gör du antaganden baserade på mina åsikter hoppas jag att du övervägt mer än bara just min åsikt.

Permalänk
Medlem

Måste faktiskt hålla med B!

Grafikkorten använder alldelles för optimerade kretsar för att det ska vara lönt att kunna byta GPU, om man nu skulle börja använda "socklar" till gpun så skulle man vara tvungen att vara slapp med optimeringen, för att kunna tillgodose många olika typer av kretsar och i det prestandakrig som pågår just nu, så tvivlar jag starkt på att någon av tillverkarna har lust till det. Dessutom så förändras minnestyperna på grafikkorten så snabbt så att man ändå skulle va tvungen att köpa nytt moderkort för att kunna installera den nya typen av minne som kommit, eller så borde man kanske göra socklar för minneskontrollers också?.. eller nää.. vi säljer tomma pcb-brädor.. så kan alla köpa sina egna kondesatorer, dioder, resistorer osv o så slänger vi in ett schema... o be om 5000 spänn o så får man klara sig

Och vad gäller MXM-moduler så är de ju bara grafikkort i miniformat minus strömförsörjningskretsen, det duger bara till bärbara datorer där det är snålt om plats, så att mxm-sloten kan agera som en dedikerad grafikport där man kan byta grafikkort hursomhelst.