Permalänk
Medlem

phet nice asså !

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av skruvis
Varför kallas det SLI då?

Scalable Link Interface - Vilket sammanträffande att det blev samma förkortning som på Voodoo II-tiden.

Permalänk
Hedersmedlem
Citat:

Ursprungligen inskrivet av OggeIII
'

Tror du verkligen att man inte kommer att kunna konfiga med olika möjligheter typ 4 skärmar eller liknande, det vore helt korkat att bara satsa på prestande från tillverkarnas sida, då tror jag att det inte kommer att få sålt många om det bara är för den saken, nää sarround gaming für alle.

Om ni inte titta runt på matrox hemsidan så finns det en lista på alla spel som stödjs här och en massa fina screens:

http://www.matrox.com/mga/3d_gaming/surrgame.cfm

Ser Jävligt nice alltså....men inte så kul att vänta på den tiden man har råd med 3 LCD skärmar i hyfsad storlek och ett/två 4000kr-grafikkort.

Permalänk
Medlem

Personligen anser jag att nVidias SLI variant är en bra ide. Det ger förhoppningar på dubbel GPU nVidia grafikkort i framtiden efter som det är ren hårdvara, inte mjukvara som fixar SLI. Även om CPU är flaskhalsen i dag så är det som sagt kanske inte så i morgon. Problemet är att standarder ändras. Pixelshaders generationer osv. nVidia ligger långt fram så det är dock ett mindre hinder. När dessa kort blir äldre lär de dock fortfarande rocka, precis som Voodoo2 i SLI mode gjorde. Men kylningen och power kan bli stort problem, dock borde de som har råd med detta pengar till att lösa det problemet.

Personligen anser jag att detta kan leda till mer för nVidia på workstation grafiker marknaden istället för spel prestanda.

Visa signatur

Ronny "Thinker" Ohlsson
"If everything is under control, you're not going fast enough."
"Overkill is just a better safety margin."

Permalänk
Medlem

soft soft soft.... 4 skärmar bara dvi eller kan man bara använda 2 ? frågan är som sagt, hur går det med kylningen samt strömförsörjningen

Visa signatur

.: Learn the system, Play the system, Break the system :.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Alleand
Ser Jävligt nice alltså....men inte så kul att vänta på den tiden man har råd med 3 LCD skärmar i hyfsad storlek och ett/två 4000kr-grafikkort.

Priserna kommer nog snart att sjunka rejält med takt att den vanliga CRt-försäljning och tillverkning kommer att upphöra. redan idag får man en duglig 17 tummare för 4000.

Dessutom vem säger att nvidia är det enda företag som kommer att försöka använda två graffes, dumt om ingen annan fatta iden nu när vi ändå kan få så hög banbredd på andra portar i datorn.

Kanske kommer tilverkarna lägga in fler skärmsstöd på mid och budgetkorten bara som försäljning ide och Matrox som redan har banan sopade när det gäller denna filen kanske skapar en helt ny krets och hypar upp iden med enkla program och annat dylikt, oavsätt så hoppas jag.

Och alla ni som oroar er om strömförsörjning så har ni väl alla hört historien om killen som körde korten på något 200 agg eller vad det nu va=) dessutom kommer man inte behöva använda så många kontakter i framtiden när nya btx aggen och den standarden införs.

Permalänk
Medlem

Men det skulle ha vart roligare att se hur dom presterar i spel. Hur mycket skillnad det gör att ha 2 istället för 1.

Visa signatur

”CITERA mej, annars dör jag"

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Thinker
Personligen anser jag att nVidias SLI variant är en bra ide. Det ger förhoppningar på dubbel GPU nVidia grafikkort i framtiden efter som det är ren hårdvara, inte mjukvara som fixar SLI. Även om CPU är flaskhalsen i dag så är det som sagt kanske inte så i morgon. Problemet är att standarder ändras. Pixelshaders generationer osv. nVidia ligger långt fram så det är dock ett mindre hinder. När dessa kort blir äldre lär de dock fortfarande rocka, precis som Voodoo2 i SLI mode gjorde. Men kylningen och power kan bli stort problem, dock borde de som har råd med detta pengar till att lösa det problemet.

Personligen anser jag att detta kan leda till mer för nVidia på workstation grafiker marknaden istället för spel prestanda.

Problem med kylning, varför. En lösning som med en 80 mm på sidan och ett hål utåt löser det problemet och just en sådan konfig med fläkt på graffet finns redan på många burkar.

Permalänk
Medlem

Det här känns ju tryggt....

två kort på 150w vardera =300w bara för graffet omg...känns lite overkill

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Psionicist
Är lite tveksam till kylningen av det översta kortet.

haha tänk om det översta kortet blir för varmt och du får artifacts på halva skärmen :/

vet inte om någon redan har nämnt det, orkade inte lästa hela tråden...

Visa signatur

Antec SLK3000B | Tagan 480W | AMD A64 3000+ Winchester | Zalman CNPS7000B-CU | MSI RS480M2 | 1x512 A-data Vitesta PC4000 | Sapphire X700Pro 128mb | Seagate 120+200GB
var snäll och CITERA när du skriver till mig :)

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Kr^PacMan

Tror att alla har blivit helt galna på senaste tiden. För ett år sedan var kantutjämning och AF vissa använde, men i och med den nya generationen grafikkort _måste_ alla köra med 16xAF och massa AA, varför inte nöja sig med 2x av varje i en hög upplösning?

Visst vill man göra spelen snyggare, men att köpa "ett" grafikkort för mer än vad en budgetdator kostar tycker jag är otroligt onödigt för att kunna köra FarCry i 1280x1024 med 4xAA och 16 (!) gångers anisotropisk filtrering i mer än i 45 fps.

Jag tror mycket av det här beror på att folk går över mer och mer till platta skärmar, och vad är problemet med det?
Jo maxupplösningen och den rekommenderade upplösningen är alltid likadana, och därför är det optimalt att köra 1280x1024. För att komma förbi begränsningen här behövs det antingen större skärmar eller någon annan typ av fix, så som FSAA.
Sen att det kanske är helt onödigt till dagens spel är en grej, men att köpa framtidssäkra grejer har jag alltid sett som ganska smart

Visa signatur

//Alex
"Non-cooperation with evil is as much a duty as cooperation with good"

Permalänk
Medlem

jag blir nästan lite nostalgisk nu ju detta var ju det maffigaste med voodoo2 korten hehe

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av RoboDuCk
Jag tror mycket av det här beror på att folk går över mer och mer till platta skärmar, och vad är problemet med det?
Jo maxupplösningen och den rekommenderade upplösningen är alltid likadana, och därför är det optimalt att köra 1280x1024. För att komma förbi begränsningen här behövs det antingen större skärmar eller någon annan typ av fix, så som FSAA.
Sen att det kanske är helt onödigt till dagens spel är en grej, men att köpa framtidssäkra grejer har jag alltid sett som ganska smart

Mjo, men räcker inte 1280*1024 utan FSAA och sånt?
Jag tycker det i alla fall..
Men det är jag kanske ganska ensam om.

Permalänk
Medlem

Hoppas inte detta blir ännu en "Floppar vi minns" bara

Annars verkar SLI-tekniken intressant, ska bli kul att se utvecklingen av detta

Visa signatur

NEVER stick your tongue on my VapoChill :)

VapoChill XE 3.2Ghz@4.2Ghz

Permalänk
Medlem

Skulle vara bra ifall dom kom upp med kort som är 'upp och ner' så att fläkten inte är emot själva pcb' på det understa kortet

Visa signatur

PSN: ZlimJim (adda gärna)
Live Olimp (adda gärna)
Wii Vetifan :P

Permalänk
Medlem

är det bara jag som tänker på att det dära moderkortet lär vara EXTREAM!!!!! 8 st minnesplatser.. säkert 2*processorer okcså os.v... 2* graffe kort emd ;D sånt skulle ba jag vilja ha.. även fast jag e AMD fan !

Permalänk
Hedersmedlem

På tal om moderkort så börjar vi mer och mer se en tid då grafikkorten mer eller mindre måste ha en extra plats under dom om dom ska kunna kylas ordentligt så är det inte dags för moderkortetillverkarna att börja ta hänsyn till det och skapa mer plats mellan APG och PCI platserna(Eller PCI-express)

Permalänk
Medlem

helt sant! alleand.. du kanske kan börja jobba på något moderkort företag och snaka lite om design os.v ;D

Permalänk
Hedersmedlem
Citat:

Ursprungligen inskrivet av voleyro
Men om ett kort kräver minst 400 W hur ska man då klara detta två kort på sitt 420 W :S??

om ett kort kräver 400W, kanske det i sig drar max 100-150W....
mao kanske 2 kräver runt 500-550?

Visa signatur

Every time you create an iterator: God kills a kitten.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av zhaPP
hmm.. vadå.. tar varje kort upp 2 st platser? vem vill offra 4 platser för det där?? lär finnas ett kort som är typ lika bra som 2 innan dom kommit ner i pris lite..

En pci-e plats per grafikkort.

Permalänk
Medlem

Nvidia var väl tydligen säkra på att det skulle fungera fint på ett 550W agg av bra kvalitet
Appropå kylningen så lär de nog ha kontrollerat det, tror inte de skulle sälja ett par kort som inte går att köra i standardhastigheter.

Ber att få citera tomshardware: "Hypothetically, you would shell out $499 for a GeForce 6800 Ultra or spend an extra $100 and get two standard 6800 processors with SLI."
intressant, två vanliga 6800 borde ju vara snabbare än ett Ultra eller UE (24 vs 16 pixelpipes bla). Ett 6800Ultra (Extreme) kommer ju förresten kosta precis lika mycket som två vanliga 6800 i SLI, jag vet vad jag skulle ha tagit iaf.

På workstationversionerna av kortet (quadro) som för övrigt lär bli riktigt grymt på att rendera med två xeons och mycket ram så skulle det iaf gå att köra 4 skärmar, och går det där så är det ju egentligen bara en drivrutinsfråga.

En synpunkt jag har är emellertid att jag tycker de borde göra det möjligt att ha olika kort, den adaptiva renderingen av skärmen borde ju möjliggöra, iaf i teorin att ha t.ex. ett vanligt 6800 och ett Ultra eller nåt sånt, det skulle ju isf vara guld för uppgraderingar.

Visa signatur

USA har aldrig varit på månen, Sverige hade aldrig vm 1958 och 9/11 har aldrig inträffat och därmed basta.
P4 2,6C@<3,0Ghz + CNPS7000A-CU|AI7|1,5Gb BH5 & BH6|Antec Sonata|R9800np(BBA) + VF700-CU@425/258|HP LP2465|Logitech MX500, Seasonic S12 500W

Permalänk
Hedersmedlem

Det finns AMD-moderkort med PCI-Express (prototyper)

http://www.sweclockers.com/html/artikel/computex_2004/comp32....

Kommer troligtvis under sommaren, om man nu kan lita på det

Visa signatur

Perhaps its everything you say-G´kar
Fools to the left of me feeders to the right - I need to find a real job! - Londo Mollari (Babylon 5)

Permalänk
Citat:

Ursprungligen inskrivet av bomber3
Först köper man en kort och sedan den andra när det börjar bli billigt samt dags för uppgradering, smart lösning.

Bätre att köpa ett kort mer för ~1500kr för att få dubbla prestanda än att slänga bort ~4000kr på att bara få ~20-40% mer prestanda

exakt!

Permalänk
Medlem

Om jag fattat det rätt så ska x800/6800 gå mest på 12 volten? Då borde mitt 460w enermax med 34 ampere på 12 volten duga alldeles utmärkt då
Måste säga att jag gillar idén med 2 grafikkort. Men jag är kritisk till att det skulle ge precis dubbel prestanda. I teorin borde man alltså kunna fylla varenda pci-e slot med 6800 kort då? Och man måste väl kunna köra hela kalaset på 1 skärm bara... tyckte nån skrev att man måste ha en skärm/uttag

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av ArchDeviL
Om jag fattat det rätt så ska x800/6800 gå mest på 12 volten? Då borde mitt 460w enermax med 34 ampere på 12 volten duga alldeles utmärkt då
Måste säga att jag gillar idén med 2 grafikkort. Men jag är kritisk till att det skulle ge precis dubbel prestanda. I teorin borde man alltså kunna fylla varenda pci-e slot med 6800 kort då? Och man måste väl kunna köra hela kalaset på 1 skärm bara... tyckte nån skrev att man måste ha en skärm/uttag

Det är PCI-E 16x portar som används för grafikkortet och frågan är hur många moderkort som ens kommer ha två stycken sådana. Men det blir kanske vanligare pga. detta. Men fler än 2 kort går inte som det ser ut nu.

Permalänk
Medlem

säger bara Radeon 9800PRO 256Mb DDR Klockat

Visa signatur

I5 2500k@4,6ghz 8gb ram, 6950 Asus Directcu II Fractal design define r3, Corsair h60.
Microsoft sidewinder 4, Logitech mx518, Benq 24", Beats by dr.dre Studio edition.
PSN: Sazern

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Stisse
säger bara Radeon 9800PRO 256Mb DDR Klockat

Får jag fråga varför du säger det?

Visa signatur

h170i-plus i5 6600 2x8gb ddr3l 850 pro 256gb
Don't argue with an idiot. He will drag you down to his level, and beat you with experience.