Senaste nytt om G92! [Sammanslagen med "Information kring G92"]

Permalänk
Medlem

Fast du säger att GTX/Ultra har 256 streamprocessorer, vilket vad jag har förstått inte stämmer. 128 streamprocessorer, vilka egentligen är grupperade i 8 grupper om 16, och arkitekturens styrka kanske egentligen sitter i dess 24 ROPs.

2900X har istället 320 streamprocessorer i grupper om fem shaders, men "bara" 16 ROPs.

I och med att ROPen är en vital del för hela processen, så blir 8800 mer effektiv än 2900. Jag skulle tro att den påverkar betydligt mycket mer än antalet shaders.
När det kommer till minnesbandbredden på de olika korten, så är det ju ganska jämt skägg mellan de båda arkitekturerna. Man har bara löst problemet olika. Och av vad man kan se hitintills, så verkar i alla fall 2900XT inte vara gynnat av sin breda buss, då prestandaskillnaden med högre klockfrekvens på minnessidan inte är direkt enorm. Visst, det kan ha att göra med latencys och liknande, men jag tror helt enkelt att det har mer minnesbandbredd än vad det riktigt behöver.

När det kommer till PCI-E-bussen, så har jag hört från personer med goda kontakter, att kortet från början var designat för PCI-E 2.0 och dess dubbla bandbredd jämfört med PCI-E 1.1. Jag är medveten om att det känns som att PCI-E borde ha tillräcklig kommunikationsbredd för de här graffena, men till syende och sist, så ger PCI-E-bussöverklockning bra resultat, och det är ju knappast någon slump.

Visa signatur

Datorer, ett enkelt sätt att dagligen träffa idioter....

Permalänk
Citat:

Ursprungligen inskrivet av denstore
Fast du säger att GTX/Ultra har 256 streamprocessorer, vilket vad jag har förstått inte stämmer. 128 streamprocessorer, vilka egentligen är grupperade i 8 grupper om 16, och arkitekturens styrka kanske egentligen sitter i dess 24 ROPs.

2900X har istället 320 streamprocessorer i grupper om fem shaders, men "bara" 16 ROPs.

Du borde läsa igenom tråden, det står mycket matnyttigt i den Jag klistrar in vad jag skrev tidigare i tråden om R600 vs G80:

"Men nu stämmer ju inte det över huvudtaget, så... R600 har 64st Super Scalar enheter, mot G80s 128 Scalar-enheter. Varje Super Scalar-enhet består av en huvudkärna och 4 hjälp "kärnor". (4+1)*64 = 320. Men jämför vi likadant för G80 så bli resultatet: Scalar-enheten har en huvudkärna + en hjälp "kärna". (1+1)*128 = 256. Poängen är bara att nVidia räknar varje hel enhet som en Stream Processor, medans ATi fuskar och räknar varje del av deras Super Scalar-enhet. Så, det är inte 320 vs 128 som gäller, det är 320 vs 256. 256 som är clockade i 1,35Gh (GTX) och 1,5Ghz (ultra)."

Dvs, ATi fuskar och kallar alla "kärnor" i sina units för Stream Processors, medans nVidia namnger varje unit som en Stream Processor. Så, du har fel

Visa signatur

ASUS P5Q Pro | Core 2 Duo E8400 | 4GB Corsair XMS2 1066Mhz CL5 | XFX GeForce GTX 260 216SP 55nm | Corsair VX450W | Intel X25-M G2 80GB Retail | 500GB Samsung Spinpoint | DVD-RW | Dell U2311H | Benq FP241W | Philips 200WP7ES | Windows 7 RTM | Samsung ML-1640

Permalänk
Medlem

Så man ska dra upp pci-e bussen när man överklockar? hur långt vågar man gå?

Visa signatur

Lian Li O11D Dynamic Mini || MSI MEG X570 Unify || Ryzen 5600x || MSI 3080 Suprim X || 2x8 GB PC 3600 HyperX || Corsair SF750 Platinum 750W || 2x SN750 NVMe 1TB

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av sthlmskille82
Du borde läsa igenom tråden, det står mycket matnyttigt i den Jag klistrar in vad jag skrev tidigare i tråden om R600 vs G80:

"Men nu stämmer ju inte det över huvudtaget, så... R600 har 64st Super Scalar enheter, mot G80s 128 Scalar-enheter. Varje Super Scalar-enhet består av en huvudkärna och 4 hjälp "kärnor". (4+1)*64 = 320. Men jämför vi likadant för G80 så bli resultatet: Scalar-enheten har en huvudkärna + en hjälp "kärna". (1+1)*128 = 256. Poängen är bara att nVidia räknar varje hel enhet som en Stream Processor, medans ATi fuskar och räknar varje del av deras Super Scalar-enhet. Så, det är inte 320 vs 128 som gäller, det är 320 vs 256. 256 som är clockade i 1,35Gh (GTX) och 1,5Ghz (ultra)."

Dvs, ATi fuskar och kallar alla "kärnor" i sina units för Stream Processors, medans nVidia namnger varje unit som en Stream Processor. Så, du har fel

Jag har läst tråden, men undrar mest varifrån du har fått att Nvidia har 1+1? Jag tror jag har läst de flesta recensioner och liknande på nätet, och aldrig sett något sånt nämnas.

Visa signatur

Datorer, ett enkelt sätt att dagligen träffa idioter....

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av A.N'doja
Haha, visserligen sant.

Detta är ju lite som med Athlon VS P4. P4 fick nästan alltid storpisk fast Intel hade betydligt högre frekvenser medans AMDs frekvenser resulterade till att det effektiviserades, gjorde mer nytta men jag vet inte. Man kanske inte kan skriva så när man jämför Nvidia och ATi.

Och andra sidan, super-scalar och scalar enheter är ganska stor skillnad. Ta en scalarenhet till 2.75 och gånga det med 64 blir lika med 176. Siffrorna är så klart tagna ur luften men jag menade mest på att super-scalar enheterna kanske kan jämföras som 2,75 av Nvidias men jag vet ej.

Korrekt.

Lär man sig något nytt varje dag. Visste inte att ATI hade som så lågt klockade. Varför detta snesteget?

Visa signatur

Macifierad militant mactivist....
"Why join the navy if you can be a pirate?" - Steve Jobs

Permalänk
Citat:

Ursprungligen inskrivet av AkUs
Lär man sig något nytt varje dag. Visste inte att ATI hade som så lågt klockade. Varför detta snesteget?

Vet faktiskt inte. Dom trodde väl att det räckte med en Super-scalar arkitektur och 512bit minnesgränssnitt tillsammans med GDDR4.

Det hade vart nice och se 32 pipelines på det kortet (1GB) versionen och köra några rundor prestanda tester kring olika spel. Jag menar dom har kört på sina 16pipelines nu i 2 generationer, börjar bli old nu känns det som, stor flaskhals.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Medlem

Det känns som att ni blandar lite mycket äpplen och päron här. Shaderclocken på Nvidia-korten kanske inte ska blandas med antalet ROP på G80 kontra R600. De har ju rätt stor skillnad i hur man närmar sig arbetet. Bra att läsa är det här:
http://www.anandtech.com/video/showdoc.aspx?i=2988&p=6

Visa signatur

Datorer, ett enkelt sätt att dagligen träffa idioter....

Permalänk
Avstängd

Inte för att tjata eller så men vi bör hålla oss "On Topic".
Dock är de intressant med vilka fysiska skillnader de under huvarna mellan HD2900XT och 8800 korten men ta detta i en annan tråd är ni snälla.

Visa signatur

Fractal Design Arc Mini. Fractal Design Newton R2 650W. Intel Core i5-2500. Intel Liquid Cooling Solution RTS2011LC. ASUS P8H77-M Pro. 8GB Samsung PC3-10600. ASUS GTX 560 Ti 448-cores DirectCU II 1280MB. 1 St Samsung 830 Series 128GB. 1 st Samsung SpinPoint F1 500GB. 1 st Samsung EcoGreen F4 2TB. Samsung SH-123. ASUS VH238T. SteelSeries Ikari Optical. SteelSeries QcK Mini. SteelSeries G6v2. SteelSeries 4H. Edifier E3300.

Permalänk
Medlem

Fast saken är ju att spekulationer om G92 måste baseras på vad som finns i dagens teknik, och vad som kan tänkas förändras.
Personligen tror jag att Nvidia går upp till 512-bitars buss (om de gör det)mest för att det ser bättre ut på pappret. De har redan med G80 visat att såväl 320 som 384-bitars buss i dagsläget är helt OK.
När det kommer till ökningen i beräkningskraft så lär det antagligen handla om en ökning i shaderunits, och kanske i antalet ROPs. Men tills vidare så finns det ju i stort sett ingenting som är bekräftat om G92, så det enda intressanta blir ju i alla fall att extrapolera från G80.

Visa signatur

Datorer, ett enkelt sätt att dagligen träffa idioter....

Permalänk
Citat:

Ursprungligen inskrivet av denstore

När det kommer till PCI-E-bussen, så har jag hört från personer med goda kontakter, att kortet från början var designat för PCI-E 2.0 och dess dubbla bandbredd jämfört med PCI-E 1.1. Jag är medveten om att det känns som att PCI-E borde ha tillräcklig kommunikationsbredd för de här graffena, men till syende och sist, så ger PCI-E-bussöverklockning bra resultat, och det är ju knappast någon slump.

Som sagt, jag tror inte bussbredden är det stora problemet.
Ifall varken ram-minne eller hårddisk kan fylla utrymmet så kan inte bussen flaskhalsa. Vad gäller informationen ifrån CPUn så gäller det ju till mesta delen AI, fysik och till viss del geometri. Information som inte tar så stor plats egentligen men däremot snabbt behöver förflyttas. Ifall ATI-korten skickar fler requests till nordbryggan än nvidiakortet så kommer ati-kortet få en boost av klockad busshastighet.

Det är lite som med de s.k. CS-nördarna som är övertygade om att de får bättre ping ifall de uppgraderar från 2mbit/s adsl till 24mbit/s...
Hastigheten blir inte högre bara för att bussen blir bredare.

EDIT: därför tror jag inte att G92 kommer vara PCI-e 2.0

Visa signatur

Belysningstekniker låter väl lagom flummigt?
signature your as this use backwards this read to enough dumb were you if

Permalänk
Citat:

Ursprungligen inskrivet av mortifer666

Det är lite som med de s.k. CS-nördarna som är övertygade om att de får bättre ping ifall de uppgraderar från 2mbit/s adsl till 24mbit/s...
Hastigheten blir inte högre bara för att bussen blir bredare.

EDIT: därför tror jag inte att G92 kommer vara PCI-e 2.0

Hehe, jag sänkte iofs min ping från ~20 till ~5-10 när jag bytte från BBB 10Mbit adsl till 30Mbit fiber Blixtvik. Men jag förstår vad du menar.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Inaktiv
Citat:

Ursprungligen inskrivet av A.N'doja
Hehe, jag sänkte iofs min ping från ~20 till ~5-10 när jag bytte från BBB 10Mbit adsl till 30Mbit fiber Blixtvik. Men jag förstår vad du menar.

fiber är ju snabbare (informationen åker i högre meter per sekund), så det är ju klart du fick en prestandaboost

Permalänk
Medlem

5 november

Permalänk
Medlem

Kan vi inte vi alla ta en afterwork öl och reda ut allt detta?

Känner att man inte hänger med längre...

Kan inte A.N'doja och Sthlmkille82 ta med sig en stor fin white-borad till detta öl-hak, där ni två tillsammans kan sammanställa all info på ett bra sätt?

Jag hänger med mycket bättre då, eller vad sägs?

Jag kan köpa pennor och öl...

Vem kan se till att ta med sig en whiteboard?

Visa signatur

.: iPad :: iPhone 4 :: iFan :.

Permalänk
Avstängd

Ja hänger gärna med och ja har grejer till detta.
Dock är de lite onödigt att sammanställa de hela på de sättet då varken jag, A.N'doja, Sthlmkille82 eller dom flesta andra som är insatta i de här kan förklara tekniken fullt ut då vi saknar kunskap om en stor del. Skulle uppskatta att vi vet knappa hälften av alla faktorer som krävs för att veta hur de funkar. De skulle bara resultera att vi fick en blandad kompot av mycke spekulationer om komma kretsar till mycke info om dagens kretsar med massor av kunskaps luckor.

Ja håller mig lite i skymundan just nu då de är helt onödigt då ja bara skulle bli ett eko över vad som sagts här i överlag.

Visa signatur

Fractal Design Arc Mini. Fractal Design Newton R2 650W. Intel Core i5-2500. Intel Liquid Cooling Solution RTS2011LC. ASUS P8H77-M Pro. 8GB Samsung PC3-10600. ASUS GTX 560 Ti 448-cores DirectCU II 1280MB. 1 St Samsung 830 Series 128GB. 1 st Samsung SpinPoint F1 500GB. 1 st Samsung EcoGreen F4 2TB. Samsung SH-123. ASUS VH238T. SteelSeries Ikari Optical. SteelSeries QcK Mini. SteelSeries G6v2. SteelSeries 4H. Edifier E3300.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av mortifer666
Som sagt, jag tror inte bussbredden är det stora problemet.
Ifall varken ram-minne eller hårddisk kan fylla utrymmet så kan inte bussen flaskhalsa. Vad gäller informationen ifrån CPUn så gäller det ju till mesta delen AI, fysik och till viss del geometri. Information som inte tar så stor plats egentligen men däremot snabbt behöver förflyttas. Ifall ATI-korten skickar fler requests till nordbryggan än nvidiakortet så kommer ati-kortet få en boost av klockad busshastighet.

Det är lite som med de s.k. CS-nördarna som är övertygade om att de får bättre ping ifall de uppgraderar från 2mbit/s adsl till 24mbit/s...
Hastigheten blir inte högre bara för att bussen blir bredare.

EDIT: därför tror jag inte att G92 kommer vara PCI-e 2.0

Nej, det är inte samma sak som CS-nördarna. Du får bättre resultat med i 3DMark med högre PCI-E-buss, så du har en verklig förbättring. Det handlar alltså inte om att det "känns" som något.....
Skit samma i om det handlar om bandbredden, eller om det är om hastigheten. Förbättringen är där. Och den ger verkligen resultat i CF, vilket borde betyda att det har med bandbredden att göra.

Visa signatur

Datorer, ett enkelt sätt att dagligen träffa idioter....

Permalänk
Medlem

var ett bugg med mitt förra moderkort där pci-e stäldes till x2 istället för x16. Körde 3dmark06 med 2x och fick 11000p, fixade det och det stäldes tillbaka till 16x och fick 12500p efter det.

Så jag tror KNAPPAST att det är PCI-E bussen som flaskar.

Permalänk
Medlem

Hade tänkt köpa ny dator nu men väntar tills g92 och penryn kommer...
Den 7 år gamla jag har nu får duga tills jag flyttar då blir det nytt.

Kommer 9800 GTS komma samtidigt eller kommer GTX först? Hoppas man kan få ett kort för runt 3500:- Hoppas man kan få penryn för samma pris som c2d, ca 2000 dvs.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av DarKzY
var ett bugg med mitt förra moderkort där pci-e stäldes till x2 istället för x16. Körde 3dmark06 med 2x och fick 11000p, fixade det och det stäldes tillbaka till 16x och fick 12500p efter det.

Så jag tror KNAPPAST att det är PCI-E bussen som flaskar.

Öhhh, det du beskriver är ju precis att den gör det? 1500 i 06 är en rätt hyffsad förändring....

Visa signatur

Datorer, ett enkelt sätt att dagligen träffa idioter....

Permalänk
Medlem

det är skillnad ja, men tänk på att PCIe x2 och hoppar man upp till x16... se skillnad. Denstore jag tror verkligen inte att du vet vad du snackar om.

PCI-E x2 leverar inte äns nära vad PCI-e x16 gör, så 1500p i 3dmark06 är LITE om man tänker att den hoppade från x2 TILL x16.

Och nvidia förlorar pengar på att göra kortet till 2.0 då konsumenter kommer knappast köpa ett nytt moderkort bara för det grafikkortet. Sanningen är att det kom precis ut 2.0 och nästan INGA konsumenter har 2.0 eller vet äns vad det är för ngt.

Nvidia har mycket att hämta från PCI-E 1.1 och PCI-E 2.0 kommer att hoppa in någon gång 2008 enligt mig.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av DarKzY
det är skillnad ja, men tänk på att PCIe x2 och hoppar man upp till x16... se skillnad. Denstore jag tror verkligen inte att du vet vad du snackar om.

PCI-E x2 leverar inte äns nära vad PCI-e x16 gör, så 1500p i 3dmark06 är LITE om man tänker att den hoppade från x2 TILL x16.

Och nvidia förlorar pengar på att göra kortet till 2.0 då konsumenter kommer knappast köpa ett nytt moderkort bara för det grafikkortet. Sanningen är att det kom precis ut 2.0 och nästan INGA konsumenter har 2.0 eller vet äns vad det är för ngt.

Nvidia har mycket att hämta från PCI-E 1.1 och PCI-E 2.0 kommer att hoppa in någon gång 2008 enligt mig.

Det är ju bra att du har koll på läget, och vet vad du snackar om, för då kan ju du förklara varför hög PCI-E-buss gynnar resultat i 3DMark? Det kan ju absolut inte ha något med bussen att göra, då du bara tappade 1500 poäng själv när du satte ner den till x2.
Det är säkert någon dold feature, som bara just 10 i topp på orben kan utnyttja....

Jaja, du får ju tro vad du vill.

Visa signatur

Datorer, ett enkelt sätt att dagligen träffa idioter....

Permalänk
ASUS Nordic
Citat:

Ursprungligen inskrivet av denstore
Fast saken är ju att spekulationer om G92 måste baseras på vad som finns i dagens teknik, och vad som kan tänkas förändras.
Personligen tror jag att Nvidia går upp till 512-bitars buss (om de gör det)mest för att det ser bättre ut på pappret. De har redan med G80 visat att såväl 320 som 384-bitars buss i dagsläget är helt OK.
När det kommer till ökningen i beräkningskraft så lär det antagligen handla om en ökning i shaderunits, och kanske i antalet ROPs. Men tills vidare så finns det ju i stort sett ingenting som är bekräftat om G92, så det enda intressanta blir ju i alla fall att extrapolera från G80.

Nästa gpu (G9X) från Nvidia är en die-shrink med en del buggfixar på hårdvarunivå. Samma pcb, 384-bits bus med GDDR4 (0.5-0.8ns). Troligen har dem öven lagt till instruktioner för tessalation och en förbättrad hd-videodecoder.

Ang PCIE2.0 vill jag bara flika in att det kommer ha stor inverkan för 2900 och speciellt crossfire. Redan PCIE1.1 16X begränsar ett 2900XT.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av kinc
Nästa gpu (G9X) från Nvidia är en die-shrink med en del buggfixar på hårdvarunivå. Samma pcb, 384-bits bus med GDDR4 (0.5-0.8ns). Troligen har dem öven lagt till instruktioner för tessalation och en förbättrad hd-videodecoder.

Ahh, äntligen en äkta expert! Hur är det då med nyttan av hög PCI-E-frekvens?

Det du säger känns logiskt. Men frågan är ju då hur långvarig G9X blir? Helt ny arkitektur i vår, eller?

Visa signatur

Datorer, ett enkelt sätt att dagligen träffa idioter....

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Kimpen
Hade tänkt köpa ny dator nu men väntar tills g92 och penryn kommer...
Den 7 år gamla jag har nu får duga tills jag flyttar då blir det nytt.

Kommer 9800 GTS komma samtidigt eller kommer GTX först? Hoppas man kan få ett kort för runt 3500:- Hoppas man kan få penryn för samma pris som c2d, ca 2000 dvs.

Tror 3500 är lite väl optimistiskt, och "samma pris som c2d".. det varierar ju mellan 800-2400 mer eller mindre, så det beror väll hur pass snabb processor du vill ha

Visa signatur

Vem orkar uppdatera den här signaturen egentligen? Kommer ju ny teknik hela tiden :(

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av denstore
Ahh, äntligen en äkta expert! Hur är det då med nyttan av hög PCI-E-frekvens?

Det du säger känns logiskt. Men frågan är ju då hur långvarig G9X blir? Helt ny arkitektur i vår, eller?

Angående att PCI-E porten skulle begränsa 2900XT känner jag inte så trovärdigt, tyvärr.

Visa signatur

Fractal Design Ridge | Ryzen 5 5600X | Asus STRIX B550-I | Asus RTX 3060 Ti Dual | Corsair 16GB 3000MHz | Crucial P1 1TB Nvme | Corsair SF600 Platinum

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av denstore
Jag har läst tråden, men undrar mest varifrån du har fått att Nvidia har 1+1? Jag tror jag har läst de flesta recensioner och liknande på nätet, och aldrig sett något sånt nämnas.

Det jag förmodar att han menar med "hjälpkärnor" är att förutom dessa huvud ALU:er, som du säger grupperade i 8 grupper (kluster) med 16 i varje så innehåller dessa kluster även 16 ALU:er som hanterar specialoperationer (som t ex cos,sin mm). Beyond3d förklarar det rätt bra tycker jag och har en bild som förenklar det: http://www.beyond3d.com/images/reviews/g80-arch/g80-diag-big....

Nr 9 är det som nVidia kallar en SP och nr 10 det som jag antar sthlmskille82 menar "hjälpkärna".

Håller dock inte med det han säger att ATI fuskar när det räknar samtliga ALU:er. R600 så kallade "hjälpkärnor" är mer generella och gör mer "riktigt" jobb än de på G80. Man borde snarare se det så att de har 4 normala + 1 special ALU som kan extra mycket.

Permalänk
Avstängd

Ja ser faktiskt fram emot att få se tester och prestanda på ny PCI-E 2.0, både på dagens grafikkort plus NVIDIAs och ATIs nya kort.
Men eftersom dagens 1.1 begränsar ett HD2900XT hur är de egentligen med 8800 korten? Någon som har ett humm om dom oxå drar nytta av de eller kommer de vara nästa GPU från NVIDIA som har nytta av den extra bandbredden?

Visa signatur

Fractal Design Arc Mini. Fractal Design Newton R2 650W. Intel Core i5-2500. Intel Liquid Cooling Solution RTS2011LC. ASUS P8H77-M Pro. 8GB Samsung PC3-10600. ASUS GTX 560 Ti 448-cores DirectCU II 1280MB. 1 St Samsung 830 Series 128GB. 1 st Samsung SpinPoint F1 500GB. 1 st Samsung EcoGreen F4 2TB. Samsung SH-123. ASUS VH238T. SteelSeries Ikari Optical. SteelSeries QcK Mini. SteelSeries G6v2. SteelSeries 4H. Edifier E3300.

Permalänk
ASUS Nordic
Citat:

Ursprungligen inskrivet av denstore
Ahh, äntligen en äkta expert! Hur är det då med nyttan av hög PCI-E-frekvens?

Det du säger känns logiskt. Men frågan är ju då hur långvarig G9X blir? Helt ny arkitektur i vår, eller?

Hög pciefrekvens kommer alltid gynna syntetiska tester. Marginalerna kommer dock garanterat att minska med PCIE2.0.

Hörde precis nytt ang. G92. Samma die size i 65nm. Runt 800MHz core clock, 2500MHz shader. Så kan omöjligt vara en dieshrink. Detta kommer från källa jag litar på.

Citat:

Ursprungligen inskrivet av I`m
Angående att PCI-E porten skulle begränsa 2900XT känner jag inte så trovärdigt, tyvärr.

Sedan dag ett med 2900XT har jag upplevt hur beroende 2900 är av pcie-busen. 100 till 118MHz pcie ger en boost på ca 5% i 3dmark 05 (direkt synligt i gt3) med ett kort, inte överklockat. Gjorde tester de första dagarna jag hade 2900.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av kinc
Hög pciefrekvens kommer alltid gynna syntetiska tester. Marginalerna kommer dock garanterat att minska med PCIE2.0.

Sedan dag ett med 2900XT har jag upplevt hur beroende 2900 är av pcie-busen. 100 till 118MHz pcie ger en boost på ca 5% i 3dmark 05 (direkt synligt i gt3) med ett kort, inte överklockat. Gjorde tester de första dagarna jag hade 2900.

Men det bekräftar ju att PCI-E knappast är tilltagen i överkant. Som jag har förstått det, så gör det mer på ATi än på Nvidia, och framförallt under CF. Stämmer det? Jag tyckte inte det gav så mycket med mina GTX, inte ens i SLI....

Visa signatur

Datorer, ett enkelt sätt att dagligen träffa idioter....

Permalänk
Citat:

Ursprungligen inskrivet av kinc
Hörde precis nytt ang. G92. Samma die size i 65nm. Runt 800MHz core clock, 2500MHz shader. Så kan omöjligt vara en dieshrink. Detta kommer från källa jag litar på.

Jädrans Marcus. Stämmer det då har vi ett monster på G. Men stämmer ryktena kring November tror du? Nvidia lovade ju ny lansering av arkitektur varje år om jag förstod dom rätt.

Men om det du skriver stämmer så är det inte omöjligt att G9X skulle prestera dubbelt så bra som 8800GTX. Jag menar DDR4 minnen med låg NS, 800Mhz GPU, 65nm, hela 2500Mhz shaderclock. Det tyder på goda möjligheter att bli dubbelt så snabbt?

Aja det ska bli väldigt intressant. Dock vill jag veta mer om R700 som jag ser som ett mer intressant kort.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.