Inlägg

Inlägg som Arrogant har skrivit i forumet
Av Arrogant
Skrivet av NaturaL:

hmm.. Hoppas dom dyker upp under nästa månad. Vill verkligen prova dom i CF och se hur allt lirar.

http://www.techpowerup.com/141260/March-8-Launch-Date-for-Rad...

Åttonde mars verkar vara det datum som gäller. Det verkar faktiskt som att AMD får ut sin dubbelmacka tidigare än Nvidia. Och ärligt talat så tror jag att den kommer att besegra Nvidias-kort på samtliga relevanta punkter! AMDs skalbara design lämpar sig helt enkelt bäst för den här typen av kort. Dock så lär båda ge prestanda så att det räcker och blir över för alla sorters tillämpningar!

Av Arrogant

Lite nyheter om HD6990 "Antilles"!

Såg att Hardocp precis lagt upp en liten preview på HD6990 som kan vara värd att spana in för den intresserade.

http://hardocp.com/article/2011/02/26/amd_radeon_hd_6990_anti...

Exempelvis så verkar inte prestandan vara bristfällig:

"While we cannot reveal the specifications or framerate numbers to you today, we will say this, we are happy with what AMD has provided. The specifications are everything HardOCP had hoped for. We think gamers will be pleased with the hardware. This video card is better out-of-the-gate than the Radeon HD 5970 ever was."

Det finns väl inte enormt mycket matnyttigt i artikeln men den kanske hjälper till att stilla någons nyfikenhet något. Jag tyckte i alla fall att den var läsvärd, särskilt det om Eyefinity i DA2!

Av Arrogant

Kör kortet upp och ner i ugnen tills GPUn lossnar. Sen borrar du ett hål i GPUn och har den som nyckelring! Med din GPU-nyckelring blir du nördhjälte på jobbet!

Av Arrogant

End of Life.

Produkten har alltså utgått.

http://en.wikipedia.org/wiki/End-of-life_%28product%29

Av Arrogant

Personligen tvingas jag ladda ner de olika spel jag är intresserad utav då det mer eller mindre inte finns några demos till PC längre.
Om spelet jag laddat ner skulle visa sig vara bra så köper jag det sedan!

Av Arrogant

På FZ kan man samtidigt läsa:

http://www.fz.se/artiklar/nyheter/20110220/microsoft-och-nvid...

Vad pysslar Microsoft och Nvidia med egentligen?

Av Arrogant

Man kan ju undra om den här nytillkomna fyrkanten har någonting att göra med att Intel använder en cirkel i sin logotyp?

Av Arrogant
Skrivet av str8forthakill:

Mycket trevligt, ett av mina favoritmärken, gainward var kung under nvidias 7*** serie (sista gainward kortet jag hade)

Mitt Gainward Bliss 7600GT Golden Sample håller med dig fullständigt!

Av Arrogant

Gainward är den Nvidia AIB-partner jag gillar bäst så detta var ju onekligen trevliga nyheter! Mer Gainward åt folket!

Av Arrogant
Skrivet av Scetchy:

Har sett att Zalman har några alternativa kylare till geforce korten och någon till ati men den fungerar endast till 58** serien. Finns det några bra kylsystem utöver vattenkyling till mina 6950?

Jag har Scythe Setsugen 2 på mitt HD6970 och den passar garanterat till HD6950 också.

Av Arrogant

Prestandan på det här tycks ligga närmast GTX470 vad gäller Nvidias övriga sortiment precis som jag skrev i en tidigare tråd. Så resultatet prestandamässigt var väl väntat; i alla fall för mig.

Dock så är jag mycket förbluffad över hur pass "dåligt" det skalar i SLI och att strömförbrukning är så pass hög för ett kort av den här typen. Mer än HD5870 i CFX till och med!

Ärligt talat så tror jag inte att detta blir någon särskild storsäljare med tanke på vad som redan finns på marknaden. Exempelvis HD6950 eller varför inte GTX570.

Men det fyller ju ett syfte genom att pressa priser på befintliga kort!

Av Arrogant

Ett trick jag brukar använda är att lyssna genom ett sugrör. Peka sugröret mot komponenterna och lyssna genom det! Låter lite knasigt kanske, men det fungerar riktigt bra!

Av Arrogant
Skrivet av Ase:

300 watt är bara en standard man kan göra ett kort som drar 500 watt om man vill ,men då följer man inte standarden ,580 kortet drar inte 300 watt så har inte dom bekymren ,har aldrig påstått att dom ska bygga ett kort med 2st 580 (110 kärnor)om dom bygger ett med 114 kretsen så kul för dom .blev bara less på snacket om strömförbrukning. Om det är det man koncentrerar sig på så lär man varken köpa ett AMD 6xxx eller ett Nvidia 5xx kort ska dock fortfarande bli kul hur 6990 kortet presterar & hur Nvidias svar blir kommer inte att köpa någon av dom själv.Tror dock att ett 6950x2 kommer få ganska stora bekymmer med ett 560x2 om det nu kommer .det enda vi vet är att det kommer ett väldigt försenat 6990 (beror nog på 5xx serien ) så ska bli kul att se vad det blir & hur det presterar

Med tanke på att HD6950 i tvåvägs-CFX presterar relativt nära GTX570 i tvåvägs-SLI så verkar det inte särskilt sannolikt att HD6950x2 kommer att få stora bekymmer med GTX560x2 (förutsatt att dessa två GPUer är de som används, det är dock möjligt att de använder sig av nedklockade 6970s istället. Då är det snarare GTX560 som får problem).

Det må bli relativt jämnt men jag tror alltså inte att HD6950 skulle få några problem överhuvudtaget i en sådan konfiguration om det ställdes mot dubbla GF114. Men vi får väl se!

Här är Sweclockers recension där vi ser bland annat GTX570 i SLI mot HD6950 i CFX. GTX570 är ju klart snabbare men skillnaden är inte precis enorm. Jag tror personligen att GTX560 Ti hamnar i samma area som GTX470 (förmodligen ett litet snäpp över)! Men vi får väl se som sagt!

http://www.sweclockers.com/recension/13175-amd-radeon-hd-6970...

Av Arrogant
Skrivet av Bazooka_tim:

Ska man jämföra 6990 med GTX 580 så är det GTX 580 SLI isf. Två GPU mot två GPU.
Men något jag är fundersam över är om Radeon kan ha mer än 256-bit minnesbuss?

Intressant fråga det där med 256-bits minnesbuss. AMDs "sweet spot" har ju länge gått ut på att de tillverkar en GPU som är skalbar och lämpar sig för dual-GPU lösningar och på sätt skapa de snabbaste grafikkorten.
Nvidias strategi har å andra sidan varit att skapa de snabbaste single-GPU korten som finns.

Resultaten av dessa två strategier syns tydligt på dagens produkter. Cayman-korten har en minnesbuss på 256-bitar och GF110 har minnesbussar på 320- och 384-bitar.

Vad innebär detta då i praktiken? Båda Cayman-korten lämpar sig perfekt för en dual-GPU lösning då deras minnesbuss endast är 256-bitar bred. Nvidia har det värre med GF110 då de använder en större bussbredd.
GPUer med större bussbredd är mycket svåra och dyra att använda till en dual-GPU lösning. Detta till stor del på grund av den ökade trafiken mellan GPU och DRAMs.

Detta är alltså anledningen till att vi med största sannolikhet kommer att få se GF114 (GF114 använder en 256-bitars minnesbuss) på Nvidias dual-gpu kort snarare än GF110 (även om det givetvis är möjligt, men frågan är det är ekonomiskt försvarbart).

Det återstår att se hur nära GF114 ligger Cayman i prestanda innan vi kan säga vilken av de två dual-GPU lösningarna som kommer att prestera bäst. (Detta förutsatt att de använder GF114 i sin dual-GPU lösning, vilket jag alltså tror att de gör!)

Här är mer läsning för den som är intresserad:

http://www.realworldtech.com/page.cfm?ArticleID=RWT1214102138...

"AMD’s overall strategy with their GPU line is to address the ‘sweet spot’ of the market with a single compact GPU, while relying on multiple-GPU solutions to scale up further. This is a distinct contrast to Nvidia, which has aggressively and successfully aimed for the largest and highest performance single GPUs. This measured approach to GPU design is a conscious trade-off to achieve higher yields, lower costs and better margins, at the price of losing the marketing halo of the highest performance single GPU. One other catch is that while graphics is an embarrassingly parallel application, not all games can effectively use multiple GPUs. Thanks to the efforts of application engineers though, most major titles can use more than one GPU. "

"One of the constraints of the ‘sweet spot’ approach is that AMD is limited to narrower memory interfaces. A 384-bit or 512-bit wide memory interface is certainly feasible for a single GPU. However, it becomes a board design nightmare for dual-GPU graphics cards due to routing congestion between the GPUs and all the DRAMs. This increases the number of layers needed in the PCB for the board and the number of DRAMs, therefore increasing costs and design effort."

Av Arrogant

Äntligen drivrutiner med faktiska prestandaförbättringar för HD6900-serien. Relativt imponerande förbättringar måste man säga!

Av Arrogant
Skrivet av m3tr0:

Nej, AMD integrerade minneskontrollern för första gången i de första Athlon64/Opteron-processorerna som kom 2003. I samband med socklarna 940 och 754 alltså.

Jo, för DDR. Men AM2 var först med en IMC för DDR2. Och som jag förstått det så var integreringen av DDR2
IMCn orsaken till att AM2 inte längre var pinkompatibel med tidigare sockets.

Av Arrogant
Skrivet av SeF.Typh00n:

Antagligen, får väl se hur det kommer se ut efter Bulldozer har släppts. Eller om det kommer en bättre lösning på det.

Jag tror personligen att det dröjer. Dock använder ju sig AMD av LGA på serversidan så kunskapen om att utveckla en mainstream-platform med LGA finns ju där, men jag tror som sagt att bakåtkompatibiliteten är av avgörande faktor här. Så länge det finns möjligheter för kompatibilitet mellan nyare och äldre platformar så kommer vi att se PGA hos AMD.

Av Arrogant
Skrivet av SeF.Typh00n:

Du missuppfattade mig. Varför bytte man inte från Socket 939 till ett (LGA)AM2?

Det var ju en nystart, varför bytte man inte ifrån PGA till LGA. Strunta i vad resten innebär.

AMD's backplate är ju värdelös. I många fall kunde man bara ha kylaren på fel håll, luftflöde nerifrån/upp(om man köpte annan än stock, vilket förövrigt är ett svin att få loss)

Ärligt talat så ser jag inte riktigt fördelarna med LGA över μPGA. Den största anledningen som jag ser varför Intel egentligen bytte från PGA till LGA beror på tillverkningskostnader. Det är mycket billigare att producera LGA än det är att producera PGA. Intel hävdade dock att bytet berodde på att man med LGA kunde få högre klockfrekvenser då man fick större kontaktyta mellan CPU/MB. Och att man också får många fler pins med LGA jämfört med PGA att leka med. De här extra pinsen kan man ju t.ex använda till extra och bättre strömförsörjning.

Men frågan är om det inte egentligen var en kostnadsfråga då skillnaderna i prestanda inte kunde varit annat än marginella.

Varför AMD inte gick över till det kan man väl bara spekulera i. Jag tror personligen att AMD var relativt stressade i samband med AM2 platformen då Intel redan hade DDR2-stöd. AMD spenderade säkerligen väldigt mycket tid och pengar på att utveckla den integrerade minneskontrollern som kom i samband med AM2 (Intel fick ju inte detta förrän med Nehalem). Att byta till LGA på den här socketen hade nog helt enkelt tagit alldeles för mycket tid och resuser för AMD som ville ha ut AM2 snarast utan ytterligare förseningar.

Av Arrogant
Skrivet av SeF.Typh00n:

Exakt. Varför bytte dom då inte samtidigt som Intel med Pentium 4 på socket 775.

Istället blev det likadant med Socket 939 och AM2 som inte ens passade tillsammans. Tycker fortfarande det är ett litet meningslöst skippande. Precis som fästanordningen på AMD's kylare som är fruktansvärt usel.

Inget mot processorerna, använder en drös själv.

Man ska ju inte peta på dom oavsett vilken processor eller märke det är.

Det finns en viktig skillnad mellan socket 939 och AM2 och det är att AM2s minneskontroller stöder DDR2.

Detta omöjliggjorde all typ av bakåtkompabilitet då stödet för vanlig DDR togs bort helt från AM2s minneskontroller i samband med bytet till DDR2. I samband med AM2 blev också minneskontrollern integrerad i processorn snarare än att ha den som ett separat chip på moderkortet. Man förstår direkt varför bakåtkompatibilitet med 939 var omöjlig.

Layouten på pins var alltså helt annorlunda på AM2 jämfört med 939 trots att AM2 endast hade en pin extra. Så frågan är om du inte hade behövt en hammare för att få någon som helst kompatibilitet.

Sedan håller jag inte med om att AMDs fästen är dåliga. Det är dock lite svårt att komma åt ibland då fästena ofta hamnar under kylflänsarna. Men jag kör vattenkylning numera och då är det inga som helst problem.

Av Arrogant
Skrivet av SeF.Typh00n:

Finns ju en anledning att intel slutade med det och övergick till LGA/PGA. BGA Suger.

Förstår inte heller varför AMD inte bytar till LGA.

Om ni tänker efter lite så finns det givetvis en väldigt enkel förklaring till varför AMD fortfarande använder μPGA istället för LGA eller någon variant av det. Det handlar nämligen om bakåtkompabilitet, så enkelt är det!
Exempelvis så skall man kunna byta till ett AM3+ moderkort utan att behöva byta processor om man redan sitter på en AM3-processor.

Den här kompatibiliteten som AMD erbjuder är givetvis en stor säljpunkt och väldigt viktig. Exempelvis så stöder AM3-platformen fortfarande DDR2.