Muskampen 2025: Segraren korad!

Inlägg

Inlägg som Enigma har skrivit i forumet
Av Enigma
Citat:

Ursprungligen inskrivet av jesusbarnet
men lägg ned tror du inte att alla vet att Flopper är enögd, framförallt tror du inte att han vet det själv, dock ska man väl tilllägga att atis flaggviftare är 2good4you och Flopper oftas inte lägger sig på en så dålig nivå som dina inlägg brukar vara !

Men du sitter och späder ut hypen fanboi style om 300gt ditt estimate är ju inte heller skrivet i sten?

med så lite info och rykten det cirkulerar så tycker jag att en release inte verkar så trolig innom de närmaste månaderna, men vem vet locket kanske är på ?

i övrigt så är det väl alltid bäst och billigast att vänta, för då kan man ju aldrig köpa nått, helt enkelt vänta tills utvecklingen stannat upp innan du köper nått !

Tror du inte jag ser när du skriver mitt namn? Någon flaggviftare är jag inte. Ett ganska grundlöst påstående.

Sen börjar det bli rätt tröttsamt att precis samma personer vänder upp och ner på alla trådar där RV870 och GT300 är med.

1. Man köper det grafikkort som är bäst nu. Vänta kan man alltid göra, speciellt på GT300 som dröjer flera månader. Ska man vänta kan man lika väl vänta på AMD's svar på GT300...

2. Ingen vet ett skit om GT300, och vad nVidia går ut med i pressen är sannolikt att allt är guld och gröna skogar då dom inte vill att folk ska handla HD58xx kort. Faktum är att det inte alls är ljust för nVidia nu. Dom kan absolut inte priskonkurrera med sina GTX200 serie kort, då dom kostar mer att tillverka än alla ATI korten och blir därmed en stor förlust. Det är isf om dom gör en dieshrink utav GT200 till 40nm. Då kan dom utmana något med ett mid-end kort.

3. Till trådskaparen, är du missnöjd med ljudnivån eller vill få ner energikonsumptionen och vara redo för nextgen och en prestandaökning, så sälj av dina grafikkort och köp ett HD5870. Det kommer utan tvekan att hålla i sig riktigt länge. Många speltillverkare optimerar spelen efter AMD's DX11 kort, då dom blev först.

Av Enigma
Citat:

Ursprungligen inskrivet av Blackbird_CaD_
1: Nej ingen vet hur bra GT300 kommer prestera, men utifrån kända fakta så kan GT300 OMÖJLIGT prestera sämre än RV870, period.

2: http://www.fudzilla.com/content/view/15689/1/
http://www.nordichardware.se/nyhet,16505.html

Och kom inte med snacket om att "Fudzilla snackar hästskit", eftersom det är Nvidia SJÄLVA som har sagt det klart och tydligt till Fudzilla (och kanske några fler?): “Our 40nm yields are fine. The rumors you are hearing are baseless.”

1. Det sa alla om NV30 också som skulle bli dåtiden nya superkort, trots att det släpptes långt efter 9700PRO. Det slutade med att 9700PRO var bra mycket bättre fortfarande. Dom var även då först med DX9 kort och SM2.0+. Nu är nVidia i samma sits igen, precis som med NV30. Skillnaden är att denna gången kanske man lyckats bättre eller mycket bättre än vad man gjorde med NV30. Faktum kvarstår dock, och det är att spelutvecklarna optimerar spelen till dom mest avancerade kort som kommer först.

2. Fudzilla känner jag om någon mycket väl till då jag en gång gjorde narr av dom:

http://www.dailytech.com/Barcelona+Benchmarks++Dont+Believe+E...

Han kallar min bench för AMD Exclusive. Läs...

Av Enigma
Citat:

Ursprungligen inskrivet av kriggus
Men om man har koll på temperaturen så är det väl inte nån fara? eller? Tror dig inte innan du bevisat det.

Kan ju faktiskt vara bra att göra ett overkill-test ifall man vill vara 100% på att kortet faktiskt fungerar i den nya hastighet, såvida det inte går sönder i samma veva =/

Vet man inget om elektronik så resonerar man så, annars hade du förstått hans påstående.

Av Enigma
Citat:

Ursprungligen inskrivet av Blackbird_CaD_
Inte bara enligt mig, enligt fudzilla, VR-zone, bright side of news, expreview, you name it. +alla experter inom området+alla andra som har nånting mellan ögonen+AMD+Nvidia själva.

Yieldsen på GT300 är bra.

1. Ingen har något som helst pålitlig källa om hur GT300 kommer prestera.

2. Yield på GT300 är INTE bra.

Citat:

Ursprungligen inskrivet av the squonk
Tja, istället för att spekulera så kan jag säga, bara för att alltid retar det någon, att jag redan nu bestämt mig för GT300. Jag ser framåt med tillförsikt, och hoppas på en ny G80-upplevelse i December

GT300 dröjer och det är fortfarande vilket grafikkort för sin tid som är snabbast. Man kan lika väl vänta på AMD's svar på GT300 med ditt resonemang.

[QUOTE]Sen får man ju inte glömma att;

a. Nvidia fungerar _mycket_ bättre i alla Open Source OS. Framtiden är att inte vara beroende av Microsoft, alla steg på den vägen är av godo.

[/QUOTE]

Stödet i *nix har blivit avsevärt bättre, och frågar du mig skiter jag i vilket då jag använder Windows av enkla själv, att jag kan göra allt i Win jag behöver och har ett användarvänligt och invant os, likt 95% av resten av världens datoranvändare.

[QUOTE]b. Bara för att Nvidia har PhysX innebär det inte att de inte kan köra även Open CL och DX11, GT300 kommer att klara det galant. _Och_ PhysX. Alltså maximal utdelning på fysikfronten.[/QUOTE]

AMD's kort klarar fysikberäkning så vad är det du vill komma till? Dom kommer hamna under samma standard.

[QUOTE]c. Övrig hårdvaruaccelerering i diverse program förutom spel fungerar redan nu överlägset mycket bättre med Nvidia än med ATI.[/QUOTE]

ATI korten har mer beräkningskraft. Finns praktiska programvaror som bevisar det också. T.ex att använda metoden bruteforce för att knäcka en WEP nyckel för ett WLAN. GPGPU kommer också att hamna inom samma standard, precis som fysikberäkning.

[QUOTE]d. Spelutvecklare är vana att utveckla för Nvidia, vare sig det beror på taskspel eller inte så ger det en indirekt fördel i kommande spel.[/QUOTE]

Synd att verkligheten springer om dig. AMD har lämnat sina D11 kort för längesedan till spelutvecklare och kommer bli optimerat för dom.

[QUOTE]e. Man slipper drivrutiner skrivna i .net .....[/QUOTE]

AMD har användt .net länge, vad vill du komma till? Totalt irrelevant.

[QUOTE]edit. glömde, Nvidia skalar bättre i SLi än vad AMD gör i Crossfire, det kan komma till användning längre fram. [/QUOTE]

Nej. Crossfire skalar bättre än SLI.

Samt, efter många inlägg från dig har jag nu förstått att du är en fanboy. Hade det varit konkret fakta, oavsett hur mycket det gynnat nVidia, samt med bra argument från eget ordförråd hade jag inte sagt något. Men med dina spekulationer och texter så är det rätt uppenbart.

Av Enigma
Citat:

Ursprungligen inskrivet av the squonk
Angående klockningen så var det likadant på Athlon X2, och det beror på att processorn helt enkelt blir en hel del varmare i 64-bitars läge. Det är klart att det klockar sämre då.

Varför blir det varmare? Jo, för 64-bitars delarna av processorn är avstängda i 32-bitars läge = de alstrar ingen värme.

Skillnaden i klock kvarstår alltså även i Linux, eftersom värmen inte blir lägre bara för att man kör Linux.

Varför drabbas inte Intel av samma problem? Svar: de har helt enkelt en bättre tillverkningsteknik med lägre läckage, då blir inte de här problemen lika uppenbara även om det säkert finns en mycket liten skillnad även där. Dock är den så liten att ingen har reagerat över det.

Precis som du spekulerar om GT300 spekulerar du här.

För det första så beror det inte på någon värme, utan att det är betydligt större register och fler instruktioner med i bilden som kan bli felräknade av beräkningsenheterna. Finns inget som heter "64-bitars delarna". Hela processorn används, men med större register och addresseringar. Finns ingen teori om att en processor skulle bli varmare heller.

Sen hittar du på med att AMD's processorer har högre läckage? Det vet ingen än AMD och Intel själva då det är oerhört svårt att mäta det. Man har många variabler som skillnader i tillverkningsproces och typ av transistorer, densitet osv. Intel's processorer går oftast i högre temperaturer än Phenom II, vilket beror på att dom har högre TDP, vilket inte är samma sak som effektkonsumption.

Förstår precis varför Jalle64 vill ha stöd för dina påståenden då han vet att dina påståenden inte stämmer

Av Enigma
Citat:

Ursprungligen inskrivet av silicon111
Uch, orka läsa den wall of fanboyism. Nvidia är fortfarande prestanda kungen med single kort . 295 tar 5870 och hur ni en tänker så är 295 ett SINGLEKORT fast det kanske har 2gpuer men fortfarande SINGLEKOOOOOOOOOOOOOOOOOOORT.

5870x2 finns inte ute en så NVIDIA ÄR LEDANDE!!!!!!!

Even fast dom ligger efter en generation av grafikkort nu pga förseningar. DÄRFÖR SUGER ATI BABIAN RUMPA! Och derför vet jag att g300 äter er ati fanboys på sängen sen. puss

http://sweclockers.com/forum/showthread.php?s=&postid=9488371...

Jag skrev allt det för att totalt och vårdslöst skulle äga upp dina skrämmande dåliga kunskaper. Försök att svara och säg emot något utav det jag skrev istället din sillmjölker.

Sen i boxning, brukar det vara 2 mot 1 boxare då? Du jämför ett dubbelGPU kort som dessutom fortfarande är dyrare, och där din veckopeng verkligen inte räcker till om inte din farsa pröjsar kortet åt dig.

Du har med största säkerhet inte vart med så länge i datorrelaterat att du inte förstår att alla grafikkort som nya inte presterar så bra alltid. Det är testat med beta drivers. Samma sak var när 8800GTX kom, det var avancerat och hade mycket att hämta. Genom alla drivrutinsförbättringar så kan man se minst 20% högre prestanda i genomsnitt sen det kom. Läs på grabben. HD5870 kommer utprestera GTX295 inom en kort tid, speciellt i nyare spel.

Av Enigma
Citat:

Ursprungligen inskrivet av the squonk
Det är 5870x2 som är tänkt att konkurrera med GT300

Enligt dig? När GT300 kommer så ska jag säga att det är ATI's nästa superkort som ska konkurrera mot GT300. HD5xxx serien har inte ens någon konkurrens. Det var samma sak som när 8800GTX kom, då hade ATi inte så mycket att sätta emot med X1950XTX. Med andra ord, det är vilket grafikkort som är bäst under en viss tid som räknas.

[QUOTE]det säger en del om hur mycket snabbare än 5870 som AMD räknar med att GT300 kommer att vara. Ett framtida GTX395 kommer återigen att bli det snabbaste kortet, om det ens blir möjligt att tillverka förstås - många watt blir det. [/QUOTE]

Det säger inte ett skit och du vet inte något alls om GT300. Kan lika väl bli NV30.

Citat:

Ursprungligen inskrivet av Blackbird_CaD_
Det är i princip säkert att GT300 kommer vara snabbare än RV870.
Alla sajter etc räknar med det, men det är en annan femma hur mycket de kommer kosta..

Enligt dig? Du har ingen aning om GT300. Kan lika väl bli NV30 i repris som sagt.

Citat:

Ursprungligen inskrivet av the squonk
Det är inte religiöst att tro det om GT300;

1. Bandbredden blir den dubbla, liknande GDDR5-frekvenser som 5870 men med _512_-bit interface.

2. Chippet blir nästan dubbelt så stort enligt rapporterna, men på samma nod. 5870 har många transistorer, men GT300 har _jättemånga_. Inte troligt att de alla är outnyttjade.

Om Nvidia har någon sorts kompetens fortfarande så bara _ska_ ett sådant chip bli snabbare än RV870, allt annat är orealistiskt. Sen kan det bugga, dra mycket ström osv men snabbt kommer det att vara.

1. Bandbredd, dock kommer det bli dyrt och ineffektivt förhållandevis till vad det kostar. Sen är bandbredd 1 faktor av många till den slutgiltiga prestandan. Det kommer knappast behöva GDDR5 på en 512-bit buss. 384-bit med GDDR5 är betydligt smartare och kostanseffektivt val.

2. Med den dubbla storleken så snackar vi om 600+mm2. Det är extremt svårt att tillverka, speciellt på TSMC's 40nm process som haft en del problem. nVidia har dessutom dålig erfarenhet utav den. Det var anledningen till att ATI hade 4770 som försökskaniner som var små och enkla att tillverka. Yielden på ett 600+mm2 är allt annat än bra. Som jämförelse kan du ta 65nm GT200 (GTX280) som var nästan 600mm2. Det var en katastrof och nVidia var desperata att få ned storleken till 55nm. Dagens GT200 på 55nm som sitter på GTX260, GTX275 och GTX285 kostar mycket mer att tillverka än RV870. Där har du effektivitet. Du skriver att ett så stort chip ska bli snabbare? Storleken säger inte speciellt mycket om det är en ineffektiv arkitektur. Det säger inte heller någonting om densiteten. Med andra ord, du vet ingenting. Som sagt, analytiker och investerare är närvösa, och det är nVidia också. Många månader kvar, och ATI har rätt stora marginaler på sina kretsar då dom är mindre men effektivare. Hur hade du själv marknadsfört GTX200 serien idag när dom kostar mer än RV870 att tillverka? Rätt svår nöt det om man inte säljer med förlust. Det är anledningen till att nVidia är oroade.

Så sluta spekulera och köp det grafikkortet som är bäst för sina pengar. När GT300 börjar närmare sig kan man börja snacka, men nu är bara långsökt då det är långt kvar.

Av Enigma
Citat:

Ursprungligen inskrivet av Kaleid
Länken har kanske varit uppe redan.. guru3d testar i crossfire:
http://www.guru3d.com/article/radeon-hd-5870-crossfirex-test-...

Ser ut som man behöver SNABBA processorer..

Sjukt att det flaskhalsar i 2560*1600 med 8x AA Även ett ensamt HD5870 flaskhalsar i en hel del titlar och mer prestanda finns från kommande drivers att hämta.

Av Enigma
Citat:

Ursprungligen inskrivet av tEan
Ja inte konstigt att höra något sånt här från dej,du är ju lika enögd som kärringens synål.

Bevisa det falska påståendet som du alltid kommer med. Inte första gången. Läs inlägget igen som du citerade. Allt av det som står där är ren fakta. Om inte, citera textvis vad som är fel så ska jag styrka det. Jag skrev med egna ord ungefär vad guru3d kom fram till:

Saxxat från guru3d's summering:

Citat:

I'll try and keep this conclusion short, as really, there's nothing negative to report.

Performance -- Well it's grand really.

Citat:

Kortet är bra ,inget snack om saken,men det är inte så fantastiskt som du(o en del andra här) vill få det till.C:a 40 procent bättre än förra generationens topp singelkort i medel o något långsammare än den bästa dubbel gpu lösningen är iallafal vad jag förväntar mej från en ny generation kort.

Vad är det du vill uppnå med påståeden som dessa? Du försöker alltid få det till att låta som att man överdriver till 100%? Har du läst något annat test än SweClockers egna? Har du förstått att det är beta drivers som testerna är körda på? Det är utan tvekan det nya 8800GTX som jag skrev. Jag har mer underlag än mitt egna för det också:

Saxxat från Anandtech (tycker du AT är löjliga/överdrivna/fanboys eller vad du ni vill hitta på, så snälla ta den diskussionen med dom):

Citat:

Moving away from performance, we have feature differentiation. AMD has a clear advantage here with DirectX11, as the 5870 is going to be a very future-proof card. The 8800GTX is a good parallel here

Citat:

Om man ser på spec på 5870 så är det väl dubbla upp mot 4890 men det presterar inte som dubbla 4890:or.Spec i all ära men det gäller väl att få ut prestandan oxå(2900xt anyone?)

Återigen, även om koden till grafikprocessorer är löjligt parallelliserad så betyder inte det att allt skalar linjärt. Kortet har inte allt för många fall att visa den dubbla hastigheten från ett HD4890 heller, vilket det kan. Dels är det inte fullt utnyttjat, utan bara testat med beta drivers som har mycket kvar att utveckla, sedan dels för att det är processorbegränsat i vissa fall där det verkligen använder sin potential. Som sagt läs t.ex guru3d's test. Kortet kommer skina i kommande spel. Vänta och besanna.

Ang 2900XT hade inte imponerande prestanda på pappret för dom som är mer insatta. Det hade på tok för få texturenheter, och kantutjämning utfördes av shaderprocessorerna utan hjälp av ROP'sen.

Citat:

Och nej,det här är inte något nytt 8800.Den serien behöll prestanda kronan i 1.5 år(medräknat 9800 som i stort sett var ett 8800) vilket 5800 serien aldrig kommer göra.Har faktiskt svårt att se någon av tillverkarna skulle klara av att få till en "8800" serie igen.Konkurensen är mycket tuffare nu.

När 4800 serien kom så blev folk slagna med häpnad inte bara av prestanda mässiga skäl utan först o främt av PRISET!. 4870 var väl c:a 20 procent bättre än Nvidias färra gen:s toppkort o kostade runt 2k vid release.

Jag o många med mej hade sett att Amd fortsatte på inslagen väg med ett nytt billigt toppkort. 3800 är ganska långt ifrån 2000!.

Du skriver vad HD5800 serien kommer att klara. Faktum är att du har inte den blekaste aning. Du ger dig själv lite ditt svar här: 8800 serien utnyttjade ATI's felsteg och fick 8800 korten att framstå som ännu bättre, även om dom fortfarande var bra. Dock var dom fortfarande dyra, vilket nVidia gick runt med när korten var såpass populära. Deras grafikprocessorer är mycket större, ineffektivare och därmed dyrare för nVidia att göra för att matcha samma prestanda. 48xx serien var prisvärda, för att det var perfekt designat och hade dom marginalerna. Dom hade kunnat pressa priset på dom så hårt att nVidia var tvugna att sälja med förlust för att matcha dom. Är du tveksam till det, titta en gång till på kärnstorleken, yields samt vad det kostar. Som jag skrev så har nVidia haft det mycket svårare med ekonomin sedan HD48xx. Du klagar på ATI's pris med ett nytt värstingkort. 8800GTX kostade 6000SEK när det kom så lägg ner och kalla andra för enögda när du är det själv. 58xx serien håller ett pris som är normalt med tanke på vilka priser vi sett tidigare.

Citat:

Eyefinity,visst en kul grej precis som Nvidias 3d ögon,men inte något mer.

Det är rätt rejält mycket mer än ett par 3D brillor. Teknologin är inte bara utvecklad för spelare, utan industriellt och professionellt. Eyefinity är en nyhet utav många. Vi har DX11, DC11, SM5.0, 6'e generationens tesselator som nu kommer användas för första gången i en riktig API, genombrott prestanda/w och effektivtet. nVidia's sönderhypade "PhysX och CUDA" har inte mer betydelse än bara namn.

Citat:

Så för mej var Amd:s 4800 släpp en mycket större händelse o definitivt mer viktigt än 5800 släppet.

Pust. HD48xx var ett stort steg. Nu fördubblar man prestandan och förbättrar allt samt introducerar allt möjligt teknologiskt. Det är ett enormt steg om du inte kan se det.

Citat:

Ursprungligen inskrivet av pellen
Jag får uppfattningen att väldigt här många dissar 5870's prestanda bara för att deras förväntningar är alldeles för höga. Varför tror alla att ett generationsskifte innebär prestandaökningar á G80?

Tittar man på t.ex X1950XTX (R580) vs G80 så tycker jag HD5800 påminner mycket om det idag. Sen har du rätt i att förväntningarna var och är höga, det är mina också. Vissa verkar dock inte förstå att kortet är packat med krut (potential) och framtidssäkert.

Citat:

Ursprungligen inskrivet av Xaves
Det där är crysis, dock är det en custom gjort bana för en tävling. Men bildens syfte är att visa vilken grafik man kan få i Crysis med rätt inställningar.

Med 1 fps och modifierade inställningar. Jag har också vart teknologiskt imponerad av Crysis när det kom av det man såg på techdemos, trots att jag inte ens spelar datorspel. Fortfarande så är det värdelöst optimerat, sen kan du säga vad du vill.

Citat:

Du snackar för mycket skit, vet du det? Prata om det som hör till distutionen istället för att snacka om uppförande, sexuella läggningar osv...

Börjar bli rätt trött på dig och din käft din sillmjölker. Det är du som snackar skit (med tanke på ditt språk) då det redan är konstaterat utav dom flesta att det är ett värdelöst optimerat spel. Sen gällande att hålla sig till diskussionen så var det jag som bad dig att göra det, då du började snacka om att andra ska suga. Då skrev jag att, det får du hålla för dig själv, för jag är inte lagd åt det hållet. Är imponerad över att du inte åker på en varning. MaLo som rensade tråden var bra tålamodig i detta läget.

Citat:

Du har fortfarande inte fattat varför crysis är krävande, och varför bra kort som gtx280 fortfarande inte skalar bra i maxade inställningar. Det är inte spelets eller grafikmotorns fel utan grafikkortstillverkarnas.

Ja, AMD och nVidia vet ju inte hur man designar grafikprocessorer, som fungerar utmärkt i 99% av alla spel förutom i Crysis. Det är därför Crysis ska börja göra grafikkorten istället Hur dum är du?

Citat:

Om jag köper en ny 400 hästars motor till min bil, och sedan failar skiten för att grejerna inte håller, är det då motorns fel?
Nej, förstås mitt för att jag inte bytt ut andra nödvändiga delar i bilen så att det håller för en så pass mycket kraftigare och större motor.

Man konstruerar inte en motor efter en drivlina, utan tvärtom ljushuvud. Ännu mer solklart är att man inte designar ett grafikkort efter ett spel. Du gör ju bara bort dig mer och mer och bevisar gång på gång hur mycket skit du själv skriver (jag använder mig utav samma trevliga språk som du).

Citat:

Klaga inte på spel, grafikmotorer, spelutvecklare för att grafikkorten inte är snabba nog! Om jag ska göra ett spel väljer jag skälvklart en grafikmotor som ger grafik som folk säger wow åt, en stor del av försäljarsiffrorna kommer vara tack vare imponerande och markbrytande grafik.

Det gör jag inte, utan endast på väldigt få spel som är så pissdåligt optimerade som Crysis.

Citat:

[b]Fortfarande är spelet slött, medans andra spelmotorer visar enorma skillnader. Slå upp definitionen på ordet skalning inom datorrelaterat språk.

Då ska du få länka till ett spel med samma förutsättningar och kvallitet som crysis så vill jag se dessa "enorma" skillnader du pratar om...[/B]

Du har tydligen fortfarande inte förstått innebörden utav skalning relaterat till datorprestanda. Ett GT200 har ibland inga problem att vara nära dubbelt så snabbt som ett 8800GTX. Fick vi se den skillnaden i många krävande spel? Svar ja. Fick vi se det i Crysis, eller ens i närheten? Nej, och ändå har folk försökt med processorer som i7 över 4Ghz. Grafikmotorn är värdelös. För att ha något att jämföra med så kan jag påstå att gamla Quake3 motorn är en av dom mest lyckade och effektiva i världen. Nu är den gammal, men den var fortfarande lyckad. Finns många bättre spelmotorer, och det säger jag som inte ens spelar. Har du inte bättre koll själv? Jobbar du för Crytek?

Av Enigma
Citat:

Ursprungligen inskrivet av Xaves
Pedagogist eller inte, han har fel. Crysis ligger i en helt annan dimension när det gäller grafiken i jämförelse med andra spel. Det är detta som 2good4you inte fattar, spelet går inte att jämföra med andra spel på det sättet. Det är väl självklart att det är krävande när det är det mest avancerade spelet idag. Och dessutom skalar det bra som fan, crysis går att köra utmärkt på ett 6600gt på medium, och utmärkt med ett så gammalt kort som ATI 9800pro på low-med inställningar. Så sug *** om att spelet slakar dåligt. SLI och crossfire funkar lika bra som i vilka andra spel som helst, i allafall nvidias kort. Kolla tester och se själv: http://www.sweclockers.com/imagebank/plot/200808/CrysisDX1000...

Nvidia skalar 70 - 80%, ibland högre och ATI skalar ca 50% så ja, crossfire funkar lite sämre i crysis, dock inte dåligt.

Sedan vill jag påpeka att crysis visst flyter fullt ut, om man kör en Quad-SLI setup, 1920x 8xAA allt på högsta... Det är inte Crytek's fel att nvidia och amd inte kan producera snabbare kort än de som finns. Det har inte med att spelet inte är optimerat eller om hur det skalar, det handlar om att crytek satsade mycket högre än andra speltillverkare, och det finns ju både fördelar och nackdelar med det såklart. Prestanda kommer alltid vara ett problem eftersom det finns alltid speltillverkare som pressar grafiken till yttersta gränsen, och i samband med det kommer det också finnas miljoner ungdomar som blir besvikna och föraktfulla och kommer med dumma inlägg som det 2good4you skrev, bara för att spelet är krävande, och att många sedan bryr sig mindre om grafik för att dom prioriterar gameplay faller ju också dit. Alltid ska folk ha nåt att klaga på.

Kom med nåt konstruktivt den här gången istället för skitsnack.

Har du något problem av något slag så man kanske ska ta hänsyn till det?

Tror inte du använder den tonen till okända utanför tangentbordet. Det där med att suga saker får du ha för dig själv, jag är inte lagt åt det hållet. För det andra är det inte relaterat här då det diksuteras grafikkort. Du är så upprörd att du spårar ur över ett sketspel? Man kan inte veta allt, men använder man sin okunskap ihop med ditt betéende så kommer man inte långt, som nu i ditt läge.

Ska tillägga lite text eftersom du uppenbarligen inte förstår något som redan är konstaterat utav många. Spelet skalar värdelöst i dess högsta inställningar, oavsett hårdvara. T.ex i7 och GTX28x korten fanns inte när spelet kom och har en enorm skillnad i prestanda jämfört med föregående plattformar. Fortfarande är spelet slött, medans andra spelmotorer visar enorma skillnader. Slå upp definitionen på ordet skalning inom datorrelaterat språk.

Av Enigma
Citat:

Ursprungligen inskrivet av silicon111
Fan va illa Ati presterade, kan lika gärna sitta med mitt 275 ett tag tills nya gt300 kommer och kör över "miniräknarna" och deras urlöjliga fanboys.

Utan att varken ATI korten eller nVidia korten är skräp, så skäms du inte över din okunskap och totalt ovetande?

1. Kortet presterar extremt bra, och är bara testat med beta drivers. I vilken aspekt du än jämför resultatet så är kortet perfekt. Det har gjort genombrott i prestanda/w och är extremt effektivt. Det har perfekt anisotropisk filtrering, vilket föregående generation inte hade då den var vinkelberoende.

2. GT300 fortsätter nVidia's filosofi om att göra gigantiska och faktiskt ineffektiva grafikprocessorer förhållandevis till sin storlek. Storlek kostar pengar, väldigt mycket pengar och är ett dumt sätt att göra en processor snabbare på när det går till överdrift. RV870 kostar mindre pengar att tillverka än nVidia's nuvarande GT200 som en jämförelse. Innan var GT200 en katastrof på 65nm som mätte nästan 600mm2. GT300 tros bli ännu större och investerare och analytiker är nervösa, då 40nm processen hos TSMC som nVidia har dålig erfarenhet av är känslig. GT300 sägs ha en yield på runt 2%. Anta att du fyrdubblar den siffran så når du inte ens 10% vilket fortfarande är en ren katastof och en ren och grov förlust-affär. Har min lite erfarenhet utav utvecklingen så vet man att en så stor kärna är väldigt svår att tillverka. Arkitekturen hos GT300 vet man väldigt lite om också, och kan lika väl bli ineffektiv, precis som GeForceFX som hypades upp till det värsta och blev istället helt misslyckad, dock inte som hårfön eller kokkärl. Hur bra GT300 än blir kommer det ett nytt kort från AMD också. Vad är det som säger att man ska vänta på ett visst "svar". Dom svarar på varandra HELA TIDEN, och det slutar inte.

3. nVidia var först med ett DX10 kort med 8800GTX. Det var också med det kortet man tog prestandakronan från ATI. Nu har ATI det överlägset snabbaste kortet och många nyheter där DX11 är ett utav dom. Speltillverkare kommer koda sina spel till den hårdvaran då dom är först med DX11 kort. nVidia's kort kommer dröja många månader till. Det är bl.a därför nVidia tycker DX11 "inte är något att ha", vilket är patetiskt. Samma sak sa dom om DX10.1, och för bara ett kort tag sen implementerade dom samma sak själv och drog tillbaka sina uttalanden. Det är inte första gången nVidia försöker försvara sig på såpass dåliga argument som bara gör folk förbannade på dom.

4. Miniräknare? RV870 (HD5000) är inte bara världens snabbaste grafikprocessor, utan världens mest kraftfulla processor med sin beräkningskapacitet på ~3TFLOPS. Föregående generation RV770 (HD4000) hade 1.3TFLOPS, vilket också är mycket mer än nVidia's kort. I ren spelprestanda är också kortet extremt snabbt. Som sagt, beta drivers och precis släppt. Det är definitivt ett "nytt 8800GTX".

Citat:

Ursprungligen inskrivet av atreyu
Ati vann med att vara ut först med den nya generationen grafikkort dx11.
Men ingen kan säga vem som vann fören nvidia kommer med sina kort.

Och jag tycker man aldrig kan ta fram en vinnare, allt är en smaksak enligt mig.

Undrar hur du kan få någon av dom till en vinnare bara för att du väntar på nVidia's svar och avgör då? Man kan lika väl vänta på ATI's svar på GT300... Säger inte ett skit, utan det är den tillverkare som har kraftfullast kort i sin tid som är bäst. GT300 dröjer många månader till. Sen är ju inte prestanda en smaksak, utan något som uppmäts. Dock kan ju funktioner som ett visst kort har avgöra sitt val av kort, t.ex om man är ett fan till Eyefinity.

Av Enigma

Till alla som gnäller på kortet så läs guru3d's slutsummering:

Citat:

While that euphemism might be a little nasty, the reality is that the Radeon HD 5870 is dark, majestic and most definitely a killer. Brute force is what you'll receive with this product. We had a blast for sure testing this product. So as always we need to break things down. I'll try and keep this conclusion short, as really, there's nothing negative to report.

Performance -- Well it's grand really. Some titles like Fallout 3 I expected to see a little better scaling but the generic consensus is that the Radeon HD 5870 is MUCH faster than the current leading flagship, the GeForce GTX 285. In fact on occasion it's even faster here and there than a GeForce GTX 295. See this is not a measly small upgrade, no Sir. ATI doubled up everything on the Radeon HD 5870 making sure you will get a grand gaming experience. And oh my gawd, I just realized what a beast the 5870 X2 will be.

Anyway, the results speak for themselves, and the good news is... we used an early beta driver for testing. Why is that good news you ask? Well, overall performance will only get better with future driver updates. If history has taught us one lesson, that is it.

So we established that the Radeon HD 5870 performance is grand. What about its feature set then? Well, let's face it... that's brilliant as well.

Kan för övrigt rekommendera deras test också som är ganska ingående och välgjort:

http://www.guru3d.com/article/radeon-hd-5870-review-test/1

Av Enigma

Trevligt, men bräck 4Ghz

Av Enigma
Citat:

Ursprungligen inskrivet av sthlmskille82
Sensationellt dålig prestanda med tanke på vad som sitter under huven. Det blir till att vänta på GT300.

Sensationellt urdålig kommentar. Jag skulle kalla detta kort för det nya 8800GTX kortet. Kommer att hålla länge och prestera bra länge. Sen några punkter du kan ha i tanke:

* Du baserar det på ETT test
* Beta drivers och har mycket kvar att hämta garanterat
* Begränsande processorer vilket gör att kortet inte alltid visar sin fulla styrka
* Detta var "bara" 1GB kortet. Det kommer trycka på bättre i högre upplösningar med AA med 2GB versionen som kommer snart.
* Den nya serien erbjuder perfekt anisotropisk filtrering
* Grafikkodning är löjligt parallelliserat, men det innebär fortfarande inte att allt skalar 100% linjärt hela tiden.

Det är ett enormt steg och ett väldigt lyckat grafikkort. Det har genombrott om man kollar på prestanda/w, prestanda/mm2. Kolla bara idle effekt.

Läs mer tester, t.ex guru3d och anandtech.com.

Kolla t.ex på fler speltitlar. Efter allt läsande och kortets alla tekniska innovationer så är jag övertygad om att GTX295 kommer bli omkört, vilket det redan blir på en del testsiter. Sen är HD5870X2 på väg också. GT300 är långt bort och kan lika väl bli ATI's 2900XT, och nVidia är i samma sits nu som ATI var när nVidia lanserade 8800GTX. Nu är ATI först med DX11 stöd och SM5.0, och spelutvecklare kommer att använda deras hårdvara.

Av Enigma

Re: I7 860 , 5870 Cross

Citat:

Ursprungligen inskrivet av Quzzi
Tjoo.

Vad tror ni om detta.

http://www.prisjakt.nu/minsida.php?a=fripe&k=706217

+ 2 st 5870 ?

Som redan nämnt, köp hellre en i7 920 och X58. Det kommer prestera bättre. PCI-E kontrollern sitter internt i 8xx processorerna och har stöd för max 16x eller 8+8x. 9xx och X58 har både dubbelt så snabb QPI buss och riktigt 16+16 stöd. Du har inga beskymmer med att överklocka 9xx hårt också iom att PCI-E kontrollern inte påverkas då den inte är intern i processorn som på 8xx.

Av Enigma
Citat:

Ursprungligen inskrivet av Gurrty
Trodde faktisk det skulle vara snabbare än GTX 295, men ack. Förvisso 50-100% snabbare än förra generation så det blir nog ändå toppbetyg.

Det jag är mest glad för är väl strömförbrukningen. Äntligen har dom lyckats sänka den anmärkningsvärt från load! Men det tog ett tag, jag menar är det så svårt att "stänga av" den överflödiga prestandan för att visa en 2d bild i windows? ATI har uppenbarligen lyckats, toppen. Med så här låg strömförbrukning kan fläkthastigheten vara nära 0%. Vad innebär det, jo ett jävligt tyst kort. Att det låter lite under spel gör mig inget, det är just idle som är det viktiga. Ett kort för HTPC kanske, såvida du nu inte spelar - då kan det gå hett till

Vänta tills fler tester och mognare drivers kommer. GTX295 kommer inte ha mycket att säga till om i tyngre spel med 8x AA. Håller med om att strömförbrukningen är genomslående. Äntligen ett kort med låg idle effekt.

Citat:

Ursprungligen inskrivet av jioop
På flera ställen va ju CF 5870 bättre än GTX 295. Pris/prestanda kanske GTX 295 är värt, men DX 11 är ju något som skulle smaka gott nu till de nya spel som kommer
Men jag nöjer mig med ETT 5870
Om det nu får plats i mitt Antec Three Hundred det vill säga

HD5870CF är inte riktigt tänkt att möta GTX295. Ett enkelt HD5870 har inga problem att köra om ett GTX295 om du kikar i tyngre inställningar. Som skrivet ovan, vänta på fler tester. Gärna med 8x AA aktiverat där HD58xx korten är som mest effektiva och orkar mata ut mycket fps trots den höga kantutjämningen. Mycket finns att optimera, speciellt nu när korten är purfärska. Swec's test var ganska bra. Dock skulle man vilja se lite fler speltitlar och fler test med 8x AA.

Av Enigma
Citat:

Ursprungligen inskrivet av tjofritz
inte alls imponerad... det är ju lååååångt ifrån att kunna maxa crysis smärtfritt.. Vi får väll invänta och se om nvidia kan fixa det med sina 300-kort

Jag undrar om du är seriös eller inte, men så sa folk i väntan på GTX korten också när GeForce9 var aktuellt. Fortfarande lika slött och pissoptimerat spel. Hur kraftfulla grafikkorten än är så är fps värdelöst.

Citat:

Ursprungligen inskrivet av Robbaz
Visst funkar eyefinity även med crossfire?

Tydligen så kör man alla kort separat och inte i Crossfire om man ska köra flera Eyefinity kort.

Av Enigma

Bästa hade varit om man tog bort ramarna från skärmarna och satte panelerna precis brevid varandra. Man hade kunnat få det till ett nästan perfekt resultat. Får väl snart säkert se någon hardcore Eyefinity gamer som verkställer så

För övrigt verkar det som att bara Eyefinitymodellen kommer att utrustas med 2GB VRAM. Hoppas att det kommer en vanlig version med 2GB minne också. Om inte annat lär partnertillverkarna göra ett sådant kort. HD5870 kan verkligen behöva mer än 1GB VRAM med sin kraft med kantutjämning och höga upplösningar.

Av Enigma
Citat:

Ursprungligen inskrivet av Flopper
Om du tittar på dirt2, den skärmen du ser saker på dvs den mittersta är vad du ser med en skärm.
dvs de andra två visar allt som du inte ser annars...
så 200% mer?

http://www.youtube.com/watch?v=FBrYmN85pys

http://www.youtube.com/watch?v=teE5wqT2DNU

Är FOV ändrad i drivern med eyefinity? Måste bli väldigt konstigt i desktop miljö i Windows i så fall

Av Enigma

Tycker det är konstigt att inga tester dykt upp när det skulle lanseras nu idag i USA. Klockan där är över midnatt också.