AMD bekräftar Radeon 4800-specifikationer

Permalänk
Citat:

Ursprungligen inskrivet av THE.KGB
Tror nog också på att Vista är boven...

Det var i alla fall det som fick mig att ge upp. Ganska dåligt gjort av finnarna att ge vika för M$ trycket.

Eh Vista har med SP1 gått förbi XP i spelprestanda under DX9.0. Extremetech gjorde ett utförligt test på detta och Vista SP1 presterar bättre i spel än både XP SP2 och XP SP3 så det argumentet håller inte längre. Det är visserligen i vissa fall med bara en bråkdel av någon fps men ligger ibland upp mot flera fps skillnad.

Citat:

Ursprungligen inskrivet av Axy
Säger det samma, detta var vad ATI behövde för att vända trenden. Verkar som dom blir grafikkortskungar nu, iaf prestanda/krona.

Prestanda/krona tar de säkert om med lite mer optimerade spel som funkar bra i Crossfire (till exempel Bioshock som får en 84% ökning av andra kortet) så kommer antagligen HD4870X2 ligga 10%-30% bättre än GTX 280. Det är om man går på de nuvarande ryktena. Så det kan ju visa sig helt fel i slutändan men jag tror att HD4870X2 tar prestandakronan också.

Citat:

Ursprungligen inskrivet av Nyarlathotep
När första riktiga Dx10 spelet komemr lär vi byta till vista. Bara 3 år kvar då typ.

1 gig är mycket trevligt. Men det vore tråkigt om +25% 9800gtx vore 3dmark, vem vet...

9800GTX 300$ = 2500kr 350$ = 2800-2900 kr troligen lite mindre då Ati är mer aggro och ofta säljer under sitt rekomenderade pris.

9800GTX lär droppa till 2000 kr vid släppet för att konkurrera.

Nu snackar jag medelpriset.

Tvivlar starkt på att 9800gtx går ner så pass mycket när 8800gts G92 inte slutat säljas ännu. Nvidia prissätter inte lika aggressivt då de redan har ca. 73% av instickskortsgrafikkortsmarknaden (långt ord ) men det lär sänkas en bit. Tror också att HD4870 ligger runt 2100-2300 inom 2 månader.

Conan släpps i dedikerad DX10 version om jag förstått det rätt. Finns en DX9 version och en DX10 version, men DX10 versionen är inte släppt ännu. Annars tyder allt på att Alan Wake kommer vara dedikerat DX10.

Citat:

Ursprungligen inskrivet av dagas
Fattar inte de som försvarar att kortet bara har 256-bit buss. Visst är det snabbt ändå tack vare GDDR5 men kommer ju inte ifrån att det vore bättre med 512-bit buss också. Så nu kommer det vara snabbt men inget supermärkvärdigt. När kommer 100 % prestandaökningen som vi sett med introduktionen av 6800ultra, 7800GTX och 8800GTX?! Vill se ett kort (ingen dubbelmacka för det är ju två kort) som fullständigt krossar det flera år gamla 8800GTX.

Vill se folk skrika "OMGWTFWOOT!!!" över hur snabbt kortet är ^^

Det kommer göra kortet extremt dyrt...det är därför. 1 gb GDDR5 kostar en ganska fin slant i dagsläget, lägger du dessutom in en 512-bit bus så ligger kortet på kanske 400-500 dollar i stället. 130 Gb/s räcker mer än väl ett bra tag.

Citat:

Ursprungligen inskrivet av THE.KGB
Den drar nytta av DX10. Så MS kan låsa upp DX10 till XP vilken är fullt möjligt. samma som "jag har köpt ett DX10 grafikkort för att kunna spela i med DX10 grafik men bara om jag köper ett Vista Ultimate (som ex) för 5000kr kan jag använda funktionen". Ren berägeri att marknadsföra grafik du inte kan använda förutom på ett sätt som du ska betala utöver det du redan betalat för...

Som att köpa ett riktigt bra moderkort men med låst BIOS och för att låsa upp det måste du ha drivrutiner som kostar ett par rödingar...

Vista Ultimate kostar i OEM version ca. 1000 sek, och läs på lite om hur DX10 funkar så kanske du förstår varför vi inte sett någon fungerande DX10 simulering i XP. Till skillnad från DX9 och DX8 och DX7 innan dess, så är DX10 byggt från grunden upp. Det är som med G80(representerar DX8) till G92(DX9), där den senare är ganska tungt baserad på G80, medan GT200(DX10) är en helt ny arkitektur. För att använda DX9 i Vista så har de något som kallas DX9L tror jag det är (är inte helt säker på bokstaven), för att simulera DX9C inuti DX10. Så det är inte så lätt som du tror. Det är säkert möjligt, men i dagsläget är inte XP kodat för att kunna klara DX10, och på samma sätt är inte Vista kodat för ett nativt stöd av äkta DX9c.

Visa signatur

Macbook Pro 15" Retina 2013 | Spelriggen: Asus Rampage Formula | Sapphire HD7970 | 4GB ram | Intel Q6600 @ 3.2 ghz | Samsung 840 Pro 256gb + 3.3TB HDD | Antec P182B | Zalman ZM-850HP | BenQ FP241W | Logitech G500+Qpad MK-85 Pro|
Ljud: Peachtree Grand Pre, Emotiva XPA-2, Triangle Magellan Duetto, Beyerdynamic DT990

Permalänk
Medlem

Intressant...

Men du pratar om ett test utan att referera till en källa. Vill gärna läsa den för är nytt för mig att Vista fixat sina problem. Är det nytt eller? För verkar inte vara många som reagerar på det då majoriteten stannar.

Och en fråga till...varför Vista ?

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Thes
Men, 1935 MHz Minne!

Minnesbandbredd 123.8 GB/s jämfört med tex 9800GTX: 70,4 GB/s.

Suck... 9800GTX är ju inte ens i samma klass, dessutom är dessa kort nyare..

Visa signatur

"Maybe one day you will learn that your way, is not the only way"

Permalänk
Citat:

Ursprungligen inskrivet av THE.KGB
Intressant...

Men du pratar om ett test utan att referera till en källa. Vill gärna läsa den för är nytt för mig att Vista fixat sina problem. Är det nytt eller? För verkar inte vara många som reagerar på det då majoriteten stannar.

Och en fråga till...varför Vista ?

Voila!

http://www.extremetech.com/article2/0,2845,2303830,00.asp

Helt otroligt jämnt mellan dessa två (fyra, XP SP2 och Vista "vanilla" är med också). Dålig spelprestanda är definitivt inte ett argument mot Vista längre.

Här har du några anledningar till varför man ska välja Vista. JAg håller med om det mesta där, dock bör du observera att en del av de negativa argumenten är åtgärdade.

http://articles.techrepublic.com.com/5100-10878_11-6152414.ht...

Dock tycker jag att vi startar en ny tråd om detta om det ska diskuteras mer istället för att fortsätta här

Visa signatur

"Aurora" Intel Core i5-4670K@4,2GHz - 8GB Corsair Vengeance 1600MHz - MSi Z87-G55 - Sapphire AMD R9 290 Tri-X - 2*Samsung 1TB (RAID 0) - Antec P182 - Corsair HX620 - Noctua NH-U12P
"Mirage" Macbook Pro 13" - 16GB RAM - dualboot OSX/Win7
Hä lön's int' förklar' för dem söm int' begrip'

Permalänk
Medlem

Nvidia .. här kommer ATI!!!!!!!!!!!!!.... akta dig

Permalänk
Citat:

Ursprungligen inskrivet av THE.KGB
Intressant...

Men du pratar om ett test utan att referera till en källa. Vill gärna läsa den för är nytt för mig att Vista fixat sina problem. Är det nytt eller? För verkar inte vara många som reagerar på det då majoriteten stannar.

Och en fråga till...varför Vista ?

Jag referrerade till Extremetech om du hade läst det. Här är en exakt länk: http://www.extremetech.com/article2/0,2845,2303830,00.asp

Där jämför de XP SP2, XP SP3, Vista Vanilla (Utan SP1), och Vista SP1 och Vista SP1 kammar hem segern. Inte med mycket, men som sagt kan man ju inte klaga på spelprestandan längre. Ja det är nytt, då SP1 är ganska nytt. Folk har inte uppmärksammats om detta, och så är det många som har bestämt sig för att Vista är ren skit, därför stannar många i XP. Jag sitter själv på XP Professional X86, men skall byta till Vista Ultimate X64 i mitt bygge till sommaren.

Varför Vista? För att det är ett jävligt bra operativsystem om man har en tillräckligt bra dator. Kan man leva med att det tar 15 sekunder längre att starta än XP, så är det ju egentligen ingen stor prestanda förlust (dvs. om man inte kör med 1gb ram). Det är en smaksak helt enkelt. Vista är det mest radikalt ändrade Microsoft OS när det gäller interface. Vissa tycker om det, andra gör inte det, men nu när prestandan har fixats rätt bra så är ju inte det något argument längre om att man inte borde ha Vista. Vill inte du ändra så behöver du inte det, men enligt väldigt många är det inte så dåligt som många vill tro.

Visa signatur

Macbook Pro 15" Retina 2013 | Spelriggen: Asus Rampage Formula | Sapphire HD7970 | 4GB ram | Intel Q6600 @ 3.2 ghz | Samsung 840 Pro 256gb + 3.3TB HDD | Antec P182B | Zalman ZM-850HP | BenQ FP241W | Logitech G500+Qpad MK-85 Pro|
Ljud: Peachtree Grand Pre, Emotiva XPA-2, Triangle Magellan Duetto, Beyerdynamic DT990

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Thes
Men, 1935 MHz Minne!

Minnesbandbredd 123.8 GB/s jämfört med tex 9800GTX: 70,4 GB/s.

Jag blir så besviken på det här forumet.
Att det ska gå så mycket tid till att förklara sånna enkla saker.

Den har en jävla minnesbandbredd, den är redan overkill. GT280 kommer ha ungerfär samma bandbredd. Att slänga på 512Bit skulle ge NOLL prestandavinst, men göra kortet ordentligt dyrare.

Permalänk

Finns det en möjlighet att 4870 kommer att släppas i en version med 512-bit i minnesbuss istället för 256? I så fall, hur mycket dyrare skulle en sådan kunna tänkas kosta? Det vore ju overkill med dubbel minnesbandbredd!

Permalänk

Yikes, 350 dollar för 4870. Känns som väl mycket pengar, varför inte släppa en variant med 512MB också om nu minnet är dyrt?

Är ju väldigt få spel och upplösningar som verkar dra nytta av mer än 512MB idag.

Visa signatur

««« »»»

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av nilssonius
Finns det en möjlighet att 4870 kommer att släppas i en version med 512-bit i minnesbuss istället för 256? I så fall, hur mycket dyrare skulle en sådan kunna tänkas kosta? Det vore ju overkill med dubbel minnesbandbredd!

Nej, de designar inte om chippet endast för en liten skara människor som är så otroligt dumma att de vill ha 512Bit även fast det ger noll prestandavinst. Det kostar otroliga summor att designa om ett chip.
Och ja, det skulle kosta mycket mer då man får ha flera lager på PCBn. Det brukar göra en ordentlig priskillnad.

Citat:

Ursprungligen inskrivet av Jonte[YoT]
Yikes, 350 dollar för 4870. Känns som väl mycket pengar, varför inte släppa en variant med 512MB också om nu minnet är dyrt?

Är ju väldigt få spel och upplösningar som verkar dra nytta av mer än 512MB idag.

Antagligen kommer det i 512Mb med, förutsatt att GDDR5 släpps i så små storlekar.

Permalänk
Citat:

Ursprungligen inskrivet av -Boris-

Antagligen kommer det i 512Mb med, förutsatt att GDDR5 släpps i så små storlekar.

Ja får hoppas, har inte helkoll på grafikkortstester men det verkar vara ytterst sällan som ett GTX m 768MB skulle ge en fördel över säg GTS 512, trots 50% mer minne.

Kör man i ett riktigt krävande spel i 1920 med massa AA och AF, kanske det kan ge skillnad ibland, men även då verkar mera minne vara av mindre betydelse. Och hur många kör egentligen i 1920?
Klart det kommer mer krävande spel, med tiden, men då har de flesta antagligen också köpt nya grafikkort.

Sen vad menar du med så små storlekar? Det brukar väl vara åtminstone 8 eller kanske 16 små minneschip på ett grafikkort...

Visa signatur

««« »»»

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Jonte[YoT]
Ja får hoppas, har inte helkoll på grafikkortstester men det verkar vara ytterst sällan som ett GTX m 768MB skulle ge en fördel över säg GTS 512, trots 50% mer minne.

Kör man i ett riktigt krävande spel i 1920 med massa AA och AF, kanske det kan ge skillnad ibland, men även då verkar mera minne vara av mindre betydelse. Och hur många kör egentligen i 1920?
Klart det kommer mer krävande spel, med tiden, men då har de flesta antagligen också köpt nya grafikkort.

Sen vad menar du med så små storlekar? Det brukar väl vara åtminstone 8 eller kanske 16 små minneschip på ett grafikkort...

Jag kör 1080P

Men sedan spelar det inte stor roll om det kommer nya spel som kan utnyttja minnet, om inte chippen är starka nog att utnyttja det heller.

Angående chipstorleken, chippen arbetar parallellt. Så tar du bort hälften av chippen för att försöka minska storleken tar du bort hälften av bandbredden. Se det som Dual-channel. Tar du bort en ramsticka så förlorar du halva din bandbred. Ett GDDR5 minne är bara 32bit. Och jag känner inte till att det skulle tillverkas någon annan storlek på chippen än 1Gib (Gibibit). Det gör att ska du ha 512Mbkan du bara ha 128Bit buss, vilket gör att du lika gärna kan köra på GDDR3. Av samma anledning kan det bli svårt att utveckla HD4870 med 512bits buss, då det skulle innebära 2Gb grafikminne.

Ser man det så, så var det ganska förutsägbart att HD4870 skulle få 1Gb minne.

Permalänk

Äntligen ett enkelkärnigt toppkort från ATI igen, det är min spontana reaktion. Tidigare nyheter har ju indikerat på att även 4870 skulle konkurrera i huvudsak på pris. 1 gb gddr5 med den minnesbandbredden ser helt enkelt grym ut, men frågan är förstås hur prestandan blir i praktiken.

Men nu kan man i alla fall börja hoppas!

Permalänk
Inaktiv

jäklar vilket skriveri om minnet.

Tror alla har insett att minnet inte blir något större problem, hoppas bara gpu'n håller måttet också

Permalänk
Medlem

Ser ett par nya grafikkort efter sommaren

Adjö 8800GTS 640mb, du har varit en trogen vän.

Visa signatur

Kamera: D800
Optik:Nikkor 24-70mm f/2.8, Nikkor 70-200 f/2.8 VR, Sigma 50mm f/1.4, 500m f/4 VR

Permalänk
Medlem

Ja grafikkort kommer att uppgraderas efter sommaren troligtvis så då kommer nogett 4870 sitta som handsken:)

Visa signatur

HD5770 1GB| Phenom 2 x2 555 3.2ghz BE@ x3 3.6Ghz| 2x2048ddr3 corsair xms3 1600mhz | Corsair HX520w | HP w2207| Antec 180b

Permalänk

Återstår att se hur dessa kort presterar, det släpps nya grafik kort hela tiden och spel som är dålig optimerade, kassa drivrutiner . Hursomhelst blir det en ny dator för min del efter sommaren, med AMD/ATI prylar.

Men jag hoppas att AMD/ATI lyckas den här gången

Visa signatur

Eeeeeeh.

Permalänk
Citat:

Ursprungligen inskrivet av -Boris-
Jag kör 1080P

Men sedan spelar det inte stor roll om det kommer nya spel som kan utnyttja minnet, om inte chippen är starka nog att utnyttja det heller.

Angående chipstorleken, chippen arbetar parallellt. Så tar du bort hälften av chippen för att försöka minska storleken tar du bort hälften av bandbredden. Se det som Dual-channel. Tar du bort en ramsticka så förlorar du halva din bandbred. Ett GDDR5 minne är bara 32bit. Och jag känner inte till att det skulle tillverkas någon annan storlek på chippen än 1Gib (Gibibit). Det gör att ska du ha 512Mbkan du bara ha 128Bit buss, vilket gör att du lika gärna kan köra på GDDR3. Av samma anledning kan det bli svårt att utveckla HD4870 med 512bits buss, då det skulle innebära 2Gb grafikminne.

Ser man det så, så var det ganska förutsägbart att HD4870 skulle få 1Gb minne.

Ah, okej, det där med minneschippen var lite beyond min kunskap.
Men tolkar jag dig rätt så är det väl bara en fråga om att minnestillverkaren ska bredda sitt sortiment, borde inte vara så svårt att fixa en annan storlek.
Eller har t ex Geforce 8800 med 320MB halva minnesbandbredden mot den med 640MB? Nej så kan det väl inte vara.

Visa signatur

««« »»»

Permalänk
Medlem

Eh, jag hinner juinte köpa nya saker förens det finns nyare ute... ... Dessutom ska det vara svindyrt att ha det bästa

Kommer det märkas någon större skillnad mellan ett 8800GTX och ett HD4870? jag har tappat kollen totalt på grafikkortsmaknaden. Det finns alldeles för många kort ute nu.

Permalänk
Medlem

Ser riktigt bra ut för AMD nu, jag hörde också något rykte om att de kommer lansera en serie 12 och 6 core prollar.
Undrar när dessa kommer och vad de kommer kosta.

Det bärjar sätta riktig fart nu på marknaden vill jag låva. AMD som nu varit "under dog" får man väl ändå påstå på ett fint sätt, har, om dom lyckas med drivrutinerna, nu kommer ut med en mycket bra produkt.
Någon ifrågasatte ljudnivån på detta kort, och det lär nog inte dröja innan man kan köpa vattenkylning till även detta kort för nån ynka lax.

Men är det någon som kan bekräfta ryktet jag hört om 6 och 12 core prollar fråm AMD? Har ingen källa till detta, men tycker det är högst intressant och skulle vilja läsa mer om detta.

Visa signatur

Sometimes autocorrect makes me say things I don't Nintendo.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Jonte[YoT]
Ah, okej, det där med minneschippen var lite beyond min kunskap.
Men tolkar jag dig rätt så är det väl bara en fråga om att minnestillverkaren ska bredda sitt sortiment, borde inte vara så svårt att fixa en annan storlek.
Eller har t ex Geforce 8800 med 320MB halva minnesbandbredden mot den med 640MB? Nej så kan det väl inte vara.

Precis, frågan är bara om sortimentet finns.

Och angående 8800GTS med 320 respektive 640 Mb så har de olika stora chip. Notera att Geforce 8800GTS med 320 och 640Mb har 320bit buss, där ser du sambandet mellan storleken och bussbredden. Precis som GTX med sin 384Bit buss har 768Mb minne.

Då kan du se att 8800GTS 320 har 10st 32Bits 32Mb chip. Medans 640Mb har 64Mb chip. GTX har 12st 64Mb chip, självklart i 32bit.
HD2900XT har hela 16st 32bits chip på 32Mb.
Ja som du säkert räknat ut så är alla chippen alltid 32bit, det gäller även GDDR5.

Om du skulle få för dig att titta efter så har jag en bild på ett GTS 640 här:
http://img5.pcpop.com/ProductImages/500x375/0/265/000265483.j...

Som du ser finns det två platser lediga, fyller du dem så får du 384bitar och 768Mb. Alltså samma PCB som GTX använder.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Exry
Eh, jag hinner juinte köpa nya saker förens det finns nyare ute... ... Dessutom ska det vara svindyrt att ha det bästa

Kommer det märkas någon större skillnad mellan ett 8800GTX och ett HD4870? jag har tappat kollen totalt på grafikkortsmaknaden. Det finns alldeles för många kort ute nu.

Inte så att det är värt det antagligen, men jag har ju gjort onödigare uppgraderingar än så själv...;o)

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av jioop
Ser riktigt bra ut för AMD nu, jag hörde också något rykte om att de kommer lansera en serie 12 och 6 core prollar.
Undrar när dessa kommer och vad de kommer kosta.

Det bärjar sätta riktig fart nu på marknaden vill jag låva. AMD som nu varit "under dog" får man väl ändå påstå på ett fint sätt, har, om dom lyckas med drivrutinerna, nu kommer ut med en mycket bra produkt.
Någon ifrågasatte ljudnivån på detta kort, och det lär nog inte dröja innan man kan köpa vattenkylning till även detta kort för nån ynka lax.

Men är det någon som kan bekräfta ryktet jag hört om 6 och 12 core prollar fråm AMD? Har ingen källa till detta, men tycker det är högst intressant och skulle vilja läsa mer om detta.

Jo processorerna kommer, men förvänta dig inte för tidigt. AMD tar som vanligt tid på sig med processövergångar och de måste gå över till 0.045µ först.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av oscarstegland

Prestanda/krona tar de säkert om med lite mer optimerade spel som funkar bra i Crossfire (till exempel Bioshock som får en 84% ökning av andra kortet) så kommer antagligen HD4870X2 ligga 10%-30% bättre än GTX 280. Det är om man går på de nuvarande ryktena. Så det kan ju visa sig helt fel i slutändan men jag tror att HD4870X2 tar prestandakronan också.

Tvivlar starkt på att 9800gtx går ner så pass mycket när 8800gts G92 inte slutat säljas ännu. Nvidia prissätter inte lika aggressivt då de redan har ca. 73% av instickskortsgrafikkortsmarknaden (långt ord ) men det lär sänkas en bit. Tror också att HD4870 ligger runt 2100-2300 inom 2 månader.

Heh, hur var det med AMDs "aggressiva prissättning" nu då? 349 dollar, smaka på den du. Nu tvingas du till att krysta fram en lös spekulation om framtida prissänkning för både 4870 och befintliga Nvidia-kort för att få ihop detta! Ska vi tolka det som att inte ens du tycker det är värt att köpa ett 4870 vid release förresten??!

Att ATI-korten skulle vara signifikant bättre prestanda per krona är en myt tyvärr. 8800 GT har bevisat motsatsen i över ett halvår nu.

Vem sa förresten att det var ett misstag av AMD att köra med dyra GDDR5? Me.

Och vem sa att det var för lite med 512Mb? Me. Uppenbarligen håller AMD med mig om att 512Mb är för lite för high-end kort 2008.

Oscar du snackar om "belägg påståenden med fakta" men kommer själv mest med uppblåsta fanboy-förhoppningar (jag vet hur det är, gjorde själv det misstaget inför release av R600).

Du överdriver fortfarande effektiviteten av Crossfire. Du påstod 90%, jag sa 60% boost. Du justerade sedan till 80%, men det är fortfarande för högt. Sweclockers test visade på 70% boost i genomsnitt (Crysis undantaget). Sluta med s.k "cherry picking". Spel med UE3-engine är shader-intensiva och därför gynnas R600/R700 i just Bioshock.

Ta det inte personligt Oscar, jag gillar dig här på forumet (för att låna ett AlbinDoja-citat).

Visa signatur

Memento mori...

Permalänk
Citat:

Ursprungligen inskrivet av Pellias
Heh, hur var det med AMDs "aggressiva prissättning" nu då? 349 dollar, smaka på den du. Nu tvingas du till att krysta fram en lös spekulation om framtida prissänkning för både 4870 och befintliga Nvidia-kort för att få ihop detta! Ska vi tolka det som att inte ens du tycker det är värt att köpa ett 4870 vid release förresten??!

Att ATI-korten skulle vara signifikant bättre prestanda per krona är en myt tyvärr. 8800 GT har bevisat motsatsen i över ett halvår nu.

Vem sa förresten att det var ett misstag av AMD att köra med dyra GDDR5? Me.

Och vem sa att det var för lite med 512Mb? Me. Uppenbarligen håller AMD med mig om att 512Mb är för lite för high-end kort 2008.

Oscar du snackar om "belägg påståenden med fakta" men kommer själv mest med uppblåsta fanboy-förhoppningar (jag vet hur det är, gjorde själv det misstaget inför release av R600).

Du överdriver fortfarande effektiviteten av Crossfire. Du påstod 90%, jag sa 60% boost. Du justerade sedan till 80%, men det är fortfarande för högt. Sweclockers test visade på 70% boost i genomsnitt (Crysis undantaget). Sluta med s.k "cherry picking". Spel med UE3-engine är shader-intensiva och därför gynnas R600/R700 i just Bioshock.

Ta det inte personligt Oscar, jag gillar dig här på forumet (för att låna ett AlbinDoja-citat).

Är det någon som håller på med fanboy skit här är det ju du. Jag har inga problem med att erkänna att Nvidia har haft de klart bättre korten de senaste 18 månaderna, men du väntar ju inte en minut med att hoppa på mig efter att jag ens nämnt ordet ATI. Å andra sidan är ATI långt framför när det gäller nyskapande. Varför jag säger att 4870 kommer sänkas i pris (vilket det inte var jag som sa först), var att det var precis vad som hände med HD3870 som släpptes runt 2500 kr och 2 månader senare låg det runt 2000 eller strax där under. Har ingeting med önsketänkande att göra, det är så marknaden fungerar i dagsläget. Då Nvidia har ca. 73% av enheter sålda de senaste kvartalen har de råd att prissätta högre, medan ATI måste sänka priserna för att kunna tjäna in lite pengar.

8800GT är jävligt bra prestanda per krona men det ligger ungefär jämnt med HD3870 då de senare presterar lite sämre men kostar också lite mindre.

Jag har inte hävdat att 512 mb skulle vara nog. Jag är bara glad att det blev 1 gb.

Jag räknade just på medel effektiviteten i Sweclockers test. Jag tog inte med Crysis då det är nvidiabiased som in i helvete. Jag tog heller inte med World in Conflict då detta också är ganska tungt nvidiabiased och att jag inte orkade räkna ut ett effektivitetstal. Med andra ord, ganska neutrala spel (inget call of juarez eller Crysis eller World in Conflict) även fast de flesta bär TWIMTBP loggan. Jag fick snittet att bli 1.80 så 80% är ju faktiskt inte helt tokigt. Cherry Picking är det ju knappast då jag elimininerar de spel som är kända för att knappt funka i Crossfire för att Nvidia har "köpt upp" utvecklaren. Crysis hade ju support för SLI rätt ur lådan men det tog två patchar för Crytek att få 50% effektivitet när spel som Company of Heroes har en effektivitet på 84%. Hade jag gjort cherry picking hade jag valt något test med Call of Juarez som är väldigt tungt ATIbiased. Spel med UE3 engine är väldigt shader-intensiva, men presterar ändå bäst med Nvidia, så jag förstår inte riktigt varför det skulle gynna mitt argument om att ATI har ca. 80% effektivitet. Att jag sade 90% först, det var fel, och jag kom helt enkelt inte ihåg hur det låg till, men 80% är helt rätt i neutrala spel.

Blir GTX 280 100% bättre än 9800GX2 så tro mig, då glömmer jag ATI trots att de ser väldigt lockande ut för tillfället. Nä, nu blir det kolla på lite House, gonatt!

Visa signatur

Macbook Pro 15" Retina 2013 | Spelriggen: Asus Rampage Formula | Sapphire HD7970 | 4GB ram | Intel Q6600 @ 3.2 ghz | Samsung 840 Pro 256gb + 3.3TB HDD | Antec P182B | Zalman ZM-850HP | BenQ FP241W | Logitech G500+Qpad MK-85 Pro|
Ljud: Peachtree Grand Pre, Emotiva XPA-2, Triangle Magellan Duetto, Beyerdynamic DT990

Permalänk
Medlem

Jaha, så nu exkluderar du 2 st spel av 5 för att ATI ska se bättre ut.

Tyvärr så har jag ändå rätt då jag sa att du bara får 2 st 4850 för samma pris som ett 280 GTX.

2 st 4870 kostar $698. Jämför det med $500 för ett 280 GTX. Och enligt din logik för prisvärdhet så måste de alltså i Crossfire-läge vara 40% snabbare än ett 280 GTX för att AMD ska vinna köparna. Kul va?

Visa signatur

Memento mori...

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Bazooka91
Om du inte går in på detaljer om vad du har emot Vista sä lär du knappast tas på allvar.

Jodå, det tas på 100% allvar.. behöver inte skriva ett skit på vad man har emot Vista för erfarna vet vad det handlar om.

Och ingen snack om skit bakom spakarna.

Visa signatur

ATI TALIBAN.
Är inte någon expert, men jag har inte akne heller.
NEVER UNDERESTIMATE THE POWER OF STUPID PEOPLE IN LARGE GROUPS.. "Betala i förskott på blocket?" tråden.

Permalänk

Re: Dåliga och sämre argument.

Citat:

Ursprungligen inskrivet av Gemmy
Hey!
Försök, försök förstå att det är tester och erfarenheter som får avgöra hur snabbt kortet verkligen presterar i praktiken. Eftersom ingen har kortet och kan testa det kan vi bara spekulera. Right!?
Men det är ju roligt att spåna så:
Personligen tror jag att AMD/ATI kommer marknadsföra detta med högupplösta turkosa Elefanter. En klar konkurrensfördel mot dess konkurrent som bara visar tråkiga högupplösta huvuden. Jag menar vem vill efterlikna verkligheten. Vi spelar ju inte spel där vi går ut i skogen för att plocka svamp direkt. Eller för att känna hur snoret dryper en regnig dag. Ska ju inte vara för verkligt liksom. Nej, Radeonmännen vet verkligen hur man marknadsför ett graffekkort. Turkosa nedrans Elefanter är grejen liksom.
Allvarligt, kan dom klämma in en hel jäkla Elefant i den bussen (256 bitar), ja, då har dom verkligen lyckats!

This is tha shait!

Hehehe....det är humor, det är humor! Tack det behövdes!

Det är alltid lika intressant att höra folk tvärsäkert hävda att ett osläppt kort med lite osäkra specifikationer kommer att vara mycket bättre än ett annat osläppt kort med ännu osäkrare specifikationer. (och dessutom ta det som en personlig förolämpning om någon skulle tro något annat) ;D

Visa signatur

~Pelle~

Permalänk
Citat:

Ursprungligen inskrivet av hansfilipelo
Endast 256 bits minnesbuss...

Ja tyvärr. Det hade vart skoj och se en 280GB/s som det ryktades om från början. Men det kostar det och förmodligen ger det ingen prestanda ökning som är betydande för oss just idag. Grafikprocessorn måste nog vara generellt starkare trorj ag om detta skall ha någon inverkan med till exempel 280GB/s som det nu hade blivit nästan med ett interface om 512bitar.

Citat:

Ursprungligen inskrivet av KjM
Bra ändå att 4870 kommer med 1024 Mb minne

Håller med. Det var det ända positiva i nyheten enligt mig då man inte ser speciellt mycket förutom frekvenserna på minnet givetvis. Jag hade velat se ROPS, TMU'r med mera.

Citat:

Ursprungligen inskrivet av Thes
Men, 1935 MHz Minne!

Minnesbandbredd 123.8 GB/s jämfört med tex 9800GTX: 70,4 GB/s.

HD3870X2 ligger vid 112Gb/s och jämför det med 9800GTX's 70,4GB/s där HD3870X2 presterar marginellt bättre. Vi talar 10-15% till HD3870X2's fördel.

Citat:

Ursprungligen inskrivet av P1nGviN
Nu har man fixat sommarjobb inför releasen Blir nog ett eller 2 + 790GX + 6400+

6400+ pallar ju ingenting den processorn. Du kommer vinna mycket på en annan processor, typ Intel men vem vet. Du kanske sitter med AMD plattform vilket jag i så fall kan förstå. Men du förlorar många min och avg fps tyvärr, framförallt med ett Crossfire system. Sedan får du köpa dig ett ordentligt nätagg om du inte redan har då två av dessa kort har en TDP om 320w. Galet men Nvidias GTX 280*2 kommer förmodligen ha runt 400w.

Citat:

Ursprungligen inskrivet av dagas
När kommer 100 % prestandaökningen som vi sett med introduktionen av 6800ultra, 7800GTX och 8800GTX?! Vill se ett kort (ingen dubbelmacka för det är ju två kort) som fullständigt krossar det flera år gamla 8800GTX.

Vill se folk skrika "OMGWTFWOOT!!!" över hur snabbt kortet är ^^

Du får nog vänta på R700 innan det händer. Nvidia slog verkligen handen i handsken med G80 arkitekturen och sådan arkitektur har vi aldrig någonsin sett. Inte jag i alla fall och mitt första grafikkort var ett 2Mb grafikkort. Sedan dess har ingenting imponerat som G80 har gjort.

Citat:

Ursprungligen inskrivet av KejsarenAfSodom
"Det sista vi hörde var att RV770 skulle husera 480 shader processorer, inte 800, men nu har det även dykt upp nya rykten som säger att det faktiskt kan ligga något i uppgifterna om 800 shader processorer. Enligt dessa skulle 480 av dem vara vigda för grafikrendering medan de resterande 320 skulle användas för fysikacceleration. Det är dock inget vi kan bekräfta så ta det med en nypa salt."

http://www.nordichardware.se/nyhet,14130.html

Ehm, finns det någon i sanning i detta stycke? I så fall: SHIT!!!

Ja det var i så fall en positiv nyhet. Kanske något som kan våldta mitt 8800GTX i alla fall och kanske GTX 280? Förmodligen inte.

Citat:

Ursprungligen inskrivet av THE.KGB
Den drar nytta av DX10. Så MS kan låsa upp DX10 till XP vilken är fullt möjligt.

Japp om M$ gör det men det kommer aldrig att hända för de måste skriva om hela kernel och då kan man lika gärna strunta i det och gå på Windows 7 istället som de förmodligen redan gör.

Citat:

Ursprungligen inskrivet av Nuukeer
De allra första ryktena om 1008 Gflop stämmer alltså. Således är INQ och fuad trustworthy sources.

Ehm. Hur många gånger har de rätt av 10? 4 kanske?

Citat:

Ursprungligen inskrivet av -Boris-
Jag blir så besviken på det här forumet.
Att det ska gå så mycket tid till att förklara sånna enkla saker.

Den har en jävla minnesbandbredd, den är redan overkill. GT280 kommer ha ungerfär samma bandbredd. Att slänga på 512Bit skulle ge NOLL prestandavinst, men göra kortet ordentligt dyrare.

Ja man måste upp med allt annat i mycket högre frekvenser känns det som för att så hög bandbredd skall vara intressant tror jag.

Citat:

Ursprungligen inskrivet av -Boris-

Ser man det så, så var det ganska förutsägbart att HD4870 skulle få 1Gb minne.

Jag kör också 1080p. Det är kanske 10% här inne som gör det kanske ännu fler.

Men angående det jag citerade så håller jag med. Antingen 1Gb minne och 256bitars interface eller 512Mb minne och 512 bitars interface och då är självklart det första alternativet bättre.

Citat:

Ursprungligen inskrivet av Exry

Kommer det märkas någon större skillnad mellan ett 8800GTX och ett HD4870? jag har tappat kollen totalt på grafikkortsmaknaden. Det finns alldeles för många kort ute nu.

Förmodligen inte men det är det ingen som riktigt vet. Det ryktas om att HD4870 skall prestera cirka 25% bättre än 9800GTX som i sin tur är några procent bättre än 8800GTX. Sedan om du anser att det är värt det är ju ditt val men det lär ju dyka upp prestandatester på dessa bjässar inom kort. Nvidia kommer ju med sina GTX 260 och 280 också som förmodligen presterar rätt mycket bättre än RV770 enligt mina gissningar.
-------------------------------

Bara för att korrigera så har 8800GT 512MB's versionen haft pris/prestanda under en längre tid nu.
För övrigt tror jag de flesta kan sluta tänka sig att HD4870 kommer prestera som ett GTX 280 såvida Nvidia inte lägger sig strax ovan. Prestandatronen kommer inte ändras liksom de övriga 18 månaderna och där har vi spiken i kistan. Sedan vilket kort som vinner pris/prestanda är ju en annan sak. Men jag tycker fortfarande att 160w TDP för ATis kort är högt om de ny enligt ryktesväg inte presterar bättre. Men en TDP om 240w för GTX 280 är galet, ännu värre än HD2900XT och då är det sjukt. Undra hur det kortet presterar.

Ah, själv kommer jag köpa det som presterar bäst oavsett om det blir HD4870X2 eller GTX 280 (kanske en GX2?).

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Pellias
Vem sa förresten att det var ett misstag av AMD att köra med dyra GDDR5? Me.

Men varför skulle det vara ett misstag? Kortet kan inte släppas precis samtidigt som HD4850, men AMD löser ju det med att släppa just HD4850 iaf.

Citat:

Ursprungligen inskrivet av Pellias
Och vem sa att det var för lite med 512Mb? Me. Uppenbarligen håller AMD med mig om att 512Mb är för lite för high-end kort 2008.

512 räcker långt, finns inte ett test där 1024Mb gjort någon skillnad som är värd mödan. Men GDDR5 finns bara i 128Mb chip just nu vad jag känner till. Det blir svårt att göra något annat än just 1024 om man måste ha 8 chip.

Citat:

Ursprungligen inskrivet av AlbinNdoja
Jag kör också 1080p. Det är kanske 10% här inne som gör det kanske ännu fler.

Men angående det jag citerade så håller jag med. Antingen 1Gb minne och 256bitars interface eller 512Mb minne och 512 bitars interface och då är självklart det första alternativet bättre.

NU räknar du v'l fel? Antingen 256Bit och 1024Mb eller så måste du gå ner till ynka 128Bit för att få 512Mb, och då kan man ju som sagt köra på GDDR3 istället.