Proteinforskare bekräftar Radeon HD 4800

Permalänk
Melding Plague

Proteinforskare bekräftar Radeon HD 4800

Sedan några år tillbaka finns det en Folding@Home-klient som går att köra på vissa grafikkort. Eftersom grafikkort är väldigt lämpade för den typen av beräkningar jobbar Folding@Home-utvecklarna på klienter som bättre kan utnyttja den senaste hårdvaran. Nu har en utvecklare bekräftat vissa specifikationer om Radeon HD 4800-grafikkorten.

Läs nyheten

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa leder till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

Det var många. Men hur tillförlitlig är källan?

Permalänk

Hoppas bara att ATi har fixat AA!!!
Atis AA har varit värdelös men annars billiga och bra kort.
Om AA är bra på 4870 så blir det nog ett sånt i sommar

Permalänk
Citat:

Ursprungligen inskrivet av El_Ak
Det var många. Men hur tillförlitlig är källan?

Nästan alla källor under en längre tid nu har sagt så många stream processorer så det stämmer säkert. Eftersom ATi korten är bra i folding @ home fick han säkert ett exemplar.

För övrigt hoppas jag också att de har ordnat med AA prestandan. Upp med fler TMU's och ROP's också!

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av MarcusDazE
Hoppas bara att ATi har fixat AA!!!
Atis AA har varit värdelös men annars billiga och bra kort.
Om AA är bra på 4870 så blir det nog ett sånt i sommar

Ehm, va? Snarare nvidia som haft fetingdrop i prestandan med AA.

Visa signatur

Knowledge is not achieved until shared.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av invztr
Ehm, va? Snarare nvidia som haft fetingdrop i prestandan med AA.

Hehe nej.

Visa signatur

Jag hatar folk som skriver med massa smileys och förkortningar...

Permalänk
Avstängd

Både AMD och Nvidia får drops när de slår på AA; så är det bara.

Men det ska vara bättre AA-hantering med 4000-serien, det är trots allt en av de största skillnaderna mot 3000-serien.

Visa signatur

"Jo men det var exakt det jag menade med att den enda moddningen detta galleriet innehåller är Sanningsmodifikation och photoshoppande :)"

Permalänk
Medlem

Trevligt. Kan bli ett 4870 till hösten.

Permalänk
Avstängd

var inte detta redan bekräftat??

kul att kortet passar bra för forskning, hoppas bara det presterar i spel också:)

Permalänk
Citat:

Ursprungligen inskrivet av MarcusDazE
Hoppas bara att ATi har fixat AA!!!
Atis AA har varit värdelös men annars billiga och bra kort.
Om AA är bra på 4870 så blir det nog ett sånt i sommar

Citat:

Ursprungligen inskrivet av AlbinNdoja
Nästan alla källor under en längre tid nu har sagt så många stream processorer så det stämmer säkert. Eftersom ATi korten är bra i folding @ home fick han säkert ett exemplar.

För övrigt hoppas jag också att de har ordnat med AA prestandan. Upp med fler TMU's och ROP's också!

http://www.computerbase.de/artikel/hardware/grafikkarten/2007...

Hur många gånger måste jag påpeka att det inte är några fel på ATi:s skalning med AA?!!

I vissa fall skalar ATi:s kort till och med bättre än Nvidias kort i med samma inställningar.

Det är AF som tar mest på ATi:s kort, inte AA (pågrund av det lilla antalet TMU:s). Högkvalitets AF är det som används mest i testerna och eftersom det oftast används i samband med 4x AA eller mer så får man lätt uppfattningen att korten är dåliga på AA därför att folk bryr sig mindre om AF.

Märk väl att jag inte säger att ATi:s kort presterar bättre, utan att de inte skalar lika dåligt med AA som folk tror

Visa signatur

"Aurora" Intel Core i5-4670K@4,2GHz - 8GB Corsair Vengeance 1600MHz - MSi Z87-G55 - Sapphire AMD R9 290 Tri-X - 2*Samsung 1TB (RAID 0) - Antec P182 - Corsair HX620 - Noctua NH-U12P
"Mirage" Macbook Pro 13" - 16GB RAM - dualboot OSX/Win7
Hä lön's int' förklar' för dem söm int' begrip'

Permalänk
Moderator, Testpilot
Citat:

Ursprungligen inskrivet av AlbinNdoja
Nästan alla källor under en längre tid nu har sagt så många stream processorer så det stämmer säkert. Eftersom ATi korten är bra i folding @ home fick han säkert ett exemplar.

För övrigt hoppas jag också att de har ordnat med AA prestandan. Upp med fler TMU's och ROP's också!

Jag tror att det vi ser från ATi nu är vad R600 egentligen borde ha varit från början.

Det som visat sig vara nyckeln i prestanda i dagens spel är "Texture Mapping Units". Om man tittar på Nvidia som har de bästa singelkorten ute nu så har dem 128 st Stream Processorer som mest (G80/G92) medans R600 har 320 st Stream Processorer. Det borgar ju för en större parallellitet i ATi:s struktur. Men detta har Nvidia kompenserat genom en högre klock på sina shaders så dem arbetar istället snabbare.

Men, då kommer vi till det intressanta. (G80 "GTX") har 32TMU:s, och (G92 GTS) har 56TMU:s. G92 har en smalare buss vilket torde innebära att en 384-bitars buss inte var mättat och därför gick man över till en smalare 256-bitars buss men höjde antalet TMU:s. Vilket gjorde att prestandan inte bara hamnade på samma nivå men även ökade och man fick en högre produktion på sina kärnor.

ATi var dock fortfarande kvar på enbart 16 st TMU:s (!) vilket enligt min gissning var den stora flaskhalsen i R600. Om jag har förstått det rätt så är det i dessa "pipelines" som även AF bearbetas? Vilket alltså gjorde att R600 gick på knä när AF används i högre utsträckning. *Gissar här*.

Jag tror på RV770, verkar vara en bra lösning, särskilt om man även har högre klock på sina shaders.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk

Låter såklart trevligt, men jag kommer nog köpa ett 3870 till min nya dator i sommar ändå. Vill inte lägga massa pengar på ett grafikkort när jag ä ndå inte spelar för mkt. Och de spel jag har maxar jag redan med mitt 1950.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Bazooka91
http://www.computerbase.de/artikel/hardware/grafikkarten/2007...

Hur många gånger måste jag påpeka att det inte är några fel på ATi:s skalning med AA?!!

I vissa fall skalar ATi:s kort till och med bättre än Nvidias kort i med samma inställningar.

Det är AF som tar mest på ATi:s kort, inte AA (pågrund av det lilla antalet TMU:s). Högkvalitets AF är det som används mest i testerna och eftersom det oftast används i samband med 4x AA eller mer så får man lätt uppfattningen att korten är dåliga på AA därför att folk bryr sig mindre om AF.

Märk väl att jag inte säger att ATi:s kort presterar bättre, utan att de inte skalar lika dåligt med AA som folk tror

Jäkligt bra test det där, precis den typen av test som behövs göras oftare.

Men hade reviewsidor valt att köra 16x AF istället för 16x HQ shit så hade det gått betydligt bättre för ATi på recensioner med andra ord.

Permalänk

En site påstår sig ha spec från AMD/ATI, med följande siffror:

HD4870 / HD4850
Core (MHz): 850 / 625 (36% diff)
Shader (MHz): 1050 / 825 (27% diff)
Mem (MHz): 1945 / 1143 (70% diff)
Texturefillrate (MT/s): 27.200 / 20.000 (36% diff)
Bandwidth (GB/s): 124 / 73 (69% diff)
TDP (W): 157 / 114 (38% diff)

källa: http://www.hardware-infos.com/news.php?news=2075

Visa signatur

ASUS ROG Strix G17 G713QR-HG022T (Ryzen 9 5900HX, RTX 3070 Max-P 115+15W, G.Skill Ripjaws 2x16GB 3200MHz CL22 1.2v (F4-3200C22D-32GRS), 17.3" 1920x1080 300Hz 3ms, 2x1TB NVMe) + 27" 2560x1440 Acer Nitro XV272UV + Corsair K55 RGB + Deltaco DM210

Permalänk
Avstängd

Det var inte så hög core-clock. Hade förväntar mig 900+ :S

Visa signatur

"Jo men det var exakt det jag menade med att den enda moddningen detta galleriet innehåller är Sanningsmodifikation och photoshoppande :)"

Permalänk

HD4850 sägs vara bara 30% "slöare" än HD4870, det som skiljer mest i spec är minnet, bandbredd.

Tror att varje liten extra Core MHz utöver 850MHz på HD4870 ger bra respons i fps.

Visa signatur

ASUS ROG Strix G17 G713QR-HG022T (Ryzen 9 5900HX, RTX 3070 Max-P 115+15W, G.Skill Ripjaws 2x16GB 3200MHz CL22 1.2v (F4-3200C22D-32GRS), 17.3" 1920x1080 300Hz 3ms, 2x1TB NVMe) + 27" 2560x1440 Acer Nitro XV272UV + Corsair K55 RGB + Deltaco DM210

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Triton.se
En site påstår sig ha spec från AMD/ATI, med följande siffror:

HD4870 / HD4850
Core (MHz): 850 / 625 (36% diff)
Shader (MHz): 1050 / 825 (27% diff)
Mem (MHz): 1945 / 1143 (70% diff)
Texturefillrate (MT/s): 27.200 / 20.000 (36% diff)
Bandwidth (GB/s): 124 / 73 (69% diff)
TDP (W): 157 / 114 (38% diff)

källa: http://www.hardware-infos.com/news.php?news=2075

Då stämmer det då som jag trodde, att det inte var 512bits buss i HD4870. Vore nämligen ruskigt onödigt att tillverka två olika kärnor, hela poängen med att ha två varianter är ju att även kunna sälja de på lägre frekvenser, men är det helt olika chip försvinner ju den fördelen, dessutom mycket dyrare med de kretskorten, det blir dyrare på många sätt.

Bra att de då kör 256bit. 512bit är bara onödigt och dyrt.

Citat:

Ursprungligen inskrivet av P1nGviN
Det var inte så hög core-clock. Hade förväntar mig 900+ :S

Har överallt rapporterats 850MHz på core och 1050MHz på shaders.

Permalänk
Citat:

Ursprungligen inskrivet av Dinoman
Jag tror att det vi ser från ATi nu är vad R600 egentligen borde ha varit från början.

Det som visat sig vara nyckeln i prestanda i dagens spel är "Texture Mapping Units". Om man tittar på Nvidia som har de bästa singelkorten ute nu så har dem 128 st Stream Processorer som mest (G80/G92) medans R600 har 320 st Stream Processorer. Det borgar ju för en större parallellitet i ATi:s struktur. Men detta har Nvidia kompenserat genom en högre klock på sina shaders så dem arbetar istället snabbare.

Men, då kommer vi till det intressanta. (G80 "GTX") har 32TMU:s, och (G92 GTS) har 56TMU:s. G92 har en smalare buss vilket torde innebära att en 384-bitars buss inte var mättat och därför gick man över till en smalare 256-bitars buss men höjde antalet TMU:s. Vilket gjorde att prestandan inte bara hamnade på samma nivå men även ökade och man fick en högre produktion på sina kärnor.

ATi var dock fortfarande kvar på enbart 16 st TMU:s (!) vilket enligt min gissning var den stora flaskhalsen i R600. Om jag har förstått det rätt så är det i dessa "pipelines" som även AF bearbetas? Vilket alltså gjorde att R600 gick på knä när AF används i högre utsträckning. *Gissar här*.

Jag tror på RV770, verkar vara en bra lösning, särskilt om man även har högre klock på sina shaders.

Du har rätt i det du säger. Textureringsprestandan är ATi:s största svaghet i dagens läge. Flaskhalsen hos Nvidias kort däremot ligger mest troligen i rå shaderprestanda med tanke på de små skillnaderna mellan G80 och G92. Därför tror jag starkt att vi kommer se en ganska rejäl boost för prestandan hos R770 iom det större antalet TMU:s (fördubbling av TMU:s samt fördubbling av shaderprestandan, 496 GFLOPS jämfört med 1008 GFLOPS). Känns som att prestandasiffrorna vi sett hittills (t.ex. diagrammet som visade 25% högre prestanda än 9800GTX) varit rätt grova approximationer baserade på antalet shaderenheter och inte den faktiska kalkylerade prestandan.

http://www.gpureview.com/show_cards.php?card1=564&card2=547

Visa signatur

"Aurora" Intel Core i5-4670K@4,2GHz - 8GB Corsair Vengeance 1600MHz - MSi Z87-G55 - Sapphire AMD R9 290 Tri-X - 2*Samsung 1TB (RAID 0) - Antec P182 - Corsair HX620 - Noctua NH-U12P
"Mirage" Macbook Pro 13" - 16GB RAM - dualboot OSX/Win7
Hä lön's int' förklar' för dem söm int' begrip'

Permalänk
Hedersmedlem

Hoppas dessa kort blir värdiga konkurrenter till Nvidia! Riktigt sugen på ett ATi kort i sommar

Permalänk

Men on topic, kommer grafikkorten växa ännu mer på längden nu, eller är "the bottom nådd"?

Permalänk
Moderator, Testpilot
Citat:

Ursprungligen inskrivet av SWE|OggE
Hoppas dessa kort blir värdiga konkurrenter till Nvidia! Riktigt sugen på ett ATi kort i sommar

Jag är mest sugen på ett kort som faktiskt klarar av att driva ett spel som Crysis och som inte begär av mig att jag lägger lika mycket pengar på det som på resten av hårdvaran i burken.

Prisbilder som 5000-6000:- för en komponent är helt enkelt bara löjligt och idiotiskt.

Sen om det står Nvidia eller ATi när jag bootar upp spelar mig ingen roll.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Splinter Snake
Låter såklart trevligt, men jag kommer nog köpa ett 3870 till min nya dator i sommar ändå. Vill inte lägga massa pengar på ett grafikkort när jag ä ndå inte spelar för mkt. Och de spel jag har maxar jag redan med mitt 1950.

Ja, jag tror jag har blivit äldre. Har haft ett "snikigt" x1900gt sedan det redan var outdated, men crysis flöt på utmärkt på inställningar som presenterade spelet väl.

Är inte ens sugen på att byta, och fick jag ett bättre kort så skulle jag byta det mot en phenom. Spara sekunder i Lightroom skulle vara guld

Visa signatur

Error 412: Precondition Failed - You need to use a real browser in order to view this signature!

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Splinter Snake
Låter såklart trevligt, men jag kommer nog köpa ett 3870 till min nya dator i sommar ändå. Vill inte lägga massa pengar på ett grafikkort när jag ä ndå inte spelar för mkt. Och de spel jag har maxar jag redan med mitt 1950.

Hur mycket dyrare tror du ett HD4850 blir, eller du kanske rent av ska köpa ett HD4670? De kommer prestera som HD3870 ser det ut som, och vara billiga.

Permalänk
Hedersmedlem
Citat:

Ursprungligen inskrivet av Dinoman
Jag är mest sugen på ett kort som faktiskt klarar av att driva ett spel som Crysis och som inte begär av mig att jag lägger lika mycket pengar på det som på resten av hårdvaran i burken.

Prisbilder som 5000-6000:- för en komponent är helt enkelt bara löjligt och idiotiskt.

Sen om det står Nvidia eller ATi när jag bootar upp spelar mig ingen roll.

Vilket ATi tydligen har förstått att de flesta tycker så,
http://www.sweclockers.com/nyhet/7724-specifikationer_for_gef...

Citat:

Nvidia försöker pressa ut all prestanda deras arkitektur klarar av men detta resulterar i ett rejält pris. ATI å andra sidan ser ut som att de försöker att hitta en balans mellan pris och prestanda.

Permalänk
Medlem
Permalänk
Inaktiv
Citat:

Ursprungligen inskrivet av MarcusDazE
Hoppas bara att ATi har fixat AA!!!
Atis AA har varit värdelös men annars billiga och bra kort.
Om AA är bra på 4870 så blir det nog ett sånt i sommar

Märks det nån skillnad om man har AA på eller av när man lirar i högre upplösningar? Jag vill minnas att det inte var nån större skillnad när jag körde cs med 1280*1024 förr i tiden. Kör man i t.ex 1920*1200 kan det väl knappast synas om det är på eller av?

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av H_Bozz
Märks det nån skillnad om man har AA på eller av när man lirar i högre upplösningar? Jag vill minnas att det inte var nån större skillnad när jag körde cs med 1280*1024 förr i tiden. Kör man i t.ex 1920*1200 kan det väl knappast synas om det är på eller av?

Precis. Knappast så att man behöver 16x i Full HD.
Men nu visade det ju sig att ATi inte var dåliga på AA heller, så nu behöver man ju inte tänka på AA prestanda när man väljer kort, båda tillverkarna är lika bra.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av H_Bozz
Märks det nån skillnad om man har AA på eller av när man lirar i högre upplösningar? Jag vill minnas att det inte var nån större skillnad när jag körde cs med 1280*1024 förr i tiden. Kör man i t.ex 1920*1200 kan det väl knappast synas om det är på eller av?

Jag har en skärm som klarar av 1920*1200 på 24" och hade en skärm som klarade max 1280*1024 på 16"... pixels per inch... pixeltätheten eller vad den ny heter var väldigt lika... alltså pixlarna var nästan lika stora på båda skärmarna fastän den högre upplösningen på 24" skärmen. Så jo... Man ser och det blir bättre med AA. Men upplevelsen är totalt 1000x bättre på 24"

Permalänk
Moderator, Testpilot
Citat:

Ursprungligen inskrivet av H_Bozz
Märks det nån skillnad om man har AA på eller av när man lirar i högre upplösningar? Jag vill minnas att det inte var nån större skillnad när jag körde cs med 1280*1024 förr i tiden. Kör man i t.ex 1920*1200 kan det väl knappast synas om det är på eller av?

Citat:

Ursprungligen inskrivet av Nighthog
Jag har en skärm som klarar av 1920*1200 på 24" och hade en skärm som klarade max 1280*1024 på 16"... pixels per inch... pixeltätheten eller vad den ny heter var väldigt lika... alltså pixlarna var nästan lika stora på båda skärmarna fastän den högre upplösningen på 24" skärmen. Så jo... Man ser och det blir bättre med AA. Men upplevelsen är totalt 1000x bättre på 24"

Precis det beror helt på pixeltätheten. Så länge förhållandet mellan antalet pixlar per yta är samma så är det sak samma. Men AA fungerar på det sättet att det höjer upplösningen på bilden lägger på en slags suddighet och sen skalar ner till rätt upplösning igen så visst är det så att om pixeltätheten höjs så blir bilden så skarp att man inte kan se några "hack" i sneda objekt över bildskärmen etc.

Dock ska man ha det i åtanke att FSAA x4 brukar vara fullt tillräckligt. Efter det så gör det ingen större skillnad, rent visuellt.

Och som det diskuterades innan så är det Anisotropic Filtering som är den stora prestandaboven för ATi:s kort vilket troligen beror på en för klen textureringsprestanda hos R600.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Citat:

Ursprungligen inskrivet av Dinoman
Jag tror att det vi ser från ATi nu är vad R600 egentligen borde ha varit från början.

Det som visat sig vara nyckeln i prestanda i dagens spel är "Texture Mapping Units". Om man tittar på Nvidia som har de bästa singelkorten ute nu så har dem 128 st Stream Processorer som mest (G80/G92) medans R600 har 320 st Stream Processorer. Det borgar ju för en större parallellitet i ATi:s struktur. Men detta har Nvidia kompenserat genom en högre klock på sina shaders så dem arbetar istället snabbare.

Men, då kommer vi till det intressanta. (G80 "GTX") har 32TMU:s, och (G92 GTS) har 56TMU:s. G92 har en smalare buss vilket torde innebära att en 384-bitars buss inte var mättat och därför gick man över till en smalare 256-bitars buss men höjde antalet TMU:s. Vilket gjorde att prestandan inte bara hamnade på samma nivå men även ökade och man fick en högre produktion på sina kärnor.

ATi var dock fortfarande kvar på enbart 16 st TMU:s (!) vilket enligt min gissning var den stora flaskhalsen i R600. Om jag har förstått det rätt så är det i dessa "pipelines" som även AF bearbetas? Vilket alltså gjorde att R600 gick på knä när AF används i högre utsträckning. *Gissar här*.

Jag tror på RV770, verkar vara en bra lösning, särskilt om man även har högre klock på sina shaders.

Nej men du har helt rätt här Dino, klockrent. Jag tror precis som du skriver och förtår också att det är där vi har flaskhalsen i R600. RV770 kommer bli väldigt intressant även om jag idag tror att GT200 kommer prestera rätt mycket bättre faktiskt.

Men många har ju fått för sig att HD4870 kommer dra lika mycket eller mindre ström @ load jämfört med HD3870 till exempel och jag förstår inte varför och hur? HD4870 sägs ju ha en TDP om 160w vilket är ganska mycket och 55w mer än HD3870 till exempel. Vad tror du?

Mvh

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.