Nya Radeon tar upp kampen mot Geforce 8800 Ultra

Permalänk
Citat:

Ursprungligen inskrivet av Emil92
http://www.guru3d.com/article/Videocards/490/10/
Publicerad idag 29januari.

Hej,

La upp den igår, de har förmodligen bara uppdaterat något i testet idag.

Citat:

Ursprungligen inskrivet av lolipopz0rz
Ja det är betydligt svårare. Men om du tänker så här, hur många procent har prestandan gått upp för single kort för varje drivrutin och hur många procent har prestandan gått upp för crossfire för varje drivrutin? Det finns mycket mer att hämta från drivrutinerna i crossfire än för singel kort. Formulerade mig kanske lite fel i mitt första inlägg, skyller på att jag var trött.

Så mycket har inte boostats om du kollar de första testerna fram till och med idag, kanske 5-10%. Det du glömmer är att Crossfire kan _inte_ skala bättre än 100% än vad ett kort maximalt kan prestera, är du med? Detta resulterar till att Crossfire prestandan inte kan boostas så mycket mer såvida inte kortet i sig har 30% extra (till exempel) att ge vilket jag vet kortet inte har, så pass starkt är inte kortet. Ett kort kommer aldrig komma över ett 8800GT vilket också resulterar till att två kort av HD3870 eller ett HD3870X2 aldrig kommer att kunna prestera bättre än två 8800GT såvida de inte strular @ SLI vilket de inte verkar göra. Tittar du första posten jag länkade tester så ser du två reviews med 8800GT@SLI som faktiskt presterar cirka 20% bättre än HD3870X2. Antagligen presterar 9800GX2 så bra också om inte Nvidia gör något dåligt eller får strul.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av kinc
3870X2 har 1024MB minne. Precis som att två 3870 i Crossfire har 1024MB. Förenklat är det så här: Iom att varje GPU renderar halva bilden vardera och varje GPU har 512MB frame buffer. Blir totala aktiva minnesmängden 1024MB. Man kan också säga att kortet har en 512-bit minnesbus, med samma mattematik.

Var kan jag läsa mer om det? Jag förstår inte hur det kan fungera så och jag hittar ingenting på Internet som tyder på detta. Tidigare har det varit så att exakt samma info skickas till båda korten i Crossfire och att den effektiva videominnet aldrig ökar. Detta sades till och med vara omöjligt då drivrutinerna aldrig skulle kunna dela informationen utan att dra massa prestanda.

Så länge inte korten kan läsa ifrån varandras minne så har jag svårt att se hur detta skulle kunna fungera?

Visa signatur

System: CPU: AMD Ryzen 9 3900X, MB: Gigabyte X570 Aorus Elite, Minne: Corsair 32GB DDR4 3200MHz, GPU: Asus GeForce RTX 2080 Super ROG Strix Gaming OC

Permalänk
Hedersmedlem

Jag är nyfiken på hur det kommer prestera i F@H när nästa GPU-klient kommer. Ja är även nyfiken på om klienten kommer kunna hantera båda GPU:erna eller om det kommer fungera som tidigare med Crossfire att man måste köra med 2 separata klienter.
En annan sak man kan undra över är ju hur mycket CPU det kommer dra och hur SMP-klienten drabbas.
Men det märks väl när klienten kommer, spännande blir det iaf

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Chourou
nu får du ju också tänka på att tekniken som förbättras även gör att grafikprocessorernas storlek minskar, eller har jag fel ? från 95nm till 55nm, säger det dig något ? låt oss låtsas spå in i framtiden då dem tillverkar ett grafikkort på 30nm och som består av 4gpus. sammankoppla 2 sånna kort och du får 8gpus vare sig det är sli eller crossfire, sen låtsas vi att längden på det är 26.5cm totalt. säger detta dig något då ?

du kan låtsas om du vill, själv vill jag hålla mig till verkligheten...

Visa signatur

Ryzen 5900X @ Stock, MSI Suprim X 3080 @ game mode.

Permalänk
Citat:

Ursprungligen inskrivet av A.N'doja
Så mycket har inte boostats om du kollar de första testerna fram till och med idag, kanske 5-10%. Det du glömmer är att Crossfire kan _inte_ skala bättre än 100% än vad ett kort maximalt kan prestera, är du med? Detta resulterar till att Crossfire prestandan inte kan boostas så mycket mer såvida inte kortet i sig har 30% extra (till exempel) att ge vilket jag vet kortet inte har, så pass starkt är inte kortet. Ett kort kommer aldrig komma över ett 8800GT vilket också resulterar till att två kort av HD3870 eller ett HD3870X2 aldrig kommer att kunna prestera bättre än två 8800GT såvida de inte strular @ SLI vilket de inte verkar göra. Tittar du första posten jag länkade tester så ser du två reviews med 8800GT@SLI som faktiskt presterar cirka 20% bättre än HD3870X2. Antagligen presterar 9800GX2 så bra också om inte Nvidia gör något dåligt eller får strul.

Jag har inte påstått att att HD3870x2 kommer prestera bättre än 8800GT sli eller 9800GX2. 5-10% i dom flesta spel och 50% där crossfire inte funkade från början är ju en rätt bra boost för bara drivare eller hur? Speciellt jämfört med att singelkort bara fått 2-3% under ett år. Det jag försöker säga är att prestandan kommer antagligen stabiliseras inom en månad eller två så att HD3870x2 presterar lika bra som den gör i en del spel i alla spel. Speciellt Crysis kan få mycket bättre crossfire prestanda, då en driver uppdatering gjorde så mycket för jagminnsintevilkensida som 50% skillnad.

EDIT: Jag glömmer ingenting, allt jag försöker säga är att HD3870x2 kommer med största möjlighet få en större boost under ett halvår av drivrutiner än vad 2900 fick under ett halvår av drivrutiner, och att den ryckiga prestandan antagligen kommer fixas till stor del! Misstolka inte det jag säger nu för samma saker som Borka häver ur sig hela tiden, jag tror inte HD3870x2 kommer gå om allt som finns med 300% när det kommer drivrutiner, jag är bara lite försiktigt positiv till att det här kortet faktiskt kommer bli det första x2 kortet som presterar jämnt och fint.

Visa signatur

Dator 1 | GA-X38-DQ6 | HD4870x2 | Q6600 @ 3.5Ghz | TRUE | 4GB Corsair PC6400 | TX750w | Cosmos 1000
Dator 2 | P5Q3 Deluxe | 9800GTX | E7200 @ 4.2GHz | TRUE | 2x2GB PC3-10600 | Antec Nine Hundred | HX620w

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av FredrikMH
Tidigare har det varit så att exakt samma info skickas till båda korten i Crossfire och att den effektiva videominnet aldrig ökar.

Det är väl i SLI det fungerar så? Crossfire är ju på deras tredje version, de kan även skala så att om man har ett kraftigare kort och ett mindre kraftigt kort så delar de upp arbetet så det kraftigare kortet tar en större del.

Har själv inte sett fakta på att crossfire inte kan utnyttja hela minnet däremot så har jag sett på något ställe att SLI inte kan utnyttja mer minne än vad som finns på ena grafikkortet

Visa signatur

Programmerare med C++ som huvudspråk.

Permalänk
Medlem

Glöm inte bort att testsidorna använder olika drivrutiner. Techreport använde tex äldre drivrutiner än vad Anandtech gjorde (8.451.2-080116a i stället för ATI: 8-451-2-080123a), hur mycket det påverkar prestandan vet jag inte men en av anledningarna till att de försenade kortet var för att de skulle hinna få ut bättre drivrutiner.

Visa signatur

ASUS K7M, AMD Athlon 1000 MHz Slot A, 3dfx Voodoo5 5500 64 MB AGP, 512 MB SDRAM @ CL 2-2-2-5, Cooler Master ATC-100-SX Aluminum Mid Tower.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av A.N'doja
För det första har jag inte alls gått hårt på minimum fps. Jag höll
med en annan medlem om att minimum fps tillsammans med AVG fps
är givetvis den FPS som betyder mest, håller du inte med?

---------------------------------
Från testet Hexus:
http://www.hexus.net/content/item.php?item=11398&page=6

HD3870X2: 1613,04 FPS
8800GTX: 1394,69 FPS

1600FPS!
Du har gjort ett statisktiskt dunderklavertramp genom att summera FPS för alla tester. Inte konstigt att du får ett resultat som i många fall går emot recensenternas egna slutsatser.

Samma sak kan hända i en tennismatch. Summering ger fel resultat.
5 set. 0-6, 0-6, 6-4, 6-4, 6-4
Vinnaren vann totalt 18 games, förloraren 24.

Visa signatur

Vägra fx 3of4 Pi 1M 1.84 s Memory remapping
Minnen har ingen egen hastighet. Märkningen anger bara vilken hastighet minnena uppges klara

Permalänk
Moderator
Testpilot
Citat:

Ursprungligen inskrivet av Hardware guy
1600FPS!
Du har gjort ett statisktiskt dunderklavertramp genom att summera FPS för alla tester. Inte konstigt att du får ett resultat som i många fall går emot recensenternas egna slutsatser.

Samma sak kan hända i en tennismatch. Summering ger fel resultat.
5 set. 0-6, 0-6, 6-4, 6-4, 6-4
Vinnaren vann totalt 18 games, förloraren 24.

Ja du, han verkar göra allt möjligt galet för att få det till att nVidia ska framstå ännu bättre.

http://www.tomshardware.com/2008/01/28/ati_r680_the_rage_fury...

Sådär räknar man ut "average fps"...

Givetvis får du ju ta alla fps genom antalet spel, så får du ut "average fps". I lägre upplösningar så leder till och med Ultra enligt Toms, men i högre leder HD3800X2. Där i ska man räkna in att ATi's kort är schizofrent i sina resultat än så länge.

Men alltså ja, vad ska man säga. Imponerande? Nej men det visste vi ju sedan innan. Vi vet ju hur ett par HD3870 presterar i XF. Däremot är det lovande ur den synpunkten att två stycken mellansegment-kort kan utprestera ett "high end"-kort; konsekvent.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Hardware guy
1600FPS!
Du har gjort ett statisktiskt dunderklavertramp genom att summera FPS för alla tester. Inte konstigt att du får ett resultat som i många fall går emot recensenternas egna slutsatser.

Samma sak kan hända i en tennismatch. Summering ger fel resultat.
5 set. 0-6, 0-6, 6-4, 6-4, 6-4
Vinnaren vann totalt 18 games, förloraren 24.

Bra förklaring Nu kanske folk förstår fakta.

<b>ATI kortet är snabbare överlag</b>, oavsett antalet cores/gpu:er, hur mycket watt den drar, hur mycket den låter eller vad den har för färg. Det fortfarande ETT kort oavsett om det är gammal eller ny arkitektur och att säga emot fakta känns som ett desperat försök att motivera sitt köp om man nu har köpt ett dyrt ultra/gtx kort. Ibland så får man acceptera att vissa saker ständigt förbättras och följa med strömen.

Sen finns det alltid de som vägrar tror på gravitationen också...men de kan man tyvärr inte göra så mycket åt.

Visa signatur

Mmmarabou

Permalänk
Medlem

kolla detta http://www.youtube.com/watch?v=VeHgoyGRbuI

ca 23500 3dmark06 med endast vattenkylning. Det känns som att när det kommer nya drivrutiner så att man kan köra med 2 kort så kommer det "gamla" rekordet på drygt 30000p att vara borta.

Vad får man för resultat med ett vattenkylt ultra?

Visa signatur

Ryzen 5800X ROG STRIX X570-f GAMING FlareX DDR43600 cl 14-14-14-34 EVGA FTW3 Ultra RTX 3090

Permalänk
Medlem

Nu kanske detta redan skrivits men så vitt jag vet så var ATIs fury kort först med dubbla gpuer, Missminner jag mig inte än mer så var 3Dlabs före fury korten med 2 eller fler GPUer på sina Wildcat kort.
Även 3dfx hade dubbla gpuer och flera innan Nvidia hade släppt sina x2 kort eller för den delen sin sli brygga..

Nvidia var mer eller mindre sista med detta.
Spelar inte så stor roll men det låter lite fel i nyheten.

Permalänk
Citat:

Ursprungligen inskrivet av FredrikMH
Var kan jag läsa mer om det? Jag förstår inte hur det kan fungera så och jag hittar ingenting på Internet som tyder på detta. Tidigare har det varit så att exakt samma info skickas till båda korten i Crossfire och att den effektiva videominnet aldrig ökar. Detta sades till och med vara omöjligt då drivrutinerna aldrig skulle kunna dela informationen utan att dra massa prestanda.

Så länge inte korten kan läsa ifrån varandras minne så har jag svårt att se hur detta skulle kunna fungera?

Det är bara med Crossfire X har jag för mig som man får det dubbla i effektivt minne.

Så länge varsitt kort renderar halva bilden så kommer videominnet i form storlek aldrig att dubbleras. Det är liksom SLI. MEN, kanske har ATi gjort något jag har missat men de tär inget jag hittar heller. Fråga 2good4you, tror han kan det bättre.

Mvh

Citat:

Ursprungligen inskrivet av lolipopz0rz
Jag har inte påstått att att HD3870x2 kommer prestera bättre än 8800GT sli eller 9800GX2. 5-10% i dom flesta spel och 50% där crossfire inte funkade från början är ju en rätt bra boost för bara drivare eller hur? Speciellt jämfört med att singelkort bara fått 2-3% under ett år. Det jag försöker säga är att prestandan kommer antagligen stabiliseras inom en månad eller två så att HD3870x2 presterar lika bra som den gör i en del spel i alla spel. Speciellt Crysis kan få mycket bättre crossfire prestanda, då en driver uppdatering gjorde så mycket för jagminnsintevilkensida som 50% skillnad.

EDIT: Jag glömmer ingenting, allt jag försöker säga är att HD3870x2 kommer med största möjlighet få en större boost under ett halvår av drivrutiner än vad 2900 fick under ett halvår av drivrutiner, och att den ryckiga prestandan antagligen kommer fixas till stor del! Misstolka inte det jag säger nu för samma saker som Borka häver ur sig hela tiden, jag tror inte HD3870x2 kommer gå om allt som finns med 300% när det kommer drivrutiner, jag är bara lite försiktigt positiv till att det här kortet faktiskt kommer bli det första x2 kortet som presterar jämnt och fint.

Alltså det bästa vore självklart om det är som du skriver. Men det är svårt för andra när de släpper drivrutin efter drivrutin som boostar lite lite i taget medans folk på Sweclockers bland annat hypar sönder stackars ATi och deras drivrutiner.

Citat:

Ursprungligen inskrivet av Hardware guy
1600FPS!
Du har gjort ett statisktiskt dunderklavertramp genom att summera FPS för alla tester. Inte konstigt att du får ett resultat som i många fall går emot recensenternas egna slutsatser.

Samma sak kan hända i en tennismatch. Summering ger fel resultat.
5 set. 0-6, 0-6, 6-4, 6-4, 6-4
Vinnaren vann totalt 18 games, förloraren 24.

Det där är total fps som jag har räknat ut, inte AVG fps.

Kolla här. Om jag tar FPS från nedan bild på HD3870X2 (58.1 fps):
http://images.anandtech.com/graphs/atiradeonhd3870x2_01270822...

Och adderar med FPS i nästa spel i samma upplösning till exempel (47.4 fps):
http://images.anandtech.com/graphs/atiradeonhd3870x2_01270822...

Så har HD3870X2 producerat en total fps om 47.1 + 58.1 FPS = 105,2 FPS totalt right? Om 8800GT@SLI får 48.9 fps på första bilden och 62.7 fps på andra bilden och en total fps om 111,6 FPS. Vem har då vunnit kriget prestanda per kort? Givetvis vann i så fall Nvidia den ronden i form av total fps i dessa två spel. Eller är jag ute och cyklar??

Citat:

Ursprungligen inskrivet av Dinoman
Ja du, han verkar göra allt möjligt galet för att få det till att nVidia ska framstå ännu bättre.

http://www.tomshardware.com/2008/01/28/ati_r680_the_rage_fury...

Sådär räknar man ut "average fps"...

Givetvis får du ju ta alla fps genom antalet spel, så får du ut "average fps". I lägre upplösningar så leder till och med Ultra enligt Toms, men i högre leder HD3800X2. Där i ska man räkna in att ATi's kort är schizofrent i sina resultat än så länge.

Men alltså ja, vad ska man säga. Imponerande? Nej men det visste vi ju sedan innan. Vi vet ju hur ett par HD3870 presterar i XF. Däremot är det lovande ur den synpunkten att två stycken mellansegment-kort kan utprestera ett "high end"-kort; konsekvent.

Det är så lätt på detta forumet att fortsätta på något som någon annan har skrivt. Men för att skriva det en gång till så har jag _endast_ skrivit och hållt med en annan medlem i tråden om att min fps och AVG fps är den fps som är viktig. Min uträkning hade ingenting med min och avg fps att göra.

Citat:

Ursprungligen inskrivet av sesese
kolla detta http://www.youtube.com/watch?v=VeHgoyGRbuI

ca 23500 3dmark06 med endast vattenkylning. Det känns som att när det kommer nya drivrutiner så att man kan köra med 2 kort så kommer det "gamla" rekordet på drygt 30000p att vara borta.

Vad får man för resultat med ett vattenkylt ultra?

Ett 8800GTS 512 klockat på luft gör över 17.000 3dmark 06 och då är det inte max klock. Vi skulle bett Kick gjort några grova klockförsök på det kortet då det kortet innehåller fruktansvärt mycket klock/prestanda.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Medlem

Nämen titta! A.N'doja har rätt i allt han säger och Nvidia är bäst och kan flyga till månen, nu äntligen kanske det blir lite mindre gnäll i tråden.

Visa signatur

I like my women how i like my coffee... In a plastic cup.

Permalänk
Geeks
SweClockers
Citat:

Ursprungligen inskrivet av A.N'doja

Så har HD3870X2 producerat en total fps om 47.1 + 58.1 FPS = 105,2 FPS totalt right? Om 8800GT@SLI får 48.9 fps på första bilden och 62.7 fps på andra bilden och en total fps om 111,6 FPS. Vem har då vunnit kriget prestanda per kort? Givetvis vann i så fall Nvidia den ronden i form av total fps i dessa två spel. Eller är jag ute och cyklar??

Du är ute och cyklar. Genomsnittlig fps är viktigare än max exempelvis. Tänk ett kort som klarar av 200 fps i två sekunder, och ligger sedan och kravlar i 20 fps average. Enligt din formel skulle det grafikkortet vara bättre än ett som håller 100 fps och maxar på 110 fps.

Visa signatur

» Kontakta oss » SweClockers på Facebook » SweClockers på Youtube » Blips of SweClockers (Spotify)
» Pappa till Moderskeppet » SweClockers chefredaktör 2007–2015

Permalänk

Är det bara jag som tror att om 6 månader så kommer 3870x2 ge en helvetes massa prestanda för pengarna? Tänker på att priset kommer gå ner då..

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av herr_persson
Är det bara jag som tror att om 6 månader så kommer 3870x2 ge en helvetes massa prestanda för pengarna? Tänker på att priset kommer gå ner då..

Är mer eller mindre det jag väntar på med faktiskt. Om man har råd med mobo med då vill säga.

Sen får vi även se vad nvidias next gen(spela roll vilken) presterar med.

Permalänk
Medlem

Får hoppas på att Nvidia förlorar lite av sin prestanda med sin SLI teknik och att när man kör med 2st grafikkrot i SLi /crosssfire så kommer dom att prestera jämnlikt om vi har tur och det hoppas jag verkligen på att vi har så att AMD kommer igång med båda sina grafikkrot och CPUer. annars så får vi vänta ett tag till innan vi får se några feta CPUer och grafikkort :S

Visa signatur

Har sålt min speldator :)

Permalänk
Citat:

Ursprungligen inskrivet av Eson
Nämen titta! A.N'doja har rätt i allt han säger och Nvidia är bäst och kan flyga till månen, nu äntligen kanske det blir lite mindre gnäll i tråden.

Absolut inte.

Citat:

Ursprungligen inskrivet av xphaze
Du är ute och cyklar. Genomsnittlig fps är viktigare än max exempelvis. Tänk ett kort som klarar av 200 fps i två sekunder, och ligger sedan och kravlar i 20 fps average. Enligt din formel skulle det grafikkortet vara bättre än ett som håller 100 fps och maxar på 110 fps.

Men vänta lite. De flesta tester har bara en stapel per grafikkort där det står FPS antal 30 kanske, precis som med era tester. Varför tror du att Tomshardware har en total FPS lista?

För övrigt så har jag inte mätt max fps utan all fps om så är min, avg och max.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Avstängd

Själv köper jag inte ett grafikkort för att sitta på låga upplösningar, jag vill köra 1920x1080, och då självklart utan AA då det är meningsöst i den upplösningen för mig, och då ser HD3870 X2 lovande ut.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av gosh
Det är väl i SLI det fungerar så? Crossfire är ju på deras tredje version, de kan även skala så att om man har ett kraftigare kort och ett mindre kraftigt kort så delar de upp arbetet så det kraftigare kortet tar en större del.

Har själv inte sett fakta på att crossfire inte kan utnyttja hela minnet däremot så har jag sett på något ställe att SLI inte kan utnyttja mer minne än vad som finns på ena grafikkortet

Ja att SLI fungerar så vet jag eftersom Nvidia själv nämner det i sin FAQ på SLI-zone, till skillnad från ATIs Crossfire FAQ som är 13 frågor och som bara tar upp det som är bra, vilket i så fall borde inkluderat att minnesmängden fördublas i Crossfire.

Jag har letat jätte mycket och det står ingenstans att det fungerar så. Jag menar en sådan viktigt feature borde väl ändå nämnas på deras sida? Alla andra reviews och artiklar om Crossfire jag läst säger att det fungerar precis som SLI.

Dessutom är detta ologiskt för mig. Den del av minnet som används till att rendera den aktuella bilden, så kallad frame buffer blir mindre om ena grafikkortet ritar ena halvan bara. Vi snackar några Megabyte här. Men om jag minns rätt sedan jag provade spelprogrammering så laddas alla texturer och all grafik också in i videominnet, innan bilden renderas. Programmeraren väljer inte att skicka vissa texturer till grafikkort 1 för de kommer endast användas där och några till grafikkort 2, utan allt laddas upp och eftersom inte drivrutinerna vet vilka texturer som ska användas var så måste den i så fall gissa eller lägga det dubbelt på båda grafikkorten.

Tills jag blir motbevisad, vilket jag aldrig blivit i dessa diskussioner, så tror jag inte på påståenden som dessa heller. Men som vanligt ser jag gärna att jag blir motbevisad i denna fråga.

Visa signatur

System: CPU: AMD Ryzen 9 3900X, MB: Gigabyte X570 Aorus Elite, Minne: Corsair 32GB DDR4 3200MHz, GPU: Asus GeForce RTX 2080 Super ROG Strix Gaming OC

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av FredrikMH
Ja att SLI fungerar så vet jag eftersom Nvidia själv nämner det i sin FAQ på SLI-zone, till skillnad från ATIs Crossfire FAQ som är 13 frågor och som bara tar upp det som är bra, vilket i så fall borde inkluderat att minnesmängden fördublas i Crossfire.

Jag har letat jätte mycket och det står ingenstans att det fungerar så. Jag menar en sådan viktigt feature borde väl ändå nämnas på deras sida? Alla andra reviews och artiklar om Crossfire jag läst säger att det fungerar precis som SLI.

Dessutom är detta ologiskt för mig. Den del av minnet som används till att rendera den aktuella bilden, så kallad frame buffer blir mindre om ena grafikkortet ritar ena halvan bara. Vi snackar några Megabyte här. Men om jag minns rätt sedan jag provade spelprogrammering så laddas alla texturer och all grafik också in i videominnet, innan bilden renderas. Programmeraren väljer inte att skicka vissa texturer till grafikkort 1 för de kommer endast användas där och några till grafikkort 2, utan allt laddas upp och eftersom inte drivrutinerna vet vilka texturer som ska användas var så måste den i så fall gissa eller lägga det dubbelt på båda grafikkorten.

Tills jag blir motbevisad, vilket jag aldrig blivit i dessa diskussioner, så tror jag inte på påståenden som dessa heller. Men som vanligt ser jag gärna att jag blir motbevisad i denna fråga.

Håller med, skulle inte fungera om bara ett grafikkort hade vissa texturer. Och Framebuffern är som sagt inte något som skulle spela roll om det bara fanns i en kortet eller i båda då den är för liten. Antagligen finns den väl i båda.

Tycker förövrigt att det är synd att det blir så. Eftersom det blir en hel gigabyte det tar upp i adressminnet bara för att som mest lagra hälften av det. Skulle vara smidigt om de delade minne, eller om den ena bara hade en spegling av den andres texturminne, och på så sätt minskade adresseringsanspråken.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av FredrikMH
Tills jag blir motbevisad, vilket jag aldrig blivit i dessa diskussioner, så tror jag inte på påståenden som dessa heller. Men som vanligt ser jag gärna att jag blir motbevisad i denna fråga.

Enligt de tester jag sett så fungerar crossfire bättre och bättre desto högre upplösningen är, det indikerar väl lite att minnet används?

Att tekniken kommer förbättras är säkerligen ingen svår gissning eftersom det verkar vara först nu det börjar bli säljbart med flera grafikkort. Nästa steg i utvecklingen tror jag handlar om att grafikkort stängs av, alltså behöver man inte kraften så används bara ett grafikkort, behöver man mer så dras det andra igång. Hade det fungerat så idag så hade jag köpt ett till direkt

Visa signatur

Programmerare med C++ som huvudspråk.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av gosh
Enligt de tester jag sett så fungerar crossfire bättre och bättre desto högre upplösningen är, det indikerar väl lite att minnet används?

Att tekniken kommer förbättras är säkerligen ingen svår gissning eftersom det verkar vara först nu det börjar bli säljbart med flera grafikkort. Nästa steg i utvecklingen tror jag handlar om att grafikkort stängs av, alltså behöver man inte kraften så används bara ett grafikkort, behöver man mer så dras det andra igång. Hade det fungerat så idag så hade jag köpt ett till direkt

Tror det kan ha med ren dataskyffling mellan kärnorna att göra.

Och jämför du crossfire mot singelkort eller menar du att detta även gäller crossfire mot sli?

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av gosh
Enligt de tester jag sett så fungerar crossfire bättre och bättre desto högre upplösningen är, det indikerar väl lite att minnet används?

Att tekniken kommer förbättras är säkerligen ingen svår gissning eftersom det verkar vara först nu det börjar bli säljbart med flera grafikkort. Nästa steg i utvecklingen tror jag handlar om att grafikkort stängs av, alltså behöver man inte kraften så används bara ett grafikkort, behöver man mer så dras det andra igång. Hade det fungerat så idag så hade jag köpt ett till direkt

Jag är inte dum men jag kan inte se en effektig lösning på hur man ska göra en Crossfire eller SLI-lösning likt den idag som utökar det effektiva videominnet. En lösning skulle vara shared memory med ytterligare en brygga för dessa överföringar men då måste där vara read/write lock vilket skapar kö om alla kärnorna ska åt samma grafikminne och då riskerar man att kortet prestar sämre på grund av detta. Att drivrutinerna själva vet var den ska skicka datan är bara löjligt då de i nästa frame kan behöva dessa texturer och skulle i så fall behöva hämta dessa från internminnet och där om något har vi en flaskhals.

Det finns ingen information, uttalande eller pressinformation om denna information och varför skulle ingen nämnt något om detta?

Citat:

Ursprungligen inskrivet av -Boris-
Tror det kan ha med ren dataskyffling mellan kärnorna att göra.

Och jämför du crossfire mot singelkort eller menar du att detta även gäller crossfire mot sli?

Det finns vissa tester där Crossfire ger mer än 100% mer prestanda än ett kort i höga upplösningar, men det finns andra faktorer som kan påverka detta än ett utökat minnet som annars skulle kunna vara en anledning.

Visa signatur

System: CPU: AMD Ryzen 9 3900X, MB: Gigabyte X570 Aorus Elite, Minne: Corsair 32GB DDR4 3200MHz, GPU: Asus GeForce RTX 2080 Super ROG Strix Gaming OC

Permalänk
Geeks
SweClockers
Citat:

Ursprungligen inskrivet av A.N'doja
Absolut inte.

Men vänta lite. De flesta tester har bara en stapel per grafikkort där det står FPS antal 30 kanske, precis som med era tester. Varför tror du att Tomshardware har en total FPS lista?

För övrigt så har jag inte mätt max fps utan all fps om så är min, avg och max.

Vad Tomshardware sysslar med bryr jag mig inte om. Den formeln förutsätter att samtliga värden är lika viktiga, och det är dom inte. Menar du på allvar att max fps är lika viktigt som average? Minimum kan man däremot diskutera.

Visa signatur

» Kontakta oss » SweClockers på Facebook » SweClockers på Youtube » Blips of SweClockers (Spotify)
» Pappa till Moderskeppet » SweClockers chefredaktör 2007–2015

Permalänk
Medlem

A.N'doja att räkna ut total FPS är väldigt dumt då det ger en fel bild då allt över 60(100) FPS är helt ointressant. Jag har fått en känsla av att 8800 är väldigt bra på att pumpa mycket hög FPS om fler hundra. Ati R600 verkar inte vara lika bra på det, vilket inte gör ett dugg. Därför blir det orättvist.

3870X2 presterar idag bättre än 8800Ultra under tunga inställningar som 1920 x 1200 och uppåt, alltså då man behöver ett snabbt grafikkort. Dessutom kan 3870X2 bara bli bättre med tiden, vilket knappast 8800Ultra blir då kortet och G80 har funnits så länge samt att 8800Ultra bara har en kärna och kan därmed utnyttja 100% av GPUn. Förmodligen kan 3870X2 prestanda öka en hel del pga. att det finns mycket prestanda att vinna i Crossfire tekninken och att kortet är i sina unga dagar.

/Bara en liten tanke är att HD3870X2 är 2000 kr billigare.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av FredrikMH
Det finns ingen information, uttalande eller pressinformation om denna information och varför skulle ingen nämnt något om detta?

Företagshemligheter?

Denna länk förklarar en del tekniker rätt bra (även om det är övergripande)
http://ati.amd.com/technology/crossfire/CrossFireWhitePaperwe...

Visa signatur

Programmerare med C++ som huvudspråk.

Permalänk
Medlem

Dojan har nog räknat rätt och alltså kommit fram till att 3870 X2 med nöd och näppe, enligt ett rått genomsnitt, är snabbare än ett Ultra, inte 10-20% som jag hävdade.

Men Gurrty mfl skriver ovan lite om hur jag också försöker bedöma tester och ställa kort mot varandra. Att tex "kapa av" resultat som man inte "behöver".

Xphaze säger att man inte kan betrakta alla resultat som likvärdiga och bara bunta ihop och räkna ut ett snitt. Det ligger något liknande i det resonenmanget.

Boris skrev om att låga upplösningar inte intresserar honom. Samma här, jag tenderar att "väga" 1600x1200 / 1920x1200 lite högre än 1280x1024 när jag ska bedöma den riktiga powern av ett highend-kort idag. Jag brukar också tänka, "ok, nu testar de i 1920x1200 i 0xAA, men det motsvarar ungefär mina 1680x1050 fast i 4xAA jag kör på min skärm hemma".

Ännu en grej är ju, som jag sett An'Doja själv varit inne på tidigare, är att man halvt omedvetet väljer att bortse från vissa resultat för att de gjorts "i fel" spel. Man tex halvdissar F.E.A.R. (gammal motor) och Unreal Engine 3 (ändå så jäkla väloptimerad motor!) medan det är prestanda i spel av typen Oblivion och Crysis man är orolig för.

Således mycket att ta hänsyn till. Jag är siffergalning och vill gärna ha ett procentmått i jämförelsen mellan grafikkort, så jag stack ut hakan och sa att X2 slår Ultra med 10-20%. Det kanske var en överdrift, i alla fall att säga det så pass generellt.

Visa signatur

Memento mori...

Permalänk
Citat:

Ursprungligen inskrivet av xphaze
Vad Tomshardware sysslar med bryr jag mig inte om. Den formeln förutsätter att samtliga värden är lika viktiga, och det är dom inte. Menar du på allvar att max fps är lika viktigt som average? Minimum kan man däremot diskutera.

Du läser inte det jag skriver.

Jag skrev tidigare att minimim och avg fps är den fps som är viktig. Men för att tillägga så är Min FPS viktigare än MAX fps så länge AVG fps är så pass bra att spelet flyter. Det är inte skoj att spela i 70fps och helt plötsligt droppar det ner till 33fps till exempel.

Men vad har de flesta tester för fps när de sätter upp sina staplar? Givetvis är det AVG fps så mina värden stämmer ganska korrekt också. De flesta tar endast AVG fps, endel tar min, avg och max.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.