AMD Radeon HD 7970 Gigahertz Edition

Permalänk
Medlem
Skrivet av Zotamedu:

Det där är högst otroligt. Enda källan på att så är fallet är Nvidia själva som vid tiden då de sa det var flera månader efter AMD med generation 28 nm och därför behövde göra allt för att få folk att vänta med att köpa grafikkort. Hade de kunnat släppa GK100 hade de gjort det. Framförallt hade den verkligen behövts i Quadro och Tesla där GK104 är tämligen värdelös. Folk köper inte senaste Quadro utan köper istället korten baserade på Fermi för att de är bättre.

Med tanke på hur dålig tillgången har varit på GK104 låter det mer troligt att de inte kunde tillverka tillräckligt många kretsar av olika anledningar.

Quadro som är baserat på Kepler har väl inte ens kommit än? Och det är därför som folk fortfarande köper Fermi-Quadro. Huruvida GK100 skrotades eller inte är det nog bara Nvidia som vet. Kanske vidareutvecklades GK100 till GK110, vem vet? Att det blev som det blev pga brist på kretsar låter dock logiskt.

Skrivet av Absurd:

Nu var du lite väl generös, 2880 CUDA-kärnor är det

Nej då, det är en nolla med glasögon

Visa signatur

Intel i5 12600K | Asus TUF Gaming Z690-Plus D4 | Asus Geforce RTX 3060 Ti | 32 GB DDR4 | Fractal Design North | Corsair iCue Link H100i | Cooler Master V750 Gold i Multi

Permalänk
Entusiast
Skrivet av Gender Bender:

Quadro som är baserat på Kepler har väl inte ens kommit än? Och det är därför som folk fortfarande köper Fermi-Quadro. Huruvida GK100 skrotades eller inte är det nog bara Nvidia som vet. Kanske vidareutvecklades GK100 till GK110, vem vet? Att det blev som det blev pga brist på kretsar låter dock logiskt.

Nej då, det är en nolla med glasögon

Ska finnas mobila versioner och sen har vi Tesla K10 och K20. Mottagandet har varit ljummet med tanke på prestandan. Vanlig quadro har tydligen inte kommit än på grund av bristen på GK104. Gissar att prestandan inte hade varit så imponerande heller.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Skrivet av Lasergurka:

Att du tidigare inte haft några problem med AMDs drivrutiner är väl inget argument för att de är felfria nu? Väldigt många har problem med deras drivrutiner, framför allt när det handlar om kort i CF. Att Nvidia på en månad fått fram WHQL-driver, medan AMD inte lyckats med det efter snart 6 månader säger väl lite om hur läget ser ut?

"Sk optimerings program och suspekta piratkopior" Vad pratar du om nu?

Att AMD har problem med CF drivrutinerna är välkänt. Personligen så tror jag att det problemet kom när man skruvade upp skalningen. Om jag inte minnes fel så fick man till och med över 100% i vissa spel (har för mig att det var 68xx kort). De fick varningsklockorna att ringa i min skalle. Tänker man efter ett litet tag så inser man att det inte borde gå. Om något låter för bra för att vara sant så är det fm inte sant. Nvidia har ett förspring pga lång erfarenhet av SLI/CF föll inte för frestelsen. Nvidia fick via 3DFX erfarenhet av SLI ända sedan mitten 90-Talet. AMD/ATI började med CF över 10 år senare. Och valde en annan lösning. De har inte ännu kommit ifatt, men närmar sig. Men har man en CF lösning för 5-10K så har man rätt att vara förbannad. Har man lagt så mycket pengar på grafikkorten så skall de fungera.

MEN DET ÄR INTE DET SAMMA SOM ATT DERAS DRIVRUTINER ÄR DÅLIGA FÖR SINGELKORT . De som sitter med singelkort och har problem så är det sällan AMDs fel. Och de som sitter med Nvidia kort skall definitivt inte gnälla AMDs drivrutiner. Min erfarenhet är att AMDs drivrutiner inte är sämre än Nvidias. (när det kommer till singel GPU). Att man har problem när ett kort är nytt är en sak men 90% av buggarna brukar fixa sig inom en månad. Och så har det alltid varit. Minnes mina problem med ET6000 kortet. Även Voodoo 2 och Voodoo 3000 hade jag problem i början. Det kommer med att köpa ett sprillans nytt kort. Kom ihåg att även Windows brukar ha rejält med buggar i början.

Beträffande dåliga program så skall ge några exempel: Jag installerade om min grannes system sedan hans moderkort hade rasat. Det var ett 5 år XP system. Hur som helst så gjorde jag en fullständig ominstallation. Lade in antivirus och den vanliga sviten av nytto prog. Allt var ok. 1 vecka senare så var systemet Fubar. Orsak: Han hade hittat en nyare version av NERO på nätet och lagt in det! Jag testade med att lägga in några gamla spel för att testa och grafiken var B-Fubar. Skall omstallera systemet under semestern!

Annat exempel: En arbetskamrat köpte en ny laptop (HP). Bland det första han gjorde var att köra ett optimering prog. 2 Veckor senare= Fubar. Han ringde supporten som sade ominstallation. Efter 3 samtal gjorde han det. Allt ok. Och sedan körde optimerings programmet igen(?). 2 veckor senare Fubar! Efter en runda samtal till supporten så skickade han iväg datorn. De installerade om den och allt ok. Nu lyssnade han till vad jag hade sagt från första början och senare supporten till honom. Inga optimerings program. (tack gode gud så bytte han jobb för 2 månader sedan!)

Ett sista bra exempel: Jag har 2 st 560 TI. Ett sparkle och ett gigabyte. I mitt 2600K system så bytte jag från sparkle till gigabyte. Och fick problem med grafiken i en del spel och i 3dvantage! Installerade om drivrutinerna med riktig avinstallation i mellan. Allt ok. Samma grafikkort bara olika tillverkare!

Saken är att nästan alla optimerings program fibblar med registret och dll filer. Och tror att man kan det bättre än Microsoft! Samma sak är det ofta med piratkopior. Kopieringsskyddet är idag ofta kopplat till registret och framför allt till de delar som har med grafiken att göra. Och när man använder piratkopior så stämmer det inte.

MEN DET STÖRSTA PROBLEMET ÄR ATT MÅNGA INTE VILL ERKÄNNA ELLER FÖRSTÅR ATT DE SJÄLVA HAR FUCKAT UPP SYSTEMET utan skyller på drivrutiner.

Visa signatur

Varje svensk medborgare borde ha minst 3 PC/pers där hemma !

Permalänk
Skrivet av Luxor ABC80:

Att AMD har problem med CF drivrutinerna är välkänt. Personligen så tror jag att det problemet kom när man skruvade upp skalningen. Om jag inte minnes fel så fick man till och med över 100% i vissa spel (har för mig att det var 68xx kort). De fick varningsklockorna att ringa i min skalle. Tänker man efter ett litet tag så inser man att det inte borde gå. Om något låter för bra för att vara sant så är det fm inte sant. Nvidia har ett förspring pga lång erfarenhet av SLI/CF föll inte för frestelsen. Nvidia fick via 3DFX erfarenhet av SLI ända sedan mitten 90-Talet. AMD/ATI började med CF över 10 år senare. Och valde en annan lösning. De har inte ännu kommit ifatt, men närmar sig. Men har man en CF lösning för 5-10K så har man rätt att vara förbannad. Har man lagt så mycket pengar på grafikkorten så skall de fungera.

MEN DET ÄR INTE DET SAMMA SOM ATT DERAS DRIVRUTINER ÄR DÅLIGA FÖR SINGELKORT . De som sitter med singelkort och har problem så är det sällan AMDs fel. Och de som sitter med Nvidia kort skall definitivt inte gnälla AMDs drivrutiner. Min erfarenhet är att AMDs drivrutiner inte är sämre än Nvidias. (när det kommer till singel GPU). Att man har problem när ett kort är nytt är en sak men 90% av buggarna brukar fixa sig inom en månad. Och så har det alltid varit. Minnes mina problem med ET6000 kortet. Även Voodoo 2 och Voodoo 3000 hade jag problem i början. Det kommer med att köpa ett sprillans nytt kort. Kom ihåg att även Windows brukar ha rejält med buggar i början.

Beträffande dåliga program så skall ge några exempel: Jag installerade om min grannes system sedan hans moderkort hade rasat. Det var ett 5 år XP system. Hur som helst så gjorde jag en fullständig ominstallation. Lade in antivirus och den vanliga sviten av nytto prog. Allt var ok. 1 vecka senare så var systemet Fubar. Orsak: Han hade hittat en nyare version av NERO på nätet och lagt in det! Jag testade med att lägga in några gamla spel för att testa och grafiken var B-Fubar. Skall omstallera systemet under semestern!

Annat exempel: En arbetskamrat köpte en ny laptop (HP). Bland det första han gjorde var att köra ett optimering prog. 2 Veckor senare= Fubar. Han ringde supporten som sade ominstallation. Efter 3 samtal gjorde han det. Allt ok. Och sedan körde optimerings programmet igen(?). 2 veckor senare Fubar! Efter en runda samtal till supporten så skickade han iväg datorn. De installerade om den och allt ok. Nu lyssnade han till vad jag hade sagt från första början och senare supporten till honom. Inga optimerings program. (tack gode gud så bytte han jobb för 2 månader sedan!)

Ett sista bra exempel: Jag har 2 st 560 TI. Ett sparkle och ett gigabyte. I mitt 2600K system så bytte jag från sparkle till gigabyte. Och fick problem med grafiken i en del spel och i 3dvantage! Installerade om drivrutinerna med riktig avinstallation i mellan. Allt ok. Samma grafikkort bara olika tillverkare!

Saken är att nästan alla optimerings program fibblar med registret och dll filer. Och tror att man kan det bättre än Microsoft! Samma sak är det ofta med piratkopior. Kopieringsskyddet är idag ofta kopplat till registret och framför allt till de delar som har med grafiken att göra. Och när man använder piratkopior så stämmer det inte.

MEN DET STÖRSTA PROBLEMET ÄR ATT MÅNGA INTE VILL ERKÄNNA ELLER FÖRSTÅR ATT DE SJÄLVA HAR FUCKAT UPP SYSTEMET utan skyller på drivrutiner.

Okej, då säger vi väl att drivrutinerna inte är problemet med singelkort Jag får samma problem med singelkort som jag får med CF, kortet klockar ner sig till 500MHz, har testat alla möjliga olika sätt att avinstallera drivrutiner på, har formaterat om windows 2-3 gånger sen jag skaffat korten, vad kan vara problemet om det inte är drivrutinerna och inte AMDs fel?

Visa signatur

| Mobo: B550 AORUS ELITE V2 | CPU: Ryzen 5600x | RAM: 32GB @ 3600MHz | GPU: Asus GTX 1070 ROG| |PSU:RM750x | Chassi: Fractal Design Define R5 | SSD: OCZ Vertex3 120GB + Force GT 240GB | HDD: 6TB | Skärm: Foris FS2333 | |Ljud: Xonar Essence STX |

Permalänk
Medlem
Skrivet av Gender Bender:

Självklart presterar 7970 bättre på samma klockfrekvens, 7970 har ju trots allt 1 miljard fler transistorer samt bredare minnesbuss, så konstigt vore det ju annars. Dock så ser man att kortet inte är gjort för dessa klockfrekvenser genom att titta på strömförbrukningen som ligger på över 400W. Tahiti XT är 58 mm2 större än vad GK104 är, och därmed drar den mer ström och utvecklar mer värme. Ännu värre blir det ju i fall man dessutom kör med Bulldozer som även den slukar enormt mycket ström jämfört med Intels processorer. Då är man uppe i runt 550W, vilket då blir närmare 200W mer än om man kör en Intel + Nvidia-lösning.

Skillnaden i klockfrekens är väldigt lik skillnaden i strömförbrukningen och vad har Intel och Bulldozer med det hela att göra?

Visa signatur

Silverstone FT03B | Dell U2711 | Be-quiet E9 580w CM | ASUS GENE-Z | AMD 7970 | Intel 2500k @ 4,4 Ghz| Corsair H80i | 8GB Corsair LP

Permalänk
Hjälpsam

AMDs större videominne kan faktiskt göra stor skillnad i med tre skärmar, tex Star Wars: The Old Republic och Max Payne 3.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

som du har sett så minskar priset fort på PC produkter

Skrivet av sirnicke:

Därför finns det tester i 2560x1600. 4k är fortfarande på tok för dyrt för konsumentmarknaden.

Skickades från m.sweclockers.com

3840*2160=8294400 2560*1600=4096000 5760*1080=6220800

8294400/4096000=102,2% mer

8294400/6220800=33,3% mer

Jag och flera andra tror att vi kommer att ha dessa skärmar inom en snar framtid. Ska man maxa de senaste korten så ska det vara max bildyta då man troligen kommer att använda dessa kort mer än 1år. korten klarar till och med 4096*2160=8847360

Om SWEclockers skulle testa på en sådan skärm så tror jag att de skulle bli en av de första i värden med den upplösning vilker skulle höja statusen yttligare. För alla vill läsa tester där hårdvaran får slita.

vem trodde att en SSD skulle minska så snabbt i pris. 240gb kostar endast 1500kr idag, 2008 kostade en 32gb "endast"4500kr 140kr/gb så en 240 skulle minst ha kostat 33750kr http://www.sweclockers.com/recension/6082-ocz-ssd-ii-mot-wd-v...

Visa signatur

Ryzen 5800X ROG STRIX X570-f GAMING FlareX DDR43600 cl 14-14-14-34 EVGA FTW3 Ultra RTX 3090

Permalänk
Medlem
Skrivet av sesese:

3840*2160=8294400 2560*1600=4096000 5760*1080=6220800

8294400/4096000=102,2% mer

8294400/6220800=33,3% mer

Jag och flera andra tror att vi kommer att ha dessa skärmar inom en snar framtid. Ska man maxa de senaste korten så ska det vara max bildyta då man troligen kommer att använda dessa kort mer än 1år. korten klarar till och med 4096*2160=8847360

Om SWEclockers skulle testa på en sådan skärm så tror jag att de skulle bli en av de första i värden med den upplösning vilker skulle höja statusen yttligare. För alla vill läsa tester där hårdvaran får slita.

vem trodde att en SSD skulle minska så snabbt i pris. 240gb kostar endast 1500kr idag, 2008 kostade en 32gb "endast"4500kr 140kr/gb så en 240 skulle minst ha kostat 33750kr http://www.sweclockers.com/recension/6082-ocz-ssd-ii-mot-wd-v...

SSD:er är en relativt ny marknad, med en tillverkningsteknik som krymper såväl som minskar i pris exponentiellt. Du kan helt enkelt inte jämföra det med skärmar. Har vi sett en liknande prisutveckling på dagens högupplösta skärmar? Svar nej.

Trots att den första halvan av ditt inlägg råkar vara obotligt oförståelig kan jag något generiskt svara med att läsarvärdet på tester i 4k på sin höjd blir en kul grej, medans något intresse utöver det inte finns. Inte heller kommer läsarvärdet i närheten av att motsvara det otal hundra tusen kronor som en 4k-skärm idag kostar. Om några år när priserna sjunker till nivåer som privatpersoner är villiga att betala kan det definitivt bli relevant med tester i 4k eller 4k2k, men i dagsläget är det definitivt inte det.

Permalänk
Medlem
Skrivet av Whiip:

Skillnaden i klockfrekens är väldigt lik skillnaden i strömförbrukningen och vad har Intel och Bulldozer med det hela att göra?

Hur menar du nu? Att den prestandaökning man får med HD7970 @ 1GHz stegrar i takt med den ökande strömförbrukningen man får? Eller att den 3% högre prestandan man får jämfört med ett GTX680 är på något sätt skulle vara jämförbart med den 17% skillnaden i strömförbrukningen?

Att jag drog in Intel och Bulldozer var den anledningen att man har ju en processor i datorn också, och eftersom att Bulldozer drar drygt 100W mer än Ivy Bridge så bör man fundera en extra gång i fall det är värt att trycka in ett grafikkort som drar 60W mer, men som bara presterar 3% bättre.

Visa signatur

Intel i5 12600K | Asus TUF Gaming Z690-Plus D4 | Asus Geforce RTX 3060 Ti | 32 GB DDR4 | Fractal Design North | Corsair iCue Link H100i | Cooler Master V750 Gold i Multi

Permalänk
Medlem
Skrivet av sesese:

AMD skulle inte göra detta om inte nästa generations grafikkort är mycket snabbare. Så det vi nu har fått reda på är att nästa generations grafikkort är minst 13% snabbare än vad som var förväntat från början. 7970 Gigahertz Edition +20% troligen 8970

Sedan borde SWEclockers köpa in en K4 bildskärm och köra tester på. Jag tror det är många som är trötta på sina P1080 skärmar och vill byta så fort priserna börja att falla.

Varför ska de köpa in en så snordyr skärm bara för att bencha? Räcker väll att köra Radeon Custom Resolution Manager som är gratis

Visa signatur

mobo Asus M4A88TD-M EVO/USB3 cpu 1100T kylare Noctua NH-D14
gpu RX 460 passive ram 16GB DDR3 1600MHz ssd Samsung 850 EVO 250GB
psu Corsair AX 850 skärmar 3 * 40" NEC P401

Permalänk
Medlem
Skrivet av Andre_H:

Varför ska de köpa in en så snordyr skärm bara för att bencha? Räcker väll att köra Radeon Custom Resolution Manager som är gratis

funkar det även med Nvidia och det blir rättvist så är det ju en bra ide. (viste inte att man kunde göra så)

Skrivet av sirnicke:

SSD:er är en relativt ny marknad, med en tillverkningsteknik som krymper såväl som minskar i pris exponentiellt. Du kan helt enkelt inte jämföra det med skärmar. Har vi sett en liknande prisutveckling på dagens högupplösta skärmar? Svar nej.

Trots att den första halvan av ditt inlägg råkar vara obotligt oförståelig kan jag något generiskt svara med att läsarvärdet på tester i 4k på sin höjd blir en kul grej, medans något intresse utöver det inte finns. Inte heller kommer läsarvärdet i närheten av att motsvara det otal hundra tusen kronor som en 4k-skärm idag kostar. Om några år när priserna sjunker till nivåer som privatpersoner är villiga att betala kan det definitivt bli relevant med tester i 4k eller 4k2k, men i dagsläget är det definitivt inte det.

Då marginale på en skärm idag är välldigt låg så kommer leverantörena innom en snar famtid att börja marknadsföra skärmar med högre upplösning. Se bara på telefoner så fort det har gått. Och snart kommer Apel med skärmar som är med hög upplösning. Så jag tror det finns flera här på sweclockers som kommer att ha K4 skärmar 2013.

Visa signatur

Ryzen 5800X ROG STRIX X570-f GAMING FlareX DDR43600 cl 14-14-14-34 EVGA FTW3 Ultra RTX 3090

Permalänk
Inaktiv
Skrivet av Gender Bender:

Hur menar du nu? Att den prestandaökning man får med HD7970 @ 1GHz stegrar i takt med den ökande strömförbrukningen man får? Eller att den 3% högre prestandan man får jämfört med ett GTX680 är på något sätt skulle vara jämförbart med den 17% skillnaden i strömförbrukningen?

Att jag drog in Intel och Bulldozer var den anledningen att man har ju en processor i datorn också, och eftersom att Bulldozer drar drygt 100W mer än Ivy Bridge så bör man fundera en extra gång i fall det är värt att trycka in ett grafikkort som drar 60W mer, men som bara presterar 3% bättre.

Du inser att den högre strömförbrukningen delvis kommer från att kortet är ett GPGPU-kort vid sidan av spelkort? GTX 680 är ett rent spelkort.

Tänk HD7970 som AMD's svar på GTX 580 så klarnar det nog. GPGPU är inte för alla såklart men det känns som många faktiskt missar detta, troligen för att redaktionen knappt tar upp GPGPU och än mindre testar det.

Bägge är bra kort och ligger i spel väldigt lika, Tahiti XT/2 är dock den snabbaste GPU'n i dagsläget.

Permalänk
Medlem
Skrivet av sesese:

Då marginale på en skärm idag är välldigt låg så kommer leverantörena innom en snar famtid att börja marknadsföra skärmar med högre upplösning. Se bara på telefoner så fort det har gått. Och snart kommer Apel med skärmar som är med hög upplösning. Så jag tror det finns flera här på sweclockers som kommer att ha K4 skärmar 2013.

Det beror helt på utvecklingen. Ja, Apple har lanserat en laptop med en 15"-panel i 2880x1800, och det är förskräckligt högupplöst. Titta bara på priset de tar för den. Det inte omöjligt att (lagom prissatta) 4k-skärmar för konsumentmarknaden lanseras under 2013, men gissningsvis då framåt Q3. Den breda massan sitter trots allt på 1080p, och långt färre har 2560x1440/1600. Därmed inte sagt att det är helt uteslutet att någon enstaka person känner för att öppna upp plånboken och köpa en 4k-skärm under 2013.

Men för att svara på den ursprungliga frågan: speltester i 4k känns definitivt inte aktuellt i dagsläget.

Permalänk
Medlem
Skrivet av sirnicke:

Det beror helt på utvecklingen. Ja, Apple har lanserat en laptop med en 15"-panel i 2880x1800, och det är förskräckligt högupplöst. Titta bara på priset de tar för den. Det inte omöjligt att (lagom prissatta) 4k-skärmar för konsumentmarknaden lanseras under 2013, men gissningsvis då framåt Q3. Den breda massan sitter trots allt på 1080p, och långt färre har 2560x1440/1600. Därmed inte sagt att det är helt uteslutet att någon enstaka person känner för att öppna upp plånboken och köpa en 4k-skärm under 2013.

Men för att svara på den ursprungliga frågan: speltester i 4k känns definitivt inte aktuellt i dagsläget.

är man beredd att betala nästan 9000kr för ett 690 grafikkort så tror jag att man är beredd att betala 15-20`000kr för en K4 vilket jag tror prisbilden kommer att bli under 2013

Visa signatur

Ryzen 5800X ROG STRIX X570-f GAMING FlareX DDR43600 cl 14-14-14-34 EVGA FTW3 Ultra RTX 3090

Permalänk
Medlem
Skrivet av qMetal:

När de snackar om det "snabbaste" kortet så pratar de om vilka som utvecklat GPU:n. AMD eller Nvidia.
Alltså bör bara AMD:s releaser jämföras med Nvidias, inte partnertillverkares eller någon extremöverklockares egna modifikationer.

Som AMD själva säger (se bilder i artikeln) så har dom världens snabbaste GPU. Men det är ju inte samma sak som Snabbaste Kortet.
Det är ju trots allt ett helt grafikkort man köper, inte bara en GPU, och det är ju också ett helt kort man benchar. utan kort ingen benchmark.

Så jag undrar fortfarande, vem har snabbaste grafikkortet? (single GPU då)

Permalänk
Medlem
Skrivet av sirnicke:

Det beror helt på utvecklingen. Ja, Apple har lanserat en laptop med en 15"-panel i 2880x1800, och det är förskräckligt högupplöst. Titta bara på priset de tar för den. Det inte omöjligt att (lagom prissatta) 4k-skärmar för konsumentmarknaden lanseras under 2013, men gissningsvis då framåt Q3. Den breda massan sitter trots allt på 1080p, och långt färre har 2560x1440/1600. Därmed inte sagt att det är helt uteslutet att någon enstaka person känner för att öppna upp plånboken och köpa en 4k-skärm under 2013.

Men för att svara på den ursprungliga frågan: speltester i 4k känns definitivt inte aktuellt i dagsläget.

Konsumentvärdet av sådana tester kanske är ytterst begränsat i dagsläget. Men vad hände med entusiasmen? Är inte Sweclockers ett entusiast-forum?

Varför inte bara testa det eftersom det är nördigt kul att testa hårdvara till max? Det är ju det folk sysslar med som överklockar ju.

Jag minns när det här med videoaccelerering av HD video var nytt på GPU sidan och då var det en massa tester för hur bra GPU'erna klarade sådant. Många var ännu inte särskilt bra, men man märkte att det gradvis blev bättre, och idag så är sådana tester rätt ointressanta eftersom det är en självklarhet.

Det skulle vara kul att se hur det här med hantering av 4K upplösningar (både när det gäller film och spel) gradvis förbättras för att sedan se det kort som först hanterar det mycket bra.

Visa signatur

Nuvarande dator: CPU: Core i5 2500K @ 3.7GHz, CPU kylare: Zalman CNPS12X, GPU: Zotac GTX560Ti 2048MB, Moderkort: ASRock Z68 Extreme 3 Gen3, Minne: Corsair Vengeance LP 1600MHz (4X4GB)16GB Kit, Lagring: Samsung 840 EVO 250GB SSD, Western Digital Caviar Black 64MB Cache 1TB, Seagate Barracuda 256MB cache 2TB, Seagate Barrracuda 256MB cache 4TB Optisk läsare: DVD Brännare Sony Optiarc AD-7280S, Ljudkort: Asus Xonar DG, Chassi: HafX 942 Nvidia Edition, Nätaggregat: Corsair TX650 v1 650 Watt, OS Windows 10 Pro Svensk Version

Permalänk
Medlem
Skrivet av anders190:

Du inser att den högre strömförbrukningen delvis kommer från att kortet är ett GPGPU-kort vid sidan av spelkort? GTX 680 är ett rent spelkort.

Tänk HD7970 som AMD's svar på GTX 580 så klarnar det nog. GPGPU är inte för alla såklart men det känns som många faktiskt missar detta, troligen för att redaktionen knappt tar upp GPGPU och än mindre testar det.

Bägge är bra kort och ligger i spel väldigt lika, Tahiti XT/2 är dock den snabbaste GPU'n i dagsläget.

Av samma anledning som att Fermi är en GPGPU-arkitektur så är Tahiti XT detsamma, korrekt. Men som du själv nämner så vet inte många om det, och varför? Jo för att väldigt få bryr sig om detta i dagsläget då det är mest användbart i workstations. GPGPU kommer garanterat få en större betydelse för den vanliga konsumenten i framtiden då allt fler program får GPU-acceleration, men är du bara ute efter ren spelkraft så är Kepler det rätta valet idag då det har större överklockningspotential, drar mindre ström och utvecklar därmed mindre värme.

Detsamma gällde Fermi vs Evergreen. AMD hade då enligt mig ett mycket bättre kort för den som bara var ute efter att spela medan Nvidia hade ett kort som var ett bra på GPGPU-kort. Just då var jag dock i behov av ett kort som klarade både och då min arbetsdator även var min speldator, och då var Fermi det rätta valet för mig, men nu har jag separata datorer för arbete och nöje. Det finns säkert många som sitter i samma båt som jag en gång satt i, och för deras del så har AMD ett bättre kort. Dock så måste jag säga att trots dom fördelar jag hade med mitt GTX470 så sved det rejält av att se strömförbrukningen vara uppe i 400W, ibland även 450W när kortet var överklockat. Nu ligger jag oftast runt 250W och sällan över 300W, och det är ungefär den nivån som jag anser är acceptabelt för ett spelkort.

Visa signatur

Intel i5 12600K | Asus TUF Gaming Z690-Plus D4 | Asus Geforce RTX 3060 Ti | 32 GB DDR4 | Fractal Design North | Corsair iCue Link H100i | Cooler Master V750 Gold i Multi

Permalänk
Medlem
Skrivet av Joakim Ågren:

Konsumentvärdet av sådana tester kanske är ytterst begränsat i dagsläget. Men vad hände med entusiasmen? Är inte Sweclockers ett entusiast-forum?

Varför inte bara testa det eftersom det är nördigt kul att testa hårdvara till max? Det är ju det folk sysslar med som överklockar ju.

Jag minns när det här med videoaccelerering av HD video var nytt på GPU sidan och då var det en massa tester för hur bra GPU'erna klarade sådant. Många var ännu inte särskilt bra, men man märkte att det gradvis blev bättre, och idag så är sådana tester rätt ointressanta eftersom det är en självklarhet.

Det skulle vara kul att se hur det här med hantering av 4K upplösningar (både när det gäller film och spel) gradvis förbättras för att sedan se det kort som först hanterar det mycket bra.

Visst vore det rolig läsning, men just själva läsarvärdet vore förmodligen inte speciellt stort. Men som sagt - när det börjar komma konsumentskärmar nedåt 10k kan det bli aktuellt.

Permalänk
Medlem
Skrivet av sesese:

Då marginale på en skärm idag är välldigt låg så kommer leverantörena innom en snar famtid att börja marknadsföra skärmar med högre upplösning. Se bara på telefoner så fort det har gått. Och snart kommer Apel med skärmar som är med hög upplösning. Så jag tror det finns flera här på sweclockers som kommer att ha K4 skärmar 2013.

Om JAG kan sänka upplösningen till en upplösning som mitt gfk kan klara utan lagg(jag vet vad ni säger lag=fördröjning i nätverket men när jag började spela var lagg=låg fps) med perfekt resultat. Då kommer jag att kasta varpa med mina CRTs.

Visa signatur

Hata postsorteringen i Ånge.

Permalänk
Avstängd
Skrivet av Lasergurka:

Okej, då säger vi väl att drivrutinerna inte är problemet med singelkort Jag får samma problem med singelkort som jag får med CF, kortet klockar ner sig till 500MHz, har testat alla möjliga olika sätt att avinstallera drivrutiner på, har formaterat om windows 2-3 gånger sen jag skaffat korten, vad kan vara problemet om det inte är drivrutinerna och inte AMDs fel?

Ibland så beror sådana här problem på att bios inställningarna är olika från olika företag.

Visa signatur

7800x3d, 64GB 6000cl30, Gigabyte X670 Gaming X AX (F9d) 12TB m.2/nvme, 8TB SSD, WD 2x12TB 5400rpm, XFX 7900xt, SoundBlasterX AE-5+, HP X34", Fractal Design Define 7, Corsair HX750, Topping MX3s, Ino Audio piMx, Dan Clark Audio Aeon 2 closed..
LG B1 65", Topping e70, Topping pa5 II plus, Guru Audio Junior+ (primärt) / Canton GLE 90, Nintendo Switch OLED, Pico 4 VR

Permalänk
Skrivet av Kaleid:

Ibland så beror sådana här problem på att bios inställningarna är olika från olika företag.

Hur kommer det sig då att problemen uppkom efter att jag hade bytt drivrutiner från 11.12 till 12.1/12.2/12.3 osv.?
Innan hade jag "bara" problem med grafiska buggar och artifakter.

Sen förstår jag inte varför olika företag skulle ha olika inställningar i bios om det kan ställa till såna här problem?

Visa signatur

| Mobo: B550 AORUS ELITE V2 | CPU: Ryzen 5600x | RAM: 32GB @ 3600MHz | GPU: Asus GTX 1070 ROG| |PSU:RM750x | Chassi: Fractal Design Define R5 | SSD: OCZ Vertex3 120GB + Force GT 240GB | HDD: 6TB | Skärm: Foris FS2333 | |Ljud: Xonar Essence STX |

Permalänk
Medlem
Skrivet av Lasergurka:

Hur kommer det sig då att problemen uppkom efter att jag hade bytt drivrutiner från 11.12 till 12.1/12.2/12.3 osv.?
Innan hade jag "bara" problem med grafiska buggar och artifakter.

Sen förstår jag inte varför olika företag skulle ha olika inställningar i bios om det kan ställa till såna här problem?

Det har ju hänt att kort från olika partners inte har lirat 100% tillsammans. I ditt fall dock så låter det mer som ett drivrutinsproblem eller cap problem. Får jag fråga hur det fungerar med 12.6 ?

Skickades från m.sweclockers.com

Visa signatur

Gammal men bra.

Permalänk
Medlem

Test av grafikkort i K4 (3840*2160)

Alla som vill se test i K4 tryck på gilla knappen. Hoppas även vi får en kommentar från SWEclockers angående K4

Visa signatur

Ryzen 5800X ROG STRIX X570-f GAMING FlareX DDR43600 cl 14-14-14-34 EVGA FTW3 Ultra RTX 3090

Permalänk
Medlem
Skrivet av Joakim Ågren:

...

Det skulle vara kul att se hur det här med hantering av 4K upplösningar (både när det gäller film och spel) gradvis förbättras för att sedan se det kort som först hanterar det mycket bra.

Det kommer inte vara aktuellt förrän Geforce- och Radeonkorten har minst lika mycket minne som de nya Quadrokorten. Först då kan det bli aktuellt men tills dess får man hålla till godo med de upplösningar som finns. Själv så behöver jag inte större än 24" 1920x1080. Jag har redan terminalglasögon (läs läsglasögon) vilket gör att skärmen upplevs som en 27".

Permalänk
Inaktiv
Skrivet av sesese:

Alla som vill se test i K4 tryck på gilla knappen. Hoppas även vi får en kommentar från SWEclockers angående K4

Flerskärmstester är i dagsläget mycket mer relevant. Tester i "4K"-upplösningar kommer ju komma den dagen skärmar med dessa upplösningar börjar närma sig nivåer privatpersoner faktiskt kan betala.

Sedan får man inte glömma att man med tre skärmar i 1920-upplösningar redan får väldigt mycket pixlar att kasta runt i spel så det kan vara representivt med flerskärmstester.

Permalänk
Entusiast
Skrivet av sesese:

är man beredd att betala nästan 9000kr för ett 690 grafikkort så tror jag att man är beredd att betala 15-20`000kr för en K4 vilket jag tror prisbilden kommer att bli under 2013

Det fungerar inte så. Folk betalar glatt 9000 kr för grafikkort men köper ändå billiga skitskärmar. Du brukar ju sitta skärmar för 2000 kr styck i stora eyefinitysetuper. Enda gången någon betalar lite mer för en skärm är om de ska ha 27" eller 30". De som spelar lägger inte 20000 kr på en skärm när de kan få ett nytt grafikkort och 3x 24" för samma pris. Det ger i så fall mycket mer att köra tre skärmar än en.

De enda som lägger så mycket pengar på en skärm är de som håller på med färgkänsliga saker. Det är ytterst få som är så intresserade av en högupplöst skärm. De måste ner en bra bit under 10000 kr innan de kommer säljas och då är det antagligen samma gäng som sitter på en 30" idag som kommer byta, inte de som spelar och kör med flera skärmar.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk

Vad är det för ny Catalyst som har släppts? Jag hittar bara 12.6 beta som är ifrån 1 Juni. När kommer den ut till allmänheten om den inte redan finns ute? Det vore hemskt trevligt med boosten i Batman och Skyrim.

Visa signatur

Ryzen 3700x, 32 Gb Corsair Vengence 3000 Mhz CL16, MSI X570 Gaming Edge, Silicon Power 1TB NVMe SSD, 750 Gb Seagate Momentus XT, Seagate Barracuda 4 TB, Fractal Design Defice C TG,
LG 29EA93 2560x1080, Logitech G933, Razer Deathadder Respawn, Corsair Strafe RGB

Permalänk
Medlem
Skrivet av Zotamedu:

Det fungerar inte så. Folk betalar glatt 9000 kr för grafikkort men köper ändå billiga skitskärmar. Du brukar ju sitta skärmar för 2000 kr styck i stora eyefinitysetuper. Enda gången någon betalar lite mer för en skärm är om de ska ha 27" eller 30". De som spelar lägger inte 20000 kr på en skärm när de kan få ett nytt grafikkort och 3x 24" för samma pris. Det ger i så fall mycket mer att köra tre skärmar än en.

De enda som lägger så mycket pengar på en skärm är de som håller på med färgkänsliga saker. Det är ytterst få som är så intresserade av en högupplöst skärm. De måste ner en bra bit under 10000 kr innan de kommer säljas och då är det antagligen samma gäng som sitter på en 30" idag som kommer byta, inte de som spelar och kör med flera skärmar.

Spel känslan kommer att bli betydligt högre med en K4 skärm. Den som är beredd att att betala mycket för sin dator gör det endast för ett mervärde typ högre blidhastighet eller snyggare bild att titta på. Idag så kan man köra "alla" spel med ett grafikkort för 2500-3000kr. Jag tror att K4 skärmar kommer att minska i pris lika fort som SSD gör idag. Att priset på K4 skärmar ligger på +200`000kr på prisjakt är att det är skärmar som är special. När man söker så ser man att det finns många företag som har börjat att tillverka K4 skärmar. till och med Viewsonic har nu K4 skärmar.

Visa signatur

Ryzen 5800X ROG STRIX X570-f GAMING FlareX DDR43600 cl 14-14-14-34 EVGA FTW3 Ultra RTX 3090

Permalänk
Inaktiv
Skrivet av sesese:

Spel känslan kommer att bli betydligt högre med en K4 skärm. Den som är beredd att att betala mycket för sin dator gör det endast för ett mervärde typ högre blidhastighet eller snyggare bild att titta på. Idag så kan man köra "alla" spel med ett grafikkort för 2500-3000kr. Jag tror att K4 skärmar kommer att minska i pris lika fort som SSD gör idag. Att priset på K4 skärmar ligger på +200`000kr på prisjakt är att det är skärmar som är special. När man söker så ser man att det finns många företag som har börjat att tillverka K4 skärmar. till och med Viewsonic har nu K4 skärmar.

Beroende på vad för spel man vill spela så kommer man troligen få ut mer av att köra någon flerskärmslösning. Det gör stor skillnad i exempelvis simulatorer och bilspel, speciellt om man kombinerar med exempelvis TrackIR och en rejäl flygspak/ratt. Tro mig.

En högre upplöst skärm är ju alltid trevligt, dock kommer du ju bara få samma synfält i högre upplösning. Börjar du istället lägga till skärmar på sidorna av huvudskärmen så kommer upplevelsen bli betydligt bättre.

Permalänk
Medlem
Skrivet av dahlberg1992:

Vad är det för ny Catalyst som har släppts? Jag hittar bara 12.6 beta som är ifrån 1 Juni. När kommer den ut till allmänheten om den inte redan finns ute? Det vore hemskt trevligt med boosten i Batman och Skyrim.

Enligt amd representant hos pcperspective så kommer 12.7 nästa vecka men följ catalystcreator på twitter så får du reda på mer.

Skickades från m.sweclockers.com

Visa signatur

Gammal men bra.