AMD bundlar kommande Assassin's Creed: Odyssey med Radeon RX Vega

Permalänk
Medlem
Skrivet av veckans:

Jag hade då betydligt högre ljudnivå och värmeutveckling från min burk med Radeon 390 Nitro (275W TDP) än min GTX 1080 burk. Förutom grafikkortets fläktar så varvar även CPU fläktarna högre på grund av ökad chassitemp samt nätaggregatet går upp i varv på grund av den högre strömförbrukningen. Det senare kan såklart kompenseras med ett kraftfullare nätaggregat men även det är ytterligare en kostnad och det är lite det jag vill visa. En hög strömförbrukning innebär många nackdelar.

Och det är samma burk i övrigt alltså? Själv bytte jag från gtx 970 till r9 fury ingen märkbar skillnad i ljudnivå. Senare uppgraderade jag och körde två r9 fury i crossfire. Blev lite varmare men inte så att processorkylaren fick varva mer man har ju lite marginaler innan det behöver varva upp.

Skickades från m.sweclockers.com

Permalänk
Avstängd
Skrivet av jOnÄTÄn:

Och det är samma burk i övrigt alltså? Själv bytte jag från gtx 970 till r9 fury ingen märkbar skillnad i ljudnivå. Senare uppgraderade jag och körde två r9 fury i crossfire. Blev lite varmare men inte så att processorkylaren fick varva mer man har ju lite marginaler innan det behöver varva upp.

Skickades från m.sweclockers.com

Det var det ja, har inte kvar samma burk idag dock. Märkbart tystare trots att Nitro-kylaren var en av de bästa på marknaden, för att inte tala om svalare.

Permalänk
Inofficiell ambassadör
Skrivet av veckans:

Det Vega 64 som kostar 6700kr på prisjakt ligger ca 130-140W över 1080. Vem köper ett high-end kort för att spela 1 timme om dagen försvinnande få gissar jag. Jag räknar med åtminstone 2h per dag i snitt. Sedan tillkommer idle förbrukningen, jag har ofta på min dator hela dagen, ibland över natten också. Detta Vega 64 drar 32w mer i idle. 32w x säg 5-24h blir ganska mycket det med.
Som sagt, man får räkna med att ett Vega64 säkerligen kommer dra en 500kr mer under sin livstid i ström.

Jag måste vara en av dessa försvinnande få då. Spelar ca 5h i veckan med mitt 1080 ti på min X34A

Datorn är på betydligt mer däremot eftersom jag ibland jobbar hemifrån. Samt såklart slösurfar etc.

Skickades från m.sweclockers.com

Permalänk
Hjälpsam
Skrivet av veckans:

Det var det ja, har inte kvar samma burk idag dock. Märkbart tystare trots att Nitro-kylaren var en av de bästa på marknaden, för att inte tala om svalare.

Ofta bildas en ficka av varm luft under kortet, ett knep är att ta bort kanske två av plåtarna under kortet och se till att man har övertryck i lådan, då blåser varm luft ut den vägen.

Blowerkort är bra på den punkten, trots andra brister, tyvärr är de ofta felkonstruerade, med allt för lite öppningar för att släppa ut luft, ett undatag är detta. MSI Vega 64.

Gjorde en gettomod på mittt gamla kort.
jOnÄTÄn hjälpte till.
#16930303

Permalänk
Medlem
Skrivet av veckans:

Jag hade då betydligt högre ljudnivå och värmeutveckling från min burk med Radeon 390 Nitro (275W TDP) än min GTX 1080 burk. Förutom grafikkortets fläktar så varvar även CPU fläktarna högre på grund av ökad chassitemp samt nätaggregatet går upp i varv på grund av den högre strömförbrukningen. Det senare kan såklart kompenseras med ett kraftfullare nätaggregat men även det är ytterligare en kostnad och det är lite det jag vill visa. En hög strömförbrukning innebär många nackdelar.

https://www.youtube.com/watch?v=4X5aIyBa0gs

Games Nexus test, är ju inte flera kort men är ju bara ta gånger x watt och lägga till för ett annat kort.

De testar olika scenarion men även vid max belastning 24/7 (typ köra firestrike dygnet runt ) så kostar det 100$ mer per år.

Det med ett helt orimligt scenario, i verkligheten är det några hundralappar och 1 grad mer värme i rummet i värsta fall beroende på hur kass ventilation man har.

Förbrukningen har väldigt lite påverkan i verkliga livet.

För mig eller bekanta jag rekommenderat eller byggt datorer till så har det aldrig varit något man ens tänkt på oavsett om man byggt en med AMD/Nvidia.

Just nu kostar AMD GPU för mycket för prestandan man får, Nvidia har nästan nått OK priser men G-Sync är fortfarande på tok för dyrt på bra skärmar så det är lose-lose oavsett vad man väljer.

Permalänk
Medlem

Hm, det där är inte ett bra val av bild.

Permalänk
Medlem
Skrivet av bsk!:

Problemet med AMDs kort är att de för tillfället är mycket dyrare än Nvidias kort i samma prestandaklass.

Jag håller inte riktigt med. Ett Asus GeForce GTX 1070 Ti Strix kostar i dagsläget 5590:- medans ett Asus Radeon RX Vega 56 Strix Gaming kostar 5448:-. Räknar man även in kostnaden för skärmar med G-sync/Freesync så är AMD väsentligt billigare. Det var de iaf när jag tittade efter 1440p, 144Hz, IPS-skärmar med G-sync/Freesync.

Permalänk
Medlem
Skrivet av Durkadur:

Jag håller inte riktigt med. Ett Asus GeForce GTX 1070 Ti Strix kostar i dagsläget 5590:- medans ett Asus Radeon RX Vega 56 Strix Gaming kostar 5448:-. Räknar man även in kostnaden för skärmar med G-sync/Freesync så är AMD väsentligt billigare. Det var de iaf när jag tittade efter 1440p, 144Hz, IPS-skärmar med G-sync/Freesync.

Förhoppningsvis överlever en bra spelskärm flera generationer av grafikkort och G-sync är ju bättre än freesync.

Permalänk
Hjälpsam
Skrivet av Jink:

Hm, det där är inte ett bra val av bild.

Du har snuskig fantasi!
Jag som trodde att han höll i en hjälm inget annat.

Permalänk
Medlem
Skrivet av Jink:

Hm, det där är inte ett bra val av bild.

De gamla grekerna 😐

Permalänk
Medlem
Skrivet av cyprus:

Förhoppningsvis överlever en bra spelskärm flera generationer av grafikkort och G-sync är ju bättre än freesync.

På vilket sätt är G-sync bättre?

Permalänk
Medlem
Skrivet av Durkadur:

På vilket sätt är G-sync bättre?

Kvalitetskontroll bl.a. Det har släpps en hel del skräp med Freesync-märkning. Här kan du läsa lite mer:

https://www.pcworld.com/article/2974781/displays/g-sync-vs-freesync-faq-how-variable-refresh-rate-displays-make-pc-games-super-smooth.html

Permalänk
Medlem
Skrivet av cyprus:

Kvalitetskontroll bl.a. Det har släpps en hel del skräp med Freesync-märkning. Här kan du läsa lite mer:

https://www.pcworld.com/article/2974781/displays/g-sync-vs-freesync-faq-how-variable-refresh-rate-displays-make-pc-games-super-smooth.html

Ja den lösa standarden kring Freesync 1 ledde till en del undermåliga produkter i de lägre prisklasserna. Men mellan- och premiumklass skärmar med Freesync 1 är mycket konkurrenskraftiga mot G-sync. I flera fall kostar en 1440p, 144 Hz, IPS skärm med G-sync flera tusen mer än en motsvarande med Freesync 1. I praktiken presterar de nära nog identiskt med varann. Certifieringsprocessen har blivit striktare med Freesync 2 HDR så vi lär se väsentligt mindre "skräp" i framtiden.

Permalänk
Medlem
Skrivet av Durkadur:

Ja den lösa standarden kring Freesync 1 ledde till en del undermåliga produkter i de lägre prisklasserna. Men mellan- och premiumklass skärmar med Freesync 1 är mycket konkurrenskraftiga mot G-sync. I flera fall kostar en 1440p, 144 Hz, IPS skärm med G-sync flera tusen mer än en motsvarande med Freesync 1. I praktiken presterar de nära nog identiskt med varann. Certifieringsprocessen har blivit striktare med Freesync 2 HDR så vi lär se väsentligt mindre "skräp" i framtiden.

Och kanske även högre priser på Freesync 2? Min förra skärm AOC G2460PF var då ingen höjdare, så jag är lite skeptisk, och när Nvidia har 80% av marknaden så är det få som har nytta av en freesync-skärm.

Permalänk
Hjälpsam
Skrivet av cyprus:

Och kanske även högre priser på Freesync 2? Min förra skärm AOC G2460PF var då ingen höjdare, så jag är lite skeptisk, och när Nvidia har 80% av marknaden så är det få som har nytta av en freesync-skärm.

Jag tror att XBox one har freesync.
https://www.fz.se/nyhet/276063-skarmtekniken-amd-freesync-kom...

Har för mig att även Intel stödjer det.

Permalänk
Medlem
Skrivet av Ratatosk:

Jag tror att XBox one har freesync.
https://www.fz.se/nyhet/276063-skarmtekniken-amd-freesync-kom...

Har för mig att även Intel stödjer det.

Nyare varianter av Samsung-TV skulle väl få stöd för freesync, jag tror inte så många spelar med xbox one på en freesync-monitor.
Intel har väl inget stöd för adaptive sync för tillfället men kanske framtida Intel-Gpu:s (speciellt om diskreta varianter kommer) får stöd för det?

Permalänk
Medlem
Skrivet av cyprus:

Och kanske även högre priser på Freesync 2? Min förra skärm AOC G2460PF var då ingen höjdare, så jag är lite skeptisk, och när Nvidia har 80% av marknaden så är det få som har nytta av en freesync-skärm.

I och med att HDR är ett krav för Freesync 2 så kommer det helt säkert att vara högre priser. HDR är väl i dagsläget lite av en premiumfunktion? Jag äger en Acer XF270HUA och är hur nöjd som helst med den. AOC G2460PF ser på pappret ut som en bra 1080p TN-skärm. Vad hade du för problem?

Nvidia har en dominerande marknadsställning på PC men Freesync är inte begränsat till PC. Xbox One S och X stödjer båda Freesync, och det vore mycket förvånande om inte kommande Playstation och Xbox konsoler kommer med stöd. Samsung har börjat införa stöd för Freesync i sina TV-apparater för 2018. Även Intel har lovat stöd för Adaptiv Sync (dock inte fullföljt än). Så att få har nytta av Freesync-skärmar håller jag inte med om.

Permalänk
Medlem
Skrivet av Durkadur:

I och med att HDR är ett krav för Freesync 2 så kommer det helt säkert att vara högre priser. HDR är väl i dagsläget lite av en premiumfunktion? Jag äger en Acer XF270HUA och är hur nöjd som helst med den. AOC G2460PF ser på pappret ut som en bra 1080p TN-skärm. Vad hade du för problem?

Nvidia har en dominerande marknadsställning på PC men Freesync är inte begränsat till PC. Xbox One S och X stödjer båda Freesync, och det vore mycket förvånande om inte kommande Playstation och Xbox konsoler kommer med stöd. Samsung har börjat införa stöd för Freesync i sina TV-apparater för 2018. Även Intel har lovat stöd för Adaptiv Sync (dock inte fullföljt än). Så att få har nytta av Freesync-skärmar håller jag inte med om.

Problemet med AOC skärmen var bl.a att freesync inte alltid kickade in och att alt-tab från spel ofta gav ett kalejdoskopmönster på skärmen som ibland löstes med ett antal alt-tabbar eller ett flertal off-on på själva skärmen.

Permalänk
Medlem
Skrivet av cyprus:

Förhoppningsvis överlever en bra spelskärm flera generationer av grafikkort och G-sync är ju bättre än freesync.

Subjektivt.

Skrivet av cyprus:

Kvalitetskontroll bl.a. Det har släpps en hel del skräp med Freesync-märkning. Här kan du läsa lite mer:

https://www.pcworld.com/article/2974781/displays/g-sync-vs-freesync-faq-how-variable-refresh-rate-displays-make-pc-games-super-smooth.html

Trots detta så är forumen fyllda med folk som G-sync helt enkelt inte fungerar för. Trots kvalité kontroller så verkar Nvidias G-Sync lida av en hel del måndagsex.

Permalänk
Medlem
Skrivet av Xinpei:

Subjektivt.

Trots detta så är forumen fyllda med folk som G-sync helt enkelt inte fungerar för. Trots kvalité kontroller så verkar Nvidias G-Sync lida av en hel del måndagsex.

Jag har aldrig påstått att g-sync är felfritt, men det har generellt funkat bättre än freesync.

Permalänk
Medlem
Skrivet av cyprus:

Problemet med AOC skärmen var bl.a att freesync inte alltid kickade in och att alt-tab från spel ofta gav ett kalejdoskopmönster på skärmen som ibland löstes med ett antal alt-tabbar eller ett flertal off-on på själva skärmen.

Var det tidiga drivrutiner? I början stödde inte Freesync window mode men det löstes efter några månader. Det var även vissa problem om man använde Relive om jag minns rätt. Det senaste året har dock Freesync fungerat felfritt för mig.

Permalänk
Hjälpsam
Skrivet av cyprus:

Problemet med AOC skärmen var bl.a att freesync inte alltid kickade in och att alt-tab från spel ofta gav ett kalejdoskopmönster på skärmen som ibland löstes med ett antal alt-tabbar eller ett flertal off-on på själva skärmen.

Japp låter som att Freesync funkade skit på den skärmen.
Jag har två där det fungerar bra, men jag kan förstå att du känner dig bränd.
Köpte en LG för några veckor sedan, HDR, Ultrawide, Freesync, 34", 2560(?)*1080 och IPS.

HDR har jag ett spel som stöder (Hitman).
Ultrawide är trevligt och funkar oftast.
Fresync?, nja jag går ändå aldrig under 60 Hz.
34" ger samma höjd som min gamla 25" 16:10.
Upplösningen räcker för mig, den är också lättdriven.
IPS är ett krav, ingen mer TN för mig.

kostar 4100, exlusive svensk elektronikskatt, det är den värd.
https://www.computersalg.se/i/4472853/lg-34wk650-w-led-sk%c3%...

Permalänk
Medlem

....Jaha, men vem fan köper Vega egentligen!?

Permalänk
Medlem
Skrivet av Campaigner:

....Jaha, men vem fan köper Vega egentligen!?

Varför inte?

Permalänk
Hjälpsam
Skrivet av Campaigner:

....Jaha, men vem fan köper Vega egentligen!?

Ah!

Ett forumtroll registrerad redan 2002, imponerande!
Eller förresten, nej inte imponerande, tvärtom.

Permalänk
Medlem
Skrivet av Xinpei:

Varför inte?

För de är sämre än 10x0 serien vilket du säkert vet.

Skrivet av Ratatosk:

Ah!

Ett forumtroll registrerad redan 2002, imponerande!
Eller förresten, nej inte imponerande, tvärtom.

Så det har gått såhär långt....det jag skrev var vad jag tänkte när jag såg rubriken.

Visst kunde jag skriva om Vegas värme och pris problem men jag gjorde inte det för det ska inte behövas.

Permalänk
Medlem
Skrivet av Campaigner:

För de är sämre än 10x0 serien vilket du säkert vet.

Så det har gått såhär långt....det jag skrev var vad jag tänkte när jag såg rubriken.

Visst kunde jag skriva om Vegas värme och pris problem men jag gjorde inte det för det ska inte behövas.

Är 100% säker på att Vega faktiskt utpresterar GTX 1050/60 kraftigt faktiskt. Senast jag kollade så presterade de mellan 1070 och 1080. Så nej? De är inte sämre än 10x0. Ska man titta på bandbredd så kommer dessutom Vega att utprestera de flesta 10x0 kort. Beror bara vad man använder dem till.