AMD "Llano" Dual Graphics endast med budgetgrafik

Permalänk
Melding Plague

AMD "Llano" Dual Graphics endast med budgetgrafik

AMD:s nya mellanklassare ger möjlighet att kombinera processorns integrerade grafik med ett separat grafikkort, men det är bara modeller i budgetklassen som fungerar.

Läs artikeln

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

de som kanske vill göra detta är ju inte de som kommer att köpa i budget klassen :S

Visa signatur

(PC): i7 4790k 8gb ram Asus380x 256gb ssd
(Laptop): Dell xps 13 i7-8550u 8Gb

Permalänk
Medlem

Dual Graphics är alltså Hybrid-crossfire.
Man kan använda ett prestanda-kort tillsammans med det integrerade på andra sätt.

Om jag fattat rätt.

Permalänk

Synd, skulle vart grymt om man kunde använda 5750/70 eller 6750/70 om det är det de kallas nuförtiden.
Om jag förstått rätt kommer den bästa dualgraphics kombinationen kommer väl få samma prestanda som ett 5750/70, har jag rätt?

Permalänk
Medlem

Hade det inte varit bara bättre om man hade haft ett high-end kort, och sedan vill spara på både kortet och strömmen när man bara sitter på skrivbordet genom att använda den integrerade grafiken?

Visa signatur

Nybörjare på Linux? Se hit! #15665841

Permalänk
Medlem

Vore skoj att se ett test med och utan extra grafikkort i flash och webmiljö.

Skickades från m.sweclockers.com

Visa signatur

3600X + NH-D15 | 32GB DDR4 | MSI 1080Ti Gaming X | MSI X570 MPG | FOCUS GX 750W | MP600 2TB | Define 7 White

Permalänk
Medlem
Skrivet av Atlas Tasume:

Hade det inte varit bara bättre om man hade haft ett high-end kort, och sedan vill spara på både kortet och strömmen när man bara sitter på skrivbordet genom att använda den integrerade grafiken?

jo men det finns väll inte mkt folk som köper ett budget cpu och sedan ett monster gpu

Visa signatur

(PC): i7 4790k 8gb ram Asus380x 256gb ssd
(Laptop): Dell xps 13 i7-8550u 8Gb

Permalänk

Så dåligt är det inte, man utvinner en 6790/6850 vilket bör räcka för all 1920x1080 spelande på högre inställningar.

Permalänk
Medlem

Prestandan du får tillsammans med ett HD6670 duger för de flesta som vill använda sin pyttelilla ITX-låda till spel.
OrigenAE M10 150W med Llano + low profile HD6670= galet glad Richard
http://www.prisjakt.nu/produkt.php?p=499430

Permalänk

Ehm, jag har ett ATi Radoen 3850X2 och det räcker för att köra alla nya spel jag testat med höga inställningar och hög FPS och prestandan man får utav den snabaste A8 cpun samt ett extra grafikkort skulle varit väldigt snabbare än det jag har nu, Så jag fattar inte varför folk tycker det är dåligt (nog för att det inte är dom vassaste som finns idag) eller det kanske jag som bara är lite efter i utvecklingen

Visa signatur

12900K, 48GB DDR5, RTX 3070Ti

Permalänk
Skrivet av xfmimd:

Ehm, jag har ett ATi Radoen 3850X2 och det räcker för att köra alla nya spel jag testat med höga inställningar och hög FPS och prestandan man får utav den snabaste A8 cpun samt ett extra grafikkort skulle varit väldigt snabbare än det jag har nu, Så jag fattar inte varför folk tycker det är dåligt (nog för att det inte är dom vassaste som finns idag) eller det kanske jag som bara är lite efter i utvecklingen

Jag är iaf. optimistisk, En förbättrad Phenom och en grafik som samarbetar med hela 6000 serien(Eller ja, boosten blir väldigt omärkbar efter 67**) Vill se tester där Sweclockers/övr. hårdvarosajter prövar flera grafikkorts kombinationer till A8. Men att få en fräsch oanvänd speldator som bör klara allt på 1080 upplösning på maxade inställningar (Crysis , Metro2033och Arma2/3 kanske inte) för 5000kr(Då A8+6670)

Permalänk
Medlem

Bara hoppas de får detta att fungera utan stuttering och flickering. Som det är nu är funktionen skräp, lär ta några drivrutiongenerationer innan allt fungerar smärtfritt. För att inte tala om stöd i Linux.

Men ett bra steg, Fusion ser med Dual-Graphics mer intressant än Intels lösning.

Permalänk
Medlem

Nice ! det ska bli kul