AMD A10-5800K och A8-5600K "Trinity"

Permalänk
Avstängd
Skrivet av Zotamedu:

Nu blir jag väldigt nyfiken här. I Sweclockers test vinner 3750K i GPGPU när den ska packa upp texturer i Civ V och det med en rätt stor marginal. Samma test hos Anandtech säger raka motsatsen. Där vinner 5800K stort, med typ dubbla frameraten, över 3770K. Något står inte rätt till i någons tester.

http://www.anandtech.com/show/6332/amd-trinity-a10-5800k-a8-5...

http://www.sweclockers.com/recension/15919-amd-a10-5800k-och-a8-5600k-trinity/18#pagehead
Hur än jag stirrar på någon av testerna så hittar jag 3750K så jag antog att du menade I5 3570K, eller? I Sweclockers Directcompute test så vinner ju inte 3570K heller så och finns inte med i Anandtechs tester (de har en 3770K och en 3220T). Kollar man dock på I3 3320 som finns med i båda testerna är det tämligen samma resultat.

Dock så har det totalt olika resultat inbördes mellan de olika Trinity kretsarna vilket ger mig en hint om att de har kart med olika inställningar, kanske till har Anandtech till och med kört på en högre upplösning?

Edit: Har du jämfört Sweclockers spel test av Civ 5 med Anandtechs texture compression test?

Permalänk
Entusiast
Skrivet av Morkul:

Hur än jag stirrar på någon av testerna så hittar jag 3750K så jag antog att du menade I5 3570K, eller? I Sweclockers Directcompute test så vinner ju inte 3570K heller så och finns inte med i Anandtechs tester (de har en 3770K och en 3220T). Kollar man dock på I3 3320 som finns med i båda testerna är det tämligen samma resultat.

Dock så har det totalt olika resultat inbördes mellan de olika Trinity kretsarna vilket ger mig en hint om att de har kart med olika inställningar, kanske till har Anandtech till och med kört på en högre upplösning?

Ja Anandkör med en 3770K och den fick storpisk av 5800K i Direct Compute i Civ V. Sweclckers kör med en 3570K och i samma benchmark, alltså uppackning av texturer med Direct Compute så var 3750K 20 % snabbare än 5800K. Det var det jag reagerade på, att de fick så totalt olika resultat. Nu är testet på Sweclockers uppdaterat med nya resultat där 5800K vinner över 3750K vilket verkar mer rimligt då Intels integrerade grafik är tämligen dålig på GPGPU.

Det har redan konstaterats att Anandverkade köra med betydligt högre upplösning för att verkligen pressa GPUn. I Sweclockers första test hade de kört på samma låga inställningar som speltestet och då verkade det som om CPU begränsade testet. Det är ju ett dumt sätt att mäta GPGPU-prestanda så de körde testet igen med högre inställningar för att verkligen pressa grafikdelen och inte bara CPU och då fick de som sagt samma resultat som Anandtech.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Medlem

Detta är ju apuer så är inte så besviken men annars va resultaten ganska dåliga.

Visa signatur

Ny dator Lexius signatur 2018 edition Ryzen 7 2700X@4.35PBO/Vega 64 Nitro+/16 GB DDR4 Patriot Viper4 2866mhz/ ASUS B450 F-Gaming/ 500GB samsung 970 evo m.2ssd / 2TB SSHD/1TB WD BLUE 7200rpm/WD Black TB/1TB SSHD (AMD StoreMi)PSU Be quiet pure power 730W / Mobo Asus B 450 F-Gaming/Hörlurar Sennhieser 58X Mobil Samsung Galaxy S20FE 5G 256GB/8GB Ram Skärm Asus TUF Gaming 144HZ IPS Async

Permalänk
Medlem
Skrivet av Yoshman:

AMD borde sätta in alla sina resurser på att förfina laptop-modellen av sina APU:er, dels därför det idag säljs långt fler laptops än stationära men framförallt därför att i en laptop är man fast med den GPU som kommer med från start så Intel måste ha typ ett nVidia 620M för att matcha GPUn i Trinity. Så det borde finnas en fönster för AMD bland laptops mellan 4000-6000 kr (går man högre finns det i5 baserade laptops med både 630M,635M och i vissa lägen 640M).

Det är det dom gör. Trinity är huvudsakligen en laptop-processor. Vilket märks bla. på lanseringsdatumet som sköts fram för att ge plats åt tillverkning av laptopchip (samt sälja ut llano..). Processorerna i recensionen var färdiga redan i vår.

Permalänk

Tycker recensionen fokuserade för lite på integrerade grafiken.

Visa signatur

i5 3570K | Corsair Vengeance 8GB | ASRock Z77 EXTREME4 | Gigabyte GeForce GTX 670 | Asus Xonar D1 | Samsung 830 128GB | Corsair HX 650W | FD R3

Permalänk
Medlem

[QUOTE=Yoshman;12750855]Tittar man på testerna där alla CPU:er körs på samma klockfrekvens så verkar prestanda i Trinity vara 0-10% bättre än FX-4xxx. En förbättringen, men i ungefär samma nivå som Sandy -> Ivy vilket många skrek sig hesa om visade att Intel inte behöver anstränga sig. Problemet med moderna x86 CPU:er är att man börjar närma sig gränsen för hur mycket ILP (Instruction Level Parallelism) som går att få ut ur redan existerande program.

Det man definitivt kan notera i dessa tester är att L3 cachen som FX-4/6xxx processorerna har är totalt meningslös för de saker som man normalt set gör på en desktop. Faktum är att det kan vara en fördel att inte ha L3 cache i många desktop då varje cache-nivå adderar latens så A8/A10 processorerna har garanterat lägre latens mot RAM jämfört med FX-4/6xxx processorerna. Den stora nackdelen att inte ha L3 (eller egenligen en cache som delas mellan alla CPU-kärnor) är att multitrådade program som inte är s.k. embarrassingly parallel (de multitråd-tester som kördes här, typ Cinebench och Blender ÄR embarrassingly parallel) får väldigt dålig effektivitet då kommunikation mellan CPU-kärnor lätt blir dyrt då de inte kan kommunicera via en delad CPU-cache.

Roade mig med att räkna ut den s.k. speed-up faktorn i Cinebench på 2.8GHz fallet så effekter av turbo inte stör, i just denna benchmark är faktiskt modulerna ganska effektiva

  • i5 3570: x3.9 (4C/4T)

  • i3 3220: x2.4 (2C/4T)

  • A8 3870K: x3.9 (4C/4T)

  • A10 5800K: x3.3 (2M/4T)

  • FX-6100: x5.0 (3M/6T)

  • FX-4100: x3.3 (2M/4T)

Det positiva man kan säga är att två trådar i en modul är mycket mer likt två "riktiga" CPU-kärnor än HT. Det negativa är när man väger in totala prestandan över alla trådar samt totala mängder transistorer som går åt att implementera allihop. Två "riktiga" Sandy/Ivy kärnor tar runt 300M (4C + integrerad GPU + RAM-interface + L3 cache etc är 1.1M transistorer i Sandy Bridge) transistorer vilket är väl nära vad varje modul i Bulldozer tar 213M transistorer.

Detta gäller även om man tittar på gamla AMD Husky kärnorna, två sådana kostar FÄRRE transistorer än en Bulldozer modul. Tittar man på servers så blir jämförelsen mellan HT och CMT än värre då man typiskt vinner ganska lite på mer heltalsberäkningskraft då CPUn ofta väntar på I/O, något som bl.a. diskuteras här och visas i siffror här.

Tycker ändå AMD Piledriver är ett klart fall framåt, men svårt att se hur detta ska rädda AMD då deras APU måste vara betydligt mycket dyrare att tillverka jämfört med Intels prismässigt (mot kund) jämförbara CPUer. Hela modulkonceptet verkar vara ett stor misstag (separata avkodningssteg som kommer i nästa revision kommer inte hjälpa transistorbudgeten i positiv riktigt) och att kompensera låg IPC med hög klockfrekvens kan fungera om konkurrenterna ligger på 2-3GHz och man själv ligger på 3-4GHz. Problemet är att Intel inte alls ligger speciellt långt efter i frekvens och ingen har än så länge kommit speciellt långt över 4GHz utan att strömförbrukningen skenat, IBM nådde 5GHz med POWER6 fast det krävde speciella (==dyra) material och en TDP på 250W(!).[/QUOTE]

Wow jag fattade just ingenting Jag kan ändå en hel del om datorer men känns alltid bra att få känna efter hur lite man kan egentligen

Visa signatur

"Du vet väl att fildelning är förbjudet! Köp en till frugan också"

Permalänk
Medlem
Skrivet av m0rk:

Lite lägre frekvenser samt att det förmodligen rör sig om handplockade exemplar.

Men ska ett par hundra mhz (dvs mindre än 10%) verkligen kunna sänka tdp 35%? Handplockade chip i all ära, men jag är ändå fundersam hur detta gått till. Dessutom så är ju gpu-delen i 5700 kraftigare än i 5600 och den delen ska ju vara den hungrigaste i APUn.

Skickades från m.sweclockers.com

Visa signatur

Storburk: Ryzen 7 3700X, MSI B450M Mortar, FD Define Mini, CM M2 Silent 720W, 32 GB, ASUS RX 580 8GB, NVME SSD + HDD - HTPC: Ryzen 5 2400G, 16 GB, NVME SSD, BeQuiet 550W - Bärbar: ASUS F3SR, Core2Duo@2,6-3,1Ghz 4 GB, SSD

Permalänk
Hjälpsam
Skrivet av Yoshman:

Fast hur är X3000 relevant, det är en GPU för laptops från 2006? I så fall kan man klaga på att nVidia Riva TNT också krävde CPUn för T&L... Det som beskrivs på den sidan stämmer inte sedan Intel HD (Arrandale vilket är den mobila versionen av Nehalem på 45nm), en CPU som kom för mer än 3 år sedan.

Och som du ser ovan är det inte GPUn jag framför kritik mot, det är den grundläggande designen av CPUn. Designen i sig är inte heller fel, felet är att man i praktiken verkar behöva nästan lika mycket transistorer för en modul som för två "riktiga" kärnor. En stor anledningen är nog att det krävs en så stor L2 cache (cache kräver MASSOR med transistorer, fast frågan om det verkligen krävs, skulle vara kul att sett tester på de versioner av Trinity med endast 1M L2 cache) och man duplicerat kanske lite för mycket så det inte finns några synergieffekter. Som det är nu har man problem med att avkodare och L1I-cache är en flaskhals, något som varit ett icke-problem om man använt två separata kärnor.

Problemet med moduldesignen är att en APU ska vara bättre än summan av sina delar. Sedan SNB så kan GPUn och CPUn dela L3 cache, något som inte är möjligt i AMDs design, HT gör så att man effektivt kan utnyttja tillgängliga resurser både i enkeltrådade och flertrådade saker. Moduldesignen är sämre en två "riktiga" kärnor, men kostar nästan lika mycket att implementera i transistorer. Ovanpå detta så har ju saker som OpenCL och DirectCompute inte direkt tagit fart och med saker som FMA (fused multiple add) och AVX så minskar antalet problem där det är värt kostnaden (i både utvecklingstid och latens till/från CPU<->GPU) att använda GPUn.

Också här har Intel kommit längre vad det gäller integration, latensen mellan CPU/GPU är ett par heltalsfaktorer lägre i SNB/IVY jämfört med Trinity (tack vare att SNB/IVY kan kommunicera med GPUn via L3-cache), Trinitys GPU har dock betydligt mycket mer kraft. Men en högre latens gör att färre problem blir vettiga att köra på GPUn.

Men det viktigaste är ändå komplexiteten. AMD skulle behöva ta ~100% mer för Trinity jämfört vad Intel tar för sina IVB Core i3 för att ha samma marginaler och alla inser att det inte skulle fungera.

Bulldozer har och hade många problem, men några av dessa har rättats till dels via bättre tillverkningsteknik och dels via bättre design, några har ju också åtgärdats i Piledriver.
Att det finns kvar många problem med CPUn, håller jag absolut med om, men jag tycker som sagt att förpackad med den fina GPUn blir ändå paketet tilltalande.

Den analys du gör och de svagheter du visar med CPUn, verkar trovärdigt även för mig utan djupgående kunskaper i CPU-design, men min förhoppning är att dessa rättas till eller förminskas med tiden, Steamroller verkar bli ett ordentligt omtag och AMDs numera automatiserade design kan ge fördelar vid förändringar, om den nu fungerar som den skall.
Eftersom CPU och GPU kommer att dela gemensam minnesarea i Steamroller bör inte heller kommunikationen CPU GPU vara något problem där.

Intel kommer inte sitta stilla och vänta det vet jag, men det är lättare att fixa något som inte är bra, än att förfina något som redan fungerar ganska bra.
Jag begär inte heller att AMD skall bli bättre än Intel, för mig räcker det, att de är konkurenskraftiga.
En fördel som AMD faktiskt har redan nu, är att de är starkare på det som brukar begränsa prestanda i spel, alltså GPUn, även AMDs CPU räcker i de flesta fall till.

edit Vi vet ju inte allt om Vishera ännu, en logisk sak vore väl att minska L3 cachens storlek.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Datavetare

Har gnällt en hel del i denna tråd. Men vill ändå säga att Piledriver definitivt är ett steg i rätt riktigt och gillar att AMD verkligen vågat gå en helt egen väg med moduldesignen, ingen annan har gjort något liknande tidigare vad jag känner till. Gör man något som ingen annan gjort är det naturligtvis en hel del som kan gå fel, men hoppas verkligen man reder upp det hela i slutändan.

Tror faktiskt inte ens Intel vill att AMD ska fall ihop och inte p.g.a. några konkurrenslagar, det är ett överspelat kapitel nu när Wintel inte lägre är en självklarhet, WinRT kör ARM och Intel tillsammans med RedHat är de två företag som bidrar mest till Linux. Intel och AMD behöver varandra på för desktop-datorer på samma sätt som AMD behöver nVidia för grafikkort eller Android behöver iOS på telefoner. När det finns två självklara sidor blir ökar det mediala trycket på nya produkter, hur mycket tror ni det skulle skrivas om Core i7 6242 som efterföljaren till Core i7 6011 om det inte finns en AMD vs Intel vinkel på det hela

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Har gnällt en hel del i denna tråd. Men vill ändå säga att Piledriver definitivt är ett steg i rätt riktigt och gillar att AMD verkligen vågat gå en helt egen väg med moduldesignen, ingen annan har gjort något liknande tidigare vad jag känner till. Gör man något som ingen annan gjort är det naturligtvis en hel del som kan gå fel, men hoppas verkligen man reder upp det hela i slutändan.

Tror faktiskt inte ens Intel vill att AMD ska fall ihop och inte p.g.a. några konkurrenslagar, det är ett överspelat kapitel nu när Wintel inte lägre är en självklarhet, WinRT kör ARM och Intel tillsammans med RedHat är de två företag som bidrar mest till Linux. Intel och AMD behöver varandra på för desktop-datorer på samma sätt som AMD behöver nVidia för grafikkort eller Android behöver iOS på telefoner. När det finns två självklara sidor blir ökar det mediala trycket på nya produkter, hur mycket tror ni det skulle skrivas om Core i7 6242 som efterföljaren till Core i7 6011 om det inte finns en AMD vs Intel vinkel på det hela

Håller med, saker har förändrats en hel del.
Ang. Linux är det ju ett kul kapitel där Intel (efter diverse Itanium-fiaskon) känns lite som en uppstickare i bästa AMD stil som försöker sälja in Xeon + Linux som ett nytt billigt alternativ till SPARC/POWER + Unix från typ IBM, Oracle eller Fujitsu som alla är snordyra och etablerade. Trots att Intels alternativ är Snabbare, billigare och energisnålare än konkurrenterna köper kunderna ändå inte Intel.

Nu spårade jag ur rejält men jag kunde inte hejda mig.

Permalänk
Hedersmedlem
Skrivet av Mooter:

Trots att Intels alternativ är Snabbare, billigare och energisnålare än konkurrenterna köper kunderna ändå inte Intel.

Finns det siffror på det där?

Permalänk
Entusiast
Skrivet av Elgot:

Finns det siffror på det där?

Snabbare är ett relativt begrepp i den där branchen för det beror lite på vad man kör för typ av last. SPARC och POWER har sin fördelar men också rätt mycket nackdelar. Ingen av dem rår på Intel när det kommer till enkeltrådad prestanda och prestanda per watt men å andra sidan kör de med fyra trådar per kärna och en väldigt massa kärnor vilket passar bra till vissa typer av serverlaster. Sen får man ju inte glömma att många företag redan grävt ner enorma mängder pengar i ett visst system och att byta ut allt är ofta en enorm kostnad så även om x86 skulle vara bättre och billigare i inköp nu så kan kostnaderna för att migrera vara på tok för stora. Så Intel har ju att göra om de vill slå in sig på den marknaden.

Fråga Virtual Void lite snällt så kan han nog trolla fram lite Benchmarks. Vet att användaren Saddam också brukar slänga sig med benchmarks för att visa på SPARCS förträfflighet.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Medlem
Skrivet av Videoapan:

Men ska ett par hundra mhz (dvs mindre än 10%) verkligen kunna sänka tdp 35%? Handplockade chip i all ära, men jag är ändå fundersam hur detta gått till. Dessutom så är ju gpu-delen i 5700 kraftigare än i 5600 och den delen ska ju vara den hungrigaste i APUn.

Skickades från m.sweclockers.com

Det räcker med att ett fåtal 5600K ligger på 66W vid extremlast för att de inte ska kvalificera för TDP på 65W, då får de märkningen 100W. Det är inte så att AMDs processorer till FM1/FM2 av en slump alltid ligger på 65W eller 100W. Utan det är klasser. 100W betyder inte att de drar 100W, bara att de kan dra mer än 65W.

Permalänk
Hedersmedlem
Skrivet av Zotamedu:

Fråga Virtual Void lite snällt så kan han nog trolla fram lite Benchmarks. Vet att användaren Saddam också brukar slänga sig med benchmarks för att visa på SPARCS förträfflighet.

Främst var jag dock ute efter belägg för att xeon + linux skulle vara ett sådant fiasko. Spontant känns det väl annars som att fler och fler börja sälja x86-baserade klusteralternativ där förr mera specialiserade lösningar härskade. Theregister.co.uk har en graf över top500-systemens fördelning, men de är kanske inte riktigt representativa:

Permalänk
Avstängd
Skrivet av Aleshi:

Det räcker med att ett fåtal 5600K ligger på 66W vid extremlast för att de inte ska kvalificera för TDP på 65W, då får de märkningen 100W. Det är inte så att AMDs processorer till FM1/FM2 av en slump alltid ligger på 65W eller 100W. Utan det är klasser. 100W betyder inte att de drar 100W, bara att de kan dra mer än 65W.

Va? Vad har du fått dessa siffror ifrån?

Det är väldigt ofta du kan få CPUn att dra par watt över TDP (detta oavsätt märke på CPUn). Deran att företagen har viss tendens att köra trappstegsmodellen är en sak men att 100W TDPO skulle vara samma sak som 65W förbrukning är bara helt fel.

Permalänk
Avstängd
Skrivet av Elgot:

Främst var jag dock ute efter belägg för att xeon + linux skulle vara ett sådant fiasko. Spontant känns det väl annars som att fler och fler börja sälja x86-baserade klusteralternativ där förr mera specialiserade lösningar härskade. Theregister.co.uk har en graf över top500-systemens fördelning, men de är kanske inte riktigt representativa:
http://regmedia.co.uk/2011/11/12/top500_chip_technology.jpg

Nu ska jag säga att jag ihar ingen kol på vilket system som säljer mest med att ta top 500 som exempel kan ge en extremt skev bild. Top 500 handlar de 500 kraftigaste/snabbaste systemen och har ingenting med volym när det kommer till servrar.

Det ska ju finnas samma graf på totalt antal sålda system också, tror det är samma site till och med.

Permalänk
Avstängd

Ganska dåligt test. Det är inte så intressant att jämföra A8 och A10 mot andra dyrare CPU. Vad kan jag få för prestanda för 1000 kr? Då från Intel respektive AMD lägret. Dvs 1000 kr och då får du göra hur du vill. Kombinera CPU med extern Grafik osv. Samt att man vill veta om A10 duger att kunna köras som den är utan grafikkort.

Permalänk
Entusiast
Skrivet av lolight:

Ganska dåligt test. Det är inte så intressant att jämföra A8 och A10 mot andra dyrare CPU. Vad kan jag få för prestanda för 1000 kr? Då från Intel respektive AMD lägret. Dvs 1000 kr och då får du göra hur du vill. Kombinera CPU med extern Grafik osv. Samt att man vill veta om A10 duger att kunna köras som den är utan grafikkort.

De har ju med en Intel i3 3220 som kostar strax över tusenlappen, alltså precis samma prissegment som 5800K. Går inte att hitta en annan CPU från Intel som ligger mer i kollsisionskurs än så. Möjligtvis om de skulle slängt in någon av Pentium G800-prollarna som går för strax under 800 kr som någon sorts motsvarighet till 5600K då.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Medlem
Skrivet av Zotamedu:

De har ju med en Intel i3 3220 som kostar strax över tusenlappen, alltså precis samma prissegment som 5800K. Går inte att hitta en annan CPU från Intel som ligger mer i kollsisionskurs än så. Möjligtvis om de skulle slängt in någon av Pentium G800-prollarna som går för strax under 800 kr som någon sorts motsvarighet till 5600K då.

Ja, det hade varit kul att se.
Men slutsatsen är fortfarande ganska enkel.

Vill du ha en stark GPU-del? AMD all the way.
Vill du ha energieffektiv x86? Intel all the way.
Vill du ha enkel- eller få-trådad x86-prestanda? Intel
Vill du ha flertrådad x86-prestanda? AMD

Jag var lite besviken på hur Piledriver ändå är ett litet steg tillbaka i vissa situationer jämfört med Stars, men överlag tycker jag detta är ett bra steg framåt!

Permalänk
Medlem
Skrivet av Morkul:

Va? Vad har du fått dessa siffror ifrån?

Det är väldigt ofta du kan få CPUn att dra par watt över TDP (detta oavsätt märke på CPUn). Deran att företagen har viss tendens att köra trappstegsmodellen är en sak men att 100W TDPO skulle vara samma sak som 65W förbrukning är bara helt fel.

Fast nä. Om du kan leda bort 65w värme så ska du väl vara garanterad att fixa en 65w tdp-processor (i originalutförande)

Visa signatur

Kan en del om trä
Ctrl-Shift-N

Permalänk
Medlem

Det enda jag egentrligen är intresserad av när det gäller Trinity fick jag svar på här:

HQV 2.0 Benchmark

AMD 7660D (A10-5800K, A10-5700): 199 av 210
Intel HD4000: 197 av 210

Liten skillnad, båda har fina resultat, men 7660D är trots allt vinnaren. Dessutom:

"AMD deserves kudos for being the only GPU vendor to get the local cadence detection (with respect to the shredding of overlay text) correct. In addition, they are the only ones to offer mosquito noise reduction as an option in addition the usual denoising setting."

Fixar även 23.976 Hz (nära nog, 23.977 Hz vore löjligt att klaga på), vilket HD4000 inte gör (även om Intel utlovat en fix, som dock hittills inte släppts).

Omkastningsbuggen för Full kontra Limited Dynamic Range är ju enkelt åtgärdat, så det tycker jag inte är någon egentlig nackdel.

Det enda som tar emot lite är 65W TDP för A10-5700 (det givna htpc-valet), vilket är aningen mycket för en passivt kyld mini-itx-lösning som jag tänkt mig, även om det går (t.ex. i ett Streacom FC8).

Visa signatur

5950X, 3090

Permalänk
Avstängd
Skrivet av Igelkott:

Fast nä. Om du kan leda bort 65w värme så ska du väl vara garanterad att fixa en 65w tdp-processor (i originalutförande)

Som har diskuteras många gånger här på forumet så är TDP och strömförbrukning inte samma sak. Senaste diskussionen som grävdes det fram design dokument från Intel som visade att de räknade med att W5 värme skulle klaras av att leda bort via sockel/moderkort. Jag vet även att andra processor tillverkare kräver att moderkort via sockel/ytmontering ska kunna klara av att leda bort ett visst antal w för att det ska vara godkänt och jag tar för givet att även AMD kräver det.

Så ja om en CPU har 65W TDP så ska kylanordningen klara av att leda bort 65W värme men processkorn klarar av att förbruka mer än 65W eftersom moderkort är designade för att klara att leda bort några watt.

Permalänk
Avstängd

Tänkte köpa FM2 cpun till grabben då det intergrerade presterade rätt bra, han är 5 år så det duger till honom.
Men i alla fall vilket moderkort ska man köpa till dessa cpu's?
Vore tacksam för svar Mvh Tom

Permalänk
Medlem
Skrivet av Swetalian:

Är det någon snäll person som vet vilket grafikkort man skulle kunna jämföra HD 7660D med? Alltså ett som är likgiltigt.

världens roligaste kommentar!

Visa signatur

Gigabyte P67 UD4 | Intel Core i5 2500k @ 5GHz 1.35v prime95 stabil 24/7| 2x2GB Corsair @ 1600MHz 1.56v | Antec TruePower Quattro 850w |
|eVGA GTX470 superclocked @ 780/1620@1.037v / 1950| HAF 932 | Viewsonic vx2268wm 120hz | intelli ie 3.0 | RATT: Logitech G27 för F1 2010<3 nickname: grisfiske videos: http://www.youtube.com/user/GTXwek

Permalänk
Hedersmedlem
Skrivet av Morkul:

Nu ska jag säga att jag ihar ingen kol på vilket system som säljer mest med att ta top 500 som exempel kan ge en extremt skev bild. Top 500 handlar de 500 kraftigaste/snabbaste systemen och har ingenting med volym när det kommer till servrar.

Nej, de är som sagt kanske inte riktigt representativa, men det var den bästa bild jag hittade och det verkar ju i alla fall som att sparc och ibm har tappat på den fronten. Kanske ser det helt annorlunda ut någon annanstans (och det var sådana siffror jag efterlyste).

Permalänk
Skrivet av Sheik Yerbouti:

Det går att köra 2st Pico-PSUer. 150+150W borde klara ett trinity + 7670 i CF:)

Hur fungerar detta, använder man någon form av adapter för att kombinera aggen då de monteras direkt i 24pins kontakten eller fulmodar man ett av dom för att få ut en 6pin till grafikkortet?

Låter helt klart intressant i alla fall!

Permalänk
Medlem
Skrivet av lanbonden:

Hur fungerar detta, använder man någon form av adapter för att kombinera aggen då de monteras direkt i 24pins kontakten eller fulmodar man ett av dom för att få ut en 6pin till grafikkortet?

Låter helt klart intressant i alla fall!

http://www.add2psu.com/

Detta är ett alternativ(se denna tråd för en bygglogg där TS använder 2st pico:s
http://www.sweclockers.com/forum/5-modifikationer-och-egna-ko...

Visa signatur

Why procastinate now when I can do it tomorrow?

Permalänk
Medlem
Skrivet av Morkul:

Va? Vad har du fått dessa siffror ifrån?

Det är väldigt ofta du kan få CPUn att dra par watt över TDP (detta oavsätt märke på CPUn). Deran att företagen har viss tendens att köra trappstegsmodellen är en sak men att 100W TDPO skulle vara samma sak som 65W förbrukning är bara helt fel.

Och hur mäter AMD. Vet vi att de räknar med att värme ska strålas ut på annat håll precis som intel? Och var har du sett att en AMD-CPU drar mer än sin TDP egentligen? Inte räknat med förluster i nätaggregat och strömförsörjning så klart. Men okej, vi kan inte veta att de räknar med att kylaren ska ta hand om allt. Men det är fortfarande så att sockeln aldrig kan ta hand såpass mycket att det spelar någon vidare stor roll i desktopprocessorer. Så låt mig omformulera det till att det räcker med att AMD kommer fram till att kylflänsen måste dissipera 66W värme för att TDP ska bli 100W.

Permalänk
Medlem
Skrivet av Morkul:

Så ja om en CPU har 65W TDP så ska kylanordningen klara av att leda bort 65W värme men processkorn klarar av att förbruka mer än 65W eftersom moderkort är designade för att klara att leda bort några watt.

Eller mindre, många har högre TDP än vad dom faktiskt förbrukar.

Att bara kolla på TDP blir rätt meningslöst, kolla på tester och se!

Permalänk
Relik 📜

*tråd rensad*

lmgtfy-länkar och taskig attityd klarar vi oss bra utan. Finns bättre sätt att diskutera på.

Visa signatur

För övrigt anser jag att Karthago bör förstöras.
▪ Nöje #1 -> i5-11400F - B560M-ITX/ac - RTX 3070 - 16 GB DDR4
▪ Nöje #2 -> R5 5600 - Prime B450-Plus - RX 6750 XT - 16 GB DDR4
▪ Mobilt -> HP Pavilion Aero - R5 5625U - 16 GB DDR4
▪ Konsol -> Steam Deck, Xbox Series S