Permalänk
Medlem

Alltså rent subjektivt så har amds grejer presterat mycket bättre än vad tester/reviews visat tbh.. Enligt mig alltså.

Men Intels effektivitet är helt enkelt oslagbar just nu . Deras perf/w är inget att bara nonchalant blunda ögonen för. De har verkligen lyckats när det kommer till att vara effektiva vilket jag värdesätter otroligt högt och därför använder just nu intels grejer när jag vill ha det bästa.. Men använder amds prylar för sin prisvärdighet:) t.ex så kör testkör jag en 5350 som jag klockat osv..

Otroligt prisvärd. Spec jag som köpte dem begagnat.

Dock tror jag extremt hårt på en grov comeback från amd detta år. Och hoppas innerligen att se sätter lite nervositet i intel för att de ska ha en jämn kapprustning som äldre dar och inte en en-manna show..

Permalänk
Medlem
Skrivet av pa1983:

Jag vet precis vad TDP står för men du verkar inte veta vad det är. Processorns strömförbrukning är samma som avgiven energi. All elektrisk energi omvandlas till termisk energi så har den ett TDP på 88W så förbrukar den ca 88W elektrisk energi som omvandlas till 88W termisk energi.

Du verkar inte inse att energi omvandlas så det som kommer in som elektrisk energi kommer ut som värme.

Och du talar om TDP i samband med temperaturer så det säger bara att du tyvärr inte vet vad du talar om vad det gäller termodynamik.

Vet att du är enveten men det blir inte rätt bara för du blandar i hop Effekt och Temperatur för TDP är ett mått på Effekt.

Det var du själv som sa att du inte var imponerad av intels TDP värden pga att AMD går svalare vid högre TDP.
Temperaturerna är TOTALT irrelevanta för effektförbruknigen och därmed är TDP helt irrelevant.

Slutsattsen man kan dra om en CPU med lägre TDP går varmare är att termiska reistansen är högre mellan kisel och Tcase. Det borde du klagat på.

Ungefär, men inte riktigt, är nog mycket bättre att faktiskt kolla tester. En i5 4690K kanske har en TDP på 88W, men i full load (stock) så drar den upp till ca 110W, och överklockad till 4.7/4.8 någonstans så drar den en bra bit över 150W. Men överklockat kan man inte direkt jämföra eftersom det inte är vad Intel räknar på (duh). I alla fall så är det ~20W skillnad mellan TDP värdet som är satt och vad den drar i full load. Det är dock inte helt och hållet fel, eftersom energi inte försvinner, utan tar alltid vägen någonstans, det omvandlas, i detta fallet omvandlas det till värme.

Förresten att tillägga så har jag alltid haft problem med att alla mina AMD cpu'er har visat fel temperaturer (extremt svala även under spelande eller andra krävande saker), temperaturer ibland lägre än rumstemp...

Permalänk
Medlem
Skrivet av criscros:

Men använder amds prylar för sin prisvärdighet:) t.ex så kör testkör jag en 5350 som jag klockat osv..

Har du kört HD film med den?

Visa signatur

ASUS Prime RX 9070 XT 16GB OC | AMD Ryzen R7 5700X3D | Noctua NH-D15S | Asus TUF Gaming B550-Plus | Kingston Fury 2x16GB 3600 CL 16 Renegade | Samsung 990 Pro 1TB | Corsair HX1000i | Corsair Frame 5000D | Xiaomi G34WQi | Corsair K95 Platinum | Corsair Sabre RGB PRO Wireless | Corsair HS65 |

Permalänk
Medlem
Skrivet av criscros:

Alltså rent subjektivt så har amds grejer presterat mycket bättre än vad tester/reviews visat tbh.. Enligt mig alltså.

Men Intels effektivitet är helt enkelt oslagbar just nu . Deras perf/w är inget att bara nonchalant blunda ögonen för. De har verkligen lyckats när det kommer till att vara effektiva vilket jag värdesätter otroligt högt och därför använder just nu intels grejer när jag vill ha det bästa.. Men använder amds prylar för sin prisvärdighet:) t.ex så kör testkör jag en 5350 som jag klockat osv..

Otroligt prisvärd. Spec jag som köpte dem begagnat.

Dock tror jag extremt hårt på en grov comeback från amd detta år. Och hoppas innerligen att se sätter lite nervositet i intel för att de ska ha en jämn kapprustning som äldre dar och inte en en-manna show..

Vad menar du med "enligt mig"? Om varenda test från varenda seriös tekniksajt du kan hitta säger ungefär samma om hur dom presterar så är det ju uppenbarligen vad dom presterar? Sen kanske du upplever dom som bra ändå. Klagar inte på min FX6300, den presterar bra, inga problem med fps drops i BF3/BF4 med mera. Men både i5an och i7an är betydligt bättre, även om man inte alltid märker det i alla spel.

Permalänk
Medlem
Skrivet av Friterad:

Vad menar du med "enligt mig"? Om varenda test från varenda seriös tekniksajt du kan hitta säger ungefär samma om hur dom presterar så är det ju uppenbarligen vad dom presterar? Sen kanske du upplever dom som bra ändå. Klagar inte på min FX6300, den presterar bra, inga problem med fps drops i BF3/BF4 med mera. Men både i5an och i7an är betydligt bättre, även om man inte alltid märker det i alla spel.

Det är just därför jag skrev "subjektivt".

Permalänk
Medlem
Skrivet av skruvis:

Har du kört HD film med den?

Har tyvärr inte gjort det :/ och jag antar att du menar med igpun ellerhur? För jag använder 750ti Istället för igpun:)

Permalänk
Medlem
Skrivet av criscros:

Har tyvärr inte gjort det :/ och jag antar att du menar med igpun ellerhur? För jag använder 750ti Istället för igpun:)

Ok, ja precis med igpun, kan vara en billig htpc? Klarar den av maxa ut 750 kortet?

Visa signatur

ASUS Prime RX 9070 XT 16GB OC | AMD Ryzen R7 5700X3D | Noctua NH-D15S | Asus TUF Gaming B550-Plus | Kingston Fury 2x16GB 3600 CL 16 Renegade | Samsung 990 Pro 1TB | Corsair HX1000i | Corsair Frame 5000D | Xiaomi G34WQi | Corsair K95 Platinum | Corsair Sabre RGB PRO Wireless | Corsair HS65 |

Permalänk
Medlem
Skrivet av Friterad:

Precis som att i5an kan överklockas kan även i7an göra det. Nu är det ju oftast kanske inte värt det om man inte kan lägga så mycket pengar och om spel är det enda jobbet där cpu'n får arbeta mycket. Hade ju själv tanken på i5 först, men blev i7 pga bättre prestanda i spel och rendering, redigering osv. Definitivt är i5 mer prestanda för pengarna, men anledningen att jag reagerade var ju eftersom "i7 är onödigt i spel" är ett äldre och numera falskt påstående

Inget är väl helt onödigt i spel. Men när dagens i5or känns slöa så lär min i7a göra det med. Du nämnde rendering, ja då är det andra puckar som gäller. Då är en fx8350 jäkligt mycket bättre helt plötsligt och spelreglerna ändras. Om TS skall jobba kreativt med video/3d/musik så kan TS förbise alla mina inlägg.

Skickades från m.sweclockers.com

Visa signatur

Min musik: https://www.youtube.com/channel/UCZKidNeIKsz8LZMO3VRcBdQ

Gaminglaptop. 13700H, 32Gb RAM, RTX 4070, 4Tb SSD.

Permalänk
Medlem
Skrivet av skruvis:

Ok, ja precis med igpun, kan vara en billig htpc? Klarar den av maxa ut 750 kortet?

Syftet med denna plattform var nog nas/htpc/surfdator osv.. Och om jag inte minns fel så ska den klara av det men vågar inte ge dig ett hundraprocentigt svar faktiskt..

Ang spel.. Jag skulle avråda folk att lira extremt cpu intensiva, dåligt optimerade och jätte krävande spel som inte lirar bra på fler cores än två..

Har testat att lira vermintide på detta system och det är helt ospelbart.. Dels är ju spelet jätte kasst optimerat men också så är det sjukt krävande på cpun.. Så det är inget jag rek.

Har lirat en massa far cry 4 och trots dips under 30fps och sämre flyt än vad ja hade hoppats på så har det ändå funkat helt ok.

Då är det en klockad 5350@2.7 med överklockade minnen och överklockad gpun.

Spelar i 1080p medium. Avg skulle nog ligga runt 35-40 men vissa stunder droppar det till ca 25fps tråkigt nog:(:(

Alltså i enorma strider med mkt som händer runt om så droppar det till ospelbar nivå.. Annars flyter det på helt ok. Det jag definersr som ospelbart är under 30fps och ett exempel var när jag skulle skydda ett tempel under mission ifrån en massa fiender.. Det var så pass illa att det gick ner till 25 en bra stund:/

För övrigt är far cry 4 helt sjukt bra

Permalänk
Medlem
Skrivet av Lifooz:

Bättre är den inte, FX-8350 bygger på en gammal arkitektur som är utdaterad, ungefär som SAAB.
I5-6600K kommer lubba i åttor kring FX-8350. Därför är den sistnämnde också billigare.
/Lifooz

Inte för att låta dryg eller nå, men vad har SAAB med de här o göra?

Visa signatur

GTX 690, GTX 580, GTX 560TI, GTX 295D, GTX 275, GTX 260 216C, 9800GX2, 9800GTX+, 8800 ULTRA, 8800GT, 7950GX2, 7600GT, GT640, GT610.
5870, 5770, 4670, X1900GT, 9600PRO, 9200SE.
QUADRO FX1800, QUADRO FX580, QUADRO FX570.

Permalänk
Medlem
Skrivet av cider123:

Det där skulle jag inte riktigt hålla med om, min erfarenhet säger att intel prollar är utmärkta i en tyst dator. Men visst, man kanske kan bygga en billigare dator med amd.

Jo, Intels är svalare i jämförelse med en likvärdig AMD. Menade mer generellt om man ska bygga billigt/litet/enkelt.

Permalänk
Medlem
Skrivet av skruvis:

Ok, ja precis med igpun, kan vara en billig htpc? Klarar den av maxa ut 750 kortet?

Kanske lite väl processortunga spel, men 5350 flaskar nog ett 260X rätt grymt.
http://www.sweclockers.com/test/18984-amd-athlon-5350-och-int...

pcper missade att 750Ti i 1080p high flaskar i7:an, så skillnaden är nog betydligt större. Går tyvärr inte att avgöra prestandan i BF4 och Crysis 3.
http://www.pcper.com/reviews/General-Tech/AMD-AM1-Platform-an...

Visa signatur

De köper en bil. Säljaren säljer bilen till dem. Var är du? Vart ska du? Varifrån kom du?

Permalänk
Medlem
Skrivet av serverfel:

Inget är väl helt onödigt i spel. Men när dagens i5or känns slöa så lär min i7a göra det med. Du nämnde rendering, ja då är det andra puckar som gäller. Då är en fx8350 jäkligt mycket bättre helt plötsligt och spelreglerna ändras. Om TS skall jobba kreativt med video/3d/musik så kan TS förbise alla mina inlägg.

Skickades från m.sweclockers.com

En 8350 får rätt mycket spö i rendering också, beroende på vilket program osv. Det är ytterst få tester där 8350 vinner över en modern i5. Förresten hade jag nog hellre valt en 8320 än en 8350 och bara överklockat så långt det går

Permalänk

Jag gillar AMD för att de behövs. Sen deras nya idé med samma sockel till alla cpu:s är kanon .
Det amd måste komma tillrätta med är energiförbrukningen mot prestandan .
Nya grafikkort typ960 är framtiden. Små, tysta, energisnåla med bra prestanda.
Intel är ju lite löjliga med hundra varianter på liknande processorer med en ny sockel vartannat år.
Nä, jag hoppas på AMD om inte annat för att Intel behöver konkurrens.

Permalänk
Medlem
Skrivet av krilleoh:

AMD är inte bättre än Intel, varken på pappret eller i verkligheten. Det finns såklart flera olika anledningar och båda två kan vara bra alternativ, beroende på syfte och budget.

Jag själv föredrar Intel före AMD gällande det allra mesta där man är ute efter prestanda och budgeten inte spelar någon större roll. För ett billigare och tystare/enklare system, så kör jag på AMD.

Amd tystare? Jo tjenna. Varmare och låter mer iaf grafikkorten.

Visa signatur

MB MSI PRO Z790-A MAX WIFI CPU i9 14900K CPU COOLER EK-Nucleus AIO CR360
GPU ASUS GeForce RTX 3090 STRIX GAMING OC PSU ASUS ROG Strix 1000W
MEM CORSAIR DOMINATOR TITANIUM 48GB DDR5 RGB 7000Mhz
MONITOR Asus PG42UQ 4K CHASSI Phanteks Eclipse P600S White
STORAGE 2x Samsung 990 PRO 2Tb 1x Samsung 980 PRO 2Tb

Permalänk
Medlem
Skrivet av Friterad:

En 8350 får rätt mycket spö i rendering också, beroende på vilket program osv. Det är ytterst få tester där 8350 vinner över en modern i5. Förresten hade jag nog hellre valt en 8320 än en 8350 och bara överklockat så långt det går

Menar att den helt plötsligt är mer värd sitt pris. Hade idag ändå valt en i5a.

Skickades från m.sweclockers.com

Visa signatur

Min musik: https://www.youtube.com/channel/UCZKidNeIKsz8LZMO3VRcBdQ

Gaminglaptop. 13700H, 32Gb RAM, RTX 4070, 4Tb SSD.

Permalänk
Medlem
Skrivet av serverfel:

Menar att den helt plötsligt är mer värd sitt pris. Hade idag ändå valt en i5a.

Skickades från m.sweclockers.com

Ja helt ok, inte dyr direkt. Men tror 8320 är ett mycket bättre val om man ska köpa för under 2k

Permalänk
Medlem

jag hade köpt en 8320 för spel. 1300kr jue, visst finns Intel Core i5 4440 men den ligger ju på ca 1700spänn. fanns en 3xxx serie på prisjakt för 1500 men verkar inte finnas att få tag på.

så 8320 å ett mobo för en billig peng å du har en speldator som kommer funka i några år. Nu när dx12 å vulcan kommer ut lär ju cpun spela ännu mindre roll. köp den billigaste spelcpun å det verkar just vara amdn i detta fallet. mina 5ören iaf

edit.. Intel Core i5 4440 som finns på lager i en känd onlinebutik på prisjakt ligger på nästan 2k.. nä shit.. då e det bara amd som gäller.

Visa signatur

12700k@/7200c34@7800/msi z790 itx

Permalänk
Medlem
Skrivet av Friterad:

Ungefär, men inte riktigt, är nog mycket bättre att faktiskt kolla tester. En i5 4690K kanske har en TDP på 88W, men i full load (stock) så drar den upp till ca 110W, och överklockad till 4.7/4.8 någonstans så drar den en bra bit över 150W. Men överklockat kan man inte direkt jämföra eftersom det inte är vad Intel räknar på (duh). I alla fall så är det ~20W skillnad mellan TDP värdet som är satt och vad den drar i full load. Det är dock inte helt och hållet fel, eftersom energi inte försvinner, utan tar alltid vägen någonstans, det omvandlas, i detta fallet omvandlas det till värme.

Förresten att tillägga så har jag alltid haft problem med att alla mina AMD cpu'er har visat fel temperaturer (extremt svala även under spelande eller andra krävande saker), temperaturer ibland lägre än rumstemp...

Du och skruvis får gärna lägga fram lite bevis för era påståenden typ länkar, mina är baserad på fysikens lagar så som vi känner till dom så det kan alla kolla upp om man inte mins fysiken från skolan.

Men vad får tex du siffror i från att intel drar MER än sitt TDP? Inte för att jag egentligen BRYR MIG om det då jag fortfarande citerade Skruvis första påstående att intels TDP är bluff baserat på att hans i7 var varmare än hans FX processor där den första har lägre TDP vilket är totalt relevant och är att göra en poäng med felaktig information.

Det är som att säga att en 100A nätdel på 12V är har högre effekt än en 50A nätdel på 36V.

Som sagt mäta vad processorn faktiskt drar kan utan problem göras men som sagt du får gärna lämna en länk till ett test tack så jag kan verifierar dit påstående mest av nyfikenhet då jag inte bryr mig om Intel eller AMD drar mer/mindre än sitt TDP då det är nåt jag inte har kontroll över som slutkund.

Vad skruvs skulle skrivit om han inte är imponerad av Intels TDP är att "test visar att intels processorer drar mer än sitt TDP medans AMD drar enligt TDP eller Lägre, tex lägre än intel".

Det skulle han skrivit det hade varit korrekt och get den önskade poängen.

Detta hade testsidor kunnat mäta upp enligt metoder jag nämnde innan och vissa har historiskt gjort det med.
Flesta gör det inte utan mäter hela systemet antigen pga kunskapsbrist eller kostnad eller tidsbrist.
Det fins garanterat ännu fler metoder att avgöra mägden energi en CPU förbrukar antigen genom att mäta energin till processorn (strömen) eller energin den avger i form av värme.

Men TDP är i högsta grad relevant för effektförbrukningen, Ska kylarlösningen klara 88W så kan processorn inte förbruka mer än så en lägre stund, men vi vet alla att en CPU är en dynamisk last så man måste oavset prata om genomsnittlig effektförbrukning vid full last då en CPU kan pendla i förbrukning ganska mycket och detta kan en kylare klara.

TDP används även för att processorn själv ska reglera sin strömförbrukning, extremt viktigt på tex laptops där moderkortet ofta inte kan försörja mycket mer än vad processorn TDP tillåter och lika så batteriet, samma sak där klarar kylarna ofta inte av några laster över TDP en lägre stund. Så TDP är i allra högsta grad relevant för energiförbrukningen och det är som sagt denna energi som ska kylas bort också.

Sedan finns det gott om processorer i TDP klasser som inte alls drar nära sitt TDP, men att dom placeras där är av praktikalitet, lättare med några TDP klasser för att förenkla för moderkortstillverkare som inte alltid stödjer alla TDP klasser, tex inte dom högre i vissa fall men det underlättar också för Kylartillvekrare och systembyggare.

Men som sagt lite datablad på era påståenden om TDP, inte för jag bryr mig men då ni envisas med att ducka vad jag ursprungligen ifrågasatt hela tiden nämligen detta citat som jag finner vilseledande och potentiellt kan ge folk fel intryck.
Tex att en varmare CPU drar mer energi än en svalare vilket inte alls är något som är säkert då temperatur helt beror på hur effektivt energin kan avlägsnas.

Skrivet av skruvis:

Min 4790K går varmare i benchmarks (läs prime95) än vad min FX8320 gick, så nej jag är inte imponerad av Intels TDP!

TDP har INGET med temperaturen att göra när man jämför två olika processorer så varför skriver man något som detta? Vilseleda kanske eller bara okunnig? Fel är det i alla fall.

Som sagt jag är inte ett dugg intresserad om Intel eller AMD ljuger om sina TDP'n för utan ett ordentligt oberoende test vet v inte detta och jag tänker då inte göra det för så mycket intresserar det inte mig.
Och processorer oavset tillverkare i dag är så extremt komplicerade att man valt att använda TDP, delvis för att man numera låter processorn själv styra detta men även för att processorer har sådant dynamisk span i förbrukning.

En gång i tiden drog en CPU lika mycket oavset last (Min Digital Alpha EV56 500Mhz beter sig så tex) om den så var i idle eller load.
I dag drar dom ner mot 2W idle och bra bit över 140W Load för en konsumentmodeller eller mer men inte ens tillverkaren kan ge ett absolut värde lägre. Därför regleras detta även av processorn numera för att försöka hålla sig vid målet alltså TDP värdet processorn såldes som.

Jag mins också hur Intel och AMD skrev absolut effektförbrukning på K6-2, Pentium 3 och tidigare modeller i sina datablad för jag läste dom alla. Hade ett eget program jag gjort med databas för OC som använde dessa tabeller.

Problemet började runt Pentium 4 och Athlon där intel inte lägre angav en specifik max effekt utan började med vad som i dag är TDP och AMD tog snart efter med Athlon64 och Opteron.

Så i dag är det TDP som gäller, hur väl en viss CPU modell stämmer med sitt TDP varierar så mycket vet vi.

men det ända jag ifrågasatt som felaktigt är detta citat och inget annat. Jag har också förklarat varför det är fel och vad man borde sagt istället om man nu tycker på det visset vilket jag inte eller ifrågasatt.

Skrivet av skruvis:

Min 4790K går varmare i benchmarks (läs prime95) än vad min FX8320 gick, så nej jag är inte imponerad av Intels TDP!

Permalänk
Medlem

Just nu kör jag an lite udda setup, en win7 desktop under esxi på en AMD FX-8350. Väldigt nöjd med detta, upplever faktiskt ingen större skillnad mot min tidigare i5 2500K trots att jag kör flera maskiner på den. Visserligen så spelar jag ju inte så mycket, mest lite Diablo III och lite annat.

Jag har ett annat bygge planerat nu där ett begagnat ASUS M5A97 LE R2.0 paras med en ny AMD Opteron 3280. Ingen aning om hur det kommer bli att spela på, men jag har ett 750 ti jag köpte när det var billigt på nån nätbutik, kanske Netonnet? Ja ja... Hur som helst så räknar jag på en kostnad på under 2500:- för burken och lyckas jag med det så blir jag väldigt nöjd.

Just detta är anledningen till att jag köper AMD prollar. Jag upplever prestandan fullgod till mina behov och är inte intresserad av att kasta pengar i sjön.

Så för att sammanfatta detta inlägg (som känns lite flummigt) så förespråkar jag att man konstaterar vad man vill använda datorn till. Tittar efter hur kraftfull hårdvara som behövs och sen gör avvägningen vad man vill bygga av.

Permalänk
Medlem
Skrivet av DST:

jag hade köpt en 8320 för spel. 1300kr jue, visst finns Intel Core i5 4440 men den ligger ju på ca 1700spänn. fanns en 3xxx serie på prisjakt för 1500 men verkar inte finnas att få tag på.

så 8320 å ett mobo för en billig peng å du har en speldator som kommer funka i några år. Nu när dx12 å vulcan kommer ut lär ju cpun spela ännu mindre roll. köp den billigaste spelcpun å det verkar just vara amdn i detta fallet. mina 5ören iaf

edit.. Intel Core i5 4440 som finns på lager i en känd onlinebutik på prisjakt ligger på nästan 2k.. nä shit.. då e det bara amd som gäller.

Så länge man endast tänker ha 60 Hz så duger AMD i de flesta fall, men vill man ha 120/144 Hz så finns det många spel där AMD inte alls hänger med.

I Ashes of Singularity var en i3 bättre än en AMD FX8350 även i dx12.

En i5 i 3,5 GHz vinner mot en AMD FX-83xx som är klockad i 4,7 GHz i GTA 5, ett spel som trådar ovanligt bra.
http://www.sweclockers.com/test/20336-snabbtest-grafik-och-pr...

Visa signatur

De köper en bil. Säljaren säljer bilen till dem. Var är du? Vart ska du? Varifrån kom du?

Permalänk
Medlem
Skrivet av pa1983:

Du och skruvis får gärna lägga fram lite bevis för era påståenden typ länkar, mina är baserad på fysikens lagar så som vi känner till dom så det kan alla kolla upp om man inte mins fysiken från skolan.

Men vad får tex du siffror i från att intel drar MER än sitt TDP? Inte för att jag egentligen BRYR MIG om det då jag fortfarande citerade Skruvis första påstående att intels TDP är bluff baserat på att hans i7 var varmare än hans FX processor där den första har lägre TDP vilket är totalt relevant och är att göra en poäng med felaktig information.

Det är som att säga att en 100A nätdel på 12V är har högre effekt än en 50A nätdel på 36V.

Som sagt mäta vad processorn faktiskt drar kan utan problem göras men som sagt du får gärna lämna en länk till ett test tack så jag kan verifierar dit påstående mest av nyfikenhet då jag inte bryr mig om Intel eller AMD drar mer/mindre än sitt TDP då det är nåt jag inte har kontroll över som slutkund.

Vad skruvs skulle skrivit om han inte är imponerad av Intels TDP är att "test visar att intels processorer drar mer än sitt TDP medans AMD drar enligt TDP eller Lägre, tex lägre än intel".

Det skulle han skrivit det hade varit korrekt och get den önskade poängen.

Detta hade testsidor kunnat mäta upp enligt metoder jag nämnde innan och vissa har historiskt gjort det med.
Flesta gör det inte utan mäter hela systemet antigen pga kunskapsbrist eller kostnad eller tidsbrist.
Det fins garanterat ännu fler metoder att avgöra mägden energi en CPU förbrukar antigen genom att mäta energin till processorn (strömen) eller energin den avger i form av värme.

Men TDP är i högsta grad relevant för effektförbrukningen, Ska kylarlösningen klara 88W så kan processorn inte förbruka mer än så en lägre stund, men vi vet alla att en CPU är en dynamisk last så man måste oavset prata om genomsnittlig effektförbrukning vid full last då en CPU kan pendla i förbrukning ganska mycket och detta kan en kylare klara.

TDP används även för att processorn själv ska reglera sin strömförbrukning, extremt viktigt på tex laptops där moderkortet ofta inte kan försörja mycket mer än vad processorn TDP tillåter och lika så batteriet, samma sak där klarar kylarna ofta inte av några laster över TDP en lägre stund. Så TDP är i allra högsta grad relevant för energiförbrukningen och det är som sagt denna energi som ska kylas bort också.

Sedan finns det gott om processorer i TDP klasser som inte alls drar nära sitt TDP, men att dom placeras där är av praktikalitet, lättare med några TDP klasser för att förenkla för moderkortstillverkare som inte alltid stödjer alla TDP klasser, tex inte dom högre i vissa fall men det underlättar också för Kylartillvekrare och systembyggare.

Men som sagt lite datablad på era påståenden om TDP, inte för jag bryr mig men då ni envisas med att ducka vad jag ursprungligen ifrågasatt hela tiden nämligen detta citat som jag finner vilseledande och potentiellt kan ge folk fel intryck.
Tex att en varmare CPU drar mer energi än en svalare vilket inte alls är något som är säkert då temperatur helt beror på hur effektivt energin kan avlägsnas.

TDP har INGET med temperaturen att göra när man jämför två olika processorer så varför skriver man något som detta? Vilseleda kanske eller bara okunnig? Fel är det i alla fall.

Som sagt jag är inte ett dugg intresserad om Intel eller AMD ljuger om sina TDP'n för utan ett ordentligt oberoende test vet v inte detta och jag tänker då inte göra det för så mycket intresserar det inte mig.
Och processorer oavset tillverkare i dag är så extremt komplicerade att man valt att använda TDP, delvis för att man numera låter processorn själv styra detta men även för att processorer har sådant dynamisk span i förbrukning.

En gång i tiden drog en CPU lika mycket oavset last (Min Digital Alpha EV56 500Mhz beter sig så tex) om den så var i idle eller load.
I dag drar dom ner mot 2W idle och bra bit över 140W Load för en konsumentmodeller eller mer men inte ens tillverkaren kan ge ett absolut värde lägre. Därför regleras detta även av processorn numera för att försöka hålla sig vid målet alltså TDP värdet processorn såldes som.

Jag mins också hur Intel och AMD skrev absolut effektförbrukning på K6-2, Pentium 3 och tidigare modeller i sina datablad för jag läste dom alla. Hade ett eget program jag gjort med databas för OC som använde dessa tabeller.

Problemet började runt Pentium 4 och Athlon där intel inte lägre angav en specifik max effekt utan började med vad som i dag är TDP och AMD tog snart efter med Athlon64 och Opteron.

Så i dag är det TDP som gäller, hur väl en viss CPU modell stämmer med sitt TDP varierar så mycket vet vi.

men det ända jag ifrågasatt som felaktigt är detta citat och inget annat. Jag har också förklarat varför det är fel och vad man borde sagt istället om man nu tycker på det visset vilket jag inte eller ifrågasatt.

Ptja, jag antar att Intels TDP inte är full load då, i tester med benchmark program så når 4690K 109W enligt bit-tech: http://www.bit-tech.net/hardware/2014/07/03/intel-core-i5-469...

Men på andra tester på andra sajter kan det stå annorlunda. Antagligen beror det på, cpu'n kanske jobbar 80-90% i ett test i ett program men ett annat jobbar den 100%. http://hexus.net/tech/reviews/cpu/71265-intel-core-i5-4690k-d...

Som jag sa du har ju rätt eftersom energi omvandlas, men det kan helt enkelt vara så att det beror på hur Intel räknar, räknar dom strömförbrukningen under 100% load? Tvivlar faktiskt på det, med tanke på testerna, men också eftersom cpu'erna blir extremt varma om du inte använder en eftermarknadskylare, och då menar jag i stock. Beror där också lite på om det är SB, IB, Haswell, Skylake osv.

Självklart kan hans FX cpu som genererar mer värme vara mer välkyld än en Intel, om FX cpu'n har en riktigt bra kylare medan Inteln får köra med stock/den du får med. Eller också är AMDs kylare betydligt bättre. Sen undrar man lite hur skruvis kollar temperaturen, då alla program jag har använt har visat fel på alla AMD cpu'er.

Permalänk
Medlem
Skrivet av Friterad:

Självklart kan hans FX cpu som genererar mer värme vara mer välkyld än en Intel, om FX cpu'n har en riktigt bra kylare medan Inteln får köra med stock/den du får med. Eller också är AMDs kylare betydligt bättre. Sen undrar man lite hur skruvis kollar temperaturen, då alla program jag har använt har visat fel på alla AMD cpu'er.

Hardware Monitor, AMDs egna (som räknar ner), Asus egna mm vad jag testat har lyckats mäta rätt. Likaså om du sitter i Linux och använder sensors under LOAD. Vid idle så varierar det på rumstemp och vad idle betyder för dig. så ligger den mellan 15-35c (såklart beror på din kylning) men den har rätt så fel där.

Visa signatur

Arch - Makepkg, not war -||- Gigabyte X570 Aorus Master -||- GSkill 64GiB DDR4 14-14-15-35-1T 3600Mhz -||- AMD 5900x-||- Gigabyte RX6900XT -||- 2x Adata XPG sx8200 Pro 1TB -||- EVGA G2 750W -||- Corsair 570x -||- O2+ODAC-||- Sennheiser HD-650 -|| Boycott EA,2K,Activision,Ubisoft,WB,EGS
Arch Linux, one hell of a distribution.

Permalänk
Hedersmedlem
Skrivet av Commander:

Hardware Monitor, AMDs egna (som räknar ner), Asus egna mm vad jag testat har lyckats mäta rätt. Likaså om du sitter i Linux och använder sensors under LOAD. Vid idle så varierar det på rumstemp och vad idle betyder för dig. så ligger den mellan 15-35c (såklart beror på din kylning) men den har rätt så fel där.

Du skriver har lyckats mäta rätt, hur har du testat detta? Kollat med tempmätare?

Visa signatur

Stalin var så gammal att de fick Len´in. ;)

Permalänk
Medlem

Med FX8320@4GHz använde jag MSI controlcenter vilket inte ger en direkt vetenskaplig jämförelse samt när det kommer till 4790K använde jag XTU samt att det satt samma kylare på bägge dvs. Arctic freezer i/A30, hursomhelst är jag fortfarande inte imponerad av Intels TDP & jag tycker fortfarande att AMD´s är det bättre sättet att ange det på!

Prime95 blir väl lite av worst case scenario vilket inte Intel anger sin TDP på utan mer någon typ av average applicatation(?) scenario om jag inte misstar mig?

Detta här blir default när man aktiverar XMP på ett ASUS Z97-A

Som sagt "fixen" är enkel bara att gå in i bios/uefi & ställa in gränserna.

Sen kan man köra den med ~88w i tdp om man vill..

Visa signatur

ASUS Prime RX 9070 XT 16GB OC | AMD Ryzen R7 5700X3D | Noctua NH-D15S | Asus TUF Gaming B550-Plus | Kingston Fury 2x16GB 3600 CL 16 Renegade | Samsung 990 Pro 1TB | Corsair HX1000i | Corsair Frame 5000D | Xiaomi G34WQi | Corsair K95 Platinum | Corsair Sabre RGB PRO Wireless | Corsair HS65 |

Permalänk
Medlem
Skrivet av Jalle64:

Du skriver har lyckats mäta rätt, hur har du testat detta? Kollat med tempmätare?

Jag testade yttligare med en billig laser tempmätare från kjell på baksidan av sockeln samt VRM där de stämde mer eller mindre mot vad de visade i både Linux samt Windows. (kunde inte mäta direkt mot CPU av ganska uppenbara skäl). Inte riktigt vetenskapligt eller statistiskt säkert för den delen men med tanke på att andra får mer eller mindre liknande resultat vid LOAD på sina processorer samt att ingen har ännu visat någon källa att de skall visa fel förutom "den visar 15c vid idle, vad kallt det måste vara hemma..".

I idle hoppar den mellan intervallet 15-30c, kör jag prime så blir den mer eller mindre stabil på ~40c (stock) och nu runt 68-70c. Problemet hos mig är att VRM samt Socket tempen ökar okontrollerat även med vattenkylning på moderkortet. Största problemet är VRM på baksidan av moderkortet som har bara en simpel platta att kyla sig mot.

Mitt nästa steg är att göra CPU hålet i moderkortsplåten större och sedan montera VRM flänsarna på baksidan istället för plattan och sedan dra på en tunn fläkt direkt ovanför för att kyla socket och VRM.

Visa signatur

Arch - Makepkg, not war -||- Gigabyte X570 Aorus Master -||- GSkill 64GiB DDR4 14-14-15-35-1T 3600Mhz -||- AMD 5900x-||- Gigabyte RX6900XT -||- 2x Adata XPG sx8200 Pro 1TB -||- EVGA G2 750W -||- Corsair 570x -||- O2+ODAC-||- Sennheiser HD-650 -|| Boycott EA,2K,Activision,Ubisoft,WB,EGS
Arch Linux, one hell of a distribution.

Permalänk
Medlem
Skrivet av ArcticFire:

Så länge man endast tänker ha 60 Hz så duger AMD i de flesta fall, men vill man ha 120/144 Hz så finns det många spel där AMD inte alls hänger med.

I Ashes of Singularity var en i3 bättre än en AMD FX8350 även i dx12.

En i5 i 3,5 GHz vinner mot en AMD FX-83xx som är klockad i 4,7 GHz i GTA 5, ett spel som trådar ovanligt bra.
http://www.sweclockers.com/test/20336-snabbtest-grafik-och-pr...

självklart intel bättre, men jag väljer en cpu som har fler kärnor alla dagar i veckan framför en dualcore. sen e det la bra att kunna göra massa mer saker samtidgt som man spelar oxå.

Visa signatur

12700k@/7200c34@7800/msi z790 itx

Permalänk

Varför nöja sig med en CPU som är "bra nog" när Intel är bättre? Om man inte har råd med en ordentlig i5/i7 så sparar man tills man har det.

Visa signatur

Intel i7-3770K@4,5GHz 1,275V - ASRock P67 Pro3 REV B3 - Corsair Vengeance Pro DDR3 2133MHz 2x8GB - MSI GTX 1080 Gaming X - Samsung 840 EVO 120GB - WD Caviar Black 6TB - Seagate SV35 2TB - Noctua NH-C12P SE14 - LG DVD+-RW - Seasonic Focus+ Gold 750FX - Antec One Hundred - Dell 25" UltraSharp U2515H 1440p

Permalänk
Medlem
Skrivet av Friterad:

Ptja, jag antar att Intels TDP inte är full load då, i tester med benchmark program så når 4690K 109W enligt bit-tech: http://www.bit-tech.net/hardware/2014/07/03/intel-core-i5-469...

Men på andra tester på andra sajter kan det stå annorlunda. Antagligen beror det på, cpu'n kanske jobbar 80-90% i ett test i ett program men ett annat jobbar den 100%. http://hexus.net/tech/reviews/cpu/71265-intel-core-i5-4690k-d...

Som jag sa du har ju rätt eftersom energi omvandlas, men det kan helt enkelt vara så att det beror på hur Intel räknar, räknar dom strömförbrukningen under 100% load? Tvivlar faktiskt på det, med tanke på testerna, men också eftersom cpu'erna blir extremt varma om du inte använder en eftermarknadskylare, och då menar jag i stock. Beror där också lite på om det är SB, IB, Haswell, Skylake osv.

Självklart kan hans FX cpu som genererar mer värme vara mer välkyld än en Intel, om FX cpu'n har en riktigt bra kylare medan Inteln får köra med stock/den du får med. Eller också är AMDs kylare betydligt bättre. Sen undrar man lite hur skruvis kollar temperaturen, då alla program jag har använt har visat fel på alla AMD cpu'er.

Citat:

However, for the power consumption tests we re-enable everything in order to get a real-world power draw. The power draw is measured via a power meter at the wall, so the numbers below are of total system power draw from the mains, not the power consumption of a CPU itself. Measuring the power draw of any individual component in a PC is tricky to impossible to acheive.

Dom mäter hela systemet på AC sidan alltså in till nätdelen.
Förlusten i nätdel är ca 10% av förbrukning med en 80+ gold så ca 10W , ram minnen drar runt 1W per sticka under full load så säg 2W där, Z97 har ett TDP på 4.1W, hur mycket det drar vid prime95 eller liknande vet jag inte men några watt drar det väl och även detta har förluster i från VRM som ska mata dessa likaså VRM till ramminnet så ram och styrkrets är nog en 6-7W av systemet. Sedan har du förluster i VRM till CPU, säg 95% verknigsgrad, har inga exakta siffror men dagens bör ligga en bra bit över 90% så på en CPU på 88W har man säkert en 5W till i förluster.

SÅ på 109W på systemet kan vi dra av ca 10W för PSU, 2W för minne om vi förutsätter 2st dimms (vet att kingson specade mina 1600Mhz 1.65V DDR3 till 1 eller 2 W under load minst styck vill jag minnas) sedan kan vi ignorera tiondelarna i förlust för VRM till ram, sedan drar vi av 4W för Chipset.
Systemet drog 109W totalt enligt tabellen.
109W(totalt) -10W (förlust i nätdel) -2W (ram) -4W (chipset) blir 93W kvar för CPU, och drar vi av 5W för VRM till CPU så landar vi på 88W alltså TDP värdet.
Då har jag inte faktorerar in saker som nätverkship, ljudkort och extra addons tex USB 3.0/3.1 chip eller PLX bryggor.

Så jag tycker nog att 88W TDP stämmer rätt bra. Processorn kan som sagt reglera effekten för att matcha TDP själv och bör göra detta korrekt stock.
Dom flesta moderkort som är intressanta för folk här på swec från tex ASUS för OC mm tillåter TDP värdet att höjas så man kan utan problem tala om för processorn att gå på andra parametrar vilket man gör vid OC tex.
Moderna processorer har MSR register, dom kan användas för att avläsa parametrar tex frekvenser och andra CPU states men även aktivera eller diaktivera delar av processor. Vissa program kan i windows visa TDP värdet, om detta är ett korekt värde vet jag ej men eftersom intels processore i alla fall kan fullt övervaka ström, spänning, temperatur och därmed effekten själva och skystera frkevenser mm för att hålla TDP och tempraturer så är det väl inte orimligt. Vet att päronens i7 3770 visar en beräknad TDP på 69W vid prime95 med maximal turbo boost som tillåts vid 4C/8T så verkar i alla fall processorerna sällan gå över TDP.
Det som ofta krävs för att garanterat nå TDP är att grafiken används med villket många på swec inte gör då dom kör diskret grafikkort. Tex AMD's senare APU'er summerar effekten av CPU och GPU för att hålla TDP och stryper frekvenser och spänning för att hålla TDP'et om båda används samtidigt tillräckligt hårt. AMD tillåter ju tom TDP'et att ändras i BIOS/UEFI för att nå önskad effektförbrukning och prestandan varierar ju där efter också.

TDP intel anger är för CPU endast, faktorisera inte in förluster i nätdelar, VRM för CPU, RAM eller Chipset, allt detta får en systembyggare antigen det är moderkortstillverkare eller OEM som Dell mm summera själva för ett totalt TDP för hela systemet för att avgöra total behovet av ström från nätdel och batterier till kylning av systemet.

Det känns rätt rimligt att både AMD och intel anger TDP värden processorn själv kan hålla då felaktiga värden rimligtvis skulle ställa till feta problem.
Ett exempel jag mins är Nvidias äldre mobila GPU'er där laptoptillverkarna beskyllde Nvidia för att ange för lågt TDP då många system överhettade där tillverkarna ansåg att dom gjort kylarlösningar för TDP värdet och stämmer det så bör kretsen hålla minst max temperaturen Nvidia anget och fungera men så var inte fallet då laptops överhettade och tom gick sönder.

Vad jag vet har varken intel eller AMD haft liknande problem så effekten bör inte överskrida TDP värdena som angetts.
Som jag sa innan har många modeller en annan effektförbrukning än TDP som angetts men då ofta lägre, istället för att ha 57W för en lågt klockad i3 och 60W för en medelsnabb och 65W för en snabbare modell så passar man ofta in alla tre i 65W TDP klassen.
Detta kan i bland leda till att processorer med högre TDP inte alls drar märkbart mer än en typ lågenergimodell med lägre TDP vilket vissa tester visat så inte alltid lönt att tex pröjsa flera hundra extra för en 45W TDP i3 än att betala lite mindre för en något högre klockad 65W modell.

Annars håller jag helt med er om att AMD kan vara svalare än intel vid samma eller högre effektförbrukning men det förklarar som sagt ganska lätt, båda processorerna är gjorda av kisel som det mesta så vi vet mer eller mindre vad termiska resistansen är hoss kisel.
Finns tabeller för termisk resistans i alla kända grundämnen och vanliga material.

Intel kör med traditionell termisk pasta och AMD löder vitt jag vet många processorer fortfarande likt vad intel gör med deras E modeller för tex LGA2011.
Sedan vet vi att intel kör med 22 och 14nm så chipen är avsevärt mindre, detta ger högre effekt på samma area och det leder till högre skillnad i temperatur genom materialen då resistansen är den samma då båda kör kisel och IHS sedan kör intel pasta mellan IHS och kisel vilket ger ca 10-11C högre temperatur bara över pastan medans en löd IHS har en skillnad räknad i tiondels grader så nästan obefintlig.

Detta är varför tex Sweclockers testlabb kör med gamla i7 2600K tror jag det var för sina CPU kylartest, SB kör dom i alla fall med löd IHS enbart för att skillnaderna i temperatur är mycket större på en sådan CPU än med något nyare tex IVY, Haswell eller Skylake så det ger en bättre bild av vad en kylare är kapabel till.

Ju större temperaturskillnad en CPU förpackning har (hela processorn alltså) från kisel till IHS ju mindre skillnad i temperatur får man från att gå från en liten till en stor kylare jämfört med en CPU som har väldigt liten temperaturskillnad mellan kisel till IHS.
Därmed ser man större skillnader i temperatur och bättre kylförmåga på en gammal Sandy Bridge jämfört med en IVY eller ny Skylake med samma kylare.
Kylarens prestanda är ju helt beroende på hur väl värme energin faktiskt kan överförs från CPU förpacknigen till CPU kylaren.
Större area på processorn och lägre effekt per area enhet ger alltid bättre temperaturer.

Enkelt exempel på detta är en GPU, dom är oftast gigantiska, 500mm² eller mer medans en CPU ofta ligger runt 100mm² eller lite till.
GPU'n drar 250W kanske och processorn 88W.
GPU'n har 0.5W/mm² medans processorn har 0.88W² alltså kommer kommer tempraturen per area enhet vara 76% högre på Processorns kiselt om det är samma nm antal ungefär då dom har samma wafer tjocklek och kylarna använder ofta koppar så för varje millimeter (mm) koppar så får man 76% högre temperaturskillnad.
Har man dessutom löd IHS på en GPU så sparar man ju flera grader där.
Därför kommer man faktiskt undan med en rätt liten GPU kylare trots den höga effekten.
Tar du isär tex ett GTX570 eller GTX780 och jämför stock kylaren i den med tex en NH-D14 som jag har som klarar ungefär ett par hundra watt på en i7 3930K med lödd IHS så inser man hur liten GPU kylaren är fysiskt vad det gäller area ändå klarar den 250W medans många kör CPU kylare som är lika stora eller större på processorer som avger 77-95W med samma tempraturer.
Temperaturskillnaden mellan Kisel och luft är helt enkelt mindre på chip med lågt W/mm² och detta märks tydligt på tex GTX780 som typ börja throttla runt 80C, ändå är luften extremt varm från GPU kylaren, en 45-50C lätt när jag mätt medans min i3 4360 med NH-U12P når ungefär 80C men basen blir knappt ljummen och det chippet ligger på 54W TDP men det är ett extremt litet tvåkärnigt chip med TIM mellan kisel och IHS.

Temperatur är ett direkt faktor av Delta T alltså skillnad i temperatur mellan Kisel och IHS vid en viss effekt och denna skillnad beror på termiska resistansen i materialet och effekten per area enhet och tjockleken dessa material har.

Det är ju därför folk gör delid och använder flytande metall på IVY, Haswell och skylake då det ger ca 10C lägre stock temperatur och runt 20C vid lite hårdare OC.

Temperaturskillnaden mellan kisel och IHS är är helt enkelt högre än motsvarande AMD dito hos intel.

Själv har jag både AMD och intel och jag har både Intel med löd IHS och IHS med traditionell TIM och det senare presterar alltid sämre med samma kylare.

Här är en gamla uträkning på hur stor skillnad det blir med pastan intel använde i Ivy bridge och det intressanta var att det stämde till 95% med resultatet trådskaparen fick med flytande metall efter delid med återmonterade IHS sett till intels TDP.

#12860865

Permalänk
Avstängd
Skrivet av Skrowd:

Inte för att låta dryg eller nå, men vad har SAAB med de här o göra?

Tror han ville göra en liknelse,Saab är en looser liksom amd.

Visa signatur

Chassi.Corsair Obsidian 750 D.Moderkort Asus Maximus XI Hero Processor Intel I7 8700K Med kylare Fractal design Celsius S36.Grafikkort MSI Gaming X trio 2080.SSD.1 Samsung 850 Pro 256 GB.SSD.2 Samsung 840 Evo 500 GB till spel.Nätagg Evga 850 G2.Minne 16 gb corsair vengeance 3200 mhtz.Skärm. Asus PG278QR.
2×596 gb.Mekaniska hårddiskar.