Muskampen 2025: Segraren korad!

Inlägg

Inlägg som Enigma har skrivit i forumet
Av Enigma
Citat:

Ursprungligen inskrivet av saddam
Superdatorer funkar annorlunda än vanliga PC. T.ex. Blue Gene som är plats 6, har dual core PowerPC på 800Mhz. Problemet är alltså att fördela arbetet ut till alla CPUer på ett bra sätt. Ofta går inte det. Men klarar man av det, så kan man bygga en supersnabb dator med 0.8GHz CPUer.

Hz är inte viktigt när det gäller superdatorer och stora massiva system. Då är det andra krav som gäller. T.ex. används ofta Linux, men det är en speciell kärna som är strippad på allting. Det enda den kan är att skicka info mellan CPUer. Den Linux kärnan skulle aldrig gå att använda som stordator där många loggar in och jobbar samtidigt. En superdator kan inte användas till sånt, de kan bara tugga siffror. En enkel väldefinierad uppgift.

Lite grand som GPU vs CPU. En superdator är som en GPU, kan bara en enda sak. En stordator eller större unix dator är som en CPU, kan lite av allt. En GPU kan inte ersätta en CPU.

Vad den kan och inte beror ju mycket på processorarkitektur. Opteron kan göra det mesta iom x86 och x64. Däremot lite som du är inne på så blir det svårt för en GPU att göra integer beräkningar som en typisk CISC processor.

Dom kör väl det mesta genom terminaler, åtminståne för att komma åt superdatorn. Framtiden är GPGPU kombinerat med brutal integer CISC, något som AMD's Bulldozer kommer att visa oss. För er som är intresserade för lite mer ny info om Bulldozer:

http://anandtech.com/cpuchipsets/showdoc.aspx?i=3674
http://anandtech.com/cpuchipsets/showdoc.aspx?i=3673

Av Enigma
Citat:

Ursprungligen inskrivet av onetreehill
Kan sätta 1ghz med auto (ca 24%) men när jag benchar sätter jag fläkten på 80% då ligger den på 61 load som mest

GPU'n i 1GHz under full belastning måste ju göra att fläkten på auto varvar mer än 24%. Det jag vill veta, hur varmt blir det kort under full belastning i 1GHz med fläkten på auto om nu kortet klarar det. Måste ju bli närmare 80c.

Av Enigma
Citat:

Ursprungligen inskrivet av Pantheus
Varför bete sig som hysterisk fanboy?
Kritik bör AMD tåla och priset liknar nämast "ocker".
Kortet skulle legat runt 4500kr .

Du använder mina ord som jag applicerar på dig varenda gång, för du lär dig aldrig. Jag och dom flesta här är inte fanboys till skillnad från dig som är besatt av nVidia. På vilket sätt var det jag skrev märkesbundet? Svara på det istället för att skriva massa okonkret sketsnack och desinformation. Du kan aldrig motargumentera, och du lyckats återigen i en tråd få massa folk emot dig. Hade jag fått välja hade köpt det för 1Kr. Dubbla HD5870 kostar fortfarande mer än ett HD5970 kommer göra, och det är ett perfekt kort för dom som vill ha det absolut snabbaste men som inte kan köra Crossfire på sitt moderkort.

Av Enigma
Citat:

Ursprungligen inskrivet av Pantheus
Varför ljuger du?

GTX275 är något snabbare än 4890 och på köpet får man med PhysX, därför är GTX275 ett bättre val, dessutom är drivrutinerna bättre, framförallt till linux.

Ljuger? Det är du som är mytot här på forumet, det har redan diverse medlemmar konstaterat efter att du fortsatte, trots att det var ett 20-30-tal som sa åt dig.

Det är inte snabbare, och skillnaden mellan korten är mycket liten. Senaste testet jag läste för ett tag sen så var HD4890 snäppet snabbare. Om du hittar ett test där GTX275 vinner med 1% så gör det inte mig förvånad, speciellt inte om det är ett OC kort. PhysX betyder inte ett skit, det kan du skriva i alla evighet om. Du är en av dom små pojkar som går på nVidia's försäljningstrick så hårt som predikar det. Drivrutinerna är fortfarade inte bättre och finns inget som styrker din desinformation. Du beter dig som en 3åring som är i trotsåldern, genom att strida mot något du inte förstår dig på.

Av Enigma
Citat:

Ursprungligen inskrivet av onetreehill
Kort: HD5850 1GB
Märke: XFX
Core OC: 1000 MHz
Mem OC: 5000 MHz
Spänning core: 1.274V
Spänning minne: original
Kylning: Original

3DMARK06: 25656
3DMARK Vantage: 18024

Hur hög fläkthastighet kör du för att nå 1GHz stabilt samt vad för load temp får du?

Av Enigma
Citat:

Ursprungligen inskrivet av Pantheus
GTX 275 så slipper du allt strul med drivrutiner dessutom är den snabbare @stock än 4890.

Det är inte mer problem med ATI's drivrutiner än med nVidia's. Dessutom har du fel i att GTX275 är snabbare än HD4890. Det är snarare tvärtom. GTX275 är mycket dyrare också.

Förra gången jämförde du dessutom ett överklockat GTX275 mot ett orginal HD4890. Lägg ner din brutala märkesbundenhet och desinformation.

Av Enigma
Citat:

Ursprungligen inskrivet av Pantheus
Tråkigt med priset, det här kommer bli en flopp.

Du är en flopp. HD5xxx är så långt ifrån en flopp dom kan komma. Fortfarande billigare än två separata HD5870. Sen kommer HD5970 också för dom som inte har råd med ett såpass dyrt singelkort. Och vad jämför du med? nVidia har varit precis likadana själva.

Av Enigma
Citat:

Ursprungligen inskrivet av Rickard11
Okej ^_^

Ett annat problem då, använder GPU Clock Tool, men värdena återställs vid omstart..?

Precis som flopper skrev så får du ställa in klockvärden varje gång du startar om Win. Tänk också på att AMD GPU clock Tool reglerar timings på minnena så att du håller koll på om din ökade minneshastighet från t.ex 1200MHz ger något.

Av Enigma
Citat:

Ursprungligen inskrivet av KimTjik
Jaguar, Roadrunner och Kraken kör Linux. Bland topp 10 hittar jag två som som kör en kombination av CNK och Linux (CNK ska vara en mycket begränsad enkelprocess kärna som finns i IBM Blue Gene). Troligen räknas de två som mixade än om de i det stora hela är Linux-baserade.

Den första icke-Linux superdatorn jag kan hitta är Magic Cube i Kina som kör Windows HPC 2008 (lustigt att det just skulle vara i Kina Microsoft lyckades få in en liten medial framgång). Den har som jag ser det ramlat ytterligare 4 placeringar på listan sedan Juni.

Ok trodde den körde Unix. Har alltid varit samma sak i mina ögon i grunden då jag inte är så insatt i dom OS'en. Kerneln är same shit.

Undra hur Win HPC står sig. Svårt att tänka mig att det kan konkurrera mot Unix/Linux i riktigt stora system.

Av Enigma
Citat:

Ursprungligen inskrivet av AtreX
Än så länge har ingen sagt något annat än att Fermi kommer Q1 2k10, det betyder mindre än en och en halv månad som minst, och som mest fyra och en halv månad. Det är ett rätt stort spann, men 1,5mån-->3mån tycker jag personligen är rätt kort tid i sådana här sammanhang, vi pratar ändå om en investering i klassen 2500-5000kr och då bör man ha en horisont som är lite längre än 4-5 veckor (vilket är min personliga gissning på vad leveranstiden på ett 5870/5850 kan ligga på i dagens läge, något i överkant räknat vilket är brukligt när man uppskattar någonting).

Dom flesta fanatiska nVidia fan-boys på forumet blev helt hysteriska när man för längesedan förklarade att lansering sker tidigast Q1 2010. Det slår alltid lika hårt mot folk varje gång som tiden bevisar att det man skrev var rätt. Vissa är tydligen mer insatta än andra.

Citat:

Dessutom missar du faktumet att 5870/5850 inte alls finns nu, jag kikade själv i eftermiddags och kunde inte hitta ett enda klart för leverans i någon av de stora butikerna (Datorbutiken, Dustin, Komplett, Inet och Webhallen) och inte heller några uppskattade leveransdatum annat än på komplett och dessa var preliminära, vilket betyder högst otillförlitliga.

Jag missar ingenting, utan diskuterar bl.a om Radeon korten. Om du nu ska leta efter fel är det knappast AMD's fel att TSMC har problem med att leverera tillräckligt med fungerande grafikprocessorer. AMD kommer ju att ha kort betydligt tidigare än vad nVidia kommer ha som dessutom missar hela julen och förmodligen en bit in på nästa år. TSMC's problem kommer drabba nVidia minst lika hårt. Man har inte ens sett en tapeout än GT300.

Citat:

Vad du menar med att radeonkorten är "klart genomslående" får du gärna specificera, för jag kan inte komma på någon tolkning av det som säger något vettigt.

När du ifrågasätter saker så börjar jag först undra om du dels saknar erfarenhet och inte vart med i halvledarutvecklingen ett par år för att förstå vad ett mer eller mindre genombrott är, eller om du helt enkelt inte gillar Radeon kort. På vilket sätt är dom inte klart genomslående? Man släpper en grafikprocessor som är:

*Extremt effektiv per mm2 (försök bevisa motsatsen) där tidigare RV790 var upp till 100-200% så effektiv jämfört med GT200 om man ser på transistorantal, då det är det som kostar pengar och alltid är en begränsande faktor till hur långt man kan gå. Fermi ska vara kapabel till mellan 500-600 DPFLOP/s och RV870 ligger runt där, dock med en superskalär design, så Fermi kommer vara snabbare i fler fall då koden inte behöver vara lika optimerad till kostnad av fler transistorer med en skalär design. För samma pris eller strax över Fermi kommer AMD ha HD5890, så dom har valt en mer modulär tillverkning. Du kanske minns hur bra det gick för den gigantiska GTX280 att möta två mindre RV770 för samma kostnad (HD4870X2). Sen är inte beräkningskapacitet allt. ROP's/TMU's/AGU's och cachenivåer samt intern cachebandbredd ska vara korrekt balanserade. Det återstår att se.

*Upp till mer än dubbelt så snabb än föregående generation källa:
http://www.nordichardware.se/Recensioner/?page=8&skrivelse=53...

* Väldigt effektiv när man ser på prestanda/w. (försök hitta vilken processor du vill med 2.8TLOP/s beräkningskapacitet inom samma effektkonsumption och kärnstorlek)

* Prisvärd, framtidssäker och funktionsrik med en bra orginalkylare.

På vilket sätt får inte en sådan produkt kallas för genomslående? Jag är en av många som delar samma åsikt (rätt oundvikligt att missa teknologiska faktum). Det är rätt genomskinligt. 8800GTX var en lik succé när det lanserades. Hade man dock "hyllat" ett nVidia kort hade du sovit gott inatt, där är skillnaden.

Citat:

Här framställer du en egen teori som fakta i meningen "på grund av sin lägre tillverkningskostnad". Jag vet inte vad du tror dig ha för källa som påstår sig veta nVidias innersta affärshemligheter eller varför vi skulle lita på den, men innan jag ens överväger det vill jag åtminstonde se den.

"Min teori". Är är ytterliggare ett tecken på hur lite insatt du är, och likt förbannat ska du ge dig in i diskussionen med så lite kött på benen. Du som tycker det är "så kort tid i sådana här sammanhang (du väntar på Fermi)" som du skrev, du kommer lika "snart" få se. Det vore roligt att höra att det vore en teori då också.

Citat:

Här skriver du till och med själv att det du påstår är en egen teori, creds till dig!

Och precis helt väntat att du skulle skriva så, så är det en gigantisk skillnad. Jag inkl. ingen kan påstå som faktum att Fermi inte kommer bli snabbare per mm2 kärnyta än RV870. Dock skrev jag att jag trodde det då det är svårt att slå en så effektiv design som RV870 är eftersom nVidia's tidigare och nuvarande filosofi av erfarenhet genom många år tillbaka är motsatsen. Eftersom Fermi är en ny arkitektur vet ingen exakt hur effektiv per klockcykel eller per mm2 den blir, dock är det en väldigt stor krets, vilket också fortsätter och styrker att nVidia fortsätter med samma tillverkningsfilosofi.

Citat:

Men lika snabbt har du glömt det igen och du påstår tilloch med att du vet sannolikheten för något som knappt är matematiskt uträkningsbart pga för många variabler (höjd chassiet tappas från, markens underlag, eventuella ojämnheter i marken, chassiets vinkel när det slår i marken osv osv osv osv) och du framställer det ändå som om det vore fakta i meningen "Finns inget att diskutera, så slutsnackat." Det är helt enkelt rent bs.

Lika snabbt glömt? Nej jag är väl medveten om det som skrivits, och det handlar dessutom om något helt annat än vad för arkitektur/tillverkning dom olika företagen använder sig av. I detta fallet är den en person som får det att låta som ett stort problem, att korten kommer gå sönder på grund av deras längd/vikt med sämre kondition med tiden. Jo kortet kommer vara böjt som en banan...:rolleyes: Du försöker hitta fel för att ha något att citera, hur mycket för sig har man då? Du kanske missade att jag och även fler utförligt förklarade varför det inte fanns någon anledning till att oroa sig, men det inlägget var ju inte intressant.

Ang att släppa datorn i marken så tar du i från tårna för att utnyttja påståendet till extrema nivåer genom att man ska släppa den från himlen och låta den landa på snedkant med en atombomb vid träffpunkten där ett par gamla tanter som följd gnäller nästan lika mycket som dig.

Att släppa den från marken när jag skrev det innebär att man lyfter den kanske någon knapp cm och dunsar i golvet utan någon skada för att i extrema fall förstå att det är rejält designade konsuktioner av ingengörer som är utbildade och särskilt duktiga i ämnet. Skulle något gå sönder av normalt havande finns garanti, just av det skälet. Om du har några invändningar mot det så föreslår jag dig att du kontaktar diverse kretskortstillverkare, elektronikingengörer och tillverkarna själva så ska du få få höra tills öronen trillar av på dig. Du får gärna släppa din dator från en bro om du tror att det var det jag menade.

Citat:

Hoppas du är nöjd med min lilla särskådning, för klockan är för mycket för att jag ska orka fler inlägg för nu

Frågan är om du är nöjd själv, i att totalt orelevant ge sig in i något du vare sig inte behärskar, eller har någon anledningen till att trotsa som du gör. Du har precis som väntat inte kommit någonstans med diskussionen.

Av Enigma
Citat:

Ursprungligen inskrivet av knoxz
Eller så kan man läsa min klistrade guide om man med Blyray menar x264 format + mpc-hc så slippe rman massa crapiga codecpacks... http://www.sweclockers.com/forum/showthread.php?s=&threadid=8...

TS menade nog Riktig Bluray uppspelad i sin Bluray spelare och då funkar nog inte MPC-HC så bra. PowerDVD är det som gäller då.. eller om det finns nått liknande alternativ...

Crapiga codecs? Dom är rätt nödvändiga om man ska spela upp diverse olika filformat. Allt är inte bluray. Många kör MKV 1080 och är i behov av codec's.

Jag tror dom tar kanske 20Mb på sin höjd för att spela 99% av all video som finns, och då används grafikkortet som avlastare också. Tycker det är rätt schysst.

Av Enigma
Citat:

Ursprungligen inskrivet av altair4
Ni som överklockat 5850. Blir det någon större skillnad i ljudnivå när ni ökar spänningen och klockhastigheterna?

Beror på hur mycket man ökar spänningen och hur mycket man klockar. Korten är fortfarande väldigt tysta med fläkten på auto t.ex sålänge som spänningen inte är ökad. Mitt gör närmare 900Mhz core på orginalspänning har jag för mig.

Citat:

Ursprungligen inskrivet av this
Kan det kanske bero på att kylningen för spänningsregulatorer inte är tillräcklig, eller blir GPU'n mer känslig för värme när klockfrekvensen ökar?

Regulatorerna är svala och är ingen begränsande faktor. Det är kärnan som behöver mer kylning då temp-toleranserna nästan alltid minskar med högre spänning och högre klockfrekvens. Ska jag ha mitt kort stabilt OCH tyst så får jag väl nöja mig med ca 950Mhz core. Har dock inte orkat testa utan kör 900 24/7. Jag kan köra 1GHz @ 1.265v i flera timmar med fläkten på högre varvtal sålänge GPU'n inte når över 72-75c. Sänker jag varvtalet sticker tempen iväg och vips så dör kortet. Med 100% fläkt är väl 1050Mhz inga problem, 1020Mhz var lätt med 70% fläkt.

Citat:

Ursprungligen inskrivet av Rickard11
Snabb fråga här, vad kan man få för stabil core med orginalspänningen? Har 800 mhz nu. Väntar med att gå högre än det nämligen...

Det är bara att öka tills systemet hänger sig. Så är det omstart och högre spänning som gäller. Sålänge som du kör orginalkylaren så beror allt på hur du kompromissar ljudnivå/prestanda, då 1Ghz och strax över är möjligt med t.ex mitt kort, men i fläkthastigheter som låter mycket. Mitt kort gör närmare 900Mhz med orginalspänning.

Av Enigma
Citat:

Ursprungligen inskrivet av echo
Väldigt skevt att jämföra general purpose hårdvara med specialiserad hårdvara. Enigmaknäckarna som gjordes under andra världskriget är väl än idag snabbare än general purpose hårdvara (på att 'knäcka' enigman), med samma resonemang skulle man m.a.o. kunna säga att man förstår hur löjligt långsam en i7 är.

Men visst, båda påståendena stämmer men det är lite som att jämföra en viking-line med volvo.

Visst är det så om man forcerat måste ha maskinvara som är CISC. Dock håller superdatorerna på väldigt mycket med sådana flyttalsberäkningar som går att köra på GPU'erna i full fart. Det är därför dom kombinerar CISC arkitekturer med HD4870X2 t.ex.

Av Enigma

Det bästa är att använda sig utav Media Player Classiv med k-lite paketet. Alla codecs alltid väluppdaterat och en resurssnål spelade i sig självt. Stödjer både flerkärnig decoding och även decoding från relativt moderna grafikkort. Här är en guide för att det ska bli rätt om det inte skulle bli det per automatik:

http://www.guru3d.com/article/accelerate-x264-1080p-movies-ov...

Av Enigma

Info ang drivrutiner och prestandan på HD5xxx korten

Drivrutiner tar tid att optimera och utveckla för att få full fart på hårdvara, speciellt grafikkorten som är rätt komplexa.

nVidia plockade ur väldigt mycket mer kraft ur sina GeForce kort bl.a genom månaderna då drivrutins släpptes. Vissa spelmotorer kan också skala dåligt med ny hårdvara eller vara väldig processorkrävande och därmed begränsa grafikkortens potential.

Det är inte helt oväntat att båda fenomen drabbar HD58xx korten som är väldigt snabba. Många testsiter som guru3d är överens om att korten kommer få ökat prestanda med senare drivrutiner. Dom har trots allt bara funnits drygt 1mån.

Nordichardware gav lite smak på hur korten faktiskt KAN prestera, och det är tom mer än dubbelt så snabbt som föregående generation per klockcykel:

http://www.nordichardware.se/Recensioner/?page=15&skrivelse=5...

Detta kan man nog inte förvänta sig i allt, men det kommer bli klart bättre.

Kan vara värt att veta och kul att se testet på NH.

Av Enigma
Citat:

Ursprungligen inskrivet av this
Du verkar inte vara speciellt begränsad av kylningen iaf, 63 grader med 70% fan speed i 1000 MHz. Fortsätt så

Det är just kylningen jag är begränsad av. Kortet gör lätt 1GHz med högre fläktvarvtal och skalar väl med spänning. Dock krachar det om det blir en bit över 70c när man klockat och ökat spänningen.

Citat:

Ursprungligen inskrivet av MP_Swede
Kort: ASUS HD5870
Märke: ASUS
Core OC: 1003MHz
Mem OC: 5500
Spänning core: 1.35v
Kylning: Orginal

3DMark Vantage 18.290

*[IMG]http://img248.imageshack.us/img248/2937/3dmarkvantage3.jpg[*/IMG]

Blir det inte hemskt varmt på 1.35v med orginalkylaren? Du måste ju kört fläkten rätt hårt under 1GHz och 1.35v... Behöver det 1.35v för att fixa 1GHz?

Citat:

Ursprungligen inskrivet av onetreehill
Hur högt brukar man kunna klocka minnet på 5850 cirkus?

Minnet har exakt samma spec (samma minne) som på HD5870 korten. Om spänningen skiljer sig vet jag inte, men dom flesta har inga problem att köra dom i samma hastighet som 70 korten, dvs 1200 vilket blir 4.8Ghz. 1250 borde inte vara några problem heller. Det kan i så fall vara om minneskontrollersen i GPU'n får för lite kräm. Som även nämnt så håll koll på prestanda om du ska klocka minnet så den inte sjunker, då det är tecken på att du nått gränsen. Du får alltså nödvändigtvis inga artefakter som på ett annat typiskt grafikkort.

Av Enigma
Citat:

Ursprungligen inskrivet av AtreX
Och precis som vanligt är 2good4you igång och tror, tycker och tänker men inte har ett enda faktabaserat argument..

Du som är så bidragande själv efter att du förlorat varenda diskussion tidigare och snackar en massa nonsens, vad har du att peka på som har varit så fel eller missvisande? Det är ju en sak att ha erfarenhet eller kunskap om det man ger sig in och diskuterar eller helt enkelt inte ha något alls. Peka som sagt och var lite konkret. Finns en citera knapp och sedan ett eget tangentbort att minst på samma nivå förklara vad som är fel. Lycka till. (Återigen var specifik med det du citerar).

Av Enigma
Citat:

Ursprungligen inskrivet av echo
Skrivbord ;p
http://www.evilmadscientist.com/article.php?story=chipdesk

Sjukt när dom skriver att alla dom processorerna ihop ligger på ungefär 2.8TFLOP/s beräkningskapacitet. Det motsvarar ca 900st P4'or på 3.2GHz, eller 1st HD5870 grafikprocessor. Då förstår man vilken kraft GPU'erna besitter idag.

Av Enigma
Citat:

Ursprungligen inskrivet av Vattendroppe
Kul för AMD att få lite publicitet! Jag trodde det skulle dröja ett tag innan man gjorde något kraftfullare än RoadRunner.

Verkar dock fortfarande som att IBMs konstruktion klämmer ut lite fler flops per kärna.

Är det inte tvärtom?

Citat:

Ursprungligen inskrivet av thebelfry
Hmm undrar vad dom använder för operativsystem ??

Nää den maxar nog inte crysis men den är nog bra till att ladda upp bilder på facebook!

Någon form av Unix. Hade Crysis kunnat utnyttja hårdvaran hade du nog kunnat köra ett par tusentals fps i det spelet

HD4870X2 gör sig bra i superdatorer. Väldigt mycket beräkningskraft på en liten yta i och med dess extrema parallellism. Nu kommer väl uppföljare med HD58xx kort snart.

Av Enigma
Citat:

Ursprungligen inskrivet av Scirocco
Fattar inte att Intel har fortfarande sån ledning. AMD har varit överlägsen i pris/prestanda nu i väldigt många år. Det är väl kanske företagen som köppt Intel sen urminnes tider, och forsätter med det kanske..

Intel har ju blivit betydligt bättre på senare tid att leverera bra pris/prestanda och bra prestanda/w. Något AMD har vart ledande med väldigt länge tidigare. Core i7 920 och Core i5 måste jag säga ger bra bang for the buck. Core i5 750 har ganska aggressiv "turbomode" vilket gör att den klockas rätt bra under belastning och presterar bra. En bra spelprocessor. Det tog dock sin tid innan Intel kunde slå sig in på detta segmentet med prisvärda processorer. Fortfarande är Phenom II/Athlon II processorerna mycket prisvärda och väldigt snabba i spel förhållandevis.

Nästa processorarkitektur Bulldozer från AMD ser ut att kunna bli något i hästväg när det gäller flyttalsoperationer. Mycket intressant diagram:

http://www.fudzilla.com/images/stories/2009/November/General%20N...