Inlägg

Inlägg som Videoapan har skrivit i forumet
Av Videoapan
Skrivet av gzor:

Kan någon hjälpa mig bygga en HTPC med Fractal Node 605 chassit? Vill gärna ha digital ingång till datorn och trådlöst såklart! Min budget är 6000 kr.

Bara för att få lite klarhet:

Hur tänker du angående lagring? Stor hårddisk i HTPCn eller film via nätverk / streaming?

Har du några delar sedan tidigare du kan återanvända?

Hur tänker du angående Windows? Har sedan tidigare, tänker köpa eller tänker använda annat operativsystem?

Av Videoapan
Skrivet av Ajin:

De har ju inga egna kylare till 295x2 som också har sluten vattenkylare.

Powercolor har ju sitt devil 13 som är i princip ett luftkylt 295x2. Tror dock det var egenutvecklat och ej baserat på referens.

Edit: såg att ni diskuterade riktig vattenkylare, glöm mitt inlägg.. Asus poseidon kanske skulle funka?

Skickades från m.sweclockers.com

Av Videoapan
Skrivet av Cocosoft:

Varför skulle man vilja ha freesync till annat än en gamingskärm?

Just Freesync set jag ingen vits med utom i spel, möjligen i film med variabel framerate om det finns

Däremot så är själva adaptive sync som freesync bygger på en bra grej då det sparar energi om skärmen inte behöver uppdateras när inget hänt på den vilket används i laptops mest.

Skickades från m.sweclockers.com

Av Videoapan
Skrivet av Broken-arrow:

Tja på asus skärm blev det 35/90 , 35 är okej lägsta värde (inget jag personligen vill spela i dock), men bara 90 känns inte helt bra.

Tycker AMD kan implementera dubblering av bildrutor under intervallet, så att i 35/90-exemplet skulle 34 Hz visas som två bilder i 68 Hz vilket skärmen stöder. Så länge som intervallet är stort nog att dubblera lägsta frekvensen borde det fungera. Det skulle dock kräva att dessa skärmar fick som sämst 30/60. Själv skulle jag gärna se stöd ner till 20-25, förutsatt att inte dubblering fungerar så klart.

Skickades från m.sweclockers.com

Av Videoapan
Skrivet av WardonE:

Wait.. Brukar man överklocka GPU:n i laptops? Borde den inte överhettas REJÄLT då i nästan alla fall?

Svaret på den frågan är nja. Klart den blir varmare, men har någon designat en laptop så att den inte klarar enstaka % mer värme än maxbelastning så är den dåligt designad. De flesta laptops antar jag designas för att ha viss felmarginal så att datorn kan användas även i länder med medeltemperaturer högre än i Sverige utan att throttla alltför mycket.

Min gamla laptop har jag överklockat GPU så mycket som systemet tillåter och det är skillnaden mellan spelbart och ospelbart i de titlar jag spelat på den. Nu är den nog slutligen för gammal och allt är ospelbart men det gav den ett par år extra i livslängd ändå.

Jag är helt för att själv få ta på sig ansvar för överklockning och om tillverkarna är så rädda för laptops-garantiärenden så skulle de kunna skicka med ett grund-BIOS som inte stöder överklockning i någon större utsträckning (typ inte alls men kanske mest strypa volten då den ger mycket mer värme vid ökning) men även erbjuda överklockningsbios som man kan installera med "Warranty Void" angående GPU-relaterade fel.

Vad jag tror är den stora orsaken till detta är att Nvidia har många olika mobila GPU-er med snarlik konfiguration där man med lite överklockning av en billigare variant kommer upp i samma nivå som en dyrare trots att man sannolikt håller sig inom kylningens kapacitet. Kanske dags för Nvidia att införa samma system som Intel med K-modeller för entusiaster, känns som de är intresserade av det på mobila sidan åt minstone.

Av Videoapan

Tycker det verkar konstigt att din burk låter så mycket. Visst, chassit är inte dämpat men borde tillåta bra flöde och då dina komponenter inte borde vara högljudda i vila är det något som inte stämmer. Kanske har du själv blivit väldigt ljudkänslig då du varit borta från spelande och i så fall är lösningen att ta på dig slutna hörlurar, vilket också kan vara billigaste och enklaste lösningen

Annars skulle jag satsa på en schysst tornfläkt, typ noctua eller en billigare tornkylare och byta fläkt. Sen även se till att chassifläktarna gick i låga varv så att du får flöde genom burken. Om du inte redan gjort det så kontrollera om det är damm i komponenterna och om det är det blås bort med högtrycksluft om du har.

Att PSU låter mycket även i vila är ett dåligt tecken, kontrollera så den inte är dammig och i värsta fall byt ut den, antingen via garantin om det är ditt exemplar det är fel på eller köpa nytt med inriktning på tystnad.

Av Videoapan
Skrivet av philipborg:

960 är det mest oprisvärda kortet på marknaden...
http://cdn.sweclockers.com/artikel/diagram/9433?key=6bd16af68f4198cafe8f7682fe20c450
290/290x/295x2 är dem mest prisvärda. Gissa vilket som är mest "bang for the buck"

r9 280

Av Videoapan
Skrivet av Marticus:

tänkte samma sak, är mer imponerad att dom har dom korten staplade på lager än priset förutsatt att det inte är ett skrivfel.

Skrivet av Melinho2895:

''Instegskonfigurationen med Intel Core i7-5820K, Geforce 210 och 16 GB primärminne går loss på inte mindre än 1 990 euro eller motsvarande cirka 18 500 kronor.''

Wait what ?

Geforce 210 ?!

i7 5820K har ju ingen iGPU så de får väl slänga med billigaste de har för att kunna sälja datorn.

Av Videoapan
Skrivet av Aleshi:

Men ditt hypotetiska problem är orelaterat till rebrands. Om AMD inte skulle ha en ny arkitektur och skulle behöva sitta på 28nm i 2 år till så skulle fortfarande ett nytt motsvarande chip 2017 bli ungefär jämnvarmt utan stora skillnader i effektförbrukning.

Nu tycker jag du är lite väl pessimistisk, du menar alltså att det inte är möjligt för AMD att göra som nVidia med Maxwell? Samma 28nm, bättre prestanda och lägre effekt.
Fast nu läste jag ditt Om lite noggrannare där och håller då helt med den slutsatsen, givet detta om så klart.
Nu är dessbättre allt detta hypotetiskt och nästa nod förhoppningsvis snart på g, är sugen på att se vad krympning kommer inninnebära och mer sugen på AMDs nästa än nVidia av någon anledning, gillar underdogs tror jag..

Skickades från m.sweclockers.com

Av Videoapan
Skrivet av Aleshi:

Din kritik vänder sig mot något som inte hänt, inte händer och inte kommer att hända. 7970 kommer inte bli ett budgetkort, för dyrt till att börja med, och vi kommer inte sitta kvar på 28nm i evigheter för det andra, och för det tredje så skulle vi inte kunna höja toppkorten högre utan att byta arkitektur helt ifall man nu skulle sitta på 28nm längre. Så, det du klagar på händer aldrig.
Anledningen till att det ser ut som det gör är att vi inte gått ner från 28nm ännu. Skulle man tillverka ett motsvarande kort idag skulle det inte bli så stor skillnad, vi har ju 285 som praktexempel på att ett nytt kort inte tillför så mycket över ett gammalt när arkitektur och tillverkningsprocess är densamma. 285 kom ju enbart för att lägga till lite funktionalitet i stil med TrueAudio.

Jo, är fullt medveten om att det sannolikt inte kommer bli så, var därför jag la till "in absurdum" på slutet. Däremot OM AMD skulle rebranda 7970 ytterligare en gång skulle jag bli lite orolig. Ser man på effekt i SweC:s tester så ligger 280X på 95 W över 270X från väggen, och en ytterligare rebrand skulle innebära att redan 370X (chansning) skulle ligga på den höga förbrukningsnivån. Nu har dock inte Nvidia något strömsnålt kort i samma prestandaklass (960 är för svagt och 970 för dyrt) så det kanske skulle funka ändå, men är lite tveksam. Förstår dessutom din poäng med att de sannolikt skulle gå med förlust om de sålde en så stor krets så billigt som instegskorten ska säljas, finns ju flera orsaker till att 780 inte rebrandats till 900-serien. Hade varit svårt att sälja en dyrare krets billigare och dessutom med påslaget mer strömtörstig i samma serie.

Skrivet av Broken-arrow:

Jo, men TDP är inget att gå på dock. Inget som säger att amd inte lyckas pressa ner strömförbrukningen på 290 serien Nvidia lyckades ju på 900 serien genom att skala bort och ändra om minnet och lite andra saker.

900-serien har ju en ny krets så skulle inte klassa det som en rebrand Men visst, om AMD kunde skala bort en del från Tahiti skulle jag inte klaga så klart!

Av Videoapan
Skrivet av Sisyfos:

Är det något fiasko jag har missat här?
Är det alltså så att olika GT 640'n presterar väldigt olika?

Skickades från m.sweclockers.com

Tittade på detta och enligt Nvidias produktinformation är detta felaktigt. Det är inte tre olika, det är FEM olika! Två för konsument och tre för OEM

Skrivet av Broken-arrow:

Vågar påstå agget är det sista man behöver oroa sig för om man väljer det värsta kortet typ. Ett 450 watt agg är inte så dyrt (i alla fall om vi går tillbaks till lanseringen av 7000 serien, för ett med duglig kvalité). Då var snarare Nvidia problmet med 400 och 500 serien som drog betydligt mer ström.

Men du kanske menar mer att mellan och topp har snarlik förbrukning? Så så fall håller jag med om att dom bör pressa ner den på korten under toppen.

Jupp, var det sista jag syftade på. Inte kul att slänga in ett "svagt" kort i sin HTPC för lättare gaming och så har det TDP 250W.. Tänk om GTX 750 Ti bara varit ett rebrandat GTX 480 som har ungefär samma prestanda men viss skillnad på TDP.

Av Videoapan
Skrivet av Zotamedu:

Lättare att relatera till drifttid än strömförbrukning och drifttid säger dessutom mer än bara strömförbrukningen gör. För att få ut en faktiskt drifttid måste man dels veta strömförbrukningen och sedan även hur effektiv arkitekturen är. Du kan ha två processorer på 35 W men om den ena kan utföra dubbelt så många beräkningar så kommer den ha ungefär dubbla drifttiden trots samma strömförbrukning.

Helt rätt, men drifttid har även stark koppling till förbrukning i vila och strömsparsfunktioner vilket har märkts tydligt i Intels nya mobila CPUer. Detta låter riktigt lovande för instegs modeller av laptops, misstänker att AMD hamnar där igen.

Skickades från m.sweclockers.com

Av Videoapan
Skrivet av Aleshi:

Är man fast i samma tillverkningsprocess i flera år så blir det ingen direkt skillnad på en nyutvecklad krets av en viss arkitektur jämfört med en 2 år gammal krets med samma antal shaders. Så länge man inte byter arkitektur eller tillverkningsprocess är skillnaden automatiskt liten.

Tror folk missförstått alltihop. Folk har fått för sig att rebrands per definition är dåliga bara för att en sort är dåliga.
Rebrands är inte dåliga när slutprodukten är densamma som om man inte rebrandat. Tillverka en krets helt från början för samma segment som 290X och du får nästan samma resultat för oss konsumenter, fast ett stort hål i plånboken hos AMD. Ingen skillnad för konsumenter om 380X är helt nyutvecklad eller om det är en omdöpt 290X, ingen blir lurad.

Rebrands är dåligt när det på något vis lurar konsumenten. Som när nVidia har flera olika kretsar med helt olika arkitekturer med samma namn. Du har 3 st GT 640 i handen som beter sig helt olika och inte alls presterar likadant. DET är dåligt.

Men som vanligt, samma sak när folk är helt olika känsliga för kvalitet i drivrutiner beroende på märket, folk är helt blinda för att nVidia har gjort massivt fuffens med rebrands genom åren, men när AMD gör fullt legitima rebrands som inte lurar någon så blir det massiv kritik.

Jag håller med dig i sak att ett kort med prestanda motsvarande sin placering i produktschemat och motsvarande sin kostnad jämfört med andra inte kan ses som något negativt för konsumenten. Däremot håller jag inte helt med om att det inte spelar någon roll, det är så mycket annat som kan bli fel. Tittar vi på Nvidia (och även 7xxx-serien AMD) så kunde man lätt se att högre siffror var högre prestanda och lägre siffror lägre prestanda precis som nu, men det man då också förstod var att högre siffror innebar större krav på nätaggregat. Även om jag skulle få ett 7970 som instegskort (typ R3 620) skulle den då förväntade prestanda per Watt vara helt off. Skulle kännas konstigt om alla kort hade TDP på 250 W med bara skillnad i prestanda.

Så rebrands in absurdum gör utbudet skevt men att föregående generations toppkort blir nästa generations mellankort verkar vara det naturliga steget och inget konstigt enligt mig, det är steget under som blir lite shaky. Sen har du så klart en poäng i att det blir fel när samma namn kan innebära olika konfigurationer, då är det bättre att samma konfiguration kan ha olika namn

Av Videoapan
Skrivet av Dunder:

Det står i artikeln att det är ett träningsarmband, och inte en "smartklocka". Mobil.se skriver att den ska kunna se "data" från sin mobila enhet, mejl och aviseringar t.ex.: http://www.mobil.se/nyheter/asus-lanserar-vivowatch

EDIT: Alltså är det inte särskilt troligt att man skulle behöva sladd för att föra över träningsinformationen till mobilen.

Fast ingressen till artikeln är "nu senast med den smarta klockan tillika träningsarmbandet Vivowatch", så de är tydliga med att kalla den smartklocka. Nu blev jag så intresserad av detta att lunchen fick stryka lite på foten men efter efterforskning verkar det faktiskt röra sig om en smartklocka på det sätt att den kan visa text och liknande och då troligen via Bluetooth. Ska bli skoj att se test på denna och efterföljande, verkar även vara lite oklart om det blir färg i den eller enbart svartvitt.

Av Videoapan
Skrivet av Imaculent:

Vad är det jag missar? Låter som att det är en vanlig träningsklocka det där..?

Jag håller med dig, vad som beskrivs är väl en helt vanlig träningsklocka?

Ingenstans i artikeln nämns något om smarta funktioner eller ens hur telefon och klocka kommunicerar för att föra över data. Det kanske till och med är via kabel? (dock ej troligt, men man vet ju aldrig).

Är det en smart watch så är det en Pebble-kopia vilket jag själv känner som en bättre väg att gå än att krympa en telefon och ha på armen men inte speciellt banbrytande. Någon som vet vad som gäller (sitter på jobbet, svårt att kolla upp nu)?

Av Videoapan
Skrivet av SweMerlin:

Ja, inte behöver den vara så tunn som möjligt - ser hellre ett rejält batteri. Men passiv kylning är ju av intresse. Sanslöst högupplösta skärmar behövs inte heller och absolut inget touch trams. Ser fram emot Skylake och vad den proppen kan göra för laptoputvecklingen.

I en platta innebär faktiskt vikt att den kan bli jobbig att använda och då kan det faktiskt vara väldigt viktigt att minimera allt som väger. Det är därför det svider lite extra att tangentbordet inte kopplas in som extextrabatteri här.
Gärna en tunn och snabb platta med lite sämre batteritid med en bra docka, men inte som denna variant.
Sen finns det så klart nivåer i det hela, men över en viss batteritid tycket jag det funkar.

Skickades från m.sweclockers.com

Av Videoapan
Skrivet av Heinel:

Finns ett ganska "stort" utbud med itx för 1150;)

Skickades från m.sweclockers.com

Men inga med mer än två minnesplatser vad jag vet.

Av Videoapan
Skrivet av Nekminnito:

Tänk på spel som kommer ut i framtiden. Kommer de spelen kräva mycket?

I så fall är det bara att uppgradera. Vi kan väl med hög sannolikhet anta att framtida spel kommer att kräva mer RAM än idag, men om det sker i år eller om fem år kan vi inte helt sia om. Det kommer nog ta ett tag och även 8 GB är relativt mycket i ett vanligt system för spelande. Fram tills nyligen använde inte spelen mer än 4 GB för att så många användare satt på 32-bitars OS och jag tror inte att speltillverkarna är pigga på att göra spel som kräver mer än merparten av spelarna klarar av.

Kortfattat, köp 8 GB RAM om du inte får ett bra pris på 12 GB. Vid din nästa uppgradering kommer du sannolikt ändå behöva köpa all RAM på nytt då vi är inne i bytestider till DDR4.

Av Videoapan
Skrivet av Zotamedu:

Jag tror att du behöver läsa igenom testerna igen... Enda tillfället då FX-8350 presterar bättre än 2600K är i ett fåtal tester som trådar väldigt väldigt väl. Sådana laster är väldigt ovanliga. Generell prestanda är sämre än 2600K detta trots att den är högre klockad på 4 GHz mot 3,4 GHz. Normaliserar man klockfrekvensen så har FX-8350 svårt att ens mäta sig med en gammal Phenom. Notera även att FX-8350 knappt klarar av att konkurrera med 2600K, varför du nu inte jämför med 3770K som ligger närmare i tid, så drar den betydligt mer ström och den krävde betydligt fler transistorer. FX-8350 har 1,2 miljarder transistorer och 2600K har 1,16 miljarder men det inkluderar en GPU som inte FX-8350 har.

Där har vi problemet med CMT, det kostar massa transistorer till väldigt lite nytta. Skalningen är för dålig, speciellt när de felbalanserade resurserna. Till och med AMD själva har sagt att Bulldozer var ett misslyckande. Vad baserar du ditt försvar av CMT på?

I senaste cinebenchtestet av processorer på Sweclockers så låg singeltråd på knappt 70% mot 2600K och flertrådat drygt 90% av prestandan mot en flera generationer gammal CPU.
Jämfört med 4790K så är singeltråd på knappt 60% och flertrådat knappt 80%.
Detta med samma klockfrekvens på AMD och Intel, så maximalt överkloöverklockad hänger FX med i flertrådat men inte singel.

Man får väl välja om man vill se CMT som något som höjer en svag kärna i flertrådat eller något som sänker en stark flertrådare i singeltrådsprestanda

Känns helt ärligt som SMT är den klara vinnaren här för vanliga konsumenter medan AMDs nuvarande mest kan vara prisvärda och riktigt bra i speciella användarscenarion.

On topic så blev jag förvånad att cat verkar försvinna, fast de kanske sett Zen som en vidareutveckling av jaguar (även om de säger ny från grunden)

Skickades från m.sweclockers.com

Av Videoapan
Skrivet av petabyte:

Jag tog dom från Sweclockers tidigare tester dock är alla mina siffror i stock och det kanske är här skon klämmer då jag personligen brukar nöja mig med stock, vilket ni övriga inte gör.

Titta här t ex:
http://www.sweclockers.com/recension/18924-intel-core-i7-4790...

4790K har 39% högre poäng än 2600k. 6700K har i sin tur 14% högre poäng än 4790k, det blir en 58% skillnad mellan 6700k och 2600k. Sen kanske Cinebench poäng skala inte är linjär, men det räknande jag med att den var.

Ingen större koll på cinebench men de siffror du ska kolla på är prestanda vid samma klockfrekvens. Då är haswell-r ungefär 14% snabbare, skulle då skylake ha 20% bättre prestanda skulle det hamna på 28% snabbare jämfört med 2600K vid samma frekvens.

Överklockar du 2600K till 4,6 GHz, vilket ofta går, så blir prestandavinsten med skylake i stock ungefär 17%. Dessa uträkningar dock gjorda i soffan med mobilen som surf...

Skickades från m.sweclockers.com