Inlägg

Inlägg som Zoolook har skrivit i forumet
Av Zoolook

Iom att det kommer att stödja losslesskomprimering så kan det ju användas som raw-format. Dock måste det ju vara enkelt att se om det är lossless eller lossy komprimering som har använts lämpligen olika filändelser och tags.

Av Zoolook

Nvidia har kassa drivare, äldre tv har den svårt att detektera, har själv samma problem, det funkar att hitta tvn vid boot om jag har valt force tv detection, men sedan kan den tappa tvn vid minsta lilla. Nvidias tv-out suger jämfört med ATI's.

Har ett gts 640 funkar bra för spel men drivarsupporten och tv-out är under all kritik.

Av Zoolook
Citat:

Ursprungligen inskrivet av fryguy
intel har väll ingen riktig quad core heller eller? .. har för mig deras quads som finns ute nu bara är 2 ihop satta dual cores. typ som amds fx? plattform typ fast dom sitter på samma die.

Japp Intels quadcore är inte native än, de består av två dualcore som limmats ihop, när Barcelona kommer ut i Augusti så tar AMD ledningen designmässigt, dock inte prestandamässigt. Än så länge iaf.

Av Zoolook
Citat:

Ursprungligen inskrivet av Leedow
Ni snackar om att film och TV visas i widescreeen. Jag kollar på TV på TVn och film blir på HTPCn.

Min dator kör 1600x1200 och jag surfar och spelar. 150 extra pixlar lodrätt är trevligt, då behöver man använda scrollen ca 10% mindre. Spel är inte klockrena i widescreen.

Du har tydligen inte spelat mycket i Wide-format den senaste tiden, för två år sedan hade jag hållit med men alla nyare spel fungerar alldeles utmärkt i wide-format, jag skulle personligen aldrig kunna gå tillbaka till 4:3 eller 5:4, tog väl en vecka med min nya 1920*1200 skärm innan det var kört.

Skulle det vara något spel som har problem med wideupplösningar så är det ju bara att köra pixelmappat 1:1 i 1600*1200 istället. Har bara ett spel som jag kör i det läget och det är mycket gammalt

Dessutom är det väl lite fel att jämföra 16x12 med 1680x1050 då det snarare är wideversionen av 1280x1024, samma fysiska bildyta bör väl jämföras och nyare skärmar har ofta lägre dotpitch > 1680x1050 = wideversion av 1280x1024.

Förutom att det är bättre med wide för film så är det också överlägset vid ordbehandling, programmering etc, pga bättre disponerad yta.

Av Zoolook
Citat:

Ursprungligen inskrivet av SiBBoR
Skoj att ATi lyckas lösa problem med custom-upplösningar i Windows Vista före nVidia som haft sina DX10-grafikkort ute bra mycket längre. Väntar fortf. på att nVidia skall fixa sina ForceWare så att jag kan köra pixelmappat på min LCD-TV..

Varför inte använda Rivatuner ?

Av Zoolook

Nja stämmer inte riktigt, I början av AA-eran använde man Supersampling AA och då renderas bilden mycket riktigt i högre upplösning och dithrades sedan ned till den valda upplösningen, nu används i de flesta fall Multisampling AA och då renderas två eller flera varianter av samma bild i normal upplösning, sedan tas flera samples från bilderna och adderas efter olika formler.

Dessutom så skulle 4xAA av en 800x600 upplösning med supersampling bara bli 1600x1200 2 x vertikalt + 2 x horisontellt = 4 X ursprunglig upplösning.

Med gamla tiders supersampling halverades fps vid 2xAA, med moderna kort och MSAA blir prestandakostnaden mycket mindre, dock finns det i de nyaste korten ändå mer avancerade varianter av AA med blandning av olika tekniker, skulle bli en hel artikel om jag skulle förklara ingående.

Av Zoolook

Klart att det ger en prestandaökning med högre inställningar där spel använder mer och större texturer än vad som får plats i 256MB även om 128-bitars bussen begränsar en hel del.

Av Zoolook

Hmm jippi, en DX 10 patch till ett ett år gammalt spel inte så mycket att hurra för, jag avvaktar nog tills det kommer ett spel som utvecklats för DX10 från början innan jag drar några slutsatser om hur bra det är.

Av Zoolook

HDMI börjar redan komma på datorsidan, alla R6XX baserade kort stödjer HDMI med ljud, skulle tro att Nvidia kommer med samma sak med G90 baserade kort, detta givetvis för att kunna köra HDCP-skyddat material.

Av Zoolook

Tycker att kortet verkar prestera väldigt ojämnt, ser ut som om det finns mycket att hämta med bättre drivrutiner, skall bli kul att följa utvecklingen av dem.

Av Zoolook

Kostnaden för en ingenjör är bra mycket högre än 700000/år, det får ju ses som en medelkostnad dock, så visst kan de ha droppat några ingenjörer.
När det gäller kostnaden för en ingenjör så är inte ens hälften lön + soc. avgifter, det som kostar mest är lokaler, teknisk utrustning, mjukvarulicenser, vidareutbildning (resor) mm. Detta i Sverige och kvalificerade ingenjörer, en nyutexad med en begagnad dator i en städskrubb kostar givetvis inte så mycket, men det funkar inte så länge och bara för mindre företag.

Det går dessutom ett rykte att ett gäng före detta ATI-anställda har gått över till Nvidia i ren frustration för att sammanslagningen har bidragit till att kraftigt försena R600 och andra produkter, AMD har tydligen tagit en del inte så genomtänkta beslut och kört över ATI-avdelningen.

Av Zoolook

Tror att 2.5 tums blir standard för stationära innan solidstate blir det, kommer att ta flera generationer innan de är redo medan det finns högpresterande 2.5 tums nu (Seagate satsar stort på 2.5 tums till servermarknaden).

http://www.tomsbusiness.se/produkter/20040929/index.html

Av Zoolook

Inte så dumt med två nätagg faktiskt, borde bli billigare, bättre kylning och lättare att stabilisera spänningen.

Av Zoolook
Citat:

Ursprungligen inskrivet av JimiEM
Tryckluft från kompressor ska man ge fan i i alla fall, då det har en fin tendens att ta vara på fuktigheten som finns i luften.

Tryckluft på burk är nog ett betydligt säkrare sätt, och det är nog vad jag skulle rekommendera också.

En bra kompressor har inbyggd avfuktning.

Av Zoolook
Citat:

Ursprungligen inskrivet av Gambit_2K
Vet inte men mkt av det de säger har ju styrkts av många andra siter. Och de är alltid först. Så hitills så är deras rykte ganska bra. Men vad vi inte behöver är en ny TheInquirer.

Fudo lämnade just the inquirer för att starta eget = Fudzilla

Av Zoolook
Citat:

Ursprungligen inskrivet av olirc
NJa 1500:- för ett chassie och inte ens ett nätagg? Står över det och ärt inte aluminium rätt mjukt och därmed lätt att det flexar och böjer sig vid transport av lådan?

Sen var den ingen fröjd för ögat heller utan tråkig som en Volvo 740 i designen även om jag inte vill ha nått bling bling heller utan den senaste lådan blev en sådan här http://www.webhallen.com/prod.php?id=60643

Men smaken är ju som baken delad och tur är väl det :p!

Aluminium är betydligt styvare än stål, däremot ar det mycket sprödare, dvs det flexar och böjer sig def. inte. Däremot behöver det vara tjockare än motsvarande stål, just för att det är styvare och sprödare.

Av Zoolook
Citat:

Ursprungligen inskrivet av MOrKiz
Hade tänk mig en 20-24" .. 1680x1050 som minimum... helst 1920x1080.

Får nog nöja dig med en 1920x1200 om du inte skall köpa en betydligt större pjäs = 1080p TV

Av Zoolook
Citat:

Ursprungligen inskrivet av ElyziuM
Vart är alla tester utan AA och AF?
Sånt har man på i typ 1 av 50 spel.

Ja om du har ett gammalt kort kan jag förstå det, men med nya kort är det väl självklart att man vill att det skall se så snyggt ut som möjligt.

Av Zoolook

Jag förstår inte riktigt denna hätska stämning, detta är ju inte direkt jämförbart med beta vs vhs, om ett år så kommer det att finnas ett flertal spelare som klarar bägge formaten fullt ut. End of war, sedan kan folk köpa vilket format de vill. Rent tekniskt är det inget problem med att stödja bägge formaten, finns lite licensproblem att reda ut men det kommer.

Av Zoolook
Citat:

Ursprungligen inskrivet av Gambit_2K
Jag tänkte då främst mot DDR3 vilket de ska ersätta. Och jag tror knappast att Ati skulle trycka dit GDDR4 chip på ett X2600 @ 1,2 Ghz och sen nedklocka dem till typ ~500 Mhz eller sämre oavsett om de är några dollar billigare än GDDR3. I de låga hastigheterna skulle de nog vara långsammare än DDR3 oxå pga. högre latenser.

Men vs. GDDR2 så är de nog dyrare.

Från wikipedia:

"Another advantage of GDDR4 is power efficiency: running at 2.4 Gbit/s it uses 45% less power when compared to GDDR3 chips running at 2.0 Gbit/s."

En liten fotnot bara, Gddr2 finns inte och har aldrig funnits, G-linjen av DDR minnen startade med GDDR3 vilket ursprungligen utvecklades för att vara mer strömsnål än de DDR2-minnen som då började komma ut. Det är en förenkling och specialisering av den bredare DDRx standarden.