Inlägg

Inlägg som Zoolook har skrivit i forumet
Av Zoolook

Dessutom är det stor skillnad på läs och skrivhastighet, de skriver långsammare än vanliga hårddiskar men läser mycket fortare.

Av Zoolook

Nvidias vana trogen så kommer de att släppa en refresh dagen eller dagarna innan r600 släpps, när det gäller xdr så lär vi inte se det på riktigt snabba grafikkort, visst bandbredden är hög men de dras med för höga latenser.

Av Zoolook

Vitsen är ju att den är licensfri vilket gör att prylarna blir billigare, i bästa fall tvingar det fram en lägre licensavgift på hdmi.

Av Zoolook

Core 2 Duo är en 65nm krets så självklart är den mer "effektiv" än en 90nm G80 eller en 80nm R600.

Problemet är att ATI och Nvidia inte har egna produktionslinor och Intel leder utvecklingen av halvlledartillverkning av större kretsar med IBM(AMD) strax efter och tredjepartstillverkare som TSMC, UMC, Charter mm strax därefter.

Nu tror många att ATI skall kunna dra nytta av AMDs tillverkning men det kommer att dröja ett bra tag då AMD inte ens kan tillverka tillräckligt med processorer som det är och de har precis släppt sina första 65nm processorer.

Minnestillverkares produktionslinor är intrimmade för en mycket specialiserad krets, så Samsung kan tex inte bara slänga in lite processorer eller gpu:er i sin tillverkning.

Det är inte alltid så lätt att gå över till en ny mindre oprövad tillverkning heller, ATI's försenade R520 är ett bra exempel, de hoppade på en ny process med nya kretsbibliotek som innehöll flera små fel i kretsar som sedan upprepades på många ställen och var mycket svåra att hitta, därför behövde de upp till 6 respins innan produkten blev färdig och förlorade ett halvår och mycket pengar, troligtvis fick de skadestånd av ASICS-bibliotekleverantören men sådant brukar hållas hemligt.

Visserligen ger en väl intrimmad process effektivare och svalare kretsar (lägre drivspänning), som man kan se just nu då AMDs nya 65nm prollar drar mer än ee-prollar tillverkade med den gamla större processen, men efter ett par revisioner och förbättringar av själva tillverkningen ge ännu mer energisnålare prollar. AMDs gamla EE-prollar (Energy Efficient) ger bättre prestanda/Watt än en Core 2 Duo som är erkänt effektiv och gjord med en nyare process.

Av Zoolook

Ni glömmer ju att AMD hade antagligen inte haft någon processortillverkning idag om inte de hade fått Alpha-killarna från digital som låg bakom K7:an (använde tom evo-bussen från alphan). K5 och K6:orna var ju rätt långt efter Intel (K6:3an var väl hyfsad jämfört med PII:an men då var PIII:an redan ute)

Av Zoolook

Den viktigaste fördelen för Blu-ray är i mitt tycke inte den större kapaciteten utan anledningen till att kapaciteten behövs, Blu-ray har nämligen en mycket högre bandbredd max 54 Mbit/s (40 för video) mot HD-DVD's 36.55 Mbit/s för både video och audio.
Blu-ray kan alltså, trots att bägge formaten stödjer samma codecs, leverera en mycket bättre kvalitet (datan behöver inte komprimeras lika mycket. Det enda negativa med Blu-ray gentemot HD-DVD är möjligtvis att drm:et känns lite bökigare och högre bandbredd för ac3 men lägre för DD+, den initiala högre kostnaden för produktion (Nya pressar istället för uppgradering av DVD-pressar), blir uppäten innan något av formaten hinner bli standard.

Av Zoolook

Vad jag kan minnas (körde mycket Alpha i början på 90-talet när det var det snabbaste man kunde få tag på) så fungerade NT alldeles utmärkt, DEC hade dessutom en på den tiden mycket intressant programvara (tror den hette DX32) som emulerade x86 programvara och samtidigt som den kördes omkompilerades den till alphanative kod och ju mer du körde programvaran desto mer blev omkompilerat och det gick snabbare och snabbare, visserligen blev de feta binärfilerna rätt stora men det fungerade jäkligt bra.
Tyckte att det var jäkligt synd att DEC inte kunde ta vara på sin hårdvara, men utan deras nedgång hade inte AMD haft den position de har idag (arkitekturen bakom K7 och K8 har ett starkt Alpha-arv liksom Hypertransport)

Av Zoolook

Jag är en mycket erfaren programmerare och har läst in mig rejält på Vistas nya sätt och hantera grafik, och måste säga att det är på tiden att den här omskrivningen gjordes, det kommer dock ta ett tag innan alla SDK:s är uppdaterade och optimerade för den nya modellen.

Tyvärr måste jag också säga att det enda sättet att kunna köra DX10 på XP kommer att vara genom en wrapper, dvs ett program eller bibliotek som mappar om DX10 calls till DX9 calls, det funkar men hastigheten kommer att vara lidande.

För första gången i mitt liv måste jag försvara Microsoft, pga hur DX10 och Vista är uppbyggt så är det omöjligt att direkt implementera DX10 på XP utan att skriva om större delen av XP och det är ju rätt meningslöst eftersom Vista redan finns.

De första testerna visar dock att till en början så kommer du att få klart bättre fps i XP än Vista med samma hårdvara, drivrutinerna för Vista har en bra bit kvar, skall bli kul att se hur de nya gfkorten gör sig vid samma jämförelser.

Av Zoolook

Varför inte en Dell 3007WFP 2560x1600, eller om du har en riktigt fet plånbok en ViewSonic VP2290b 3840x2400.

Av Zoolook

Samma sak som med Beta vs VHS kommer inte att hända här eftersom det är tekniskt möjligt att bygga en spelare som klarar bägge formaten, det enda som hindrar att en sådan spelare kommer ut på marknaden är licencieringshinder.
Bägge formaten har stark uppbackning, det mesta tyder på att inom ett år så finns det läsare some stödjer bägge formaten.

Av Zoolook
Citat:

Ursprungligen inskrivet av denstore
Fast frågan är väl varför man skall hänvisa till ett kort som aldrig varit tillgängligt till konsumenter? Att beklaga sig över prestanda och drivrutiner hos 7900GX2 känns ju ganska menlöst då, eller?

Visst har de varit tillgängliga för konsumenter, Dell sålde riggar med dem.

Av Zoolook
Citat:

Ursprungligen inskrivet av MOrKiz
Vaddå första kortet? Det är samma jävla kort nu som för några månader sedan. Det var en drivrutinsfråga som löstes tämligen snabbt. Att det är kort med dubla pcb:er gör inte så mycket iheller. Det är ju lika stort som ett X1950XTX

7950 GX2 är det andra kortet med dubbla pcb och dubbla kärnor, det första var 7900 GX2 och var något av det största som har skådats sedan Voodoo 6000.

Innan du påstår att någon är ute och cyklar så skall du kanske skaffa lite kunskap i ämnet.

Här är en länk om du vill utbilda dig lite http://www.xbitlabs.com/articles/video/display/geforce7900-qu...

Av Zoolook

Det första GX2 kortet krävde det, de har tightat till det med 7950GX2 men det är fortfarande ett tämligen fult kort och dubbla gx2 är ju istort sett meningslöst än så länge. Hoppas att trenden med ihopklistrade kort försvinner med 7950 gx2, finns så mycket snyggare sätt att lösa det på, iofs tror jag att Nvidia hade kunnat lösa det snyggare om de haft lite mer tid men jag antar att marknadsavdelningen krävde ett kort som kunde spöa ATI's så fort som möjligt.

Av Zoolook

Tycker att testet inte visar något nytt, att Quad SLI funkar dåligt och inte är värt pengarna. ATI behåller ledningen på alla plan tills G80 kommer.

Av Zoolook
Citat:

Ursprungligen inskrivet av Genome
Jag undrar vad som menas med att ATi har fördelar vad det avser DX10-kort tack vare utvecklingen av XBox 360, när X360 inte använder DX10?

Grafikkortet i 360:n är det första som designats med unified shaders, ett krav i DX10 det är ATI's försprång, tidigare har Nvidia sagt att G80 inte skulle ha unified shaders och det skulle döljas för DX10 med hjälp av drivrutinerna. De senaste ryktena gör dock gällande att de har lyckats få till det i hårdvara ändå, vi får väl se om någon månad. Troligen blev det för stort handikapp att inte införa det.

DX10 kommer inte att gå att "hacka" för att köra på XP då hela arkitekturen för hur grafik hanteras har ändrats radikalt i Vista, det är kanske den största förändringen som har gjorts i Windows serien någonsin.

Av Zoolook
Citat:

Ursprungligen inskrivet av Kr^PacMan
Att notera: detta är ingen I-RAM. NAND-flashminne har en mycket högre söktid än vad vanliga hårddiskar har. Ingen flashhårddisktillverkare har mig veterligen någonsin publicerat en uppgift på söktiden. Detta är oroande då det sägs att flertalet bärbara datorer skall komma med kombinerade minneshårddiskar med Windows Vista. Så söktiden kan vara 50 ms, men det kan också vara 100 eller 250 ms. Detta gör den mycket olämplig som systemhårddisk exempelvis.

Tror att du har förväxlat mikrosekunder och millisekunder, vanliga mekaniska hårddiskar har söktider runt 8 - 10 ms (millisekunder), nandflashdiskar har "söktider" runt 50-100 μs (mikrosekunder).
Ofta nämns värden som < 0.1 ms i specifikationer.

Av Zoolook

Det stora problemet med patent är att det kostar alldeles för mycket att både ta ett patent, och ännu mer att försvara det vid ett intrång.

När det gäller mjukvarupatent så är det stora problemet att det beviljas patent (i USA, förhoppningsvis så slipper vi det här i Europa och kan upphäva dem som har givits), som saknar verkshöjd eller tom på algoritmer som har existerat länge dvs prior art finns men patentverket känner inte till det alt saknar kompetens att se det.

Av Zoolook

Om jag inte minns helt fel så måste brottet som man misstänks för ge fängelse för att en husrannasakan skall kunna genomföras, det har ju inte hindrat polisen förut, men i det här fallet verkar de ha gjort sig skyldiga till rejäla övergrepp, såvida det inte finns fakta som inte har offentliggjorts.

Av Zoolook

De riktiga dyken i fps, är cpuberoende, speciellt i städer eller inomhus med mycket npc's. Det är radiant AI som stjäl så mycket processorkraft, sedan verkar nvidias highendkort ha en del issues med grafiken också, de (Nvidia) har dock släppt betadrivisar just för Oblivion och det finns en del tweaks (disabla renderahead tex) som verkar göra nytta.
Att Oblivion lider av att det har gjorts en konsolvariant är ju dock ingen hemlighet, det börjar dock komma mods som avhjälper det en del, men förhoppningsvis så släpper Bethesda en rejäl patch med mer detaljerade textures och andra konsoleftergifter åtgjärdade.

Av Zoolook
Citat:

Ursprungligen inskrivet av Dr_Spackel
Mm jag som CAD eller 3D nisse inte hade valt ett spelkort iaf, Dom är på tok för dåliga för sådana arbeten.
Titta på detta testat som är riktigt utfört i samanhanget att testa prestanda till CAD & 3D studios.

It's all about the drivers. CAD kort är inte alls bra att spela med. De bästa
CAD korten gör väl 3Dlabs om jag inte minns fel.

Annars är väl Nvidia's Quadro och ATi's FireGL det som är mest prisvärt. Ett
Quadro 540 för 2800:- smiskar t.ex. ett 7800 gtx i 3Dstudio max . Detta pga att
drivrutinerna är optimerade mot 3D och CAD i den serien.
http://features.cgsociety.org/story_custom.php?story_id=3321&...

Dessa kort är däremot inte alls bra i spel just pga den optimeringen. Detta pga att
CAD och 3Dmax kräver helt andra saker än spel.

FireGl- och Quadrokorten är i det närmaste identiska med deras (ATI och NVIDIA) respektive "vanliga" grafikkort, det enda som skiljer är att de identifieras som just FireGl eller Quadro kort, dvs du kan installera de drivrutinerna. Med lite fingerfärdighet (modifiering av firmware och/eller drivrutiner) kan man installera de drivrutinerna på "vanliga" kort som kostar löjligt mycket mindre, men företag som det oftast är köper givetvis de "dedikerade" korten.