Microsoft avslöjar DirectX 11

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Kazutoyo
Eh, den dagen då grafikkorten är tillräckligt snabba för det så kommer DX15 eller något liknande vara ute, så varför skynda på raytracing?

Ray-tracing (om det nu är rätt benämning - i tekniksnacket talar Jules om voxelbaserad rendering kombinerad med ray-casting för reflektioner från fönstren) med bra prestanda funkar tydligen redan på HD2900, och nu när nvidia har fått ordning på sitt API ska det funka bra även på deras kort...

http://www.tgdaily.com/content/view/38145/135/
http://www.tomshardware.com/news/Larrabee-Ray-Tracing,5769.ht...

Demos + snack
http://www.youtube.com/watch?v=QtgQECY_QEU
http://youtube.com/watch?v=iwTcvk5IuB4
http://www.youtube.com/watch?v=Bz7AukqqaDQ

Visa signatur

Gammal och gnällig

Permalänk
Medlem

XP-retail försäljning av stoppad sedan några veckor (naturligtvis får man sälja slut på ev. lager). OEM-licenser kommer att säljas förmodligen så länge OEM-producenter vill. Microsoft vill begränsa XP för low-end datorer men i praktiken kan ingen specificera vad det är.

Jag undviker alltid nya Microsoft produkter tills åtminstone en service pack finns tillgänglig. Det är sant att jag inte använt Vista speciellt mycket, men jag ser ingen anledning att uppgradera eftersom den inte tillför ett mervärde som motiverar priset. Jag har köpt så kallade multi-licenser för XP och har många kvar. Jag föredrar att använda dessa tills jag kasserat "all hårdvara" som jag vet saknar drivrutiner för Vista. Jag gör en ny utvärdering varje år, men saknar helt intresse för Vista idag.

Hare/PeSi

Permalänk
Medlem

Helt appropå ray-tracing finns det flera spel som använder det redan. Intel har gjort några demonstrationer med bl.a. flera Quake spel, nu senast ET:QW. Det använder enbart CPU'n för att göra dom tunga beräkningarna och därför är DX helt irrelevant i den som jag vet om hittills enda bra fungerande lösningen av ray-tracing i spel.

I övrigt förstår jag inte ens varför spel folket skriver i den här tråden eftersom DX versionen är helt obetydlig för dom.

Visa signatur

Dur ru - dum.

Permalänk
Citat:

Ursprungligen inskrivet av PeSi
[B] Men nu får ni väl ändå ge er, är det här någon lekstuga för snorungar !?

Tyvärr verkar det så, du får gärna ha lite trevligare attityd, det skulle uppskattas.

Citat:

Varför skulle portning av DX10 till XP vara ett jätteprojekt? Det är självklart ett jätteprojekt utan tillgång till relevant dokumentation men det saknar knappast Microsoft.

Drivrutinshanteringen (WDDM) i Vista är helt ny, att införa detta i XP skulle kräva omfattande arbete. Om du inte håller med mig här, förklara varför och kom gärna med fakta. Detta är en grundläggande funktion i Vista, förklara jättegärna hur du implementerar detta i XP eftersom du om och om igen påstår att det är lätt.

Citat:

Vista är i grunden NT 5.2 eller om du så vill 6.0 där XP är NT 5.1 Den enda stora skillnaden i det här specifika sammanhanget är hur ljud rent generellt hanteras.

Seriöst, påstår du att den enda stora skillnaden mellan Vista och XP är hur ljud generellt hanteras? Förstod jag dig rätt?

Citat:

Vista använder en helt annan ljudkomponent än XP.

Äntligen lite sanning.

Citat:

De övriga DirectX komponenterna liknar varandra.

Stämmer inte, Direct3D har dom jobbat om rejält. Overhauled som Discovery skulle kalla det för.

Citat:

Drivrutinsstandarderna mellan 32-bits XP och Vista skiljer sig inte heller dramatiskt.

Jasså? Säg det till Nvidia, AMD, Creative mfl.

Citat:

Det säljs fortfarande massor av nya datorer med Windows XP förinstallerat. OEM-producenterna kommer att fortsätta med det ett bra tag till. Microsoft får betalt för varje ny XP licens i vanlig ordning. Den absoluta majoriteten av Windows användarna kör XP, inte Vista. Att välja att inte porta DX10 för XP är uppenbarligen ett beslut som inte gynnar de flesta Windows användare. Detta är ingen åsikt, utan ett enkelt konstaterande av ett solklart faktum. Som jag sade i mitt ursprungliga inlägg så får var och en tycka vad de vill om det, men jag tycker att det är dålig stil att ignorera miljontals användare som inte fått sina licenser gratis.

Dom ignorerar inte miljontals användare, dessa användare har fortfarande support på produkten. Dom som inte gillar Vista har fått förlängd möjlighet att köpa XP. Tycker MS tar bra hand om sina kunder, även om kunderna kräver att det som är bra i Vista även ska utvecklas för XP. Helt befängt.

Jag har fortfarande en burk med 3.11, jag skulle aldrig kunna tänka mig att gnälla för att jag inte fått nyheter från 95an till min 3.11. Bara löjligt.

Visa signatur

"You know what's fun to do? Rent an adult movie, take it home, record over it with The Wizard of Oz, then return it so the next guy that rents it is thinking. 'When is this Dorothy chick going to get naked?'"
- Mark Pitta

Permalänk
Medlem

Domifuling: Du lever verkligen upp till ditt namn.

Du fortsätter att ta vad jag skrivit ur sitt rätta sammanhang. Den kvarstående frågan att besvara är egentligen om det beror på att du inte förstår enkla formuleringar, eller om du medvetet missförstår? Oas. värderar jag min tid betydligt högre än att ta reda på vilket.

Att fortsätta denna diskussion bedömer jag som fruktlöst och därmed avslutat; Hare/PeSi

Permalänk
Medlem

Riktig raytracing är sånt du gör i mjukvara med Maya, 3DS, Lightwave etc.
Om "Larrabee" har en suck att rendera scener med den kvaliten dom gör, så vill jag hemskt gärna se det, rykten och fejkdemos däremot kan man va utan.

Bäst vore nog om de använde ett annat ord i sammanhanget, men det är klart, floskler som "realtime raytracing" sitter som en smäck från marknadsavdelningen...

Visa signatur

|[●▪▪●]| #Lekburk#: Ryzen 3700X >-< GB-X570-AE >-< 32GB DDR4 >-< MSI RTX 3070 >-< 970 EVO 1TB SSD>--
--< Arctic Freezer 34 >-< FD Define R4 >-< Seasonic F.+ 650W >-< Acer XF270HUA >-< AOC Q2778VQE >--
#Servering#: Ryzen 1700@3,6GHz >-< Prime X470 Pro >-< 16GB DDR4 >-< GTX 1030 >-< 970 EVO 500GB SSD >--
--< Stockkylare >-< Antec P182 >-< Silver Power 600W >-< Samsung 245T |[●▪▪●]|

Permalänk
Medlem

Tyvärr är raytracing inget alternativ till polygon/mesh rendering, det fungerar helt enkelt inte bra i spelmiljö framförallt inte i spel där objektordningen förändras aktivt.

Förespråkare för raytracing väljer gärna att undvika prata om detta, det är tyvärr den största svagheten med raytracing.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Frek
Tyvärr är raytracing inget alternativ till polygon/mesh rendering, det fungerar helt enkelt inte bra i spelmiljö framförallt inte i spel där objektordningen förändras aktivt.

Förespråkare för raytracing väljer gärna att undvika prata om detta, det är tyvärr den största svagheten med raytracing.

Det är klart raytracing kan vara en ersättare. Däremot krävs ordentlig processorkraft för att göra det riktigt utan att fuska. Även om det inom dom närmsta åren inte kommer gå på var mans dator finns det inte som säger att det inte är standard inom 10 år.

Visa signatur

Dur ru - dum.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Basti
Det är klart raytracing kan vara en ersättare. Däremot krävs ordentlig processorkraft för att göra det riktigt utan att fuska. Även om det inom dom närmsta åren inte kommer gå på var mans dator finns det inte som säger att det inte är standard inom 10 år.

Jo jag säger det, och tro mig jag har rätt

Processorkraften är inte det enda problemet, och jag berörde det inte ens utan skrev endast om att det inte var lämpligt i aktiva scener där objekt flyttas runt (så som spel), varför?

Processorkrafts problemet är ganska uppenbart, för att köra raytracing med "moderna" upplösningar i realtid måste alltså miljontals strålar (rays) simuleras per sekund, det kommer inte ske dom närmsta åren- faktiskt inte inom överskådlig framtid, samtidigt höjs hela tiden upplösningsstandarden så även om datorerna kommer ifatt dagens ideal så kommer dom ligga efter framtidens.
Det var därför jag inte nämde detta iallafall- det är uppenbart.

Det jag däremot nämde var den data mängd som måste byggas om för varje förändring i scenen, du har heller inte möjlighet att använda optimeringstekniker som dagens rasterisation tekniker använder- alltså normal maps osv, om du skulle göra det så är det inte raytracing det är tal om längre utan en hybrid teknik- det används redan, och kommer naturligtvis fortsätta utvecklas men det är rasterisation i botten.

Ingen av dom stora grafikkortstillverkarna satsar på raytracing överhuvudtaget (även om CUDA tex kommer möjliggöra vissa former av realtime raytracing, men som sagt återigen inte tal om någon ersättare)

Permalänk
Citat:

Ursprungligen inskrivet av Frek
Jo jag säger det, och tro mig jag har rätt

Processorkraften är inte det enda problemet, och jag berörde det inte ens utan skrev endast om att det inte var lämpligt i aktiva scener där objekt flyttas runt (så som spel), varför?

Processorkrafts problemet är ganska uppenbart, för att köra raytracing med "moderna" upplösningar i realtid måste alltså miljontals strålar (rays) simuleras per sekund, det kommer inte ske dom närmsta åren- faktiskt inte inom överskådlig framtid, samtidigt höjs hela tiden upplösningsstandarden så även om datorerna kommer ifatt dagens ideal så kommer dom ligga efter framtidens.
Det var därför jag inte nämde detta iallafall- det är uppenbart.

Det jag däremot nämde var den data mängd som måste byggas om för varje förändring i scenen, du har heller inte möjlighet att använda optimeringstekniker som dagens rasterisation tekniker använder- alltså normal maps osv, om du skulle göra det så är det inte raytracing det är tal om längre utan en hybrid teknik- det används redan, och kommer naturligtvis fortsätta utvecklas men det är rasterisation i botten.

Ingen av dom stora grafikkortstillverkarna satsar på raytracing överhuvudtaget (även om CUDA tex kommer möjliggöra vissa former av realtime raytracing, men som sagt återigen inte tal om någon ersättare)

Nyfiken fråga: vad är då Larrabee-demona?

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av peterhjalmarsson
Nyfiken fråga: vad är då Larrabee-demona?

Vilka Larrabee demos? Eller menar du det Intel säger om Larrabee? Vad jag vet ska inte Larrabee och har inte blivit demostrerat innan Siggraph 2008 vilket äger rum i augusti.

Permalänk
Citat:

Ursprungligen inskrivet av Frek
Vilka Larrabee demos? Eller menar du det Intel säger om Larrabee? Vad jag vet ska inte Larrabee och har inte blivit demostrerat innan Siggraph 2008 vilket äger rum i augusti.

Den här gången var jag lite mindre lat och googlade innan jag frågade. Vad jag tänkte på var "raytrace:ade" Q3 och Q4, men nu lärde jag mig att de inte alls körde på Larrabee. Även på Larrabee säkert är lämpat för den typen av beräkningar.

Jag lärde mig också att det var så mycket "fusk" i de använda algoritmerna i Q3 och Q4 demona att kvaliteten kan ifrågasättas.

Och till slut lärde jag mig att Larrabee och liknande system kan vara vettiga till blandsystem där effekter raytrace:as ovanpå ett mer traditionellt grafiksystem.

---
Hmm, nu tror jag ännu mer att Larrabee är Intels bud till MS och Sony till nästa generations konsol...

Jag läste förresten för några månader sedan om en svensk vars doktorsavhandling (eller var det examensarbete?) handlade om massivt parallella CPU-kärnor, och som plockats upp av Intel för ett framtida system. Nån som vet om detta kan vara Larrabee?

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av peterhjalmarsson
Den här gången var jag lite mindre lat och googlade innan jag frågade. Vad jag tänkte på var "raytrace:ade" Q3 och Q4, men nu lärde jag mig att de inte alls körde på Larrabee. Även på Larrabee säkert är lämpat för den typen av beräkningar.

Jag lärde mig också att det var så mycket "fusk" i de använda algoritmerna i Q3 och Q4 demona att kvaliteten kan ifrågasättas.

Och till slut lärde jag mig att Larrabee och liknande system kan vara vettiga till blandsystem där effekter raytrace:as ovanpå ett mer traditionellt grafiksystem.

---
Hmm, nu tror jag ännu mer att Larrabee är Intels bud till MS och Sony till nästa generations konsol...

Jag läste förresten för några månader sedan om en svensk vars doktorsavhandling (eller var det examensarbete?) handlade om massivt parallella CPU-kärnor, och som plockats upp av Intel för ett framtida system. Nån som vet om detta kan vara Larrabee?

Larrabee är vad jag vet ingen ny "uppfinning" från intels sida, iden är ganska gammal (dom har dessutom gjort ett liknande grafikchip innan)- att göra ett grafikkort som kan programmeras för att utföra vilken uppgift som nu behövs. Pararellism är heller inget nytt i sammanhanget, redan dagens grafikkort har allt mellan 128-512 paralllela processorer, värt att notera är att dagensgrafikkort har högre beräkningskapacitet än utannonserade Larrabee.

Hurvida en svensks doktorsavhandling är involverad i Larrabbe vet jag inte, Jag tror inte det. Är nog mer troligt det rör sig om Intels framtida processorchip, det ryktas om allt mellan 32 och 80 kärnor per chip.

Men för att återvända till Larrabee, det intressanta är väl exakt vad Intel tro sig få ut av Larrabee, dom satsar stenhårt på att det ska vara en bra rasterizer men publikt så handlar det nästan enbart om raytracing.
"Normala grafikkort" går mer och mer mot flexibel programmering också, vad har då Larrabee att vinna? Jag vet inte den enda fördel jag kan se är att gränssnittet är bekant- det är x86 baserat, samtidigt kan jag inte alls förstå varför dom väljer att göra ett grafikkort som är x86 baserat- instruktionssettet är helt föråldrat, det är begränsat, pentium4 var dessutom känd att ha enorma pipelines för att kunna hålla hastigheten uppe, Larrabee ska dessutom sakna out-of-order execution (vilket iofs inte är ovanligt när det gäller grafikprocessorer) men Intel flaggar ju med att det är ett grafikkort som ska kunna utföra andra uppgifter. Men nåja jag tror inte det kommer bli någon hit innan dom börjar leverera dom på moderkortet som standard.

Företag som Nvidia och ATI/AMD har många års erfarenhet av grafikacceleration, ingen av dom satsar nämnvärt på raytracing (dom är medvetna om problematiken med just animering och raytracing).
Hybridtekniker däremot har och användsredan i flera år, blandannat för ljussättning.

Permalänk
Citat:

Ursprungligen inskrivet av Frek
Larrabee är vad jag vet ingen ny "uppfinning" från intels sida, iden är ganska gammal (dom har dessutom gjort ett liknande grafikchip innan)- att göra ett grafikkort som kan programmeras för att utföra vilken uppgift som nu behövs. Pararellism är heller inget nytt i sammanhanget, redan dagens grafikkort har allt mellan 128-512 paralllela processorer, värt att notera är att dagensgrafikkort har högre beräkningskapacitet än utannonserade Larrabee.

Det som är "nytt" är ju att det är avsevärt mycket mer generella processorer än i en GPGPU. Men varför välja en gammal CISC i stället för en RISC? Undrar om det inte är dags för en Transputer revival om vi nu skall ha masivt parallella generella processorer?

Vad har de gjort för liknande grafikkort innan? Det senaste jag kan komma ihåg är i740, och det hade ju knappast en CISC instruktionsuppsättning.

Citat:

[...]"Normala grafikkort" går mer och mer mot flexibel programmering också, vad har då Larrabee att vinna? Jag vet inte den enda fördel jag kan se är att gränssnittet är bekant- det är x86 baserat, samtidigt kan jag inte alls förstå varför dom väljer att göra ett grafikkort som är x86 baserat- instruktionssettet är helt föråldrat, det är begränsat, pentium4 var dessutom känd att ha enorma pipelines för att kunna hålla hastigheten uppe, Larrabee ska dessutom sakna out-of-order execution (vilket iofs inte är ovanligt när det gäller grafikprocessorer) men Intel flaggar ju med att det är ett grafikkort som ska kunna utföra andra uppgifter. Men nåja jag tror inte det kommer bli någon hit innan dom börjar leverera dom på moderkortet som standard.

Att de valt x86 (P4) som instruktionsuppsättning är mycket konstigt, ja. Hur de skall kunna tävla mot Cell etc. verkar ju väldigt svårt. Men de har ju om inte annat den bästa tillverkningstekniken på sin sida - det har ju hjälpt dem förr.

Att den saknar out-of-order är ju som du säger ingen jättenackdel för en grafikprocessor. Och grafikrendering är väl så superparallellt så att en stor pipeline skulle ta för lång tid att fylla ändå, så det lär vi inte heller se. Kompilatoroptimering anyone?

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av peterhjalmarsson

Att de valt x86 (P4) som instruktionsuppsättning är mycket konstigt, ja. Hur de skall kunna tävla mot Cell etc. verkar ju väldigt svårt. Men de har ju om inte annat den bästa tillverkningstekniken på sin sida - det har ju hjälpt dem förr.

Att den saknar out-of-order är ju som du säger ingen jättenackdel för en grafikprocessor. Och grafikrendering är väl så superparallellt så att en stor pipeline skulle ta för lång tid att fylla ändå, så det lär vi inte heller se. Kompilatoroptimering anyone?

Cell är ingen konkurrent till Larrabee, Cell är tyvärr väldigt begränsad och kan enbart nå top hastighet i speciella instruktionsmönster; den har precis som larrabee heller ingen out-of-order execution- hastigheten sjunker dessutom markant när man jobbar med dubbelprecision, Den nya generation av Cell har visserligen löst detta. Cell fungerar acceptabelt med raytracing rent prestandamässigt, men man har ett annat problem med Cell- det är latency vilket gör att det nästan är odugligt att rendera något på cell i realtid och som kräver full repons (däremot som offline renderings acceleration är den perfekt), men det jag syftar på är i spelsammanhang.

Du har också rätt att out-of-order är ett mindre problem i grafiksammanhang, Men larrabee är ju avsett att hantera mer än just rendering, även om det är dess huvuduppgift.

Out-of-order optimering i kompilator har vi ju redan sett hur effektivt eller snarare hur ineffektivt det är på tex Cell (playstation 3)
Manuell scheduling fungerar, men kräver mycket jobb och man låser sig vid fixerade funktioner, det är svårt att få bra dynamisktflöde på en sådan processor.

Men som sagt den som lever får se, Jag är iallafall övertygad om att raytracing aldrig ersätter rasterization villket min OP handlade om

Trevlig helg.

Permalänk
Medlem

Mycket av det som Intel gör avser att kontrollera marknaden till sin egen fördel. Om det tillför kunden ett mervärde är det bra, men behöver inte vara syftet. Att Intel föredrar x86, som de "kontrollerar", borde inte komma som en överraskning.

Intel har tung byråkrati som ibland leder till märkliga beslut. Ta exempelvis den ursprungliga Itanium (observera att jag inte menar senare processorer som lanserats under det varumärket). Den hade endast 64-bits register och instruktionsuppsättning och inte var kompatibel med några befintliga 32-bits program. Det var väl någon högt uppsatt som tyckte att det var en bra idé att skapa något som inget annat företag kan konkurrera med; "Vi är så stora att det säljer nog bra ändå tänkte de väl". Den floppade totalt. Vilket jag tycker att varje normalbegåvad människa borde ha förstått från början.

Hela Larrabee projektet började efter att AMD köpte ATI och förklarade att de ville utveckla någon slags hybrid mellan CPU och GPU. Resurser sattes igång hos Intel och man kom fram till att vi gör något mycket bättre (som naturligtvis ingen visste vad det skulle vara). Jag kan föreställa mig hur det gick till; någon tyckte att det var en bra idé att bygga en multiprocessorlösning på x86-bas som kan användas till lite av varje, dessutom saknar NVidia licens för x86; det lät bra; många huven nickade jakande i styrelserummen (so be it) utan att egentligen förstå vad det handlade om, och funderade mera på vad de skall köpa från systemet till helgen.

Sedan började man anställa folk och köpa företag med specialkompetens och projektet började få en mera konkret form. Först talade man om 80 kärnor som sedan blev 32, och senaste jag hört 16/24 och 32. Någonstans på vägen började man väl inse att det hela kanske inte blev så bra man hade hoppats. Man har t.o.m. infört en framtida processor på agendan som åtminstone på pappret liknar AMD:s Fusion.

Nu har Intel gått ut och sagt att glöm inte att Larrabee stödjer OpenGL och DirectX också. Wow, kan ni tänka er; ett företag lanserar ett grafikkort som stödjer dessa standarder! Det kan hända att jag får äta upp detta med god sås, men efter att ha följt Intel i flera decennier tycker jag att det här är typiskt Intel. Och tyvärr går det hem hos allmänheten eftersom deras "brainshare" verkar köpa alla dessa nycker. Vi får hoppas att det hela till slut leder till produkter som faktiskt tillför något för folk utanför Intel.

Trevlig helg på dig också/PeSi

Permalänk
Hjälpsam
Citat:

Ursprungligen inskrivet av norrgrd
För er som undrar så är det tessellation de talar om.

Ja, om man kollar i länken som finns i denna nyhet står det.

DirectX 11 will support tessellation, a feature which can potentially assist developers in making models appear smoother when seen up close.

http://www.shacknews.com/onearticle.x/53810

Skönt att mitt grafikkort redan stödjer det, allt som krävs är API:et.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

Pesi skriver några av de dummaste argumenten för XP någonsin. XP sög också totalt i början. Jag började tycka att xp var bra vid service pack 2. Så det du snackar om är bara rena struntsakerna

Permalänk
Medlem

DAoG: Jag visste inte att jag skrev några argument för XP överhuvudtaget.

Eller menar du när jag sade att jag har hårdvara som saknar (och aldrig kommer att få fungerande) drivrutiner för Vista? Jag har aldrig använt XP före Service Pack 2 i mina egna datorer. Jag tror att jag skrev att jag undviker alla nya Microsoft program innan minst en SP finns tillgänglig, det gäller lika mycket XP. Jag har fortfarande kvar en välfungerande dator som inte gillar XP, men den används egentligen för testning av kompatibilitet (sitter Windows 98 SE på den). En annan dator med XP tillåter inte användning av SATA med SP2; har inte brytt mig om att kolla med den allra senaste BIOS-versionen iosf.

Hur kan det vara en struntsak att dyrbar hårdvara man köpt (bl.a. en skrivare jag har för över 10000 kr) inte fungerar med ett operativsystem som du upperbarligen föredrar? Nu skulle jag iofs kunna lägga upp den som en nätverksskrivare för att komma runt problemet, men varför skulle jag? "If it aint broken don't fix it."

Jag är inte någon smack som behöver pracka mina lösningar för andra. Jag använder mina datorer mest för programutveckling. Jag blir snart tvungen att lägga upp en Vista burk för teständamål, men det löser jag med en utbytbar hårddisk. Däremot blir det nog snart en dator med virtualisering istället. Det verkar vara en smartare lösning för blandmiljö och mjukvarutestning. Men först måste jag välja rätt virtualiseringsmotor, lära mig den ordentligt, och förmodligen 1000 andra detaljer. Den burken lär inte vara funktionell förran nästa år.

Jag använder mina datorer för att tjäna pengar för räkningarna. De är inga leksaker som jag skiftar arbetsmiljö i bara för att kommandoknappar får rundade kanter och Microsoft vill ha mera pengar. När jag anser att det är dags att byta till ett nytt operativsystem så byter jag, inte en sekund innan. Det troliga är att jag byter till Linux som bas och kör en virtualiseringsmotor som ger mig tillgång till andra operativsystem efter behov. Men det bytet kommer inte ske innan jag är säker på att nödvändiga programvaror fungerar problemfritt och totalkostnaden ligger inom budget. Jag har kört olika versioner av Windows i mina burkar nu i långt över 20000 timmar, så hjärtat vill behålla en välbekant miljö, medan hjärnan säger att det är dags att gå vidare. Nåväl, det löser sig alltid.

Jag kanske kommer att älska Vista from SP2/3/4 osv. Men som jag sade tidigare saknar jag helt intresse för Vista idag. Detta är inget argument, utan ett faktum. Hare/PeSi

Permalänk
Medlem

Känns som Microsoft rushar lite väl myckte nu!
Bör dom inte få bukt med dom återstående problem i Vista och optimera det först?
Plus att ganska få grafikkort klarar av att spela spel i DX10 även om dom stödjer det, ännu mindre människor har kort som klarar detta!

Känns som dom säger, "äh DX10 och Vista funka inte så bra", vi kör Windows 7 och DX11 istället!

Visa signatur

mehp

Permalänk
Inaktiv
Citat:

Ursprungligen inskrivet av Lithen2
Känns som Microsoft rushar lite väl myckte nu!
Bör dom inte få bukt med dom återstående problem i Vista och optimera det först?
Plus att ganska få grafikkort klarar av att spela spel i DX10 även om dom stödjer det, ännu mindre människor har kort som klarar detta!

Känns som dom säger, "äh DX10 och Vista funka inte så bra", vi kör Windows 7 och DX11 istället!

Förmodligen så är det olika avdelningar inom företaget som har hand om DX och Vista. Men håller med dig, satsa på att fixa Vista och se till så spelutvecklarna börjar koda för DX10 en gång. Man kommer fortfarande riktigt långt med DX9 som högsta DX stöd på kortet idag.

Permalänk
Inaktiv

Tycker nästan tekniken går lite för fort fram...inte för att jag vill hävda utvecklingen, men vad man köper idag, blir omodernt och inaktuellt efter bara några månader, ibland mindre.

DX11 ser ut att kunna generera en hel del trevliga funktioner dock, även för någon av min kaliber som inte förstår sig på hela DX-serien till fullo.

Permalänk
Inaktiv
Citat:

Ursprungligen inskrivet av segas
Tycker nästan tekniken går lite för fort fram...inte för att jag vill hävda utvecklingen, men vad man köper idag, blir omodernt och inaktuellt efter bara några månader, ibland mindre.

DX11 ser ut att kunna generera en hel del trevliga funktioner dock, även för någon av min kaliber som inte förstår sig på hela DX-serien till fullo.

Låt döda trådar/nyheter vila i frid, denna har varit inaktiv i över två månader..

Tekniken SKA gå frammåt, att saker blir gamla är bara naturligt och något man tyvärr måste acceptera. Urk. =S

Får se om DX11 blir något att ha, DX10 har fortfarande inte blivit något av, DX9 som gäller fortfarande.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av FredrikMH
Många gnäller utan kunskap...

- DX10 var inte omöjligt att implementera i XP. Men eftersom DX10 inte bygger på de tidigare DX versionerna, utan är en helt ny produkt så valde man att inte ge stöd för ett operativsystem som ändå skulle fasas ut. Det tar tid och tid är pengar.

- DirectX har alltid byggt på tidigare versioner. Så grafikkort som endast hade stöd för DirectX 6 kunde ändå köra spel när datorn hade DirectX 9 installerat. De kunde inte utnyttja de få funktioner som lagts till men det fungerade fortfarande. Udantaget blev DX10 eftersom det ändrades så mycket att bakåtkompatibiliteten försvann. Nyare versioner av DirectX idag så som 10.1 och kommande 11 bygger på DirectX 10 och nu kommer allting vara bakåtkompatibelt igen tills den dag det krävs större ändringar igen.

- En ny version av DirectX skapar möjligheter för utvecklarna i ett senare skede. Bara för att en funktion implementeras så betyder det inte att alla spel ska kräva/utnyttja det imorgon. Någon gång måste man ju införa nya funktioner om man inte ska behålla de gamla för evigt.

För er som inte förstår så är inte detta negativt oavsett hur man ser det. Detta är ett framsteg och en förbättning av en produkt de flesta på SweClockers använder sig av. Ni gnäller aldrig när en ny version av FireFox eller Opera släpps.

Det handlar alltså inte om att DX10 måste få fotfäste på marknaden innan nya versioner får släppas. Detta är en ständigt evolverande branch och det krävs ständigt förbättringar för att vi ska ha mjuka övergångar.

Tid är pengar. Rykte, fortsatta kunder och anseende är också pengar! Ta t ex nyheten som kom ut idag (27 oktober) på Sweclockers att kylflänstillverkaren Noctua släpper fästen som är kompatibla med nya Intel i7 processorn, till sina äldre flänsar! Detta ger antagligen företag mycket mer värde i bra PR än nya sålda flänsar? Varför resonerar inte Microsoft så?

Bara faktumet att mängder av användare är irriterade över att det inte finns DX10 till XP är ett misslyckande från Microsoft. Att sedan inte göra något åt det, utan att tvinga dem över till ett operativsystem som inte är tillfredställande är ett ÄNNU större misslyckande.

Det gäller att tänka i det långa loppet. Visst, operativsystem fasas ut. De FASAS ut, inte klipps av direkt. Vad man borde tänka på är sina kunder är tillgångar och resurser att värna om.

Visa signatur

Antagligen en bättre dator än vad du har!