9800GX2, 2st HD3870 X2

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av AlbinNdoja
Gosh,

Varför säljer en kille sina två HD3870X2 när han föredrar ATi men kör med 9800GX2?

Fundera på den ett tag.

Du, jag ställer mig frågan varje dag när man ser folk skriva här varför de fläskar på så enormt angående hårdvaran. Varför en del använder Crysis som måttstock när det bara finns ETT spel som är gjort på den motorn än så länge.

Om någon kört ett 8800GT och sedan testar ett 9800GX2 utan att märka något alls förutom att burken är varmare så är det inte så konstigt

Visa signatur

Programmerare med C++ som huvudspråk.

Permalänk

Håller med. Att använda Crysis som mått tycker jag är både orättvist och fånigt eftersom Nvidia har haft runt en en 15-20 ingenjörer tillsammans med Crytek just för att spelet skall vara mest optimerat för just Crysis vid realise och fungera bättre med Nvidia kort vid realise.

Men kanske om något halv år när drivrutinerna från båda är maximerade, för det är bara en tidsfrågan innan ATi har ordnat upp med sina drivrutiner att de presterar i Crysis liksom andra spel förhopnningsvis. Men just optimerandet för Nvidia ligger just vid realise.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Citat:

Ursprungligen inskrivet av AlbinNdoja
Håller med. Att använda Crysis som mått tycker jag är både orättvist och fånigt eftersom Nvidia har haft runt en en 15-20 ingenjörer tillsammans med Crytek just för att spelet skall vara mest optimerat för just Crysis vid realise och fungera bättre med Nvidia kort vid realise.

Men kanske om något halv år när drivrutinerna från båda är maximerade, för det är bara en tidsfrågan innan ATi har ordnat upp med sina drivrutiner att de presterar i Crysis liksom andra spel förhopnningsvis. Men just optimerandet för Nvidia ligger just vid realise.

Men så upplever jag att det är i nästan alla spel, det är väll bara i Call Of Juarez och några till som Ati har övertaget....

btw.
Ordet realise betyder ingenting (bokstavligt talat(Edit))
Ordet realize betyder förstå, inse
Ordet release betyder släppa (i det är sammanhanget)

Visa signatur

Stackars Albin
Citera eller skicka PM, övervakar inte.
Använd ordet "dem" med måtta eller smaka på mitt vrede.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av gosh
Du, jag ställer mig frågan varje dag när man ser folk skriva här varför de fläskar på så enormt angående hårdvaran. Varför en del använder Crysis som måttstock när det bara finns ETT spel som är gjort på den motorn än så länge.

Om någon kört ett 8800GT och sedan testar ett 9800GX2 utan att märka något alls förutom att burken är varmare så är det inte så konstigt

Men gosh, om vi nu går tillbaka till huvudfrågan istället. Vad skulle du rekommendera av dessa två alternativ och varför?

Visa signatur

Is it "for fucks sake" or "for fuck sake"? Its for a work email so it has to sound professional.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av blade80
Men gosh, om vi nu går tillbaka till huvudfrågan istället. Vad skulle du rekommendera av dessa två alternativ och varför?

2st HD3870 X2 självklart, inte för dagens spel men för framtiden. Om utvecklingen av spel helt stannat upp nu, alltså alla spel varit som de är och utvecklarna dött så hade jag inte tvekat på nVidia heller när det gäller flerkortslösningar. Enkortslösningar tycker jag ATI är något mer prisvärda även om de prismässigt ligger ungefär lika för vad man för för prestanda jämfört med nVidia. det som väger till fördel för ATI är att det är så lätt och köpa till ett kort till och då välja vilket man vill ha, även att moderkorten är något billigare.

När det gäller monsterkorten så om det jag läst stämmer så kommer det ta ett tag innan deras kraft börjar utnyttjas helt, ATI har först och främst fokuserat på var kunderna finns, monsterkort i flerkortslösningnar är ändå en otroligt liten kundkategori.

Visa signatur

Programmerare med C++ som huvudspråk.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av gosh
2st HD3870 X2 självklart, inte för dagens spel men för framtiden. Om utvecklingen av spel helt stannat upp nu, alltså alla spel varit som de är och utvecklarna dött så hade jag inte tvekat på nVidia heller när det gäller flerkortslösningar. Enkortslösningar tycker jag ATI är något mer prisvärda även om de prismässigt ligger ungefär lika för vad man för för prestanda jämfört med nVidia. det som väger till fördel för ATI är att det är så lätt och köpa till ett kort till och då välja vilket man vill ha, även att moderkorten är något billigare.

När det gäller monsterkorten så om det jag läst stämmer så kommer det ta ett tag innan deras kraft börjar utnyttjas helt, ATI har först och främst fokuserat på var kunderna finns, monsterkort i flerkortslösningnar är ändå en otroligt liten kundkategori.

Där måste ju jag undra varför du skulle ta ett par HD3870 X2 för framtiden när det inte hänger med i nutiden?

Visa signatur

9800x3d - 4070 ti super - aw2725df

Permalänk
Medlem

Hej,

Eftersom dom flesta mäter sina kort i Crysis oavett om det är ATi eller nVidia så blir det ingen rättvis prestandra?
Pga att Crysis är mer optimerat för nVidia?

Så Crysis är kanon att mäta enbart nVidia kort i som det ser ut nu då? Finns det något annat spel eller flera bra mycket krävande spel som ger en rättvis bild mellan båda korttillverkarna?

Mvh

Visa signatur

• HP Pavilion DV6-6103eo
• Sony Ericsson Xperia Ray

Permalänk
Citat:

Ursprungligen inskrivet av albertalbertsson
btw.
Ordet realise betyder ingenting (bokstavligt talat(Edit))
Ordet realize betyder förstå, inse
Ordet release betyder släppa (i det är sammanhanget)

Haha, jag vet och tack för att du påminde mig. Jag blir knäpp på det och du är verkligen inte den första som säger till. Jag skriver _alltid_ fel på det ordet bakom datorn, vet ej varför men tack!

Citat:

Ursprungligen inskrivet av gosh
2st HD3870 X2 självklart, inte för dagens spel men för framtiden. Om utvecklingen av spel helt stannat upp nu, alltså alla spel varit som de är och utvecklarna dött så hade jag inte tvekat på nVidia heller när det gäller flerkortslösningar. Enkortslösningar tycker jag ATI är något mer prisvärda även om de prismässigt ligger ungefär lika för vad man för för prestanda jämfört med nVidia. det som väger till fördel för ATI är att det är så lätt och köpa till ett kort till och då välja vilket man vill ha, även att moderkorten är något billigare.

När det gäller monsterkorten så om det jag läst stämmer så kommer det ta ett tag innan deras kraft börjar utnyttjas helt, ATI har först och främst fokuserat på var kunderna finns, monsterkort i flerkortslösningnar är ändå en otroligt liten kundkategori.

Problemet är bara att "framtiden" existerar inte i denna branshen, lovar dig.
HD3870X2 har flaskhalsar i sin arkitektur och kommer inte kunna prestera så mycket bättre än vad det gör idag. Med hjälp av bättre drivrutiner finslipar man den befintliga prestandan men problemet är vad folk är beredda att utveckla efter och ATi ligger tyvärr inte speciellt högt prioriterande eftersom Nvidia betalar mer pengar för att synas och optimeras för när det nu händer. De har inte pengar för det, är dåliga på PR och lägger energi på annat av någon anledning.

Just R600 arkitekturen är en väldigt komplex arkitektur, inte alls som RV580 för där var det inga problem att utveckla efter men R600 var betydligt mycket knepigare tack vare den tjusiga men ovanliga shader kod som ATi valde implementera. Det är arkitekturen som är problemet, största boven. Och som jag skrev tidigare. Vi leker med tanken att om ett år eller kanske ännu mer så existerar det endast shader intensiva spel på marknaden. HD3870X2 kommer inte vara något speciellt bra alternativ då tanke på hur spelen utvecklas och de blir snyggare och snyggare, kräver mer och mer självklart. Som du själv skrev tidigare så är problemet att vi inte sitter med konsoler och spelar utan alla har olika komponenter och det blir knepigt för utvecklarna att faktiskt optimera ett spel som fungerar på alla datorer. Att göra ett spel som lanseras om ett år för att HD370X2 skall fungera bra är inget utvecklare jobbar efter. Så har det inte vart tidigare så varför börja nu?

Nvidia och Ati gissar massvis när de utvecklar arkitekturer. ATi hade rätt gissning förra gången även om de låt titt som tätt dock till ATis fördel både med AA/AF aktiverat plus bildkvalité. Men Nvidia gissade rätt för 5 år sedan och G80 blev en bra arkitekur.

Sedan är det lite som MathiasH han skriver. Kortet hänger knappt med nu så varför skulle kortet hänga med i framtiden? Förstå att HD3870 är ett mycket klent kort. Jag köpte mitt 8800GTX Mars 2007 som enligt mig inte hänger med idag. 8800GTX presterar mycket bättre än HD3870. HD3870X2 är bara två stycken HD3870, inte något monster.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av bleetz
Där måste ju jag undra varför du skulle ta ett par HD3870 X2 för framtiden när det inte hänger med i nutiden?

Varför köper folk tvåkärniga processorer eller kanske fyrkärniga när de flesta spel fortfarande är gjorda för en kärna (en tråd)?

Iofs så kommer det kanske ändra sig relativt snabbt nu. Om ett spel släptes förra året i början och var flertrådat (om de även behärskat tekniken) så hade det säkert fått kritik för låg prestanda, ett flertrådat program på en enkelkärnig processor går långsammare jämfört med spel som kör allt i samma tråd/process. Används däremot en flerkärnig processor så blir det bra mycket mer krut i maskineriet.

Nu ligger majoriteten av användarna på flera kärnor och konsoler verkar gå åt det hållet med så nu börjar det bli lönsamt gissar jag, det är bara upp till speltillverkarna och skärpa till tekniken med.

Samma sak med att utnyttja flera grafikkort. Marknaden har inte funnits tidigare, tror inte någon kunnat förutse att datorprylar skulle sjunka så i pris som de gjort heller.

Visa signatur

Programmerare med C++ som huvudspråk.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av gosh
Varför köper folk tvåkärniga processorer eller kanske fyrkärniga när de flesta spel fortfarande är gjorda för en kärna (en tråd)?

Iofs så kommer det kanske ändra sig relativt snabbt nu. Om ett spel släptes förra året i början och var flertrådat (om de även behärskat tekniken) så hade det säkert fått kritik för låg prestanda, ett flertrådat program på en enkelkärnig processor går långsammare jämfört med spel som kör allt i samma tråd/process. Används däremot en flerkärnig processor så blir det bra mycket mer krut i maskineriet.

Nu ligger majoriteten av användarna på flera kärnor och konsoler verkar gå åt det hållet med så nu börjar det bli lönsamt gissar jag, det är bara upp till speltillverkarna och skärpa till tekniken med.

Samma sak med att utnyttja flera grafikkort. Marknaden har inte funnits tidigare, tror inte någon kunnat förutse att datorprylar skulle sjunka så i pris som de gjort heller.

Hur länge behåller du dina kort egentligen? Innan några spel kommer ut som stödjer denna teknik så har vi alla bytt grafikkort igen i alla fall. Bara dumt att köpa 2st 3870 X2 mot ett 9800GX2 idag eller för framtiden, varken ekonomiskt försvarbart eller prestandamässigt försvarbart. Men kul att höra hur du tänker. Om ett år har jag säkert bytt grafikkort igen i alla fall...

Visa signatur

Is it "for fucks sake" or "for fuck sake"? Its for a work email so it has to sound professional.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av blade80
Hur länge behåller du dina kort egentligen? Innan några spel kommer ut som stödjer denna teknik så har vi alla bytt grafikkort igen i alla fall.

hmmm, jag tror nog inte du känner till så bra om hur länge en vanlig datoranvändare har sin dator. något som varit väldigt poppis i sverige är hem-pc. man kunde ju få avdrag om man köpte den genom företaget, och tiden man hade denna hem-pc innan man kunde köpa loss den är tre år.

för egen del så har jag flera datorer så självklart blir det en del inköp varje år

Visa signatur

Programmerare med C++ som huvudspråk.

Permalänk
Citat:

Ursprungligen inskrivet av gosh
hmmm, jag tror nog inte du känner till så bra om hur länge en vanlig datoranvändare har sin dator. något som varit väldigt poppis i sverige är hem-pc. man kunde ju få avdrag om man köpte den genom företaget, och tiden man hade denna hem-pc innan man kunde köpa loss den är tre år.

för egen del så har jag flera datorer så självklart blir det en del inköp varje år

Och hur många hemanvändare köper två stycken HD3870X2?

Saken är den att varken pris/prestanda är det lönt att köpa två HD3870X2 när det inom kort lanseras ett kort som presterar bättre än två HD3870X2.

Så länge spelutvecklarna inte utvecklar för ATis grafikkort och arkitekturer så kommer förmodligen aldrig dessa kort att prestera speciellt mycket bättre än vad de gör idag för ATi själva fixar inte detta själva. Och det är här problemet kommer in där Nvidia har nästan alla spel på marknaden av de spel som överhuvudtaget antingen samarbetar med ATi eller Nvidia. Står det Nvidia innan spelet startas menas det inte på att spelet är optimerat för Nvidia men det menas däremot att spelet absolut inte är optimerat för ATi. Sedan om ATi presterar bättre i spelet är en annan sak men så är inte fallet idag.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk

Nu har jag läst hela tråden om och om igen. AlbinNdoja lägger upp bevis efter bevis efter bevis, gosh babblar på för han måste helt enkelt ha rätt, men det faller på en sak, som Albin nyss nämnde om Gosh

"hmmm, jag tror nog inte du känner till så bra om hur länge en vanlig datoranvändare har sin dator.".......what's wrong with this picture? Finns väl inte en enda "vanligt datoranvändare" som köper två stycken HD3870X2. 9800GX2 är betydligt mer ekonomiskt försvarbart och kommer vara ända tills ATI släpper något som faktiskt hänger med.

Visa signatur

Asus P8Z68 Deluxe/Gen Sock 1155 -- Inte Core I7 2700K@4.5Ghz -- EVGA GeForce GTX 970 SSC GAMING ACX 2.0+ -- Corsair 16GB DDR3 Vengeance 1.5V Low Blue -- SSD OCZ Agility 3 120GB -- Microsoft Windows 7 -- Foldar med cirka 180k PPD (körs ej 24/7)

Permalänk
Avstängd

haha :), otroligt hur känsligt detta ämne är

Vintervilan: Finns väl inte en enda "vanligt datoranvändare" som köper två stycken HD3870X2

Glömde du läsa första inlägget i tråden?

Visa signatur

Programmerare med C++ som huvudspråk.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Vintervilan
Nu har jag läst hela tråden om och om igen. AlbinNdoja lägger upp bevis efter bevis efter bevis, gosh babblar på för han måste helt enkelt ha rätt, men det faller på en sak, som Albin nyss nämnde om Gosh

"hmmm, jag tror nog inte du känner till så bra om hur länge en vanlig datoranvändare har sin dator.".......what's wrong with this picture? Finns väl inte en enda "vanligt datoranvändare" som köper två stycken HD3870X2. 9800GX2 är betydligt mer ekonomiskt försvarbart och kommer vara ända tills ATI släpper något som faktiskt hänger med.

jo du har så rätt så. gosh har inte många rätt och det återkommer varje diskussion som han hamnar i. gosh försvarar HD3870 X2 i vått och torrt även fast han inte kan påvisa att 2 st HD3870 X2 är ett bättre köp än 9800GX2. Tittar man på oberoende test, Albin länkar till fler som visar på samma sak, så kommer man fram till samma sak: 9800GX2 är ett bättre köp än HD3870 X2. Oavsett om man är hem-pc-köpare eller inte.

Du blandar in en massa irrelevanta saker gosh. Håll dig till sakfrågan istället för att linda in dig i din egen retorik, du kommer inte någonstans med den. Vi har rätt och du har fel!

Visa signatur

Is it "for fucks sake" or "for fuck sake"? Its for a work email so it has to sound professional.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av blade80
Du blandar in en massa irrelevanta saker gosh. Håll dig till sakfrågan istället för att linda in dig i din egen retorik, du kommer inte någonstans med den. Vi har rätt och du har fel!

Handlar det inte mer om att en del är lite känsliga för kritik?

Givetvis förstår jag att de som enbart tittar på grafer kan ha svårt och förstå min argumentation.

Visa signatur

Programmerare med C++ som huvudspråk.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av gosh
Handlar det inte mer om att en del är lite känsliga för kritik?

Givetvis förstår jag att de som enbart tittar på grafer kan ha svårt och förstå min argumentation.

Jag tittar inte bara på grafer utan läser hur testerna har gått till men jag fattar fortfarande inte hur du kan komma fram till att två HD3870 X2 kan vara ett bättre alternativ idag.
Du får gärna förklara hur du tänker utan att komma från sakfrågan och sväva ut alltför mycket. Åter igen, jag tittar inte bara på graferna så under den kategorin passar jag inte in. Och åter igen, förklara gärna hur du tänker ang. ovanstående fråga.

Visa signatur

Is it "for fucks sake" or "for fuck sake"? Its for a work email so it has to sound professional.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av blade80
Jag tittar inte bara på grafer utan läser hur testerna har gått till men jag fattar fortfarande inte hur du kan komma fram till att två HD3870 X2 kan vara ett bättre alternativ idag.

Men om du läst tråden så skrev även jag att om alla programmerare dog idag och ingen utveckling skulle ske mer så hade jag också valt 9800GX2. Men skulle nu jag få flippen och köpa en sådan här monsteruppsättning så hade jag nog tänkt ha det ett tag
ATI har precis börjat få något bättre stöd för fler kort än 2 (Catalyst 8.3). Det tar tid innan spelutvecklare hinner med i hårdvaruutvecklingen.

Ungefär samma som processorer, idag är det bättre och köpa en processor med högre frekvens och färre kärnor, men frågar du om ett halvår så kan det eventuellt börjat ha ändra sig beroende på vilka spel man spelar.

Visa signatur

Programmerare med C++ som huvudspråk.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av gosh
Men om du läst tråden så skrev även jag att om alla programmerare dog idag och ingen utveckling skulle ske mer så hade jag också valt 9800GX2. Men skulle nu jag få flippen och köpa en sådan här monsteruppsättning så hade jag nog tänkt ha det ett tag
ATI har precis börjat få något bättre stöd för fler kort än 2 (Catalyst 8.3). Det tar tid innan spelutvecklare hinner med i hårdvaruutvecklingen.

Ungefär samma som processorer, idag är det bättre och köpa en processor med högre frekvens och färre kärnor, men frågar du om ett halvår så kan det eventuellt börjat ha ändra sig beroende på vilka spel man spelar.

Detta är så osäkert att det inte ens är värt att lägga in in en diskussion ändå. nVidia står ju inte stilla de heller medan ATI fortsätter utvecklingen så det är så ointressant att prata om framtiden när det gäller den här frågan. När väl drivrutinerna funkar bättre så har priserna ändrats, samtidigt som det är andra kort som gäller då som vi inte har sett ännu och då inte kan sia så mycket om.
Därför skulle det idag aldrig vara mer värt att köpa 2st HD3870 X2 mot ett 9800GX2 ändå. Så är det bara.

En fin tanke du har men den är alldeles för osäker med alltför många parametrar att räkna in då "framtiden" alltid är osäker i datorbranschen. Din argumentation håller inte.

Visa signatur

Is it "for fucks sake" or "for fuck sake"? Its for a work email so it has to sound professional.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av blade80
Detta är så osäkert att det inte ens är värt att lägga in in en diskussion ändå. nVidia står ju inte stilla de heller medan ATI fortsätter utvecklingen så det är så ointressant att prata om framtiden när det gäller den här frågan.

Det stämmer men nu handlade tråden om två olika alternativ och välja ifrån. En sak som nVidia måste lösa är minnet (om jag inte missuppfattat). Och för att lösa det tror jag de behöver komma med nya varianter av korten.

Citat:

Ursprungligen inskrivet av blade80
När väl drivrutinerna funkar bättre så har priserna ändrats, samtidigt som det är andra kort som gäller då som vi inte har sett ännu och då inte kan sia så mycket om.
Därför skulle det idag aldrig vara mer värt att köpa 2st HD3870 X2 mot ett 9800GX2 ändå. Så är det bara.

Kollade en del på utvecklingen av Unreal motorn, intressant helt klart hur det går till och utveckla spel. Innan trodde jag det mest var så att olika speltillverkare utvecklade sina spel helt själva (av toppspelen), de mer mediokra spelen kanske körde på någon starndad. Fast efter att ha sett lite vad som kommer så förstår man ju mycket mer varför det nu är i princip lönlöst och bygga spelet själv, bättre då och välja en spelmotor och bygga på den.
En del av de funktioner som kommer i Unreal tror jag absolut inte går och göra om man inte utnyttjar flera kärnor på processorn effektivt, antagligen har de kommit rätt långt i och utnyttja flera processorer och har de fixat det så kommer säkert spelen för det ganska snart efter det.
Även att de verkar dra nytta av grafikkorten på ett bättre sätt.

Ta en titt på hur många speltillverkare (även andra typer av företag) som just nu håller på och bygga spel med Unreal motorn så tror jag även du kommer till slutsatsen att det inte kommer ta så lång tid innan de kan börja dra nytta av hårdvaran.

Visa signatur

Programmerare med C++ som huvudspråk.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av gosh

Ta en titt på hur många speltillverkare (även andra typer av företag) som just nu håller på och bygga spel med Unreal motorn så tror jag även du kommer till slutsatsen att det inte kommer ta så lång tid innan de kan börja dra nytta av hårdvaran.

Det är så klart att stödet för fler gpuer och fler kärnor på cpun kommer att utvecklas men vad har det med HD3870 X2 att göra idag? Innan tekniken är vida använd så har det gått några år till, så hur du än vänder och vrider på denna diskussion så kommer du inte kunna få det till att två HD3870 X2 är ett bättre köp idag än ett 9800GX2.

Resten vet vi inte så mycket om ännu men det är så klart att tekniken utvecklas mot fler kärnor och fler gpuer. Potentialen i tekniken finns, men den är långt ifrån löst. Men som sagt, det är en annan diskussion.

Visa signatur

Is it "for fucks sake" or "for fuck sake"? Its for a work email so it has to sound professional.

Permalänk

Det har aldrig någonsin funnits ett kort som har presterat bättre ett år fram Gosh vilket gör att din argumentation inte håller. Spelar ingen roll om utvecklarna dör eller inte för din teori har aldrig visat sig tidigare så varför börja nu tror du?
HD3870X2 är inget kort du vill äga om ett år och inte heller två sådana kort om ett år (inte heller 9800GX2).

Sedan får du inte glömma att även om UE3 motorn är den största "lånade" spelmotorn är det knappast majoriterande spelmotor av alla spelmotorer som finns där ute i alla spel.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Avstängd

Men zzzzzzzzzzzzzzznaaaaaaaark

Fatta att vi drar olika slutsatser.
Vill man vara trygg(?) så kör på det som gäller just nu, köp inga aktier och lägg pengarna i förvaringsutrymme för kärnkraftsavfall

Vem vet, windows kanske inte finns om ett år

AlbinNdoja: Det har aldrig någonsin funnits ett kort som har presterat bra ett år fram Gosh vilket gör att din argumentation inte håller.
På vilken planet då?

AlbinNdoja: Sedan går du inte glömma att även om UE3 motorn är den största motorn folk använder sig av som inte har en egen motor så är det knappast en majoriterande spelmotor för alla spel som finns idag, långt ifrån.
Så har det varit, men kolla hur många som börjat använda den och utvecklar spelen med den nu.
Och det är extremt mycket mer korrekt och använda den som prestandamätare jämfört med crysis.

Visa signatur

Programmerare med C++ som huvudspråk.

Permalänk
Citat:

Ursprungligen inskrivet av gosh
Men zzzzzzzzzzzzzzznaaaaaaaark

Fatta att vi drar olika slutsatser.
Vill man vara trygg(?) så kör på det som gäller just nu, köp inga aktier och lägg pengarna i förvaringsutrymme för kärnkraftsavfall

Vem vet, windows kanske inte finns om ett år

AlbinNdoja: Det har aldrig någonsin funnits ett kort som har presterat bra ett år fram Gosh vilket gör att din argumentation inte håller.
På vilken planet då?

AlbinNdoja: Sedan går du inte glömma att även om UE3 motorn är den största motorn folk använder sig av som inte har en egen motor så är det knappast en majoriterande spelmotor för alla spel som finns idag, långt ifrån.
Så har det varit, men kolla hur många som börjat använda den och utvecklar spelen med den nu.
Och det är extremt mycket mer korrekt och använda den som prestandamätare jämfört med crysis.

På planeten kallad för Jorden.

Det har alltid vart många som har använt UE motorn, ingenting nytt. Den har alltid vart stor i princip.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Medlem

Får jag låna denna tråd med en liten fråga.

Jag kör med ett HD3870X2 och har haft det lite konstigt med det.
Men idag testade jag 3DMark06 igen på 2 olika upplösningar och undrar ifall det verkligen ska vara så här.

1024x768 = 11500
1600x1200 = 11600

Hur kan det bli så!?

Visa signatur

Laptop: Apple MacBook Pro 16" M1 Pro | 16GB | 512GB
Stationär: Phanteks NV5 | i9 13900K | 32GB DDR5 6000 | Asus Prime Z790-AW | RTX 4090 | 4TB m2 SSD

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av R3b0rn
Får jag låna denna tråd med en liten fråga.

Jag kör med ett HD3870X2 och har haft det lite konstigt med det.
Men idag testade jag 3DMark06 igen på 2 olika upplösningar och undrar ifall det verkligen ska vara så här.

1024x768 = 11500
1600x1200 = 11600

Hur kan det bli så!?

För att det är din processor som begränsar systemet. grafikkortet orkar att driva 1600x1200 lika bra som 1024x768 eftersom din cpu flaskhalsar.

Visa signatur

Is it "for fucks sake" or "for fuck sake"? Its for a work email so it has to sound professional.

Permalänk

Kan vara som Blade ovan skriver, låter ganska troligt. En annan sak som får mig att fundera på är/kan vara ditt nätagg också. Nätagg, när de är för klena har ibland en tedens att inte kräma ut den ström grafikkortet behöver under intensiva situationer men den teorin kanske inte är så logisk. Jag tror nog mer på Blades teori för din processor är inte speciellt stark. Och innan folk börjar motargumentera så JA, processorer kan flaskhalsa något fruktansvärt:
1024*768
http://www.xbitlabs.com/articles/cpu/display/intel-wolfdale_7...

1024*768
http://www.xbitlabs.com/articles/cpu/display/core2duo-e6300_2...

1280*1024
http://www.nordichardware.se/Recensioner/?skrivelse=418&page=...

1600*1200
http://www.anandtech.com/cpuchipsets/intel/showdoc.aspx?i=279...

Så, det var det.

För övrigt, har du de senaste Catalyst drivrutinerna? 8.3?

Mvh

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Medlem

Ja det har jag, senaste catalyst 8.3 hotfix... ok men då kommer jag nog köpa en sån där phenom x3 som kommer snart. om inte x4 sjunker till nånstans runt en 1000 lapp

Nätagg har jag ett Corsair VX550... tror den räcker

Visa signatur

Laptop: Apple MacBook Pro 16" M1 Pro | 16GB | 512GB
Stationär: Phanteks NV5 | i9 13900K | 32GB DDR5 6000 | Asus Prime Z790-AW | RTX 4090 | 4TB m2 SSD

Permalänk
Citat:

Ursprungligen inskrivet av AlbinNdoja
http://www.driverheaven.net/reviews.php?reviewid=538&pageid=1...
http://www.anandtech.com/video/showdoc.aspx?i=3266&p=4
http://www.tomshardware.com/2008/03/18/nvidia_geforce_9800_gx...
http://www.hexus.net/content/item.php?item=12294&page=6
http://www.sweclockers.com/articles_show.php?id=6045&page=8
http://www.guru3d.com/article/Videocards/512/11/
http://www.xbitlabs.com/articles/video/display/zotac-9800gx2_...
http://www.overclockersclub.com/reviews/xfx_9800gx2/
http://en.hardspell.com/doc/showcont.asp?news_id=2908&pageid=...
http://www.tweaktown.com/articles/1331/6/page_6_benchmarks_ha...
http://translate.google.com/translate?u=http%3A%2F%2Fwww.pcon...
http://www.pcper.com/article.php?aid=535
http://enthusiast.hardocp.com/article.html?art=MTQ3NSwzLCxoZW...
http://www.gamepyre.com/hardwared.html?aid=940&p=22

http://images.tomshardware.com/2008/03/18/nvidia_9800_gx2/cod...
http://images.tomshardware.com/2008/03/18/nvidia_9800_gx2/cod...
http://images.tomshardware.com/2008/03/18/nvidia_9800_gx2/tdu...
http://images.tomshardware.com/2008/03/18/nvidia_9800_gx2/tdu...
http://images.anandtech.com/graphs/9800gx2launch_031808044035...
http://images.anandtech.com/graphs/9800gx2launch_031808044035...
http://images.anandtech.com/reviews/video/nvidia/9800gx2/crys...
http://images.anandtech.com/reviews/video/nvidia/9800gx2/cod4...
http://images.anandtech.com/reviews/video/nvidia/9800gx2/aaco...
http://images.anandtech.com/graphs/9800gx2launch_031808044035...
http://images.anandtech.com/reviews/video/nvidia/9800gx2/etqw...
http://images.anandtech.com/graphs/9800gx2launch_031808044035...
http://images.anandtech.com/reviews/video/nvidia/9800gx2/stal...
http://images.tomshardware.com/2008/03/18/nvidia_9800_gx2/cry...
http://images.tomshardware.com/2008/03/18/nvidia_9800_gx2/wic...
http://img.hexus.net/v2/graphics_cards/nvidia/zotac/9800GX2/E...
http://www.sweclockers.com/imagebank/plot/200803/Crysisdx1000...
http://www.sweclockers.com/imagebank/plot/200803/CompanyOfHer...
http://img384.imageshack.us/img384/679/screenshot002ba0.jpg
http://img297.imageshack.us/img297/1562/screenshot001wm3.jpg
http://img396.imageshack.us/img396/7043/screenshot004ub4.jpg
http://www.driverheaven.net/reviews.php?reviewid=538&pageid=2...
http://www.driverheaven.net/reviews.php?reviewid=538&pageid=2...
http://www.driverheaven.net/reviews.php?reviewid=538&pageid=1...
http://www.driverheaven.net/reviews.php?reviewid=538&pageid=1...
http://www.driverheaven.net/reviews.php?reviewid=538&pageid=1...
http://www.driverheaven.net/reviews.php?reviewid=538&pageid=2...

Det är vår Albin

Permalänk
Avstängd

nVidias minnesproblem?

citat:
Nvidia’s solutions have problems with memory management and ATI’s 3-way configuration enjoys a tremendous advantage.

http://www.xbitlabs.com/articles/video/display/zotac-9800gx2_...

Visa signatur

Programmerare med C++ som huvudspråk.