Permalänk
Medlem

Heh... jag undrar hur många som ens kan nämna vilka skillnader man kommer se med sina egna ögon när man jämför PS2.0 och PS3.0

"PS3 KOMMER VARA SNYGGARE!!!1!1!"

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av vanellus
Anledningen att Ati släpper sin xt-version av X800 är pga att de just nu "Reverse Engineerar" ett 6800 Ultra för att optimera sitt kort. Ati blev tydligen överaskade över 6800:as prestanda och vill nu lägga ner lite mer tid på att få det värsta. Jag vet inte om detta är sant. Jag hörde det av två tysktalande män på tunnelbanan i lördags.

HAHAHAHA! den va go den

Visa signatur

🛜🫀: HP ProDesk 400 G3, i5 6500, 8GB DDR4, Intel X520-DA2
🐳🐧: AMD R5 3600 | Google Coral.ai | ASRock X570D4U-2L2T | Silverstone CS381 | 80GB DDR4 | 8 HDD BTRFS RAID1
⌨️🎮: R9 3900X | RTX 2080 LC | Acer XF270HUA | 96GB @ 3200 | MSI X570 MPG G EDGE WIFI | CORSAIR C70
🎞🎶: LG OLED55C8 | Epson TW3200 | Onkyo TX-NR646 | Infinity Reference 61/51 mk2 | Shield TV V2 | minhembio.com

Permalänk
Citat:

Ursprungligen inskrivet av Sgt. Stinger
Den uppmärksamme borde ha märkt att nVidias kort ( GeForce 6800 ultra )
ska kosta $350, medans detta ska kosta $499.
eftersom det verkar som om korten ligger UNGEFÄR jämsides i prestanda
är det ingen tvekan om vem som får sålt flest kort. De som tvekar:
det är nog inte ATI

det var väll ändå retail kortet som skulle kosta runt 35$, har ATI angett något rek. retail pris än?

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Nyhet
:: Vertex/PixelShader 2.0-stöd

Inget 3.0 stöd?
Visst är det 3.0 som det var en massa artiklar om i nya unreal motorn och far cry där dom visade hur det ser ut med 3.0? (DirectX 9.0c?)

Visa signatur

[ASUS STRIX B650-A | AMD Ryzen 7600X | 32Gb DDR5 6000MHz CL36 | GeForce RTX 4080 | Custom Loop Cooling]
Det heter DATOR, inte DATA!

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av ElyziuM
Inget 3.0 stöd?
Visst är det 3.0 som det var en massa artiklar om i nya unreal motorn och far cry där dom visade hur det ser ut med 3.0? (DirectX 9.0c?)

Allt som visats i UnrealEngine3 har varit gjort med Pixel och Vertex Shader 2.0. Dock kommer den slutgiltiga motorn att ha 3.0-stöd.

Bilderna där de jämförde olika Shader-versioner i Far Cry var en jämförelse mellan 1.1 och 3.0, inte 2.0 och 3.0. Utvecklarna har i efterhand "erkänt" att det inte kommer vara kvalitetsskillnader mellan 2.0 och 3.0 i deras spel, dock kommer prestandan att skilja lite såklart, till 3.0's fördel.

Visa signatur

Från den andra sidan. :)

Permalänk
Citat:

Ursprungligen inskrivet av lasseTM
Öhh nvidia slöppte ju ett kort med 500mhz på coren och 1ghz på minnet men ändå var 9700 pro bättre, det var inga små mesiga mhz utan det skiljde ju massor eftersom ett 9700 pro ligger på 325/620

Du kan inte bara jämföra klockfrekvenser sådär... FX 5800 hade bara 128 bitars buss på minnet medans r9700 pro hade 256 bitar. Det krävs ingen mattematiker för att räkna ut att r9700 pro i själva verket kan skyffla mer data än vad FX5800 kan.

Vad gäller coren så var det ju helt enkelt 2 olika arkitkturer, på r9700 satt pipelinsen i 8x1 medans de satt i 4x2 på fx5800, vad som var mest effektivt har ju alla benchar utvisat.

Idag kör båda tillverkarna samma uppdelning på pipelines på sina värsta kort, och därmed tror jag inte att nvidia kan floppa som de gjorde med fx5800

Visa signatur

Dator: Dell inspiron 8600, 1.7 ghz Pentium M, 60Gb + 250 Gb externt, 9600 pro, DVD+RW
Kamera: IXUS 430

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Docksider
det var väll ändå retail kortet som skulle kosta runt 35$, har ATI angett något rek. retail pris än?

nej men det står ju på den sidan vad deras pris är( $499 ), och det borde ju ge en fingervisning

Visa signatur

i5 4790K, 8 GB XMS3 1600 Mhz, RX 5700XT, Gigabyte G1.Sniper M5

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av SlimJim
Jag tror att anledningen till att XT är "försenat" är för att dom insåg att 6800U var snabbare och det skulle bara vara pinsamt att släppa ett sämre kort. Därför avaktar dom, biffar upp det och sen släpper benchmarks. TROR JAG IAF!

det är väl bara bra isf, vem vill inte ha ett bättre kort än 6800U liksom

Visa signatur

Core i7-8700K - Noctua NH-U14S - ASUS PRIME Z370-A - Corsair Vengeance 32GB DDR4 - RTX3070 - MASSA SSD - Define R4 - Corsair RM750X V2 - Asus Swift PG278QR
Mer CO-OP åt folket!

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av vanellus
Anledningen att Ati släpper sin xt-version av X800 är pga att de just nu "Reverse Engineerar" ett 6800 Ultra för att optimera sitt kort. Ati blev tydligen överaskade över 6800:as prestanda och vill nu lägga ner lite mer tid på att få det värsta. Jag vet inte om detta är sant. Jag hörde det av två tysktalande män på tunnelbanan i lördags.

AnteP skrev inte du att recensions exemplaret som ni på Nordichardware fått var ett ATI Radeon X800XT?

Visa signatur

ASUS ROG MAXIMUS HERO Z690 | Core i9 12900K | Corsair iCUE H150i ELITE LCD | Corsair 64GB (4x16GB) DDR5 5600MHz CL36 Dominator Platinum RGB | Samsung 980 Pro 2TB, Crucial P5 Plus 2TB, Kingston NV1 2TB M.2 NVMe, Samsung 870 QVO 4TB | MSI Geforce RTX 4090 SUPRIM Liquid X | Sound Blaster AE-9 | Corsair HX1500i | Logitech Z906 | DeepCool Quadstellar Infinity | Aorus FV43U + Ergotron LX | LG OLED42C2 + Ergotron LX | ACER Predator XB323U | LG UltraGear 27GP850 | Asus PG279Q | LG32GK850G-B | AOC U3277FWQ | 3xAOCQ3279VWF | Philips BDM4065UC

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Blade@LCD
AnteP skrev inte du att recensions exemplaret som ni på Nordichardware fått var ett ATI Radeon X800XT?

Jag har två X800.

Visa signatur

Från den andra sidan. :)

Permalänk

Så då kan man anta att i testet som kommer i morrn (?) finns det ett XT å ett Pro hoppas....

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Djeet
Skulle tro att det är referens designen bara ...

Ati brukar inte sälja referenskort numera, brukar bara vara spekulationer om vilket kort som är mest likt referensdesignen och möjligtvis är ati referenskort egentligen.

Permalänk
Citat:

Ursprungligen inskrivet av MrTT
Här är några exempel på spel som kommer med P/S3.0 stöd.
Eftersom ATI R420 inte har P/S3.0 stöd så måste dessa spel köras i gamla P/S2.0.
Lord of the Rings, Battle For Middle-earth
STALKER: Shadows of Chernobyl
Vampire: Bloodlines
Splinter Cell X
Tiger Woods 2005
Madden 2005
Driver 3
Painkiller
FarCry

Vem bryr sig... Atis nuvarnade grafikkort har bara stöd för P/S1.4 medan nuvarande nvidia grafikkort har stöd för P/S2.0 och ändå får Nvidia en fet smäll på käften av Ati både på bildkvalité och prestanda... (som vanligt)

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av deathclaw
Vem bryr sig... Atis nuvarnade grafikkort har bara stöd för P/S1.4 medan nuvarande nvidia grafikkort har stöd för P/S2.0 och ändå får Nvidia en fet smäll på käften av Ati både på bildkvalité och prestanda... (som vanligt)

Ehh?...nä, ATIs nuvarande kort har stöd för PS2.0 precis som nVidia nuvarande kort.

Permalänk
Medlem

Många på detta forum verkar förrvänta sig mycket av Pixel Shader 3.0 och det är väl inget fel med de men dom kommer att bli besvikna för det är bevisat flera gånger om nu att Pixel Shader 3 inte är är samma lyft som när Pixel Shader 2 kom. Utvecklare har sagt att man ska se det som en extionsion till PS2 endast. Kan dock tänka mig Nvidia fanboys pushar denna feature rejält utan att ha någon form av kunskap om vad som skiljer PS3 och PS2 åt.

Nvidia kommer självklart att försöka använda PS3 som ett köp argument.
ATi kommer använda andra argument t.ex kanske följande du behöver inte köpa ett nytt nättagg.

Personligen anser jag att om man baserar sitt grafikkortsköp på att man måste ha ett kort med PS3 ja då är man lurad.

Pris/prestanda i Farcry eller uppkommande Dirext X 9 titlar är en bättre anledning till att köpa ett grafikkort. Xbitlabs lär även gå igenom alla kort i både HL2 och Stalker. (Alpha versioner av spelen)
http://www.xbitlabs.com/articles/video/display/nv40_29.html

Personligen ser jag på PS3 så här: Det är väl trevligt om de följer med.
Självklart kan jag ha totalt fel, tiden får väl berätta hela saningen.

/7of9

Permalänk
Medlem

Någon skrev tidigare att skillnaderna mellan 2.0 och 3.0 mest är att det är lättare att göra saker i 3.0 så det tar inte lika lång tid att programmera. Men vad har man då för nyta av det för man måste ju nästan göra 2.0 också, tror ju inte att några spel inte utnyttjar den kraft som finns i dagens grafikkort bara för att 3.0 finns på de senaste. Eller resonerar jag riktigt konstigt nu?

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Bader
tror ju inte att några spel inte utnyttjar den kraft som finns i dagens grafikkort[/B]

Har du prövat att spela tex FarCry,StarWars: Knights of the old Republic, med aa på max?
om du tänker efter lite så kvittar det om du har en 4ghz processor. Det är grafikkortet som arbetar med aa, altså är grafikkorten slöa idag. (Hoppas dem nya är bättre på detta)

Permalänk
Medlem

ZzZz Ut med det NU

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Bader
Någon skrev tidigare att skillnaderna mellan 2.0 och 3.0 mest är att det är lättare att göra saker i 3.0 så det tar inte lika lång tid att programmera. Men vad har man då för nyta av det för man måste ju nästan göra 2.0 också, tror ju inte att några spel inte utnyttjar den kraft som finns i dagens grafikkort bara för att 3.0 finns på de senaste. Eller resonerar jag riktigt konstigt nu?

jag känner till ett spel som kommer att ha stöd för Pixel Shader 3.0 men inte 2.0 och det är Splinter Cell Pandora Tomorrow

tydligen kunde de kräma ur en hel del prestanda med sitt skugg/ljussättningssystem med PS3.0 men för PS2.0 var det inte lönt jämfört med PS1.1 (eller om det är 1.3) som det använder som standard

Visa signatur

Från den andra sidan. :)

Permalänk
Medlem

sluta gissa, studera fakta

http://www20.tomshardware.com/graphic/20040504/index.html

Glöm inte källkritiken...

///Petter

Permalänk
Medlem

Hej

Jag vill bara kommentera att jag hadde rätt angående att man ej behöver något nytt nättagg på ATI's nya kort.

Tomshardware review var medioker...

1. Prestanda nn snabblänk till review med nya ATI korten http://www.techreport.com/reviews/2004q2/radeon-x800/index.x?...
väntar på www.Xbitlabs review....

2. Från Hothardware
One neat power connector, same power supply:
What is probably more impressive is the noted power consumption of these two new cards. As a reference point, the GeForce FX 6800 Ultra averages about 120Watts of power. The Radeon X800 XT averages about the same power consumption under load (68W or so) as a Radeon 9800 XT but the Radeon X800 XT actually consume about 33% less power (38W vs. 58W) at idle versus the Radeon 9800XT. So, we're looking at a potential performance gain of 2X over legacy product, with actually less over all power consumption. The ASIC and Board Design Engineers at ATi should be very proud parents and helping them along their way is TSMC's .13 micro low-k manufacturing process technology.

Also of note, is the single power connector that is required for both the Radeon X800 XT and Radeon X800 Pro. The yellow four pin audio connector, that is next to the power connector, is there in support of ViVo capabilities for the card. Conversely, NVIDIA's new GeForce 6800 Ultra requires dual power lines and a minimum 480 Watt power supply. We're fairly certain that many end users will have issues with NVIDIA's new enthusiast card power requirements. However, ATi was actually able to gain a power and thermal signature improvement over their previous generation product, with the introduction of the X800 series VPUs.

3. Se denna http://www.anandtech.com/video/showdoc.html?i=2044&p=10

/7of9