Premiär! Fyndchans i SweClockers Månadens Drop
Permalänk
Melding Plague

GeforceFX Q & A

<img src="http://www.sweclockers.com/img/ico_note.gif"><b class="red">GeforceFX Q & A</b> <small class="small">Skrivet Lördag, 1 Februari, 2003 av <a href="mailto:herman@sweclockers.com">Herman</a><br /></small>
<a href="http://www.beyond3d.com/interviews/gffxqa/">Beyond3D</a> har gjort en Q & A med Nvidia om GeforceFX. Den går lite mer på djupet än det vi sett innan, och många frågor om till exempel 2D-grafikprestanda och tekniker besvaras. För er som är lite mer intresserade av GeforceFX är detta en mycket läsvärd artikel. En av de många frågorna:<br><br><I>In the past, 2D and filter/circuitry quality varied greatly depending on the manufacturer of the card and how far they strayed from reference component levels. Has anything been done with GeForce FX to better ensure consistent quality?<br><br>Yes, GeForce FX includes a new generation of Digital Vibrance Control (DVC) that features the ability to sharpen photographs, colored text and many elements of the GUI. This will help to maximize image quality across all GeForce FX boards. However, there will still be variation based on the quality of output filter components. NVIDIA recommends you choose a board supplier that meets your personal preferences.</I><br><br>Läs hela artikeln hos <a href="http://www.beyond3d.com/interviews/gffxqa/index.php?p=1" target="_top" >Beyond3D.</a> <I>(Tack Myran för tipset)</I><p>

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Hedersmedlem

Joy, "a new generation of Digital Vibrance Control". Take that ATi !!

Visa signatur

| Venice 3500+ | A8N-SLI Premium | 2048MB PC3200 | 7900GT | Audigy2 ZS | WD Raptor 74GB |
| Antec P180 | Seasonic 400W | Dell 2405FPW | Kylning: Scythe Ninja, BQ Polar Freezer, två Adda 120mm |

Permalänk
Medlem

Är mycket besviken på G FX..Trodde det skulle vara mycket bättre..De suger ju minst sagt på AA..

Visa signatur

The world is made of murderers dreams

Permalänk
Citat:

Ursprungligen inskrivet av Vicotnik
Joy, "a new generation of Digital Vibrance Control". Take that ATi !!

Ta vadå? Till skillnad från nVidia och GeForce så behöver inte ATi Radeon några gammahackar för att färgerna ska se bra ut. "Tvi!" sa räven när han bet i det sura äpplet...

Permalänk
Medlem

Sachankara
Kanske för att du aldrig har haft chansen att se skillnaden, sa äpplet till räven.

Själv tycker jag FX är bra, om man beräknar många olika saker, sen varför ska man sätta på höga anti m.m jämt det drar ner prestandan så otroligt mycket, nejdu alla snackar så otroligt mycket.

Visa signatur

ThermalTake Tsunami Dream "Ljudisolerad", Corsair HX 650W Plus Gold, Gigabyte Z68XP-UD3P, Intel Core i5 2500K 4GHz, 2x Corsair 8GB (2x4096MB) CL9 1600Mhz XMS3 1,5V, MSI GeForce GTX 1060 Gaming X 6G, Samsung SSD 840 Evo 250GB. Vi människor är mystiska varelser
-
http://www.minhembio.com/Camridge

Permalänk
Citat:

Ursprungligen inskrivet av Camridge
Sachankara
Kanske för att du aldrig har haft chansen att se skillnaden, sa äpplet till räven.

Själv tycker jag FX är bra, om man beräknar många olika saker, sen varför ska man sätta på höga anti m.m jämt det drar ner prestandan så otroligt mycket, nejdu alla snackar så otroligt mycket.

1. Visst, jag har inte sett GeForce FX men jag har sett andra GeForce-kort (äger ett själv). Det går helt enkelt inte att jämföra. Tror knappast en ny gammatweak kommer få GeForce FX att komma ens i närheten av Matrox och ATi när det gäller färghantering. De har ju redan bra mycket bättre kvalité utan några löjliga drivrutinsgrejor...

2. Man drar på AA och AF på Radeon för att det inte drar så värst mycket mer, plus att Radeon 9700 Pro är CPU-begränsat upp till nästan 5GHz på en vanlig P4:a, så att man inte ser någon minskning i antalet FPS. Allt över 75 FPS är nog helt okej för majoriteten och då är det ingen idé att försöka få ur fler FPS utan i stället satsa på renderingskvalitén i stället...

Permalänk
Medlem
Citat:

[i] De har ju redan bra mycket bättre kvalité utan några löjliga drivrutinsgrejor...
[/B]

Säger den som tycks veta

Visa signatur

www.tomodomo.org - indie spelstudio i Helsinfors
www.fatcatrush.com - en 3D runner för iPhone som vi gjort på Tomodomo

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Sachankara
De har ju redan bra mycket bättre kvalité utan några löjliga drivrutinsgrejor...

ja. drivrutiner är bara löjeväckande. bort med sånt. tacka vet jag dos.

btw så verkar inte GFFX vara så värstans bra. Om jag skulle vara en sån som köper nya grejor så skulle jag nog köpa ett Radeon7900 eller vad det nu heter.

Visa signatur

kärlek.

Permalänk
Citat:

Ursprungligen inskrivet av Olmen

Säger den som tycks veta

Tro det eller ej, men Digital Vibrance är inte mer än en mjukvarugreja. Tror knappast det skiljer sig åt på GeForce FX...

Som bevis på att nVidia bara är prat och lite action så kan man ju kolla på svaren på några av frågorna. T.ex:

Citat:

Now that GeForce FX is finally complete from a design / hardware perspective how happy is NVIDIA with it? How much of an advance is it over anything else for NVIDIA? What have they learnt for the future? What can we expect for the future of cg in realtime in general and for NVIDIA?

NVIDIA is delighted with GeForce FX. We have learned a lot about designing a fundamentally new programmable graphics platform with full support of software development tools like Cg Toolkit and Cg compiler. GeForce FX establishes a new level of graphics capability and image quality and truly ushers the Dawn of Cinematic Computing. Real-time graphics have never looked so good as they do on GeForce FX.

Visst, väldigt revolutionernade...

Citat:

How many GeForceFX GPUs could theoretically operate in parallel?

GeForce FX requires an AGP interface, so only one can operate in a PC.

Behöver inte ens kommentera denna...

Permalänk
Hedersmedlem
Citat:

Ursprungligen inskrivet av Sachankara
Ta vadå? Till skillnad från nVidia och GeForce så behöver inte ATi Radeon några gammahackar för att färgerna ska se bra ut. "Tvi!" sa räven när han bet i det sura äpplet...

Jag var inte helt osarkastisk ska jag säga..

Tyckte det var lite roligt att NVidia-snubben drog upp ett gammalt mjukvaruhack som jag är tveksam till om någon haft nytta av (inte jag iaf) på frågan om de fått arslet ur vagnen och gjort något åt Geforce-kortens usla bildkvalitet.

Visa signatur

| Venice 3500+ | A8N-SLI Premium | 2048MB PC3200 | 7900GT | Audigy2 ZS | WD Raptor 74GB |
| Antec P180 | Seasonic 400W | Dell 2405FPW | Kylning: Scythe Ninja, BQ Polar Freezer, två Adda 120mm |

Permalänk
Medlem

Sachankara
Förstår inte varför du ska vara så negativ.

Sen så ska 2d-kvaliten ha förbättrats avsevärt på FX korten mot tidigare kort, så om man ej har testat så kom ej med några påståenden är du snäll.

Visst, väldigt revolutionernade
Eftersom du inte tycker att det är något bra, som det verkar så kan du förklara vilka krav på grafiken, prestandan, och den visuella upplevelsen det kortet skulle kunna prestera som du hade tänkt dig.

Själv så med dessa verktyg är det enklare att programmera m.m än det är till matrox , och radeon plus dessa nya tekniker om dom används rätt och implanteras, så blir kvaliten mycket bättre än vad Radeon kan prestera.
så korten är jämlika snabba, väntar på nya drivare från nvidia förstås, kortet gick över till 13micro, därför blev det försenat, samma sak med Ati när dom ska gå över, så varför klanka på en tillverkare, det är så dåligt så det är otroligt. nvidia kunde ha släppt detta kort med 15micro om dom ville, men det gjorde dom inte.. Dess starka sida är den enkla programmeringen, dessa nya grafik tekniker, och det stora stödet på olika tekniker m.m

Visa signatur

ThermalTake Tsunami Dream "Ljudisolerad", Corsair HX 650W Plus Gold, Gigabyte Z68XP-UD3P, Intel Core i5 2500K 4GHz, 2x Corsair 8GB (2x4096MB) CL9 1600Mhz XMS3 1,5V, MSI GeForce GTX 1060 Gaming X 6G, Samsung SSD 840 Evo 250GB. Vi människor är mystiska varelser
-
http://www.minhembio.com/Camridge

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Camridge
Sachankara
Förstår inte varför du ska vara så negativ.

Sen så ska 2d-kvaliten ha förbättrats avsevärt på FX korten mot tidigare kort, så om man ej har testat så kom ej med några påståenden är du snäll.

Visst, väldigt revolutionernade
Eftersom du inte tycker att det är något bra, som det verkar så kan du förklara vilka krav på grafiken, prestandan, och den visuella upplevelsen det kortet skulle kunna prestera som du hade tänkt dig.

Själv så med dessa verktyg är det enklare att programmera m.m än det är till matrox , och radeon plus dessa nya tekniker om dom används rätt och implanteras, så blir kvaliten mycket bättre än vad Radeon kan prestera.
så korten är jämlika snabba, väntar på nya drivare från nvidia förstås, kortet gick över till 13micro, därför blev det försenat, samma sak med Ati när dom ska gå över, så varför klanka på en tillverkare, det är så dåligt så det är otroligt. nvidia kunde ha släppt detta kort med 15micro om dom ville, men det gjorde dom inte.. Dess starka sida är den enkla programmeringen, dessa nya grafik tekniker, och det stora stödet på olika tekniker m.m

Nu är det så att nvidia har sagt att det inte kommer att komma några drivrutiner som rampar upp prestandan på länge än. Ati har alltid haft bättre bildkvalite än nv..Du kan ju kolla på testerna med AA...radeons 4x motsvarar nv 8x.....

Visa signatur

The world is made of murderers dreams

Permalänk
Medlem

Ati har helt klart bättre bildkvalitet, äger ett R9700pro, hade ett gf4 ti 4400 innan.