Nvidia sågar AMD – avslöjar Geforce 9800 GX2

Permalänk
Avstängd

Jag tror stenhårt på att AMD kommer sätta ett så aggressivt pris (då det är billigare att sätta 2 GPU på en 1PCB än göra en dubbelmacka) att Nvidia måste göra minimal vinst per kort för att kunna konkurrera - och om det gör de eller inte får vi se.

Dessutom har AMD/ATi redan ett kort med dubbla GPU på 1 PCB ute, så de lär sig nog av de fel som finns på det och kan rätta till det och göra ett bättre kort (självfallet _måste_ det bli bättre).

Och sen tar AMD över rollen som ledande företag, Nvidia konkar och kossor börjar flyga

Visa signatur

"Jo men det var exakt det jag menade med att den enda moddningen detta galleriet innehåller är Sanningsmodifikation och photoshoppande :)"

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Triclone
Ne med extra allt menar jag att Nvidia brukar faktiskt ligga en bit över AMD/ ATI,

och jag har faktiskt provat att köra med 7950GX2 och jag håller med dig, den är relativt klumpig, och ger inte specielt mkt prestanda boost mot om man har dubbla 7900Gt som är överklockade. Så svar: Ej mitt första hands val..

Men jag tänker ge dom en andra chans, det sägs ju att man lär sig av sina misstag, så det är bara vänta och se, Flopp lr Grymm bara tiden kan avgöra det.

Jag tycker bara att det känns bättre att ha dubbla kort, jag vet faktiskt inte varför det känns bara så, + att jag TROR att det behövs mer lager i ATI`s kort, vilket höjer priserna. men men det var nog allt jag kommer på nu du får ha en fortsatt trevlig kväll/natt.

Aja cya around.

Det var lite mycket "tror" där va

Ja jag blir då mäkta imponerad om nVidia kommer att prissätta sitt kort till ett lägre pris än vad AMD/ATI har gjort i alla fall, oavsett antal lager på PCB.

"Jag tycker bara att det känns bättre att ha dubbla kort, jag vet faktiskt inte varför det känns bara så" Ja det var ju inte så övertygande argument precis
Jag "tycker att det känns" helt galet kasst jag, men det säger ju inte så mycket det heller.

AMD har ett bra pris på sitt X2-kort, oavsett hur de nu har gjort till en bra prestanda också. Åter igen, jag tror knappasat att nVidia kan matcha det priset.

Visa signatur

Is it "for fucks sake" or "for fuck sake"? Its for a work email so it has to sound professional.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av sl2wm-rocks
Haha, säger en som sitter på en 8800Ultra. Men jag förstår inte riktigt ditt argument ? Är du sur för att du gjorde ett dåligt köp ? Hur länge skulle dom ha väntat med att lansera 8800gt tills det hade varit ok för dig ? Du menar alltså att de sviker sina konkurrenter genom att lansera allt bättre och billigare grafikkort ? Välkommen in i verkligetehen i datorvälden isf...

Allting fungerar såhär i datorbranschen, eller är du arg på Intel också för att det släppte C2D när du satt på en top-of-the-line P4:a ?
Förövrigt så är enligt din logik AMD ännu mer onda, om man tittar på HD2900->HD3870, där blev ju kortet bättre på i princip alla sätt, och dessutom efter kortare tid. GTX/ULTRA är ju iaf fortfarande snabbare än g92, även om marginellt och till ett högre pris.

Känner mig lurad som konsument över att de först utger Ultra't som prestandakung och tjänar in mängder med pengar på detta enastående kort för att sedan sälja ett kort som är minst lika bra för ett par tusenlappar mindre bara 3-4 månader senare. Nu snackar vi om budgetkort i samma grafikkorts-generation som presterar likvärdigt den dyraste på marknaden.

De gör allt för att tjäna pengar, istället för att uppmuntra konsumenter som är villiga att lägga sina resurser på det bästa de har att erbjuda och därefter skapa ny teknik som faktiskt imponerar med nästa generation.

Detta handlar inte om utveckling, detta handlar om att suga konsumenterna på kosing så mycket det går, det ser du ju beviset på här och nu när de ska släppa ett kort som är i princip två 8800GT. Vad är det du kallar utveckling i denna sörja som Nvidia skapat?

Visa signatur

Cooler Master Storm Sniper - Gigabyte P67A-UD3 - i5 2500k 3.3@4.7ghz - Crucial M4 SSD 128 GB - Gigabyte 560 Ti GTX OC 1024MB - Crucial Ballistix 4GB@1600mhz DDR3

Permalänk
Citat:

Ursprungligen inskrivet av P1nGviN
Jag tror stenhårt på att AMD kommer sätta ett så aggressivt pris (då det är billigare att sätta 2 GPU på en 1PCB än göra en dubbelmacka) att Nvidia måste göra minimal vinst per kort för att kunna konkurrera - och om det gör de eller inte får vi se.

Dessutom har AMD/ATi redan ett kort med dubbla GPU på 1 PCB ute, så de lär sig nog av de fel som finns på det och kan rätta till det och göra ett bättre kort (självfallet _måste_ det bli bättre).

Och sen tar AMD över rollen som ledande företag, Nvidia konkar och kossor börjar flyga

ja, o jag tror nvidia inte säljer så många av denna toaster pga det...de vill nog ha 4500kr? (2xG92 med 2 PCB) medans ATI ligger <4kkr (2xGPU med 1 PCB)..kan inte konkurrera o det är bra för mig som e ute efter nästa kort...striden blir i vår med HD4000 o nvidias nästa.

Visa signatur

ASUS ROG Strix G17 G713QR-HG022T (Ryzen 9 5900HX, RTX 3070 Max-P 115+15W, G.Skill Ripjaws 2x16GB 3200MHz CL22 1.2v (F4-3200C22D-32GRS), 17.3" 1920x1080 300Hz 3ms, 2x1TB NVMe) + 27" 2560x1440 Acer Nitro XV272UV + Corsair K55 RGB + Deltaco DM210

Permalänk
Medlem

Hehe det där kortet verka inet så genomtänkt, ser ut på bidlerna som något som fixar ove slängt ihop över en helg

Visa signatur

ASUS M4A89GTD PRO/USB3 | AMD Phenom2 X6 1055T|GB GF GTX 460 | Corsair 4GB | SSD 40GB Intel X25-M | HD500GB Seagate ST3500418AS | |HD2TB Seagate ST2000DL003 | Corsair TX 650W PSU | Fractal Design Define R3

Permalänk

Äntligen är det på väg och snart här. Kul att se lite data om kortet. Hoppas mycket på 9800GX2:an. Tycker inte att specifikationen var sådär våldsamt upphetsande för att vara ett entusiastkort. Men kommande prestandatester får utvisa det. Låter som ett mellanting av GT/GTS i sli och det har ju varit bra i speltester.

Har funderat länge på hur min blivande speldator ska se ut. Det är jobbigt att vänta. Om det visar sig vara bra och inte blir för dyrt kommer jag att slå till. 9800GTX låter ju också spännande men det är väl en evighet tills den kommer.

Jag kan inte heller förstå meningen med Nvidias uttalande mot AMD? Helt onödigt och omoget av ett stort företag.

Visa signatur

MSI P67A-GD55 - I7 2600k - NH-U12P SE2 - XFX5870 - Zalman VF3000A - Corsair 4GB - Cooler Master HAF 932 - CM 700W - Windows 7 64bit - 3*Dell U2311H

Permalänk
Medlem

Jo men det är ju inte ute än så kortet kanske inte ens kommer se ut så när det kommer på marknaden

Permalänk
Medlem

Nvidia hahaha pryo-elever på arbetet verkar det som:P Grafikkort ser ju så jävla fult, klumpigt och dåligt ut så att man garvar GOGOGO AMD/ATI!

Permalänk
Avstängd

Hmm varför ha två kretskort när dom kan göra som ati och ha två gpu´r på ett kretskort!?

Visa signatur

WS:/ASUS M4A78-E/Phenom 940BE/OCZ Reaper DDR2 PC8500 6Gb/CF Ati 4870 1GB//Server: AMD Phenom 9550/MSI K9A2 CF-F/OCZ Reaper PC8500 2Gb/XFX GTS 250 Nvidia
"En enskild människas död är en tragedi, en miljon döda är statistik" -Josef Stalin

Permalänk

Fattar inte hur så många kan klaga på att Nvidia drar pengar ur konsumenterna med sina g92 8800gt / gts... Detta betyder ju enbart att de har lyckats. Folk köper dom ju. De är både grym prestanda och billiga.
Ni kan ju inte känna er lurade om ni köpte ett Ultra eller GTX tidigare för 4-6k och att de nu (eller för några månade) släppte Gts mkt billigare. För om ni inte trodde att utvecklingen skulle gå framåt så har ni nog missat nått? Den har alltid gjort de!! Och ingen säger till er att ni skall köpa de nya GTS eller nästa generations kort. Dom är enbart här för att Täcka vårt behov och det har dom ju isf gjort. (eller rättare sagt få in pengar fast det är ju alla företags mål)

Sen så är de en hel del som klagar på att utvecklingen går åt fel hål och att det är helt värdelöst att de har många kärnor på "ett" kort och som babblar om mackor osv. TÄNK EFTER LITE!! Om Pristandan ökar asevärt (den behöver ju nu kanske inte göra de) och priset håller sig nere och de inte är för varma så är de ju helt perfekt! Vad mer kan man önska? Det är ju inte så att det kortet tar direkt mer plats en vad andra nya värstingkort tidigare har tagit (egen uppfattning).

Och om just DU nu inte skulle villja ha ett sånt här "fjaskokort" som de låter att en del tycker så kan du ju låta bli att köpa de då jag iaf inte skulle banga de. Dessutom så släpps det ju en hel del andra kort som är billigare och mindre och med en kärna (tror jag iaf?) som fortfarande lär prestera bättre än tidigare kort och vara billigare, så isf kan ni ju köpa det kortet.

(Precis samma sak gäller till väldigt många saker, så som nyheter som vissa klagar på hur de är skrivna eller att de inte alls passar in? Jag tycker Nyhetrsredaktörenra och Testpatrullen gör ett grymt jobb och ger iaf mig många timmars Kul och Intressant läsning varje dag!! Och om nu ni inte tycker det så kan ni ju hänga nån annan stanns istället för att skriva dryga och tråkiga kommentarer (typ som denna )) XD

Och sen i många andra trådar då folk klagar på att Energiförbrukningen är så J*vla hög på allt nytt och att det går åt fel håll så refererar ni nästan alltid till värstinggrejena... Låt bli att köpa dom då!! Själv så tycker jag de kommer snabbare delar som har mindre förbrukning också (dock inte värstingarna).

Det värkar ju helt klart som att företagen har lyckats (eftersom de är så stora och lever än) så varför klaga så mkt?! Vi kan ju inte säga att utvecklingen går åt fel hål innan vi fått uppgifterna om dom (priser, prestanda, watt mm.) Man måste ju testa sig fram innan man vet vad som kommer slå igenom. Annars så blir det ju ingen utveckling?! Vi kan inte nu innan säga att utvecklingen går bakot då vi inte har ngn clue av hur dom är.

Hoppas det inte lät allt för "taskigt" :b Vet att jag spårade ur ämnet en del fast hoppas en del läser detta och visar mer respekt. Btw vissa stavfel kan finnas (är trött). Ha de gött, puss!

// Mvh David p16

Permalänk

[QUOTE]Ursprungligen inskrivet av Emerald Känner mig lurad som konsument över att de först utger Ultra't som prestandakung och tjänar in mängder med pengar på detta enastående kort för att sedan sälja ett kort som är minst lika bra för ett par tusenlappar mindre bara 3-4 månader senare.QUOTE]

Allt beror ju på när du köpte ditt Ultra kort..det släpptes väl i våras, och 8800GT i kom nu i vintras. Sen är Ultran såpass mycket kraftigare kort än GTn...du kör väl inte 1024x768 än? Skillnad går o se om man utnyttjar kortet..annars skulle man inte köpt det.

EDIT ///

På XFX's hemsida skyltar de med "8600GT Fatality, gamer's choice" ofta ser man misslyckade kort i massannonser på nätet..det är vad okunniga köper - reklam lönar sig

Visa signatur

ASUS ROG Strix G17 G713QR-HG022T (Ryzen 9 5900HX, RTX 3070 Max-P 115+15W, G.Skill Ripjaws 2x16GB 3200MHz CL22 1.2v (F4-3200C22D-32GRS), 17.3" 1920x1080 300Hz 3ms, 2x1TB NVMe) + 27" 2560x1440 Acer Nitro XV272UV + Corsair K55 RGB + Deltaco DM210

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Triclone
ne det skulle jag inte vilja säga att jag är för tillockmed du borde förstå att ett kort med 2 st gpu blir varmare än 2 kort med 1 på vardera + fläkten sitter ju imellan dom så du kan ju inte säga att värmen kommer bli högre på varje enskilt kort.

Jag står för vad jag tycker sen får du stå för vad jag tycker och jag respekterar det. Vi får väl se hur det blir när kortet lanseras.

jo jag menar självkart att det blir svalare bara jag som tänkte fel när jag skrev.

Det är ju knappast en tro och tyckarfråga. Detta är inte en religion. Det ena alternativet är ju självklart bättre. Och ATI's lösning ska ge bästa kylningen om den är gjord rätt. Det är ju klart möjligt att deras referenskylning är sämre men det finns ju många alternativ att välja på att ha som kylning till de korten. De kan ju klart sabba med sin referenskylare precis som Nvidia.

Men ATI's sätt är det lättaste att kyla ner och totala värmen som ett kort med två gpus istället med två kort med en gpu blir mindre på det med två gpus på ett kort. Det blir så då de inte behöver dubbla uppsättningar av saker som det egentligen bara behövs en gång. Blandannat grafikkortets minne.

En PCB och 2 GPU's är effektivast.

Visa signatur

HD5770 1GB| Phenom 2 x2 555 3.2ghz BE@ x3 3.6Ghz| 2x2048ddr3 corsair xms3 1600mhz | Corsair HX520w | HP w2207| Antec 180b

Permalänk
Hedersmedlem

Förmodligen stämmer det du skriver jonazz . Man får nästan självklart en högre effektförbrukning och därmed en högre värmeutveckling. Men det finns en hel del andra faktorer som skulle kunna göra vår gissning på 1 kort med 2 GPU´s felaktigt. Ex så har man ju en bra mycket större yta på två kort där värmen från övriga komponenter kan avges mer effektivt. Men framförallt handar det väl om hur genomtänt själva kylningen faktiskt kommer bli på de båda korten.
Det är nog för tidigt att säga att "Det ena alternativet är ju självklart bättre". Ett av dem kommer förmodligen vara bättre än det andra, och personligen tror jag nog mer på 1 kort och två GPU's men innan vi har några fasta resultat från ordentliga tester är det i mina ögon just en "tro och tyckarfråga".

Visa signatur

🎮 → Node 304 • Ryzen 7 5700X3D • Nh-D14 • Gainward RTX 2070 • 32GB DDR4 • MSI B450I Gaming Plus AC
🖥️ → Acer Nitro XV273K Pbmiipphzx
💻 → Lenovo Yoga slim 7 pro 14" Oled

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av ArtMan
Så detta kortet kommer prestera nästan som 2st 8800GTS 512 i SLI?

Vad är poängen med dessa kort egentligen om det redan finns 8800GTS 512 som kan köras i SLI? Behöver inte spelen stödja SLI när man kör med ett 9800 GX2?

Dessutom bör de kalla kortet 8800 GX2.

Jag gillar faktiskt kylningen på 9800 GX2 bättre än på ATI:s model men tycker att öppningen där bak kunde varit större så mer av värmen åkt ut istället för åt sidan.

Japp kritiken av ATi:s lösning känns lågt faktiskt.

Jag vill ha äkta 9000-generationskort med en gpu för att ersätta mitt nuvarande 8800GTS 640. Den får gärna ha 384-bittars minnesbuss, 768MB minne och 256 shaderprocessorer

Du kommer väll kunna köra kortet på nästan vilket moderkort som helst till skillnad från nu där det nästan bara är Nforce kort som gäller ..
Sen har ju tex 8800 ultra 90nm teknik och 9800x2 kortet kommer att ha 65nm teknik så det är ju nya grejer och inte bara 2 sketna 8800GT kort som är ihoplimmade ...

fast kanske GT korten är 65nm, lol ?

Visa signatur

Corsair Obsidian 1000D* Corsair AX1600i* MSI X670E Tomahawk* AMD 7800X3D* 32GB G-Skill DDR5 6000Mhz* Asus RTX 4090* Corsair MP600 1TB* Samsung 980 Pro 1TB

Permalänk
Medlem

Alltid lika roligt att läsa trådarna folk blir så upprörda o sliter sig i håret över så små saker.

Varför inte bara vänta o se vad som händer, hellre vänta än köpa grisen i säcken. Tekniken går ju framåt så att dom skulle släppa något sämre är ju liten.

Japp Defender dom nya Gt korten har 65Nm

Visa signatur

Keep up the good work

Permalänk
Medlem

Så AMD:s dualgpu-kort måste slå Nvidias med säkerhet för att det ska vara ett vettigt kort att tillverka? Om vi kollar på priserna och prestandan och dessutom lägger till utlovat Crossfire-stöd i mars så ser jag verkligen inte hur AMD kan ha haft fel i att släppa 3780x2. Kortet tillåter lättare tillgång till eftermarknadskylare, kostar inte så fasligt mycket och har nog en hel del mognande kvar bakom framtida drivrutiner om man ska se på AMD:s historia vad gäller att släppa korten först och sedan jobba med drivrutinerna.

Poängen med Nvidias GX2-lösning känns svårare att nå, de har redan den s.k. "prestandatronen" och en ny generation kort på G. Varför ens ge sig in i dualkort-djungeln som knappast var lyckat med 7950GX2? Dessutom när lösningen ser ut som något de dragit ihop med silvertejp och karlssons klister under en firmafest under parollen: "Ska AMD ha ett kort med två GPU:s på så ska minsann vi också ha det! Ge mig silvertejpen och klistret och var fan är min grogg?!"

Kortet måste prissättas högt för att det ska lägga sig över 8800 Ultra, det kommer utveckla massor med värme och med stor sannolikhet mest orsaka problem för Nvidia. Sikta på nästa generation när ni ändå har marknaden under kontroll. AMD har lyckats fånga intresset med sitt kort i väntan på nästa generation, Nvidia känns mest fjantiga.

Visa signatur

Gör mitt bästa för att bemöta alla med respekt och vänlighet. Ha det fint!

Permalänk

Känns som det finns en del missförståelse över vad han egentligen menade i sitt engelska uttalande. Upperbarligen så pratar han om att "om man skall ha en 2gpu lösning (ett "add in card" kan vara både 1 eller 2 pcb's) och det är det bästa prestandan i världen så går konsumenten med på att det är en "stor" lösning (säkert fysiskt, ljudmässigt, elkosumtion och värmemässigt). Är inte lösningen bäst i världen prestanda-mässigt så är alla dessa egenskaper endast "problem" för konsumenten(och för ATI). Mao så tycker han att ATI's x2 inte är bättre än 8800GTX/Ultra och därmed onödigt för konsumenten och endast medför problem men också i samma uttalande förklarar han varför deras kommande super-feta bör existera överhuvudtaget (för att det kommer ha bäst prestanda i världen,,,enligt honom).

Han avslutar ju med att säga att det inte finns någon plats på marknaden för större, högljudare, varmare m.m. grafikkort om dom inte är bättre än existerande kort(med andra ord ATI's X2 kort i hans syn). Entusiasten köper dessa problem om dom får bäst prestanda helt enkelt (med andra or Nvidias kommande x2 kort).

Nä har jobbat natt och ska gå och lägga mig,,,

/Cheese

Visa signatur

/Anders

Permalänk
Medlem

För det första så kritiserar man inte motståndet när man slappar fram ett grafikkort som uppenbarligen är ren panik från nVidia.
Att dom ännu en gång tar 2st kort och lägger dubbelmacka är bara patetiskt.
Även fast konceptet är detsamma för HD3870X2 så var ATI/AMD smarta nog att dra båda GPUerna på samma PCB vilket för det något närmre visionen av att kunna skapa GPUer i stil med dagens dual och quad-cores.

Ta 2st 8800GTS, dra fram limpistol och göm allt det fula som dongles och kylning bakom lite plast med klistermärken så har du 9800GX2.
Usch, usch och usch för nVidia.

Visa signatur

I/O-Master 5000 @ 77GHz - 512kb tvärlatensminne - VengeanceXtremeDeathboard Socket-666 - Radeon RV100 DDR

Permalänk
Citat:

Ursprungligen inskrivet av ArtMan
Så detta kortet kommer prestera nästan som 2st 8800GTS 512 i SLI?

Vad är poängen med dessa kort egentligen om det redan finns 8800GTS 512 som kan köras i SLI? Behöver inte spelen stödja SLI när man kör med ett 9800 GX2?

Eftersom det är en intern SLI- brygga så kommer grafikkortet fungera utmärkt på de flesta moderkort UTAN SLI stöd.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Avstängd

Jag orkar inte läsa alla komentarer men jag undrar verkligen om nvidia vet vad pris/prestanda är längre. Att kommentera X2:an på det sättet de gjorde bevisar verkligen att de skiter i vad saker kostar. Inte konstigt man får sälja sin njure inför sitt ULTRA köp.

Skärp er Nvidia!

Visa signatur

Mmmarabou

Permalänk
Medlem

Det känns definitivt som ett omoget och desperat inlägg från nVidias sida.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av hunkaboy86
Det är klart att 9800GX2 kommer utprestera 3870X2. Det är ju typ två 8800GTS i SLI. Ett 8800GTS slår nästan ett 3870X2. Så det blir nog ingen flopp där inte.

tror att du inte förstog riktigt hur jag menade men om du hade läst mitt långa inlägg kanske du förstott. jag tror deras 9000 serie blir flop föra att den igentligen är gammal 2 kort i 1 så då lär folk satsa på 8000 serien och köra sli. orkar inte skriva så många förklaringar som jag gjorde på sida 3 varför jag tror det blir en flopp.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Triclone
Båda korten är säkert bra men, AMD/ATI`s lösning är mer som att köp en macka få lite extra ost, medans nvidias lösning är köp 2 mackor, Få extra allt.

ni fattar säkert var jag vill komma, jag anser bara att det verkar stabilare med 2 st ihopasatta kort än 1 kort med 2 gpu,

Skulle snarare säga... våran macka är så ostabil så vi var tvungen att göra en dubbel för att få det att hålla ihop.

Det positiva är att båda tillverkarna nu har kort med dubbla gpuer, det innebär att mjukvarutillverkarna får jobba utifrån de premisserna och det är nått som gagnar oss konsumenter.

Visa signatur

Du som inte behärskar när du skall använda de och dem så finns en mycket enkel lösning. Skriv dom så blir det inte fel.
Första egna datorn -> ZX Spectrum 48k '82.
Linux Mint, Asus B550-F, Ryzen 5600X, LPX 64GB 3600, GT730

Permalänk

Inte konstigt att Nvidia dödade 3dfx om de har den uppfattningen. Tycker 3dfx hade en väldigt sund inställning till flera processorer på samma kort - du konstruerar en gpu som skalar bra och låter sedan antalet gpu:er reglera prestandan snarare än att utveckla en triljon lika sorters gpu:er med olika prestanda. Ju högre volymer man kan producera något i ju billigare - right?

Budget Voodoo 4 hade en gpu, monstret Voodoo 5 6000 hade fyra stycken och det var möjligt att skapa lösningar med upp till 32 stycken processorer. Konkurrenten till Geforce 3 som nästan blev klar innan Nvidia köpte 3dfx skulle kunnat haft upp till gpu:er med inga till två hjälp-enheter.

Tänk var vi hade varit idag om inte Nvidia hade haft sin uppfattning att allt som går att göra i en gpu ska göras i en gpu och två gpu:er ska enbart ses som en sista utväg till högre prestanda.

Visa signatur

3dfx4life tycker jag - en bloggande och egenföretagande webbutvecklare.

Permalänk
Citat:

Ursprungligen inskrivet av Camper
Men då kan man ju fortsätta säga att ingen sportbil blir bättre för att man sätter in en till motor

http://howardscustomflatheads.com/images/dragster2_big.jpg

Visa signatur

Belysningstekniker låter väl lagom flummigt?
signature your as this use backwards this read to enough dumb were you if

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av DataNusse
Alla prat skit om varandra. Det är en del all markanden, av affärsvärlden. Om man trycker att det är sorligt då förtjänar man en snyting av realitet.

Man kan trash talk om konkurenten hur mycket man vill. Men i slutändan det som spelar roll är vem som har den största marknads andel och vem som har gjort bästa vinsten. Och sista jag tittade så va nVidia på toppen av ett berg av vinster och efterfråga, medans AMD var på ett, av problem och sjunkande marknadsandelar.

AMD klämmer ur sig ett kort som till sist slår konkurentens ett år gamla produkt och vissa börja dansar glada dansen. Och andra börja slänga förhäxningar på nVidia eftersom de gör vad ett företag gör. Kännar pengar!

m exakt och 9000 serien kommer inte gå mycket plus det måste man ju nästan förstå.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Hardware guy
Vad menas med frågan "Är två grafikprocessorer på samma kort en bra lösning?"

Alt1. Är SLI/CF med en PCIe-anslutning en bra lösning?
Alt2. Är 3870 X2 (ett pcb) en bättre lösning än 9800GX2 (två pcb)?

Avvaktar med min röst tills jag vet vad frågan gäller.

Tänkte lika som dig, men röstade ändå eftersom båda lösningarna är en dålig lösning.

Väntar tålmodigt på flerkärniga GPUs...

Visa signatur

En sann moddare blir aldrig klar.MBY är SWEC SSD Kung!
Har hängt här sedan 2002. Började modda vid P200. Har gröna datafingrar. -Och du undrar hur jag kan veta allt?!?!?

|4700K|HD7970matrix|16Gb|Seasonic x-650|WaterC DDC BIP120+MP-05|

Permalänk
Medlem

<B>Även 8000 serien har stöd för OpenGL 2.1</B> så det är inget nytt!
Håller med att ATI:s lösning är bättre med 2 CPU på samma bräda men HD 3870 X2 är ett sämre kort (för spel) än i alla fall 8800 Ultra.

För övrigt anser jag inte det är så intressant förrän HD 4850/HD 4870 samt 9800 GTX/9800 Ultra släpps! 8800 GT och 8800 GTS 512 MB som är ett G92 borde heta 9800 GT/9800 GTS för det är ju samma kärna!

Visa signatur

HTPC Lian Li PC-A05FNB | Intel Core i5-13400 | 32 GB DDR5-6000 | 4,5 TB SSD | RTX 4070 12 GB
Laptop Razer Blade 15 Base 2021 | Intel Core i7-10750H | 16 GB DDR4-2933 | 1,5 TB SSD | RTX 3070 8 GB
Laptop Lenovo ThinkPad E585 | AMD Ryzen 5 2500U | 16 GB DDR4-2400 | 756 GB SSD | Radeon Vega 8

Klocka GTX 460 med NiBiTor 5.8

Permalänk
Medlem

"If you want to put two GPUs on an add-in card and you deliver the absolute highest performance in the world, the enthusiast that uses that particular PC will certainly tolerate the fact that it’s a much larger solution. But if it’s not the highest performance solution in the world, as in the case of the X2, then it’s just really problematic."

Vad är det han säger här egentligen? 3870 X2 är lika långt som 8800 Ultra så även om det kanske inte är snabbare så kan det inte vara "problematiskt" eftersom det inte är "mycket större".

Visa signatur

CPU: Ryzen 5 1600 GPU: Asus GeForce GTX 1060 6GB DUAL Moderkort: MSI B350M Mortar
RAM: 16GB Corsair Vengeance DDR4 3200MHz PSU: Corsair RM750X
Laptop: ThinkPad T480s, Core i7 8550U, 16GB RAM Mobil: Samsung Galaxy S10

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Lasse Laserman
"If you want to put two GPUs on an add-in card and you deliver the absolute highest performance in the world, the enthusiast that uses that particular PC will certainly tolerate the fact that it’s a much larger solution. But if it’s not the highest performance solution in the world, as in the case of the X2, then it’s just really problematic."

Vad är det han säger här egentligen? 3870 X2 är lika långt som 8800 Ultra så även om det kanske inte är snabbare så kan det inte vara "problematiskt" eftersom det inte är "mycket större".

Han menar väl att det är lika stort som ett Ultra men presterar sämre (i spel) så det är ingen mening med ett så stort kort
Men om ATI HD 4870 /HD 4870 X2 släpps före nVidia 9800 GTX/9800 Ultra kommer ATI ta över prestandatronen igen tror jag

Visa signatur

HTPC Lian Li PC-A05FNB | Intel Core i5-13400 | 32 GB DDR5-6000 | 4,5 TB SSD | RTX 4070 12 GB
Laptop Razer Blade 15 Base 2021 | Intel Core i7-10750H | 16 GB DDR4-2933 | 1,5 TB SSD | RTX 3070 8 GB
Laptop Lenovo ThinkPad E585 | AMD Ryzen 5 2500U | 16 GB DDR4-2400 | 756 GB SSD | Radeon Vega 8

Klocka GTX 460 med NiBiTor 5.8