AMD och Nvidia om processorer och designval

Permalänk
Avstängd

Varför togs mitt in lägg bort? Äre inte alright att copypasta andras texter?

Visa signatur

ATI och NVIDIA är lika söta! <:]

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Michaela
JAg gillar ändå Nvidia bättre än ATI. Någonting att göra med att jag alltid har haft ATI kort i baktiden och datorn har inte fungerat felfritt. Fläktar som trillar av och till och med smälter. Ja ni hörde mig, fläktens stabiliserande hölje smälte...lixom vad i hvete? EJ ÖVERKLOCKAD.
Just nu kör jag lite budget dator, 9600GT och jag måste säga den är verkligen rock solid heart touching.
Fast när det kommer till sådana problem kanske man ska skylla på tillverkaren (sapphire) och inte ATI.

Alltid föredragit ATI sen jag köpte mitt 9700Pro, det har fortfarande bättre TV-out än dagens Nvidia, och jag blir helt tokig på Nvidias kontrollpanel, Atis känns bättre...

Tycker Nvidia va som bäst när dom lansera sitt första Geforce, det var tider det
Tror jag har mitt gamla Asus Geforce DDR Deluxe liggande nånstans ännu (Det var dom med 3d glasögonen

Permalänk

hehe gillade bilden där nvidia är en stor fet elefant och ati är 2 små elefanter P

Visa signatur

Gammal Värsting/ Core 2 Duo E6850 @3.6ghz / EVGA 680i Sli / Corsair Dominator 1066 4gb/ Gainward 8800 Ultra

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Gambit_2K
2 snabba ninjaelefanter utbildade in the art of Crossfire är bättre än 1 stor?

hehe nopp, man kan se det så här, två st söliga bilar kan aldrig komma ikapp en snabb bil

Visa signatur

>AMD Phenom™ 1055T@3,8Ghz + NH-D14|Gigabyte GTX460 1GB@ 850/2200mhz|Gigabyte 870A|A-Data 4GB Ram|CM HaF 912+|Creative X-Fi Titanium+Z-5500|Kingston SSD| Och lite till.<

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Frux
Ja, låt oss släppa loss ännu en tråd med kommentarer från Sweclockers professionella elektronikingenjörer, som med sin expertis förklarar varför kretskonstruktörerna på Nvidia är helt inkompetenta och inte har en aning om vad de sysslar med.

LOL kan du förklara hur sweclockers Experter fick ett amd system med en hd4850 att bara dra 62W i idel. Vad jag vet så finns det inget grafikkort idag som lyckas stänga av sig själv. 142W i idle hade varit en rimligare summa. Ja dom har ju gjort samma miss på flera HD4850

Permalänk

har aldrig riktigt gjillat Radeon kort förr , men blir nog ett Radeon HD 4870 X2 den här gången !:)

Visa signatur

Acer Aspire 5930 G

Permalänk
Medlem

ATI kör ju på rätt väg med flera grafikprocessorer på 1 kort. Nvidia's 9800GX2 är ju ett bra exempel på att det fungerar bra också, spöar ju gtx 280 i mååånga tester tex. Dock var ju 8800 Ultra ett bra enkärnigt kort också. Så båda vägar går bra men tror flerkärnigt är framtiden.

Visa signatur

PC1: Ryzen 7 2700X / Noctua NH-D15 / GTX 1080 / 16GB 3200MHz DDR4 / Win 10 / Asus Rog Strix X470-F / 500GB SSD / Define C
PC2: i7 7700k / Cryorig C7 / GTX 1060 6GB / 32GB 3200MHz DDR4 / Win 10 / Asus Strix Z270F / 500GB SSD / In-Win 904
PC3: i5 3570k / Be Quiet pure rock / GTX 960 / 8GB 1600MHz DDR3 / Win 10 / ASRock P67 Extreme4 / 80GB SSD / AeroCool Shard TG

Permalänk
Medlem

najs bild nvidia är en fet, rädd elefant!

Visa signatur

i5 750@3,57 Ghz (21x170) 1,225V|4GB OCZ DDR3 6-6-6-18 1333 Mhz|GTX470 @ 800 Mhz|Asus P7P55-M|Cooler master silent Pro M series 700W |A-data S596 64 GB SSD JMicron 612 |2 TB Samsung F3 RAID0| X-fi Music| IN-WIN Dragon Slayer|CoolerMaster TX3|

Permalänk
Medlem

Nvidias strategi skulle kanske fungera om de hade en starkare GPU, som de hade förra generationen. 8800Ultra och HD3870X2 var då ganska likvärdigt. Nu är ju faktiskt HD4870 nästan lika snabb som GTX 280 (10% långsammare). Så GTX 280 blir såklart överkörd av HD4870X2.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av piddeman
hehe nopp, man kan se det så här, två st söliga bilar kan aldrig komma ikapp en snabb bil

Man kan även se det såhär vilken kommer längst sammanlagt två bilar som kör i 200 eller en bil som kör i 300

Permalänk
Medlem

Den där feta nVidia elefanten kommer snart gå ner i vikt, genom att nVidia dom går i förlust just nu. ^^

Visa signatur

Kamera: D800
Optik:Nikkor 24-70mm f/2.8, Nikkor 70-200 f/2.8 VR, Sigma 50mm f/1.4, 500m f/4 VR

Permalänk

Tja, påminner faktiskt mycket om processorernas debatt och vilken riktning dessa kom att gå. Och förr eller senare så kommer det vara omöjligt att göra snabbare GPU kärnor och då är det kritiskt med flera långsammare kärnor istället...

Frågan är hur långt kvar det finns tills det tar stopp?

Visa signatur

Bianconeri siamo noi, ma chi cazzo siete voi?

Permalänk
Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Chibariku
Man kan även se det såhär vilken kommer längst sammanlagt två bilar som kör i 200 eller en bil som kör i 300

den som rullar i 300km/tim kommer såklart längst då den har högst utgångshastighet

Visa signatur

>AMD Phenom™ 1055T@3,8Ghz + NH-D14|Gigabyte GTX460 1GB@ 850/2200mhz|Gigabyte 870A|A-Data 4GB Ram|CM HaF 912+|Creative X-Fi Titanium+Z-5500|Kingston SSD| Och lite till.<

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Michaela
JAg gillar ändå Nvidia bättre än ATI. Någonting att göra med att jag alltid har haft ATI kort i baktiden och datorn har inte fungerat felfritt. Fläktar som trillar av och till och med smälter. Ja ni hörde mig, fläktens stabiliserande hölje smälte...lixom vad i hvete? EJ ÖVERKLOCKAD.
Just nu kör jag lite budget dator, 9600GT och jag måste säga den är verkligen rock solid heart touching.
Fast när det kommer till sådana problem kanske man ska skylla på tillverkaren (sapphire) och inte ATI.

Hade aldrig problem med mitt 9200, 9800pro eller x850pro. Mitt 9800pro spillde jag loka på under en wow raid och mitt x850pro flashade jag böt kylare och ökade volten tills jag klockade sönder den.

Hade två st 7900gt ett tappade gnistan efter 6månader artifacter och annat tjafs medans kylaren på andra kortet hade mekansika oljud. Ett av mina 8800gt har också fått otroligt hemska mekaniska läten under starten tills rivatuner sätter igång fläktarna. Jag har aldrig varit en fanboy köper alltid det som är bäst för stunden pris och prestanda. Säger inte att nvidia är dåliga är väldigt nöjd med dom korten jag haft.

Så jag fattar inte varför folk måste skydda nvidia just nu när äntligen ati har kommit om i det oändliga vasaloppet. Snart får väll nvidia i sig lite blåbärssoppa och tar sig förbi igen, precis som det ska vara.

Vad det gäller flera gpu's vem fan bryr sig bara prestandan ökar det är ju självklart att det kommer bli mer vanligt med flera gpu's på samma grafikort.

Permalänk
Medlem

Mycket offtoppic nu.

Det som talar för AMD är att de jobbar på att få en stabil och effektiv dubbelgup-lösning så när det verkligen är kört att få endast en stabil och prisvärd gpu. Det är svårt att hitta några argument rent ekonomiskt att inte göra som AMD har gjort med sina ATI-kort. De måste ju bara gå mer plus än nVidia per kort på det här sättet. Prestandamässigt och taktiskt för framtiden ser det också ut som en vinnande lösning. Vi får se vad som händer nästa höst och vad som finns ute då. Jag tvivlar på att en singelgpu-lösning på ett och samma kort är bäst om ett år.

Visa signatur

Is it "for fucks sake" or "for fuck sake"? Its for a work email so it has to sound professional.

Permalänk
Citat:

Ursprungligen inskrivet av piddeman
den som rullar i 300km/tim kommer såklart längst då den har högst utgångshastighet

Varför inte bara säga att bilen med två turboaggregat går fortare?

OffT:

Jag vågar nästan inte skriva i SweClockers forum längre. Hur man än uttrycker sig kommer man upplevas som en gnällig fanboy.

OnT:

Att Nvidia och AMD bygger upp grafikkorten på olika sätt har nog inget missat. Däremot tror även att AMDs sätt bör vara de mest lönsamma, då de får en märkbart lägre tillverkningskostnad.

Visa signatur

Citat:
Ursprungligen inskrivet av Zaturn87
Intel konkurrerar inte längre, de dödar...

Permalänk
Medlem

Jag är lite nyfiken vilka som är först och när de första dual-core GPU's släpps.. alltså 2 kärnor under en GPU

Visa signatur

Vem orkar uppdatera den här signaturen egentligen? Kommer ju ny teknik hela tiden :(

Permalänk
Trollfabrik 🫶🏻

Tycker att Nvidias VD ska släppa sina stolthet och fortsätta utvecklingen på multi-GPU lösningar och optimera SLI ännu mer på det sättet

Visa signatur

Kontaktas enklast via PM. Önskas svar i forumet citera mina inlägg eller pinga @Jacob. Finns även på Twitter.

"Science and technology have progressed to the point where what we build is only constrained by the limits of our own imaginations." – Justin R. Rattner

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Chibariku
Man kan även se det såhär vilken kommer längst sammanlagt två bilar som kör i 200 eller en bil som kör i 300

Fel, tänk på antalet personer som skall fraktas i vardera bil

Visa signatur

Intel Core i7 8700K, MSI GeForce GTX 1080 Ti 11GB Gaming X, Samsung 960 EVO 1TB, MSI Z370 GAMING M5, Corsair 32GB (4x8GB) DDR4 3200MHz CL16 Vengeance, EVGA Supernova G3 850W

INTEL CORE I7 3930K 3.20GHZ 12MB S-2011, FRACTAL DESIGN MIDITOWER DEFINE R3, CORSAIR HX 1050W, ASUS RAMPAGE IV FORMULA, Asus STRIX GTX970, CORSAIR 16GB DDR3 DOMINATOR QUAD 1866MHZ CL9 (4X4GB) Ljud: ASUS Xonar D2X/XDT 7.1 | Elac 5.1 +förstärkare | Cambridge dacmagic plus | Astro gaming A40 | Sennheiser HD 650
You ask me if I have a god complex? Let me tell you something, I am god!

Permalänk
Medlem

Bilden är helt underbar!

Permalänk

Fördelarna med dual-gpu är ju självklart de lägre utvecklingskostnader och nog lägre tillverkningskostnad också.
Det jag ser som nackdelarna är ju självklart det eviga stödet för Crossfire/SLI, vilket dock har blivit betydligt bättre i.o.m. att nästan alla "storsäljande" spel har stöd för det. Den andra nackdelen är ju att minnet inte delas, så att man måste alltså ha dubbelt så mycket minne.

Som utvecklingen har sett ut, men allt vanligare och bättre multi-gpu stöd i spel och låga minnespriser, så verkar ju ATI's lösning allt vettigare.
3870x2 övertygade mig absolut inte, men denna serie gör det. Undrar om det kan hålla sig i framkant genom att bara behöva koncentrera sig på en GPU för både toppskiktet och snäppet under.

Visa signatur

e6600@3.2GHz@1.35v + P5B deluxe + corsair 2gb pc6400 + HD4350 m.m.

Permalänk
Hjälpsam
Citat:

Ursprungligen inskrivet av sweclock£rs
Varför togs mitt in lägg bort? Äre inte alright att copypasta andras texter?

Man får inte tomcitera, alltså citera någon annan, utan att skriva någonting själv.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

Ironin i det hela är att AMDs GPU inte är så liten och "klen" som den ofta beskrivs som, när man pratar om de olika företagens metoder. Det är klart den är ju inte lika vass som nvidias 200 serie men specifikationerna (och prestandan) är inte långt ifrån tex GTX 260.

Ex:
GPU - Transistorer - Gigapixel - Gigatexel - Gflops - Minnesbandbredd

4870 - 956M - 12 - 30 - 1200 - ~115GB

GTX260 - 1400m - 16 - ~ 37 - 715 - ~112

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Yuong
Den där feta nVidia elefanten kommer snart gå ner i vikt, genom att nVidia dom går i förlust just nu. ^^

HAHAHA va du är "rolig" . Så kasst hahaha.

Permalänk
Hjälpsam

Off Topic: Två lastbilar som klarar 30 ton, klarar av att frakta mer grus än en som klarar 40 ton.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Ratatosk
Off Topic: Två lastbilar som klarar 30 ton, klarar av att frakta mer grus än en som klarar 40 ton.

Ja? Och 4 som är max för de svaga lastbilarna
Medans 3 av de starkare klarar samma mängd...
Vart vill du komma

Permalänk
Citat:

Ursprungligen inskrivet av boris_vodka
Ninjaelefanter?
Ser ni inte at de är brandmänn? Röda kläder med flourecerande(stavning?) neonränder, och syrgastuben på ryggen. Uppenbarligen ska de rökdyka där någonstans bakom den gröna elefanten.

Rättelse, de ska dyka i rökan på den gröna elefanten.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Ratatosk
Off Topic: Två lastbilar som klarar 30 ton, klarar av att frakta mer grus än en som klarar 40 ton.

jo du har rätt^^,

Men klart att X2'a tar ett singelkort, om dom gör GTX280x2 så äger såklart Nvidia Ati men priset på ett dual 280 kort WOPA! Oo

Visa signatur

>AMD Phenom™ 1055T@3,8Ghz + NH-D14|Gigabyte GTX460 1GB@ 850/2200mhz|Gigabyte 870A|A-Data 4GB Ram|CM HaF 912+|Creative X-Fi Titanium+Z-5500|Kingston SSD| Och lite till.<

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av NoCc
Jag är lite nyfiken vilka som är först och när de första dual-core GPU's släpps.. alltså 2 kärnor under en GPU

Det är redan gjort, grafikkort har redan flera parallella kärnor under gpun. Man kan inte jämföra cpuer mot grafikkort. De funkar inte lika = är bra på olika saker.

Visa signatur

Is it "for fucks sake" or "for fuck sake"? Its for a work email so it has to sound professional.