AMD vill ha öppen standard för stereoskopisk 3D

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av pa1983

AMD blev tillfrågade av Nvidia om dom ville använad PhysX gratis. Nvidia som sagt tar inget för PhysX och dom erbjöd AMD eller då ATI all rätt att köra det på sina GPU:er i ett samarbete med nvidia.

AMD/ATI fnyste bara av åt nvidia och bad dom stoppa skiten där solen inte skiner för ATI hade ju sitt egna överlägsna teknik på G. Jo tack stackars alla ATI anhägare som inte kan kör PhysX på GPU nu utan får nöja sig med att köra det på processorn. Snacka om att AMD/ATI egot gick före kundernas intresse.

Det här är fruktansvärt korkat. Tror du att Nvidia, som ett "friskt funtat företag" skulle ge bort PhysX gratis till deras enda konkurrent när de själva plöjt ner både pengar och tid i det? Knappast. Helt otroligt dumt. Jag förstår inte hur du, som annars alltid skriver vettigt, kunde komma fram till något sånt här. Om AMD tackade nej till PhysX var det antagligen för att avtalet var obemötligt eller licenskostnaderna för höga.

Sen förstår jag inte varför folk verkar tycka att det här är dåligt. En öppen standard är bättre än en stängd sådan - det vet nog alla. Om någon tror att AMD är sent ute, nja, snarare Nvidia som var lite för snabba. 3D i hemmet är fortfarande en bra bit ifrån att slå igenom. Just nu pratas det bara om det och kanske finns några få skärmar/TV ute som klarar av det. I övrigt finns det bara på papper. Allt i sin tid.

Sedan verkar vissa (mindre kloka) personer ha fått för sig att Nvidia skulle vara först med 3D... något sådant bemödar jag mig inte ens att bemöta, ni är hopplöst förlorade i okunnighet.

Ja, Nvidia har vissa tekniker de faktiskt har varit först med, AMD har sina. Det är så det fungerar. Det är inte så att AMD eller Nvidia sitter på tummarna i 3 år och väntar på att konkurrenten ska släppa något intressant som de kan kopiera till sin nästa GPU-ariktektur som ska släppas om några år.

Visa signatur

i5 4670k 4.2Ghz 1.2v
AMD R9 290
Windows 10

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Valiumballong
Det här är fruktansvärt korkat. Tror du att Nvidia, som ett "friskt funtat företag" skulle ge bort PhysX gratis till deras enda konkurrent när de själva plöjt ner både pengar och tid i det? Knappast. Helt otroligt dumt. Jag förstår inte hur du, som annars alltid skriver vettigt, kunde komma fram till något sånt här. Om AMD tackade nej till PhysX var det antagligen för att avtalet var obemötligt eller licenskostnaderna för höga.

Sen förstår jag inte varför folk verkar tycka att det här är dåligt. En öppen standard är bättre än en stängd sådan - det vet nog alla. Om någon tror att AMD är sent ute, nja, snarare Nvidia som var lite för snabba. 3D i hemmet är fortfarande en bra bit ifrån att slå igenom. Just nu pratas det bara om det och kanske finns några få skärmar/TV ute som klarar av det. I övrigt finns det bara på papper. Allt i sin tid.

Sedan verkar vissa (mindre kloka) personer ha fått för sig att Nvidia skulle vara först med 3D... något sådant bemödar jag mig inte ens att bemöta, ni är hopplöst förlorade i okunnighet.

Ja, Nvidia har vissa tekniker de faktiskt har varit först med, AMD har sina. Det är så det fungerar. Det är inte så att AMD eller Nvidia sitter på tummarna i 3 år och väntar på att konkurrenten ska släppa något intressant som de kan kopiera till sin nästa GPU-ariktektur som ska släppas om några år.

Det är känt facktum. Sedan att dom flesta redan glömt av det är inte mitt problem. Var tom nyhet på Sweclockers. PhysX må ligga under licens men fritt för vem som helst att använda. Nvidia erbjöd sig att samarbeta med ATI så att båda kan köra PhysX. ATI var för fina för det och gav nvidia fingret helt enkelt. Sedan tog det inte låg tid innan Nvidia sa att PhysX enbart kommer gå att köra på nvidia kort om renderigskortet är nvidia med. Och det var mer eller mindre rätt åt ATI anser jag.
Och alla kan köra PhysX på sin CPU villket fugnerar bra det med. Knappast så att det spelar roll för ATI användare då dom inte kan göra annat ändå pga ATI inte fått ut ett alternativ ändå. Men det dög inte som sagt.

Bara för du samarbetar med en annan tillverkare så ger du inte bort rättigheterna. Nvidia äger fortfarande PhysX. Därimot hade ATI kunnat skylta med att deras kort också kan köra PhysX så du lika väl kunde valt ATI om det föl dig i smaken. Men det passade inte ATI då dom inte ville ha med PhysX att göra och det tog nvidia med eller mindre bokstavligt talat.

Så du fattar tydligen inte skillnaden mellan att äga rättigheterna och rätten att göra vad man vill med dessa rättigheter. Vill Nvidia samarbeta och låta ATI köra PhysX så kan dom göra det.
Tanken bakom det är ju rätt uppenbar. Ju mer PhysX växer ju lättare blir det att motivera köp av bra GFX kort eller extra GFX kort antigen det är ATI eller Nvidia. Så tanken var väl lite Win win där.

ATI bevisar ju nu hur korkade dom var att tacka nej. Dom har inte haft ett enda svar på tal sedan dess. 3-4 år sedan dom visade GPU accelererat fysik demo och dom hamnar bara efter för varje dag som går och nu börjar dom kasta koskit efter nvidia för dom innset att tåget redan gått. Dom hade sin skans men tog den inte.

Tror igen här är i mot en öppen standard. jag om någon är för den. Varför tror du jag kör linux? Men ATI har ju bevisat med alla sina "Öppna" projeckt att det är en gimick. Blås kudnerna och se hur actien går upp.

Öppna brojeckt är bara mer värda om dom gör samma sak lika bra eller näst intill. Är dom vapor ware så är dom inte värda ett piss. Ända värdet dom har är att gom får acktier att gå upp temporärt tills någon blri sur för inget resultat kommer av det hela.

Så du får tycka vad du vill om mina dumma komernatarer.

Jag tycker PC gamers är dom mäst bortskämda kidsen på blocket vad det gäller datorer. Dom har mage att gnälla när dom inte betalar för spelen. Dom har mage att gnälla när tillverkare som ATI, Nvidia, AMD, Intel mm sponsrar speltillverkarna för då måste det vara fuffens på G och så fort en Gamer inte ser sitt favoritföretags logga vid introt så tar det hus i helvete för då är spelet uppenbarligen fifflat med också.

Ska vara jäkligt glada att någon bryr sig om PC Gamers i dag.
Jag bryr mig inte om det lägre då det finns konsoler.

Permalänk
Citat:

Ursprungligen inskrivet av fog
Får hoppas man är dålig skytt med andra ord.

Det var kanske bara jag som tolkade ditt inlägg som att AMD inte uppfinner något själva utan bara snor andras verk, det kanske inte var så du menade? Min poäng var just att det är tack vare AMD vi idag sitter med processorer kapabla att utföra både 32- och 64bitars instruktioner. Så de tillför med andra ord något.

Kan hålla med om att det var ett dåligt exempel, men man kan ju dra det hur långt som helst: Vem upptäckte att kisel var ett bra material att använda i halvledare, vem upptäckte elektriciteten?

Hey!

Nope, var inte så jag menade och då formulerade jag mig korkat i så fall.

Vad gäller 32 och 64 bitars arkitekturen så har du delvis rätt. Sedan får vi inte glömma IBM.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Medlem

Satte mig ned och började läsa denna tråd igen och förstod inte riktigt hur så många inte kan känna till att det finns 3D produkter för ATI korten då det fanns nyheter om det här på sweclockers förut men så ser jag denna post.

Citat:

Ursprungligen inskrivet av Ratatosk
Märklig kritik av ATI vad gäller 3D och fysik.

Har funnits en lösning för 3D med ATI-kort länge nu.
Väldigt liten marknad dock precis som det är för Nvidias 3D-lösning.
http://www.iz3d.com/driver
Här är en länk för Anaglyphiiska glasögon för er som vill testa en billigare och sämre lösning.
http://www.berezin.com/3D/3dglasses.htm

Nvidia har hunnit längre vad gäller fysik, det är väl inte konstigt med tanke på att Nvidia köpte en färdig lösning?
Men vare sig ATI:s eller Nvidias grafikkort är speciellt lämpliga till att accellera fysik, så fysik via GPU:n är mest en försäljningsgimmick från bägge lägren.
Nonetheless GPUs are built around a larger number of longer latency, slower threads, and designed around texture & framebuffer data paths; this distinguishes them from PPU's & the Cell as being less well optimized for taking over game world simulation tasks.
http://en.wikipedia.org/wiki/Physics_processing_unit

Vare sig stereoskipisk 3D och hårdvaruaccellerad fysik är inget stort ännu, men ATI:s öppna lösning har större möjlighet att lyckas på lite sikt, folk vill inte stänga in sig i slutna standarder.
Det är också trist att se hur en del försöker att framställa en öppen lösning som något negativt.

Tycker också anklagelserna om fanboyism, är värre än fanboyismen, man måste väl kunna ha olika uppfattning om saker och ting, utan att kalla varandra fanboys.

+1
Fast jag kanske tycker lite annorlunda om det senare, pa1983, igelkotte, Gender Bender, Zcenicx för att ta några exempel verkar vara fanboys så det heter duga, inte mycket objektivt i deras poster. Jag kan ha missuppfattat någon men tror inte det..

Se detta, vilket dravell

Citat:

Ursprungligen inskrivet av pa1983
[B]Det är känt facktum. Sedan att dom flesta redan glömt av det är inte mitt problem. Var tom nyhet på Sweclockers. PhysX må ligga under licens men fritt för vem som helst att använda. Nvidia erbjöd sig att samarbeta med ATI så att båda kan köra PhysX. ATI var för fina för det och gav nvidia fingret helt enkelt. Sedan tog det inte låg tid innan Nvidia sa att PhysX enbart kommer gå att köra på nvidia kort om renderigskortet är nvidia med. Och det var mer eller mindre rätt åt ATI anser jag.

Om nvidia hade erbjudit ATI att vara med på samma villkor och bygga en öppen standard så hade de givetvis varit med men nu var det inte riktigt så eller hur?
Du tycker det dessutom är bra att kunder som har betalat för nvidia kort inte kan använda nvidia korten om de också använder kort från annan tillverkare, vadå nvidia fanboy???

Länge leve ( prestanda + funktioner ) / pris = vinst

Visa signatur

Intel Core i7 8700K, MSI GeForce GTX 1080 Ti 11GB Gaming X, Samsung 960 EVO 1TB, MSI Z370 GAMING M5, Corsair 32GB (4x8GB) DDR4 3200MHz CL16 Vengeance, EVGA Supernova G3 850W

INTEL CORE I7 3930K 3.20GHZ 12MB S-2011, FRACTAL DESIGN MIDITOWER DEFINE R3, CORSAIR HX 1050W, ASUS RAMPAGE IV FORMULA, Asus STRIX GTX970, CORSAIR 16GB DDR3 DOMINATOR QUAD 1866MHZ CL9 (4X4GB) Ljud: ASUS Xonar D2X/XDT 7.1 | Elac 5.1 +förstärkare | Cambridge dacmagic plus | Astro gaming A40 | Sennheiser HD 650
You ask me if I have a god complex? Let me tell you something, I am god!

Permalänk
Medlem

Fins separata 3D lösnignar som fungerar med i princip alla 3D kort ja funnits sedan 80 talet i alla fall även med icke 3D accelererade kort. Tom Sega megadrive hade shutter glasses som tillbehör för consoler.

Funnits till PC sedan dess med då folk använde dom dit också.

Ja nvidia har både prestanda och fuktioner och bra pris.

köpte 2st GTX260 55nm 216sp i sommras alltså 9 månader sedan för 1495Kr styck. Köpte ett GTX260 55nm 216sp en månad innan dess för 1395Kr styck alla på komplett. Det är prisvärt om något.

Köpte hem ett HD5850 till farsan för ett par månder sedan. Det kostade 3000Kr och visst är det snabbare men det är inte dubbelt så snabbt. Det kostar desutom 2 gånger mer.

Men är igen här inte ens jag som sagt att ATI år lågsamma tex. Jag har ägt och äger ATI kort själv i en eller annan usträckning. Har testade både HD4XXX och HD5XXX kort så som HD4670, HD5750 och HD5850 som jag mins just nu.

Men jag finner fler Pros med nvidia och fler Cons med ATI i mitt fall.

Framförallt handlar dessa trådar om hur ATI gämt tjurar över nvidias sätt att facktiskt lyckas få ut sina produckter och ATI tycker det är så förbarnat orättvist och då börjar man mutanklaga konkurenterna med.
Nvidia talar sällan om vad dom kommer släppa innan dom facktiskt har nåt som är mer eller mindre färdigt. ATI snackar om fysik än 3-4 år senare efter deras Demo kördes på ett grafikkort.

Jag är absolut igen fanboy. Så jävla princip fast är jag inte att jag inte väljer vad som passar bäst vid ett specefikt tillfälle och passar ett ATI kort så köper jag det. Sedan att nvidia passar mig bäst i nästan alla lägen anser jag bero på att nvidia erbjuder mervärde.

Jag själv är extremt tröt på företag som lovar och lovar men ej levererar.
man läser hur folk säger, "ja men det kommer stöd snart" sedan kommer hen hel ny generation kort och alla köper dom utan att ens nytjat den där tekniekn som skulle kommit med föra kortet dom köpte för just det. Så typiskt.
Och då kommer ju Fermi kängan direckt om man säger det. Ja dom flesta vet att det är sent. ATI var sena med men mycket av dessa problem är pga tillverknigsproblem som jag tror kommer bli allt vanligare för alla tillverkare i framtiden och ja Nvidia skulle inte sattsat på en 3 Miljarder transistor GPU.
tar inte ett geni att räkna ut det då TSMC hade problem som det var.

Jag kör extremt blandat med hårdvara hemma, AMD, Intel, VIA, IBM CPU'er. AMD, INTEL, VIA, ATI, Matrox GPU:er.
Har nog mer blandat än dom flesta här.

Det som stör mig är ATI's metoder att kasta skit, låva saker dom inte håller. Produckter från sådana företag vill inte jag ha. Vill nån annan det så varsågod så länge köparen är nöjd.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av mrfisse
Båda lägren snackar givetvis skit, men av någon anledning glorifieras ATI när de gör det och Nvidia blir utnämnd till satan själv. Igelkotte är ett sådant exempel, Nvidia har på något sätt dragit på sig ett hat från honom som närmst kan liknas vid det hat som man kan känna till någon som våldtagit och sedan mördat ens familj. Tycker bara det är intressant, vart kommer det ifrån?

Jag måste bara fråga men om ATI misslyckas och Nvidia lyckas då stängs väl ATI ut? Tycker du att det är rätt väg att gå att stänga ut konkurrenter?

Jag har haft ungefär 50/50 ATI och Nvidia grafikkort så kalla mig fanboy om du vill. Jag tycker inte om när företag stänger ut andra så därav är jag negativ mot Nvidia om du förstår? Men det innebär inte att jag tycker Nvidia har skräp grafikkort eller dåliga lösningar snarare tvärtom.

Visa signatur

Intel Pentium 2 MMX 233 @263 MHz, 192 mb, Nvidia TNT 16mb, 40gb hdd

Permalänk
Antielefant
Citat:

Ursprungligen inskrivet av IceDread
Blah Blah

AMD har inget eget 3D-system, utan coastar på mindre lösningar andra företag tagit fram, med tveksam kvalitet och inget eget ansvar för tekniken.

"Om nvidia hade erbjudit ATI att vara med på samma villkor och bygga en öppen standard så hade de givetvis varit med men nu var det inte riktigt så eller hur?"

Nej. De gjorde nu inte det, utan bjöd in AMD att samarbeta med PhysX (en låst standard) utan att AMD skulle behöva betala för det. Anledningen att AMD tackade nej kan man fråga sig men det finns två riktigt bra gissningar, och det är antagligen en kombination.
- Radeonkorten orkar inte köra GPGPU på den nivån samtidigt som 3D körs
- När NVidia erbjöd PhysX och CUDA till AMD var AMD och Intel på gång med att försöka plocka ihop en GPU-accelererad Havok (som Intel äger, btw).

Oavsett vilket är det inte NVidias fel att AMD la sina nötter ihop med luftslottet Larrabee och därför ignorerade NVidia's erbjudande. NVidia svarade genom att låsa ut AMD.

Nå, AMD gör inte alls dåliga grafikkort, men faktum är och faktum kvarstår att det ENDA de är bra på är att göra grafikkort som funkar bra i spel. Det har inget med fanboyism att göra, det är rent fakta.

- Stream fungerar uselt vs CUDA (ett GTX260 har mer FLOPS än ett HD5870) och CUDA har dessutom slagit igenom med både Quadro och Tesla.

- De har inget eget fysiksystem (och deras eget demo presterade skit vs PhysX) medan NVidia bland annat fick in stödet i PS3-an och 360-an, och inte minst i ett antal stora spelmotorer, främst Unreal Engine. Faktum kvarstår dock att PhysX är det ENDA fysiksystem som existerar som drivs av GPGPU.

- De har inget eget 3D-system, NVidia har två(!) och fem av marknadens största skärmtillverkare på tåget (Samsung, Sony, Panasonic, LG och ViewSonic). De stöder dessutom både shutters och polariserade glas, vilket de är ensamma om.

- Deras Eyefinity är en kopia på en teknik Matrox sålt i vad? 4-5 år? Och den enda skillnaden mot NVidias Dualview är att Eyefinity tar tre skärmar. GT100 ska göra det den också, men dessutom ge Tripleview i 3D.

VAD HAR AMD ATT STOLTSERA MED?

Faktiskt exakt samma sak som på processorsidan. Ofta bättre pris/spelprestanda, men ska du göra annat än spela är de inte riktigt helt med längre.

Visa signatur

i7-12700KF | 128 GB DDR4-4000 | RTX 4080 | Samsung 990 Pro | 3xAcer XB270HU G-Sync

Permalänk
Hjälpsam
Citat:

Ursprungligen inskrivet av Zcenicx
AMD har inget eget 3D-system, utan coastar på mindre lösningar andra företag tagit fram, med tveksam kvalitet och inget eget ansvar för tekniken.

Finns inget som säger att denna lösning är sämre.

Citat:

Ursprungligen inskrivet av Zcenicx

"Om nvidia hade erbjudit ATI att vara med på samma villkor och bygga en öppen standard så hade de givetvis varit med men nu var det inte riktigt så eller hur?"

Nej. De gjorde nu inte det, utan bjöd in AMD att samarbeta med PhysX (en låst standard) utan att AMD skulle behöva betala för det. Anledningen att AMD tackade nej kan man fråga sig men det finns två riktigt bra gissningar, och det är antagligen en kombination.

Vanligt ryckte på Internet men fortfarande fel.
Nvidia har sagt att PhysX är gratis för utvecklare, inte att det är gratis för AMD att implementera PhysX på sina grafikkort.
AMD har också dementerat ryktet ett antal gånger.
Nvidia kan däremot tänka sig att licenciera CUDA och därmed PhysX dyrt till AMD, vilket inte AMD har ansett varit värt pengarna.

Citat:

Ursprungligen inskrivet av Zcenicx

- Radeonkorten orkar inte köra GPGPU på den nivån samtidigt som 3D körs
- När NVidia erbjöd PhysX och CUDA till AMD var AMD och Intel på gång med att försöka plocka ihop en GPU-accelererad Havok (som Intel äger, btw).

Bara snack och högflygande spekulation.

Citat:

Ursprungligen inskrivet av Zcenicx

Oavsett vilket är det inte NVidias fel att AMD la sina nötter ihop med luftslottet Larrabee och därför ignorerade NVidia's erbjudande. NVidia svarade genom att låsa ut AMD.

Fortfarande bara snack och högflygande spekulation.

Citat:

Ursprungligen inskrivet av Zcenicx

Nå, AMD gör inte alls dåliga grafikkort, men faktum är och faktum kvarstår att det ENDA de är bra på är att göra grafikkort som funkar bra i spel. Det har inget med fanboyism att göra, det är rent fakta.

Ja dom funkar bra i spel, men deras Stream är ganska vasst.

Citat:

Ursprungligen inskrivet av Zcenicx

- Stream fungerar uselt vs CUDA (ett GTX260 har mer FLOPS än ett HD5870) och CUDA har dessutom slagit igenom med både Quadro och Tesla.

Stream är svårare att programera än Cuda och Cudas Kompilatorer är mer mogna än Streams.
Men när man optimerar för Stream fungerar det bättre än Cuda framförallt för långa flyttal.

Citat:

Ursprungligen inskrivet av Zcenicx

- De har inget eget fysiksystem (och deras eget demo presterade skit vs PhysX) medan NVidia bland annat fick in stödet i PS3-an och 360-an, och inte minst i ett antal stora spelmotorer, främst Unreal Engine. Faktum kvarstår dock att PhysX är det ENDA fysiksystem som existerar som drivs av GPGPU.

Det var inte Nvidia som fixade PhysX till X-box och PS3 det var Ageia, Nvidia köpte Ageia efter det att x-box 360 och PS3 kommit ut.

Citat:

Ursprungligen inskrivet av Zcenicx

- De har inget eget 3D-system, NVidia har två(!) och fem av marknadens största skärmtillverkare på tåget (Samsung, Sony, Panasonic, LG och ViewSonic). De stöder dessutom både shutters och polariserade glas, vilket de är ensamma om.

Behöver inte vara eget, enda som krävs är att det finns.

Citat:

Ursprungligen inskrivet av Zcenicx

- Deras Eyefinity är en kopia på en teknik Matrox sålt i vad? 4-5 år? Och den enda skillnaden mot NVidias Dualview är att Eyefinity tar tre skärmar. GT100 ska göra det den också, men dessutom ge Tripleview i 3D.

Tre skärmar fungerar bättre än två för spel, eftersom kanterna är mindre iriterande där.
GT100 kräver SLI för att fixa 3 skärmar.

Citat:

Ursprungligen inskrivet av Zcenicx

VAD HAR AMD ATT STOLTSERA MED?

Faktiskt exakt samma sak som på processorsidan. Ofta bättre pris/spelprestanda, men ska du göra annat än spela är de inte riktigt helt med längre.

Japp bättre pris/spelprestanda, tack för det, och 95% som köper ett kraftfullt grafikkort gör det för att spela med.

edit: @ IceDread Du har rätt, jag tar tillbaka vad jag skrev.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Citat:

Ursprungligen inskrivet av Ratatosk
edit: @ IceDread Du har rätt, jag tar tillbaka vad jag skrev.

Vad hände?

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Zcenicx
blah blah

Du har ju så fel men så är det ofta med fanboys att verkligheten inte spelar någon roll. Du hävdar att ATI är dåliga för allt annat än spel? Det är fel.

Nu kan jag inte hitta jämförelsen men det spelar nog ingen roll för vilken data man än presenterar så är ju nvidia bäst? ATI är bättre än nvidia för grafiker, betydligt mycket bättre prestanda.

Visa signatur

Intel Core i7 8700K, MSI GeForce GTX 1080 Ti 11GB Gaming X, Samsung 960 EVO 1TB, MSI Z370 GAMING M5, Corsair 32GB (4x8GB) DDR4 3200MHz CL16 Vengeance, EVGA Supernova G3 850W

INTEL CORE I7 3930K 3.20GHZ 12MB S-2011, FRACTAL DESIGN MIDITOWER DEFINE R3, CORSAIR HX 1050W, ASUS RAMPAGE IV FORMULA, Asus STRIX GTX970, CORSAIR 16GB DDR3 DOMINATOR QUAD 1866MHZ CL9 (4X4GB) Ljud: ASUS Xonar D2X/XDT 7.1 | Elac 5.1 +förstärkare | Cambridge dacmagic plus | Astro gaming A40 | Sennheiser HD 650
You ask me if I have a god complex? Let me tell you something, I am god!

Permalänk
Antielefant
Citat:

Ursprungligen inskrivet av IceDread
Du har ju så fel men så är det ofta med fanboys att verkligheten inte spelar någon roll. Du hävdar att ATI är dåliga för allt annat än spel? Det är fel.

Tyvärr är det ren fakta. Borträknat spel är AMD så hopplöst efter i GPGPU att (som sagt förut) ett GTX260 är snabbare än ett 5870.

Citat:

Nu kan jag inte hitta jämförelsen men det spelar nog ingen roll för vilken data man än presenterar så är ju nvidia bäst? ATI är bättre än nvidia för grafiker, betydligt mycket bättre prestanda.

I dag är AMD bättre i spel. Om en vecka får vi se, GT100 lär vända på det igen. Jämför man samma generation grafikkort däremot brukar spelprestandan sällan om någonsin skilja sig så mycket per krona (4870/GTX260, 4890/GTX275 osv).

Förra generationen hade NVidia kronan med GTX 285 och 295, just nu har AMD den med 5870/5970. Vi får helt enkelt se vad som händer med GTX 470/480!

Visa signatur

i7-12700KF | 128 GB DDR4-4000 | RTX 4080 | Samsung 990 Pro | 3xAcer XB270HU G-Sync

Permalänk
Citat:

Ursprungligen inskrivet av IceDread
Du har ju så fel men så är det ofta med fanboys att verkligheten inte spelar någon roll. Du hävdar att ATI är dåliga för allt annat än spel? Det är fel.

Nu kan jag inte hitta jämförelsen men det spelar nog ingen roll för vilken data man än presenterar så är ju nvidia bäst? ATI är bättre än nvidia för grafiker, betydligt mycket bättre prestanda.

Vänta lite, har du totalt missat alla CAD-kort från Nvidia?

Sedan får du ju hitta jämförelsen innan du motargumenterar andra.

EDIT: Gäller självklart alla andra också.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Zcenicx
blah blah

När nvidia kommer med sina kort så har de fortfarande inte ett enda kort som är bättre än ATI's bästa. Rätt tråkigt för oss konsumenter som vill ha prispress och hög utvecklingstakt.

Visa signatur

Intel Core i7 8700K, MSI GeForce GTX 1080 Ti 11GB Gaming X, Samsung 960 EVO 1TB, MSI Z370 GAMING M5, Corsair 32GB (4x8GB) DDR4 3200MHz CL16 Vengeance, EVGA Supernova G3 850W

INTEL CORE I7 3930K 3.20GHZ 12MB S-2011, FRACTAL DESIGN MIDITOWER DEFINE R3, CORSAIR HX 1050W, ASUS RAMPAGE IV FORMULA, Asus STRIX GTX970, CORSAIR 16GB DDR3 DOMINATOR QUAD 1866MHZ CL9 (4X4GB) Ljud: ASUS Xonar D2X/XDT 7.1 | Elac 5.1 +förstärkare | Cambridge dacmagic plus | Astro gaming A40 | Sennheiser HD 650
You ask me if I have a god complex? Let me tell you something, I am god!

Permalänk
Citat:

Ursprungligen inskrivet av IceDread
När nvidia kommer med sina kort så har de fortfarande ett kort som är bättre än ATI's bästa. Rätt tråkigt för oss konsumenter som vill ha prispress och hög utvecklingstakt.

Det är just prisreduceringar som blir effekten samt att utvecklingstakten ökar.

Om det till exempel bara finns en tillgänglig aktör på marknaden som har någonting vettigt att komma med så finns det inga anledningar, från i detta fallet AMD att sänka priser eller öka takten på utvecklingen.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Zcenicx
- Stream fungerar uselt vs CUDA (ett GTX260 har mer FLOPS än ett HD5870) och CUDA har dessutom slagit igenom med både Quadro och Tesla.

Nog för att CUDA är mer moget ännu (OpenCL/DirectCompute tar väl över iofs) men att säga att GTX260 klarar fler FLOPS än 5870 är att ljuga. 5870 klarar 2,72 TeraFLOPS och GTX260 bara 0,72-0,80 TeraFLOPS. Det är med 32-bit flyttal. Vill man ha 64-bit flyttal är skillnaden ännu större.

Det här säger lite om vilken beräkningskapacitet AMD/ATI-korten har:

http://www.brightsideofnews.com/news/2010/3/16/ati-radeon-hd-...

Nu är det iofs kanske inte så rättvis jämförelse eftersom ATI-korten har kodats i ett låg-nivå språk vilket gör att man kan få ut mer av prestandan. Ganska tufft ändå att se hur mycket snabbare GPU:er är gentemot processorer.

Visa signatur

AMD Ryzen 5 3600 | 4x8GiB 18-20-16-36-52-2T DDR4-3400 | MSI B450-A Pro Max AGESA 1.2.0.7 | Sapphire RX 480 Nitro+ OC 8GiB | Crucial MX500 500GB | PNY CS900 2TB | Samsung 850 EVO 500GB | Samsung PM961 512GB | Scythe Kamariki 4 450W

Permalänk
Antielefant

m3tr0:
Skillnaden är hur mycket av de FLOPS kortet teoretiskt kan lämna som du faktiskt kan utnyttja via GPGPU-tillämpningar, vilket var min poäng. Självklart har ett 5870 betydligt högre beräkningskapacitet totalt, men i GPGPU är det så ineffektivt utnyttjat att 260't faktiskt är snabbare (fler FLOPS tillgängliga).

DirectCompute är nästa steg, och tyvärr är CUDA och DC nära nog direkt kompatibla (NVidia's drivrutiner och CUDA-drivare täcker skillnaden) vilket även gjort att samtliga CUDA-kort har fullt stöd för DC. Även här är dock NVidias kort mycket mer effektiva. Samma gäller tyvärr OpenCL även om skillnaden där är väldigt olika beroende på HUR du kodar. NVidia är enklare att utnyttja, men kodar du rätt kan AMD bita de med.

Radeonkorten är inte dåliga, men deras Stream Processors är, iaf inte i dagsläget, inte lika bra på att utföra GPGPU-beräkningar som NVidia's CUDA cores är.

Pratar vi däremot 3D-kapacitet är jämförelsen helt annorlunda, men det var inte det jag gjorde.

Visa signatur

i7-12700KF | 128 GB DDR4-4000 | RTX 4080 | Samsung 990 Pro | 3xAcer XB270HU G-Sync

Permalänk
Antielefant
Citat:

Ursprungligen inskrivet av IceDread
När nvidia kommer med sina kort så har de fortfarande inte ett enda kort som är bättre än ATI's bästa. Rätt tråkigt för oss konsumenter som vill ha prispress och hög utvecklingstakt.

Min gissning är att 480 kommer att konkurrera direkt med 5870, antagligen landar det på 10-15% snabbare, och 470/5850 borde vara ungefär likadant.

Däremot skulle det förvåna mig om NVidia inte släpper ett kort som slåss med 5970 inom en snar framtid, men kom ihåg att AMD inte släppte 5970 förrän ganska långt efter det att 5870 kom. Samma gäller för den delen i förra generationen, GTX 295 dröjde rätt länge.

Anledningen är egentligen rätt enkel. Dubbelmackor är inte direkt nån kassako och efterfrågan är nästan skrattretande låg. Visst, de är snabba, men konceptet kallas på engelskt fackspråk som "prohibitively expensive".

Intel stötte på den stötstenen med Socket 1366, det blev så dyrt att folk ryggade tillbaka och antingen sket i att uppgradera eller valde AMD istället trots att det inte var riktigt lika snabbt.

Det gäller alltså att fokusera på kassakorna, inte bara på varor som inte ens 0,5% av marknaden mer än drömmer om.

Inte ens 5870 är nån riktig kassako, utan de kort AMD faktiskt tjänar de mesta av sina pengar på är 5770 och neråt, precis som NVidia tjänar mest på x50 och neråt. Allt över det är prestige och PR, men det är inte det du lever på.

Visa signatur

i7-12700KF | 128 GB DDR4-4000 | RTX 4080 | Samsung 990 Pro | 3xAcer XB270HU G-Sync

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Zcenicx
Självklart har ett 5870 betydligt högre beräkningskapacitet totalt, men i GPGPU är det så ineffektivt utnyttjat att 260't faktiskt är snabbare (fler FLOPS tillgängliga).

Har du nån källa till det påståendet?

Visa signatur

AMD Ryzen 5 3600 | 4x8GiB 18-20-16-36-52-2T DDR4-3400 | MSI B450-A Pro Max AGESA 1.2.0.7 | Sapphire RX 480 Nitro+ OC 8GiB | Crucial MX500 500GB | PNY CS900 2TB | Samsung 850 EVO 500GB | Samsung PM961 512GB | Scythe Kamariki 4 450W

Permalänk
Antielefant
Visa signatur

i7-12700KF | 128 GB DDR4-4000 | RTX 4080 | Samsung 990 Pro | 3xAcer XB270HU G-Sync

Permalänk
Medlem
Citat:

Nåt annat än folding@home? Jag vet att ATI-korten presterar kasst i f@h men jag tvekar lite på att det beror på ATi-korten då många andra GPGPU-projekt (distributed.net, milkyway@home, collatz conjecture, ...) får så mycket bättre resultat. Vetefan vad Pandelab håller på med men å andra sidan kommer GPU3-klienten snart (hoppas jag) vilket förhoppningsvis förbättrar resultaten (helt ny kodbas iaf).

Visa signatur

AMD Ryzen 5 3600 | 4x8GiB 18-20-16-36-52-2T DDR4-3400 | MSI B450-A Pro Max AGESA 1.2.0.7 | Sapphire RX 480 Nitro+ OC 8GiB | Crucial MX500 500GB | PNY CS900 2TB | Samsung 850 EVO 500GB | Samsung PM961 512GB | Scythe Kamariki 4 450W

Permalänk
Antielefant

Finns inte så många program ute som kör DirectCompute än så svårt att svara på. F@H är ju det vanligaste för GPGPU idag, och vi får se om DC-versionen av det gör nån skillnad (kommer i Juni, sist jag hörde?)

Visa signatur

i7-12700KF | 128 GB DDR4-4000 | RTX 4080 | Samsung 990 Pro | 3xAcer XB270HU G-Sync

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Zcenicx
Finns inte så många program ute som kör DirectCompute än så svårt att svara på. F@H är ju det vanligaste för GPGPU idag, och vi får se om DC-versionen av det gör nån skillnad (kommer i Juni, sist jag hörde?)

Vanligaste vetefan. Möjligen det mest kända "@home"-projektet. Finns iofs en superdator i Kina som består av sjukt många HD4870x2 så nånting verkar ju ATI/AMD bidra med på GPGPU-fronten.

Visa signatur

AMD Ryzen 5 3600 | 4x8GiB 18-20-16-36-52-2T DDR4-3400 | MSI B450-A Pro Max AGESA 1.2.0.7 | Sapphire RX 480 Nitro+ OC 8GiB | Crucial MX500 500GB | PNY CS900 2TB | Samsung 850 EVO 500GB | Samsung PM961 512GB | Scythe Kamariki 4 450W

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Zcenicx
Finns inte så många program ute som kör DirectCompute än så svårt att svara på. F@H är ju det vanligaste för GPGPU idag, och vi får se om DC-versionen av det gör nån skillnad (kommer i Juni, sist jag hörde?)

Såatteeh:

Kör AMD och Nvidia exakt samma klient? Nope. AMDs är Stream-baserad, Nvidia är CUDA-baserad. Att CUDA är mognare är ingen hemlighet. I just det här fallet är Nvidias klient helt enkelt bättre.

Ska vi ta en kik på video transcoding istället? Det tycker jag. HD5870 fullkomligt mosar GTX295 och springer 8:or runt GTX285. Cypress kör Stream, GT200 kör CUDA.

http://www.guru3d.com/article/radeon-hd-5870-review-test/25

Att påstå att GTX260 skulle ha battre GPGPU-prestanda an HD5870 = Dum shit

Visa signatur

i5 4670k 4.2Ghz 1.2v
AMD R9 290
Windows 10

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Zcenicx
Min gissning är att 480 kommer att konkurrera direkt med 5870, antagligen landar det på 10-15% snabbare, och 470/5850 borde vara ungefär likadant.

Däremot skulle det förvåna mig om NVidia inte släpper ett kort som slåss med 5970 inom en snar framtid, men kom ihåg att AMD inte släppte 5970 förrän ganska långt efter det att 5870 kom. Samma gäller för den delen i förra generationen, GTX 295 dröjde rätt länge.

Anledningen är egentligen rätt enkel. Dubbelmackor är inte direkt nån kassako och efterfrågan är nästan skrattretande låg. Visst, de är snabba, men konceptet kallas på engelskt fackspråk som "prohibitively expensive".

Mja, där tycker jag nog du har lite fel. HD 5970 gick att beställa innan jul, själv beställde jag mitt lite innan jul och fick det dagen efter julafton.

Nvidia släpper inget som konkurrerar med HD 5970 för de kan inte göra ett kort som kan konkurrera med det.

Deras gpu/kort är så otroligt strömtörstiga så de få inte till det. Vilket gör det hela lite mer intressant, för nu får de svårt att berättiga överpriser eftersom hd 5870 slår nvidias flaggskäpp i vissa spel, återstår att se hur det är när det väl kommer dock, men det gör att om de inte sätter priset nära hd 5870 så finns det ingen motivering till varför man inte skall köpa 5870 eller 5970. Att tänka på är också kort mot kort, om nvidia hade ett graffe med 20 gpus och ATI ett med bara 1 gpu och det är deras flaggskepp så är det fortfarande de som skall jämföras för prestandatornen, sen är pris prestanda en annan klass, en viktigare klass för mig.

Visa signatur

Intel Core i7 8700K, MSI GeForce GTX 1080 Ti 11GB Gaming X, Samsung 960 EVO 1TB, MSI Z370 GAMING M5, Corsair 32GB (4x8GB) DDR4 3200MHz CL16 Vengeance, EVGA Supernova G3 850W

INTEL CORE I7 3930K 3.20GHZ 12MB S-2011, FRACTAL DESIGN MIDITOWER DEFINE R3, CORSAIR HX 1050W, ASUS RAMPAGE IV FORMULA, Asus STRIX GTX970, CORSAIR 16GB DDR3 DOMINATOR QUAD 1866MHZ CL9 (4X4GB) Ljud: ASUS Xonar D2X/XDT 7.1 | Elac 5.1 +förstärkare | Cambridge dacmagic plus | Astro gaming A40 | Sennheiser HD 650
You ask me if I have a god complex? Let me tell you something, I am god!