Permalänk
Medlem
Citat:

Ursprungligen inskrivet av The_Fatrix
Skönt att se att Sweclockers readaktion är börjar bli lika menlösa som Aftonbladets. Skärpning för guds skull.! Vad är nyhetsvärdet i detta? När de ändå körde demos på riktigt kort.

Speciellt när ni inte vill ha personangrepp och flamewars på forumet......

Jag tycker det var en väldigt intressant nyhet.
Speciellt eftersom saken har diskuterats friskt världen över.

Sen kanske rubriken kunde ha varit "nvidia visade upp fejkat fermi" för att vara alla nvidia fanboys till lags? men har det verkligen någon större betydelse?

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av 2good4you
Är det bara jag som förstår att dom har flera månader kvar innan Fermi verkligen är en verklighet? Annars hade knappast nVidia's CEO stått med ett plastkort och pekat på en skärm som kör lite grejer, precis som du skrev.

Dessutom så är jag 99% säker på att hårdvaran som dom körde vid presentationen inte var Fermi, utan flera grafikkort/Tesla utav GT200 för att simulera Fermi's prestanda.

Jag har själv haft en rad nVidia kort och börjar bli RIKTIGT trött på dom nu. Det har hänt mycket genom tiden, men bara det senaste:

* Riktigt ologiska och störande namnbyten

* Går ut med att DX10.1 inte är "något att ha" och är "onödigt" bara för att AMD implementerade stöd för detta i sina ATI kort. Trots att dom hävdar hur onödigt det är, så tvingar och mutar dom speltillverkare att inte lägga in DX10.1 stöd då det gav fina prestandaökningar/snyggare grafik. Nu över ett år senare så implementerar dom stöd i sina 40nm GT2xx kretsar själva och drar tillbaka sina uttalanden.

* Repeterar samma sak och påstår att DX11 är mindre viktigt än deras CUDA och PhysX standerder som bara är namn. CUDA är ett namn för GPGPU, något som både AMD's och nVidia's kort är kapabla till. Samma sak med PhysX, bara att nVidia gör allt för att vinna sitt namn på dessa saker. Det fattar inte konsumenter eller nVidia fans. DX11 sätter dessa standarder i samma union och dessutom inte under låsta standarder. Detta är nVidia rädda för. Bl.a så gick dom ut och påståd att deras gamla 9800GTX var snabbare än ett HD5870 för att det stödjer PhysX. Kör fysik och GPGPU på ett HD5870 så kommer ni se att det våldtar alla nVidia's kort. Möjligtvis kommer GT300 vara snabbare i GPGPU, men det finns inte än.

* Stänger av stödet för PhysX kort om man inte har ett grafikkort från dom själva. Tänk dom som köpt ett AGEIA kort och har ett ATI eller Matrox kort?

* Inaktiverar kantutjämning i spel som Batman om man har ett ATI kort. Alla spel där dom är med och mutar in för att få "TWIMTBP" (the way it's meant to be played) så drar dom till med alla knep för att få motståndarens grafikkort att prestanda sämre. Crysis är ett ytterst bra exempel.

Det värsta är att alla punkterna stämmer och alla andra som säger något annat kan dra åt "¤#%&.

Visa signatur

Arch Linux - i5 12500@4.75GHz - Asrock B760M PG Riptide - 32GB DDR5 6000MHz - RTX 2070 Super - 1TB SN770 - 1TB SN550 - U32PWQU 4K
Dell Latitude 7400 2 in 1 - Arch Linux - i5 8265u

Permalänk
Medlem

Om det hade varit riktiga kort i datorerna så varför i helvete skulle han inte hålla ett också?!

De har inga fungerande ännu, punkt slut.

Visa signatur

Arch Linux - i5 12500@4.75GHz - Asrock B760M PG Riptide - 32GB DDR5 6000MHz - RTX 2070 Super - 1TB SN770 - 1TB SN550 - U32PWQU 4K
Dell Latitude 7400 2 in 1 - Arch Linux - i5 8265u

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av McTw1st
nej ja tror inte nvidia har en massa kort liggandes men om dom nu hade en dator som de funkarde på? varför inte visa kortet i den datorn?....

Fire_Ice inlägg ger ett bra svar på den fråga.

Permalänk
Hedersmedlem
Citat:

Ursprungligen inskrivet av Fire_Ice
Om det hade varit riktiga kort i datorerna så varför i helvete skulle han inte hålla ett också?!

Det kanske är som de säger; att de riktiga inte gör sig riktigt lika bra på bild än?

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av 2good4you
Är det bara jag som förstår att dom har flera månader kvar innan Fermi verkligen är en verklighet? Annars hade knappast nVidia's CEO stått med ett plastkort och pekat på en skärm som kör lite grejer, precis som du skrev.

Dessutom så är jag 99% säker på att hårdvaran som dom körde vid presentationen inte var Fermi, utan flera grafikkort/Tesla utav GT200 för att simulera Fermi's prestanda.

Jag har själv haft en rad nVidia kort och börjar bli RIKTIGT trött på dom nu. Det har hänt mycket genom tiden, men bara det senaste:

* Riktigt ologiska och störande namnbyten

* Går ut med att DX10.1 inte är "något att ha" och är "onödigt" bara för att AMD implementerade stöd för detta i sina ATI kort. Trots att dom hävdar hur onödigt det är, så tvingar och mutar dom speltillverkare att inte lägga in DX10.1 stöd då det gav fina prestandaökningar/snyggare grafik. Nu över ett år senare så implementerar dom stöd i sina 40nm GT2xx kretsar själva och drar tillbaka sina uttalanden.

* Repeterar samma sak och påstår att DX11 är mindre viktigt än deras CUDA och PhysX standerder som bara är namn. CUDA är ett namn för GPGPU, något som både AMD's och nVidia's kort är kapabla till. Samma sak med PhysX, bara att nVidia gör allt för att vinna sitt namn på dessa saker. Det fattar inte konsumenter eller nVidia fans. DX11 sätter dessa standarder i samma union och dessutom inte under låsta standarder. Detta är nVidia rädda för. Bl.a så gick dom ut och påståd att deras gamla 9800GTX var snabbare än ett HD5870 för att det stödjer PhysX. Kör fysik och GPGPU på ett HD5870 så kommer ni se att det våldtar alla nVidia's kort. Möjligtvis kommer GT300 vara snabbare i GPGPU, men det finns inte än.

* Stänger av stödet för PhysX kort om man inte har ett grafikkort från dom själva. Tänk dom som köpt ett AGEIA kort och har ett ATI eller Matrox kort?

* Inaktiverar kantutjämning i spel som Batman om man har ett ATI kort. Alla spel där dom är med och mutar in för att få "TWIMTBP" (the way it's meant to be played) så drar dom till med alla knep för att få motståndarens grafikkort att prestanda sämre. Crysis är ett ytterst bra exempel.

Måste nog säga att efter ha läst igenom de drygt 8 sidor som det hittils har blivit bara kan hålla med och applådera föregående talare.

Jag personligen tror att risken är överhängande att Fermi i dagsläget bara är en pappersprodukt som inte existerar överhuvudtaget.
Det finns ingen som helst logisk förklaring i att visa upp ett demo kort som marknaden sen avslöjar som bluff, bara för att senare säga "men kortet vi körde i datorn var äkta"
Det är lika med noll trovärdighet i mina ögon.

Om man å andra sidan har ett kort som kanske inte är så visuellt attraktivt är det ju ändå bättre att visa det och tillägga att "som ni ser är produkten långt ifrån färdig, men så här ser kortet ut just nu". Det har de flesta överseende med, men att visa upp en dummy med pompa skapar bara ett löjets skimmer över hela Nvdidia.

Sen är ju hela läsningen med fanboys hit och dit underhållande läsning, fortsätt gärna med det.

Visa signatur

Intel 2500k @ 4400MHz - Asus Maximus Gene IV - Noctua U12P - 8gb Corsair Vengence - EVGA 560Ti SOC - Corsair F60 - FD Define mini - Corsair 650W - BengQ E2400HD

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Elgot
Det kanske är som de säger; att de riktiga inte gör sig riktigt lika bra på bild än?

Hur kan de inte göra sig bra på bild, ett kort ser väl ut som ett kort? Det är väl i så fall en ful kylare? Bara de säger att det inte ska säljas med den kylaren så är det väl inga problem?

Visa signatur

Arch Linux - i5 12500@4.75GHz - Asrock B760M PG Riptide - 32GB DDR5 6000MHz - RTX 2070 Super - 1TB SN770 - 1TB SN550 - U32PWQU 4K
Dell Latitude 7400 2 in 1 - Arch Linux - i5 8265u

Permalänk
Hedersmedlem
Citat:

Ursprungligen inskrivet av Fire_Ice
Hur kan de inte göra sig bra på bild, ett kort ser väl ut som ett kort? Det är väl i så fall en ful kylare? Bara de säger att det inte ska säljas med den kylaren så är det väl inga problem?

Inte vet jag, men att de skulle ljuga om allt känns väl mera osannolikt (även om de har gjort en del märkliga vägval förr)?

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Elgot
Inte vet jag, men att de skulle ljuga om allt känns väl mera osannolikt (även om de har gjort en del märkliga vägval förr)?

Eftersom de bevisats ljuga om ena saken så är det väl troligare att de ljög om båda?

Visa signatur

Home: i5 3570K, 16GB RAM, Gigabyte HD7950 WF, Samsung 830 SSD 128GB, Corsair 650W.
Work: Xeon X5260, 8GB RAM, nVidia Quadro FX 4600.

Permalänk
Hedersmedlem
Citat:

Ursprungligen inskrivet av Essin
Eftersom de bevisats ljuga om ena saken så är det väl troligare att de ljög om båda?

Nej. Om de inte hade blivit avslöjade och lyckats leverera sina kort på utsatt datum hade ingen reagerat; att däremot inte kunna leverera är svårt att förklara bort. Den förra, mindre, osanningen är inte lika allvarlig.

Permalänk
Medlem

Frågan är också om det är specarna som postats som kommer vara de som gäller för grafikkort riktade till konsumentmarknaden.
Man kan också fråga sig hur stor andel av kretsarna som inte direkt är riktade till normala användare.

Nvidia Can Disable Certain Fermi Features on Gaming Graphics Cards.

"Nvidia Corp. has confirmed in a brief media interview that it will be able to cut-down the Fermi-G300 graphics processors in order to address certain specific markets and price-points. The move is natural for all graphics chips designers, but this time Nvidia openly admits that many of implemented capabilities will hardly offer benefits for the consumer right away.

“We are paying a bit of a compute tax in that we launched a part where a lot of the consumer compute applications haven’t really taken hold yet. But over time as more consumer computer applications are developed that take advantage of our compute (consumer) features, I think it's going to give us a big leg up,” William Dally, chief scientist at Nvidia, told Cnet News.com."

Läs mer på.
http://www.xbitlabs.com/news/video/display/20091005180319_Nvi...

Visa signatur

/havoc

Permalänk
Medlem

-Att ni orkar dividera o tjöta....

Snark!!!

Permalänk
Medlem

Underhållande vf... flamewar ftw. Varför se på TV när man har sweclockers.com

Visa signatur

Fractal R3, Corsair AX 850W, 2x Gigabyte 580 Windforce + Gigabyte 210, I7 2600k @ 4.6 GHz, Asus P8P67 PRO, Corsair 32GB 2133 MHz, Corsair H80, Intel 320 300GB, 5x2TB WD GP, 5xSchyte F-Flex 1600, 2xFractal 140mm Silent, 7xFanmate, 3xDell U3014, LG BH10LS30, Qpad 5k, Logitech Z-5500, Sennheiser 360, 2xDinovo Edge. Samsung 900X4C, 256GB SSD, 16 GB Ram.

Permalänk
Medlem

De kommer ju självklart ta fram ett sådant kort förr eller senare och det lär ju knappast vara ett fejkkort som når konsumenterna. Så vem bryr sig?

Permalänk
Inaktiv
Citat:

Ursprungligen inskrivet av mrtvi
De kommer ju självklart ta fram ett sådant kort förr eller senare och det lär ju knappast vara ett fejkkort som når konsumenterna. Så vem bryr sig?

Det åtminstonde jag bryr mig om är inte det faktum att kortet som viftades på visningen var fejkat eller inte, utan när grafikkortet verkligen kommer. Om de nu är så att Nvidia ligger rejält efter i utvecklingen så får vi alla lida, på ett eller annat vis.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Essin
Eftersom de bevisats ljuga om ena saken så är det väl troligare att de ljög om båda?

Om du vet att en mytoman ljuger förbannat mycket hur ska du då veta när han talar sanning?

Visa signatur

Sex kärnigt på modermodemet och ett gäng 680s i hårddisken

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Elgot
Det kanske är som de säger; att de riktiga inte gör sig riktigt lika bra på bild än?

om det skulla varit fallet skulle dom väll ha lagt ner lite mer energi påm att få prototypen att se bra ut.

Citat:

Ursprungligen inskrivet av Elgot
Nej. Om de inte hade blivit avslöjade och lyckats leverera sina kort på utsatt datum hade ingen reagerat; att däremot inte kunna leverera är svårt att förklara bort. Den förra, mindre, osanningen är inte lika allvarlig.

kanske, men jag har svårt att se någon annan anledning till att visa upp en attrapp. deras förklaring att kortet var för fult övertygar ju inte heller.
det är ett ganska riskfyllt spel i fall att dom inte lyckes få kortet klart i tid men det är inget som inte går att bortförklara. dom kan ju påstå att en mindre bugg hittats.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Elgot
Det kanske är som de säger; att de riktiga inte gör sig riktigt lika bra på bild än?

Nej, precis. De gör ett kort som, enligt Nvidia, existerar och fungerar och kördes under diverse presentationer - men de vågar inte visa det äkta kortet. Varför? Har dem valt att byta ut kopparkomponenterna för kylningen mot rått kött? Eller vad annars skulle vara så hemskt att vilja visa upp? Det är ju för fan bara en plastbräda, lite lödtenn och en plastkåpa ändå.

Det handlar inte om att Nvidia inte visat upp det exakta kortet som kommer hamna i handeln. Utan att Nvidia ljugit pressen i ansiktet. Det ger ju en idé om att Nvidia inte vet var fan i tillverknings-, om ens utvecklings-, -skedet dem faktiskt är.

Min skämtsamt osmakliga teori:
Nvidia satt med sina pastellkritor och ritade en ny kylare att gömma sina omlanserade GT200-baserade kort för G300-serien bakom. Plötsligt, utifrån ingenstans, visade AMD upp sin HD5000-serie och då blev Nvidia lite småstressade och började först då med att rita upp nya grafikkretsar. Likaså hann dem inte göra mer än en enda PCB med Fermi att visa upp. Och det är ju alltid praktiskt att ljuga att snacka skit och köpa till sig siffror - om man heter Nvidia.

Permalänk
Hedersmedlem
Citat:

Ursprungligen inskrivet av Mr.Borka
Det handlar inte om att Nvidia inte visat upp det exakta kortet som kommer hamna i handeln. Utan att Nvidia ljugit pressen i ansiktet.

Nja, det är det väl mest pressen själv som eventuellt upprörs av? Det intressanta är väl att de vidhåller att de kommer lansera korten före årsskiftet. Visst kan det kanske skada konkurrenternas försäljning en smula de närmaste veckorna, men om det uppdagas att de far med osanning kommer nog de själva skadas värre. Vilket de själva borde inse. (Nu har de ju som sagt förvisso betett sig lite spännande förr, men vanligtvis brukar det väl gå att förstå dem ur någon synvinkel?)

Permalänk
Medlem

detta är ju roligt att ni sitter och säger skall äga amd/ati kort tänk så här istället PR trick från nvidia sida när de inte får uppmärksamhet. Då går de ut och säger att kortet är fejk snacka om pr trick från början till slut :/ men ändå.... men när de gäller prestanda då vinner AMD/ATI ändå

Visa signatur

McFreedy är en som finner saker andra inte finner!! Och går där ingen annan har gått!!

Permalänk
Medlem

Nja jag tror inte det. Aktiebolag inte hollywoodskådisar.
Ang prestada så går det ju omöjligt att veta.

Permalänk
Citat:

Ursprungligen inskrivet av feffes
<3 sig

Min förra togs bort bara för jag hade en färg för mycket om jag inte minns fel.
Så denna tyckte jag duger tills vidare:D

Citat:

Ursprungligen inskrivet av Mstandar
[B]Jag ser inget fel i att visa upp ett dummy kort, det kan mycket väl vara så att dom bara har X antal prototyp kort och då vill man inte ha med sig det dit,

Tycker det med.

Citat:

Sen spelar det väl ingen roll om man har ett äkta kort eller ett dummy i handen.
Det är väl samma sak som att mobilerna i dom flesta elektronik affärer bara är tomma skal med knappsats och en lapp bakom skärmen.
Kanske en dum jämförelse[/B]

Låter som en bra jämförelse.
anledningen till att de gör så är för att de ska stjälas, samma sak gäller Fermi, fast då stjäls kanske inte bara kortet utav en random person. Det blir mer att en ATi/AMD person som försöker nalla kortet för företagets bästa.

Visa signatur

CPU i9-9900K GPU ASUS RTX 2080 TI Strix OC MB ASUS STRIX Z390-E RAM Corsair VENGEANCE RGB 32GB DDR4 3200MHz Case Fractal Design Define C PSU EVGA G3 850W Cooling Noctua D15
Monitor MSI Optix MAG342CQR SSD Samsung 970 EVO 500GB 860 EVO 500GB 860 QVO 2TB + QVO 4TB PLEX Server 2x HC560 20TB+WD RED 2x10TB+12TB