TSMC:s 7 nanometer mer än tre gånger transistortätare än 16 nanometer

Trädvy Permalänk
Medlem
Plats
Göteborg
Registrerad
Mar 2009
Skrivet av JesperA:

nu har vi över 82 miljoner transistorer på en kvadratmillimeter? :S

Du har nästan ett och ett halvt geforce 3 från cirkus femton år sedan per kvadratmillimeter i Apples nya iPhone. Rätt stolligt...

Trädvy Permalänk
Medlem
Registrerad
Jul 2016

Det mest intressanta kommer nog bli Intels nya gpu som skulle släppas 2020. Hoppas de levererar.

Skickades från m.sweclockers.com

Trädvy Permalänk
Medlem
Registrerad
Mar 2012

Jag har sagt det förut o säger det igen. Vänta på 7nm just nu är alla kort som turing bara en snabb cash grab. Den riktiga prestandan kommer med 7nm.

Skickades från m.sweclockers.com

New: Asus x370 prime pro, Ryzen 1700 (@3.925ghz) , Ripjaws V 16GB 3600 MHz (@3200mhz 14c). https://valid.x86.fr/bench/kf0pzs/1
Radeon Vega64.
OLD""Socket 2011: Gigabyte GA-X79-UD3, intel 3820 3,6 ghz
Radeon Sapphire 7970 OC.""

Trädvy Permalänk
Medlem
Plats
Botkyrka, Stockholm
Registrerad
Jul 2001
Skrivet av _Merc_:

Jag har sagt det förut o säger det igen. Vänta på 7nm just nu är alla kort som turing bara en snabb cash grab. Den riktiga prestandan kommer med 7nm.

Jag tycker det känns lite som att dom vill få ut RTX nu så att det finns någonting att koda för så när det är dags för 7nm lanseringen så kommer fler saker ta nytt av RTX-funktionerna på ett mer moget sätt.

Trädvy Permalänk
Medlem
Registrerad
Mar 2012
Skrivet av Kilroy:

Jag tycker det känns lite som att dom vill få ut RTX nu så att det finns någonting att koda för så när det är dags för 7nm lanseringen så kommer fler saker ta nytt av RTX-funktionerna på ett mer moget sätt.

nvidia trycker medvetet ut en produkt som alldrig kommer leva upp till namnet RTX. Om den kommer över 60 fps i någon title med raytracing blir jag förvånad. Tekniken är så omogen att den är värdelös. Beräkningskraften finns inte där. Det är halvdant gjort för att mjölka.

Skickades från m.sweclockers.com

New: Asus x370 prime pro, Ryzen 1700 (@3.925ghz) , Ripjaws V 16GB 3600 MHz (@3200mhz 14c). https://valid.x86.fr/bench/kf0pzs/1
Radeon Vega64.
OLD""Socket 2011: Gigabyte GA-X79-UD3, intel 3820 3,6 ghz
Radeon Sapphire 7970 OC.""

Trädvy Permalänk
Medlem
Plats
Malmö
Registrerad
Maj 2014
Skrivet av Nocto:

Det mest intressanta kommer nog bli Intels nya gpu som skulle släppas 2020. Hoppas de levererar.

Skickades från m.sweclockers.com

Tyvärr hade jag inte räknat med det fullt ut.

Jag antar de kommer vilja ha minst 14nm nod på den, som är rätt överlastad.
Och ska de ta 10nm (för att "matcha" nästa gen 7nm TSMC), behöver de först få den färdig, vilket i bästa fall tydligen är 2019Q4 för mass produktion.
Det lämnar inte mycket tid för att få ut färdig design.

Dessutom brukar ny arkitektur inte vara så bra, förrän den polerats. Titta på 7970 som hade enorma problem när den kom. RTX nu verkar inte direkt vara någon "hit" heller. Och Intel måste börja om helt... från ingenting.

Om jag läst rätt så satsar Intel på mainstream/budget också, så de lär inte tävla i dessa nivåer, än. En optimerad 10nm, lite tid och ver 1.1 eller högre... då kanske
Men vi lär vara i 2021-2022 då...

Skrivet av _Merc_:

nvidia trycker medvetet ut en produkt som alldrig kommer leva upp till namnet RTX. Om den kommer över 60 fps i någon title med raytracing blir jag förvånad. Tekniken är så omogen att den är värdelös. Beräkningskraften finns inte där. Det är halvdant gjort för att mjölka.

Skickades från m.sweclockers.com

Även om jag håller med dig i det stora hela, att det är lite halvfärdigt, så tror jag du lär få ut 60 FPS utan problem på tex 2080Ti och troligen även 2080. Problemet är väl hur stor del av inställningar mm du måste justera, och hur framtidskompatibelt det är, mer än prestandan.

2080Ti är ju trots allt väldig kraftfullt kort, som klarar av spel i 4k 60 FPS redan nu, utan tekniken, så jag kan förstå de som sitter på 4k panel vill ha det bara för den anledningen. Prisvärt är det dock inte.

Trädvy Permalänk
Medlem
Registrerad
Aug 2018

Mitt evga 1080 classified får hänga med något år till. 😌

Trädvy Permalänk
Medlem
Registrerad
Mar 2012
Skrivet av Paddanx:

Tyvärr hade jag inte räknat med det fullt ut.

Jag antar de kommer vilja ha minst 14nm nod på den, som är rätt överlastad.
Och ska de ta 10nm (för att "matcha" nästa gen 7nm TSMC), behöver de först få den färdig, vilket i bästa fall tydligen är 2019Q4 för mass produktion.
Det lämnar inte mycket tid för att få ut färdig design.

Dessutom brukar ny arkitektur inte vara så bra, förrän den polerats. Titta på 7970 som hade enorma problem när den kom. RTX nu verkar inte direkt vara någon "hit" heller. Och Intel måste börja om helt... från ingenting.

Om jag läst rätt så satsar Intel på mainstream/budget också, så de lär inte tävla i dessa nivåer, än. En optimerad 10nm, lite tid och ver 1.1 eller högre... då kanske
Men vi lär vara i 2021-2022 då...

Även om jag håller med dig i det stora hela, att det är lite halvfärdigt, så tror jag du lär få ut 60 FPS utan problem på tex 2080Ti och troligen även 2080. Problemet är väl hur stor del av inställningar mm du måste justera, och hur framtidskompatibelt det är, mer än prestandan.

2080Ti är ju trots allt väldig kraftfullt kort, som klarar av spel i 4k 60 FPS redan nu, utan tekniken, så jag kan förstå de som sitter på 4k panel vill ha det bara för den anledningen. Prisvärt är det dock inte.

läckor av den nuvarande raytracing prestandan är inte imponerande då även 2080ti har svårt att ens hålla 30fps.

Skickades från m.sweclockers.com

New: Asus x370 prime pro, Ryzen 1700 (@3.925ghz) , Ripjaws V 16GB 3600 MHz (@3200mhz 14c). https://valid.x86.fr/bench/kf0pzs/1
Radeon Vega64.
OLD""Socket 2011: Gigabyte GA-X79-UD3, intel 3820 3,6 ghz
Radeon Sapphire 7970 OC.""

Trädvy Permalänk
Medlem
Plats
Malmö
Registrerad
Maj 2014
Skrivet av _Merc_:

läckor av den nuvarande raytracing prestandan är inte imponerande då även 2080ti har svårt att ens hålla 30fps.

Skickades från m.sweclockers.com

Det är väl med max inställningar i 4k antar jag dock?
(frågar, då jag inte sätt läckorna, bara Nvidias demonstration, som trots allt är var i tidigt stadie)

Trädvy Permalänk
Medlem
Plats
plats
Registrerad
Maj 2006
Skrivet av _Merc_:

läckor av den nuvarande raytracing prestandan är inte imponerande då även 2080ti har svårt att ens hålla 30fps.

Skickades från m.sweclockers.com

Ja raytracing är en holygrail, något mam renderar i minuter per frame inte ms. Det är helt otroligt att prestandan är så bra iafen dock inte spel vänligt.

Nätverksnörd

Trädvy Permalänk
Testpilot
Plats
Göteborg
Registrerad
Nov 2002
Skrivet av _Merc_:

läckor av den nuvarande raytracing prestandan är inte imponerande då även 2080ti har svårt att ens hålla 30fps.

Skickades från m.sweclockers.com

Raytrace är en väldigt optimeringsbar teknik, speciellt inom raster-raytrace hybrid-renderingsmotorer.
Du kan även hoppa över beräkningar under vissa frames för vissa objekt baserad på distans eller annat för att spara på resurser, du kan avlasta rastreringens shadowmap, dephbuffer m.m. med "produkter" passivt från raytrace (saker du får "gratis").

MEN då måste det programmeras djupt in från början, det går inte att få alla optimeringar tror jag på ett enkelt och snabbt sätt som ett tillägg på nuvarande rastrerings-renderingsmotorer.
Sen finns det olika typer av algoritmer för raytrace och dessa kan använda olika typer av material-algoritmer, t.ex. en av de högre kvalitativa renderare brukar vara MLT renderare med BSDF material.

En funktion likt maxwell renders multilight skulle passa jättebra för spel där varje enskild ljuskälla kan tändas och släckas, ändras i styrka och färg för statiska objekt och scener, likt baked GI, fast en smartare mer dynamisk variant.

Därefter skulle det behövas en funktion liknande UE4 DFAO, ett "dynamiskt GI", där multilight och "DFAO" skulle komplettera varandra; komplettera genom att den "DFAO liknande" funktionen skulle uppdatera och beräkna för ändringarna i scenen till den "bakade multi light" funktionen.

Då skulle vi kunna beräkna och lagra realtids-raytracing i bakgrunden och räkna om och uppdatera i områden som enbart ändras på ett dynamiskt vis.
Detta är ett jätteprojekt! Vi är inte riktigt där än, inget ur Jensens presentation visade dessa funktioner.

M.a.o. det finns mycket att göra för raytrace, "RTX biblioteket" verkar inte ha dessa funktioner alls idag.

edit: kaffebrist

Trädvy Permalänk
Medlem
Registrerad
Mar 2012
Skrivet av Paddanx:

Det är väl med max inställningar i 4k antar jag dock?
(frågar, då jag inte sätt läckorna, bara Nvidias demonstration, som trots allt är var i tidigt stadie)

1080p raytracing, 4k kan du glömma.

Skickades från m.sweclockers.com

New: Asus x370 prime pro, Ryzen 1700 (@3.925ghz) , Ripjaws V 16GB 3600 MHz (@3200mhz 14c). https://valid.x86.fr/bench/kf0pzs/1
Radeon Vega64.
OLD""Socket 2011: Gigabyte GA-X79-UD3, intel 3820 3,6 ghz
Radeon Sapphire 7970 OC.""

Trädvy Permalänk
Medlem
Plats
Arvika/Thn/localhost
Registrerad
Jul 2001

3080 Ti - 30000 sek?

Skickades från m.sweclockers.com

Trädvy Permalänk
Medlem
Registrerad
Okt 2016

De indikationer som finns är att nVidia's första 7nm-chip inte är så stort, utan att man börjar på x07 eller x06-stadiet (GP107 är 1050 Ti, GP106 är 1060) just för att man är så rädd för taskig yield. Om det är så kan vi se ett "RTX 2060" eller så på 7nm medan de nuvarande TU-chippen fortsätter att säljas. Steg två kan då bli ett "RTX 2075" och "RTX 2085" som är direkta krympningar av de nuvarande korten med bara en mindre prestandaökning (sannolikt högre klockfrekvens).

AMD verkar ha planen att köra Vega 20 först på 7nm, och att detta är ett beräkningskort först. Det har säkert fixat en del buggar också, och om ngg_fastpath fungerar på den utgåvan kanske Vega kan fungera som det var tänkt, med DSBR och primitive shaders aktiva hela tiden. OM det är så, kan det bli ett släpp av Vega 20 som grafikkort under våren 2019, följt av Navi under hösten, men det är inte alls säkert. Det går ju rykten om "Polaris 30" på 12nm också, och det gör man väl inte om nästa generation är runt hörnet.

Trädvy Permalänk
Medlem
Plats
Höör
Registrerad
Jun 2002

Något off topic, men föreslår att ni tar bort den förvirrande förkortningen "milj." (milj.on?/milj.ard?).

Det rekommenderade sättet (enligt Språkrådet) är att förkorta miljon(er) och miljard(er) är mn respektive md (om man nu måste).

Citera mig för svar.
Arch Linux

Trädvy Permalänk
Medlem
Plats
Uppsala
Registrerad
Jul 2001
Skrivet av _Merc_:

nvidia trycker medvetet ut en produkt som alldrig kommer leva upp till namnet RTX. Om den kommer över 60 fps i någon title med raytracing blir jag förvånad. Tekniken är så omogen att den är värdelös. Beräkningskraften finns inte där. Det är halvdant gjort för att mjölka.

Skickades från m.sweclockers.com

Det verkar som att 2080 Ti *nästan* kan komma upp i 60 FPS i 1440p ett enkelt tech demo:
https://www.sweclockers.com/test/26250-nvidia-geforce-rtx-208...

RTX 2080 är förvissa 6 gånger snabbare än GTX 1080 Ti, men fortfarande bara på gränsen till spelbart med 35-45 FPS. Lägg till detta att istället för ett simpelt tech demo kör man ett faktiskt spel, med mycket större öppna världar, fler ljuskällor, potentiellt fler karaktärer och objekt på skärmen samtidigt o.s.v. så hamnar nog RTX 2080 Ti kring 25-30 FPS och 2080 närmare 20 FPS, RTX 2070 kring 10-15 FPS. Visst kan man skruva lite på definitionen och säga att det ändå är raytracing i "realtid" (gamla flygsimulatorer och andra primitiva 3D-spel gick ofta i 10-15 FPS), men speciellt spelbart blir det inte.

Så jag håller med om att första generationens RTX-kort på 16 nm+ ("12 nm") inte kommer räcka till i praktiken i spel utan det krävs ännu mer komplicerade chip med mer beräkningskraft för detta, vilket kommer kräva 7nm.

Ryzen 7 1800X, Asus Prime X370 Pro, 16 GB DDR4 3200 C14, Asus GTX 1070, 2,3 TB SSD, Win10

Trädvy Permalänk
Medlem
Registrerad
Mar 2012

@Pepsin: Techdemo är långt ifrån ingame där du även måste ta AI i åtanke och andra random genererade scenarion att rendera.

New: Asus x370 prime pro, Ryzen 1700 (@3.925ghz) , Ripjaws V 16GB 3600 MHz (@3200mhz 14c). https://valid.x86.fr/bench/kf0pzs/1
Radeon Vega64.
OLD""Socket 2011: Gigabyte GA-X79-UD3, intel 3820 3,6 ghz
Radeon Sapphire 7970 OC.""

Trädvy Permalänk
Medlem
Registrerad
Jul 2016
Skrivet av Paddanx:

Tyvärr hade jag inte räknat med det fullt ut.

Jag antar de kommer vilja ha minst 14nm nod på den, som är rätt överlastad.
Och ska de ta 10nm (för att "matcha" nästa gen 7nm TSMC), behöver de först få den färdig, vilket i bästa fall tydligen är 2019Q4 för mass produktion.
Det lämnar inte mycket tid för att få ut färdig design.

Dessutom brukar ny arkitektur inte vara så bra, förrän den polerats. Titta på 7970 som hade enorma problem när den kom. RTX nu verkar inte direkt vara någon "hit" heller. Och Intel måste börja om helt... från ingenting.

Om jag läst rätt så satsar Intel på mainstream/budget också, så de lär inte tävla i dessa nivåer, än. En optimerad 10nm, lite tid och ver 1.1 eller högre... då kanske
Men vi lär vara i 2021-2022 då...

Även om jag håller med dig i det stora hela, att det är lite halvfärdigt, så tror jag du lär få ut 60 FPS utan problem på tex 2080Ti och troligen även 2080. Problemet är väl hur stor del av inställningar mm du måste justera, och hur framtidskompatibelt det är, mer än prestandan.

2080Ti är ju trots allt väldig kraftfullt kort, som klarar av spel i 4k 60 FPS redan nu, utan tekniken, så jag kan förstå de som sitter på 4k panel vill ha det bara för den anledningen. Prisvärt är det dock inte.

Du har en poäng där med ny arkitektur. På papper kan det bli rätt bra dock och vissa menar på att vi iaf kan förvänta oss prestandanivåer runt 1080 baserad på den nuvarande intel hd arkitekturen (med en viss prestanda ökning och ökad mängd cores).

Vi får se hur det blir helt enkelt, är nog bara intel själva som vet vart de ligger. Resten är bara teorier.

Men ju fler konkurrenter desto bättre för oss konsumenter. Det är det som kommer bli det mest intressanta att se, hur AMD och Nvidia svarar på eventuell konkurrens på nåt av prestanda segmenten. För att verkligen kunna konkurrera kommer intel antingen behöva ha lägre priser eller bättre prestanda per krona. Vidare kan priser generellt pressas ner på grafikkort när utbudet ökar.

Förhoppningsvis får vi höra nåt ifrån intel under CES 2019.

Skickades från m.sweclockers.com

Trädvy Permalänk
Medlem
Plats
Malmö
Registrerad
Maj 2014
Skrivet av Nocto:

Du har en poäng där med ny arkitektur. På papper kan det bli rätt bra dock och vissa menar på att vi iaf kan förvänta oss prestandanivåer runt 1080 baserad på den nuvarande intel hd arkitekturen (med en viss prestanda ökning och ökad mängd cores).

Vi får se hur det blir helt enkelt, är nog bara intel själva som vet vart de ligger. Resten är bara teorier.

Problemet med Intel är också att de älskar att hypa, så även det man kommer höra från dem får man ta med en lastbilslast av salt. De har ju licenserat teknik från AMD, för att överhuvudtaget kunna göra denna krets utan att bryta mot patent, så det kommer troligen bli någon liknande grund.

De har ju redan en del erfarenhet i iGPU så helt ovisa är de inte heller. Samt de lär ju kunna och vilja stöda freesync tekniken, samt DX12 (som de redan gör rätt bra i sin iGPU).

Skrivet av Nocto:

Men ju fler konkurrenter desto bättre för oss konsumenter. Det är det som kommer bli det mest intressanta att se, hur AMD och Nvidia svarar på eventuell konkurrens på nåt av prestanda segmenten. För att verkligen kunna konkurrera kommer intel antingen behöva ha lägre priser eller bättre prestanda per krona. Vidare kan priser generellt pressas ner på grafikkort när utbudet ökar.

Förhoppningsvis får vi höra nåt ifrån intel under CES 2019.

Skickades från m.sweclockers.com

Helt klart är det bra med fler konkurrenter. Vi ser ju på priserna idag hur skevt det är när ett företag får härja fritt. Och oavsett Intel, AMD eller Nvidia är din favorit, förlorar du på om bara de leder marknaden. Så en balans och konkurrens är det enda vi konsumenter tjänar på.

Jag tror dock Intel kommer satsa på prestanda/krona. De har trots allt egen tillverkning, något både AMD och Nvidia saknar. Så de har möjlighet att pressa kostnaderna rätt bra.

Jag tror dock de är efter sina planer även här, och det du ser på CES om något, lär vara försenat, då jag kallt antar att de räknat med att köra det på 10nm nod. Men... om inget annat kanske vi kan se hur tekniken bakom är tänkt.