Nvidia snart klar med designen på RTX 50-serien

Permalänk
Medlem
Skrivet av Mortac:

AI-bubbla? Svårt att tänka mig något sådant. AI kommer att vara en integrerad del av mänskligheten från och med nu. Det kommer vi aldrig att komma ifrån.

Off topic:, bubblan kommer genom att det har explosionsartat skapats en massa nya AI startups likt IT-Bubblan under millenieskiftet.

Nu är det ju inte säkert att bubblan spricker men företag vars värde blir uppblåsta pga initial framgång och som sedan kraschar tenderar att dra med sig fler ner i träsket.

AI som det är idag är inget mer än ett buzzword för chefer som vill ha en ursäkt för att köpa sig en copilot licens. Vad de gör med den kan man ju fråga för används gör den ju inte men alla i ledningsgruppen vart tvungna att ha den...

Jag som skall skapa processer och styrdokument hade haft nytta men min beställning nekades pga budgetskäl.

On topic:
jag köpte mig ett 4070ti Super för att jag behövde ett grafikkort nu och inte om ett halvår.

Men 50 serien blir väl bra tror... Time will tell

Visa signatur

Gammal men bra.

Permalänk
Medlem
Skrivet av Leiri:

60c på vad? Core? Vad är mem och hotspot?

Hot spot brukar vara <15C mot core. Över det så kan man nästan reklamera utan problem då de throttlat runt 80

Stavfel
Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem
Skrivet av Mortac:

AI-bubbla? Svårt att tänka mig något sådant. AI kommer att vara en integrerad del av mänskligheten från och med nu. Det kommer vi aldrig att komma ifrån.

Det går att vara två saker samtidigt. Det kan både vara en bubbla just nu, och vara något som kommer vara med oss framöver. Precis som 'dotcom'-bubblan och internetaffärer.

För mig är det _väldigt_ tydligt en bubbla just nu, men jag är också säker på att vi kommer fortsätta ha verktygen med oss under lång tid framöver. Däremot inte i den form som väldigt många investerare och chefer tror.

(Wall of text)

Exempel: Försöker man använda en 'AI'-modell för att generera bilder, skapa kod, eller skapa text, så hittar man nästan ofrånkomligt en massa problem, som - åtminstone för mig som jobbar med kod - tar längre tid att hitta och korrigera, än att göra om. Däremot hittar man ofta ett embryo att jobba vidare på. Den allmänna inriktningen, eller den övergripande analysen är något man kan jobba vidare med.

En AI kan därför inte ersätta en arbetare i jobb som kräver detaljkunskap och existerar i en större kontext som måste vara konsistent. Däremot funkar den utmärkt som beslutsstöd - den kan blixtsnabbt processa och sammanfatta massor av dokument - något som t.ex. chefer ofta behöver.

Men alla investeringar går just nu ut på premissen att enorma mängder arbetare ska kunna ersättas, snarare än att ge beslutsstöd åt en ganska liten mängd personer.

Och jag ser helt enkelt inget sätt för en ML-modell att bli så bra att den kan hålla en röd tråd genom ett helt manus, en hel film, eller ett helt program, utan förbättringar motsvarande många tiopotenser. Kommer ni ihåg DOOM-demon häromdagen? Den blev blaj efter några sekunder. Säg 5. I 30fps motsvarar det 150 bildrutor. Att statistiskt sett ha rätt 150ggr i följd är OTROLIGT bra precision. Men att expandera det till att ha rätt i flera timmar i följd är ÄNNU MERA OTROLIGT långt borta.

Då är det billigare att koda om allt istället. Eller hitta en annan approach som ändrar hur modellerna funkar. Som någon sade: "Det är litet som att investera massor i att föda upp snabbare och snabbare hästar, i förhoppningen att slutprodukten ska bli en bil".

Bakgrund: D, KTH, pysslat med datakvalitet sedan slutet på 90-talet. Halkade in på maskininlärning c:a 2005. Då som kodare/datatvättare åt andras modeller. Jobbar nu med egna modeller. Men *inte* något generellt 'AI', utan mer åt statistiska modeller för anomalidetektion och mönsterigenkänning - fortfarande för bl.a. datakvalitet.

Visa signatur

Gammal och gnällig

Permalänk
Skrivet av Swedishchef_90:

5080 lär komma i månadsskifte januari/februari eller april beroende på hur dem släpps.
Pris lär vara runt 15k

15K skulle jag aldrig betala för ett 5080..! Sträcker mig nog max till 12K för ett nytt top of the line kort. Frågan är då! 4080 Super nu eller vänta på 5080?

Visa signatur

Chassi: Fractal Design 7 Compact TG Moderkort: ROG STRIX B550-E GAMING Processor: Ryzen 7 5700X3D Processorkylare: Dark Rock Pro 4 Grafikkort: Reference Radeon RX 6800XT Minnen:G.Skill Trident Z RGB 2x16 3200/14.14.14.34 SSD: WD Blue SN550 1TB Lagringsenhet: Seagate Barracuda Q1 960GB Nätagg: EVGA Supernova G2 850W Ljudkort Sound BlasterX AE-5 Tangentbord: Logitech G915 TKL Tactile Headset: SteelSeries Arctis Nova 7 Mus: Logitech G PRO Wireless

Permalänk
Avstängd
Skrivet av Swedishchef_90:

Hot spot brukar vara <15C mot core. Över det så kan man nästan reklamera utan problem då de throttlat runt 80

Hotspot är ju alltid varmare än core?

Permalänk
Medlem
Skrivet av Leiri:

Hotspot är ju alltid varmare än core?

Ja men menar hotspot + under 15C så är core 60 är hotspot max 75

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem

Funderat på köpa ett 4070. Men vore bra med 16gb så då är man uppe på ti super.
Undrar om 5070 kommer komma med 16gb som standard hm. Sen lär väl 5070 dröja rätt länge då de inte lanseras först.

Permalänk
Medlem

Är inte ens spännande längre när ett kort kostar 30+ lök.
Tråkigt att AMD fortfarande är så urusla och inte lyckats få någon hävstång av sina konsoler..

Permalänk
Medlem
Skrivet av modular:

Det tror jag verkligen inte på. Tippar på att FE kommer kosta 25k som mest, men med största sannolikhet 23k.

Edit:

Förresten, ska ni lira i 1080p eller 1440p behöver ni inte ett 4080/5080, det räcker med ett 4070/5070 för dom flesta.

Priserna är adekvata till vad man får och vilken FPS man önskar.

25K är inte mycket för 100+ fps i 4K native. 8k för 100+ fps i 1440p med ett 4070 är inte heller mycket.

Är extremt nöjd över utvecklingen i att vi får en high-end 1440p rig idag för samma pengar som en mellanklass 1080p rig med en 4790k och GTX 970 kostade 2015.

Jag tror mer ni har fastnat för modellbeteckningar på kortet snarare än för vilken upplösning ni köper till eller att 4K med schysst fps är en helt ny kategori i sig egentligen och öppnades med 3090 som redan då var rätt medioker i 4K enligt mig sett till den fps man fick.

Med 4090 kom en riktigt sväng och nu förväntar jag mig ett riktigt uppsving ihop med en bra 4K-skärm.

Sluta sitta och gnälla, köp en bra 1440p skärm och ett 5070 och hoppa på 4K om 2-4 år när upplösningen blivit mer standardiserad och billig, jösses.

Sitter inte och gnäller utan bara säger vad ja tror va som kommer hända.
Äre nån som ska lugna ner sig så är de du.

Att nvidia är giriga är Inge nytt

Permalänk
Medlem
Skrivet av Mortac:

Att hoppas på lägre priser och mer prisvärdhet från Nvidia är bara att glömma. De bara fläskar på och ökar och ökar eftersom alla är villiga att betala. Vinsten på över hundra miljarder förra året räcker inte utan konsumenterna ska mjölkas.

Så trött på dom och därför blev det AMD för mig denna gång.

5090 kommer antagligen kosta runt 30k+, sedan kommer Jensen stå där och säga att det är så prisvärt med tanke på prestandan.

Jag instämmer helt med dig. Har kört AMD sedan 2021 i high end. I min ena dator kör jag 7900XTX och i min lan-dator jag använder för Dreamhack sitter mitt gamla 6800XT. Även om Nvidia är mycket snabbare i Raytracing, är det inte värt pengarna att köpa ett GF 4090 för minst 23k nytt alternativt kommande GF 5090 och 5080.

Visa signatur

Dator 1: AMD Ryzen 9 7950X3D, 64 GB Kingston Fury DDR5 5600 MHz CL36 , Asus Radeon 7900XTX TUF OC, Be Quiet Dark Base Pro 900 rev.2 Black Case, Asus ROG Crosshair X670E Hero Mobo , Be Quiet 1500W PSU, Win10 Pro 64-bit, Creative Soundblaster AE7

Dator 2: Intel Core i7 9700k, 32GB DDR4 Corsair 3000 MHz, Asus TUF Z390 Mobo, Asus Radeon 6800 XT TUF, Be Quiet 850 PSU, Win10 Pro 64-bit, Asus TUF GT502 Case

Permalänk
Medlem
Skrivet av Ryzer:

Är man lite realist så förstår vem som helst att siffror likt detta är rena nonsens. Säger inte att man inte kan få ett grafikkort att dra så mycket ström. Men att ett konsumentgrafikkort skulle kräva 900W i sitt originalutförande är ju skrattretande.

Var kommer ryktet om 10% bättre än 4090?
Jag har svårt att tro att 5080 blir bättre än 4090, men jag hoppas såklart.
Får jag gissa så tror jag på prestanda runt 10% under 4090 för 5080.

Ryktet om 10% bättre är nedanifrån så tages med en nypa salt, men kanske inte en skopa med tanke på att kopit7kimi brukar ha rätt hyfsat ofta och det inte är orimligt att (x+1)080 varit lite bättre än x090 tidigare.

"An important detail not mentioned earlier but confirmed to VideoCardz by Kopite7kimi is that the RTX 5080 is projected to show a 1.1x increase in performance over the RTX 4090."

https://videocardz.com/newz/nvidia-geforce-rtx-5090-reportedl...

Permalänk
Medlem
Skrivet av SweDragon:

Ryktet om 10% bättre är nedanifrån så tages med en nypa salt, men kanske inte en skopa med tanke på att kopit7kimi brukar ha rätt hyfsat ofta och det inte är orimligt att (x+1)080 varit lite bättre än x090 tidigare.

"An important detail not mentioned earlier but confirmed to VideoCardz by Kopite7kimi is that the RTX 5080 is projected to show a 1.1x increase in performance over the RTX 4090."

https://videocardz.com/newz/nvidia-geforce-rtx-5090-reportedl...

Får jag spekulera vilt så tror jag på lägre native prestanda än 4090, men bättre strålspårning.

Visa signatur

''Man får betala för kvalitet och stabilitet'' //Pantburk 2024.

Permalänk
Medlem
Skrivet av Ryzer:

Får jag spekulera vilt så tror jag på lägre native prestanda än 4090, men bättre strålspårning.

Det låter i så fall som ett självmål.

Permalänk
Medlem
Skrivet av landahl:

Det låter i så fall som ett självmål.

Finns det inget motstånd så gör man produkter som inte är så mycket bättre för att sälja det dyrare kortet

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem
Skrivet av Swedishchef_90:

Finns det inget motstånd så gör man produkter som inte är så mycket bättre för att sälja det dyrare kortet

Men man kan sälja 5080 för ungefär samma pris som 4090 och bryta ny prismark med 5090. 30k för toppkortet skulle räcka till minst en ny skinnjacka tänker jag 😁 (jacka för Jensen alltså)

Permalänk
Medlem
Skrivet av lincoln:

Och jag ser helt enkelt inget sätt för en ML-modell att bli så bra att den kan hålla en röd tråd genom ett helt manus, en hel film, eller ett helt program, utan förbättringar motsvarande många tiopotenser. Kommer ni ihåg DOOM-demon häromdagen? Den blev blaj efter några sekunder. Säg 5. I 30fps motsvarar det 150 bildrutor. Att statistiskt sett ha rätt 150ggr i följd är OTROLIGT bra precision. Men att expandera det till att ha rätt i flera timmar i följd är ÄNNU MERA OTROLIGT långt borta.

Relevant i sammanhanget.
https://arstechnica.com/cars/2024/09/tesla-full-self-driving-...

Vi kommer aldrig få fungerande FSD utan att man helt ändrar principerna för hur den funkar. Att statistiskt sett ha rätt 99.99...9% av tiden och lägga gigawatt av energi och beräkningskraft på att fila fram fler 9:or är inte rätt väg.

Man måste på något sätt göra 100% säkert att man uppfattar åtminstone vägen, andra bilar och människor - t.ex. genom att kräva transponder på allt som ger sig ut i trafiken. Sedan kan man använda den där 99.9xxxx9%-iga kameran på att undvika andra hinder - nedfallna träd, etc.

Visa signatur

Gammal och gnällig