Inlägg

Inlägg som lincoln har skrivit i forumet
Av lincoln

Det blev litet avhugget där, tror jag.

Av lincoln
Skrivet av Yrch:

Det var inte uppenbart för mig. Man kan ju definiera hur stort eller litet ett bolag är på olika sätt, omsättning, vinst, EBITDA, antal anställda, market cap eller var man nu föredrar. Market cap är ett mått jag gärna tittar på men det betyder inte att det är det enda eller det rätta. Oavsett är väl min poäng att AMD inte längre är det lilla bolaget som måste anpassa sig till vad Intel gör utan kan köra sitt eget race.

Fine. Och jag håller med - det är inte alltid klart vad som avses.

Och det är säkert inte alla som är medvetna om att AMDs marknadsvärde gått om Intels - även om AMD fortfarande är långt efter i väldigt många andra mått.

Men bara för att spåra vidare; Att anta att 'stort bolag' är samma som 'stor Market Cap' i dagligt tal, får en del intressanta konsekvenser.

Exempelvis finns det privatägda bolag - t.ex. IKEA - som jag tror de flesta skulle vara överens om, är 'stora' - vars Market Cap inte går att fastställa, eftersom deras aktier inte finns ute till handel - dvs. ingen 'Market'.

En annan konsekvens av att använda 'Market Cap' som mått, är att 'stora' bolag aldrig kan konka, för när deras skulder överstiger tillgångarna, är aktierna värda noll, och då får de noll i market cap. Dvs. de blir per defintion pyttesmå.

Så Lehman Brothers, med sina 691 miljarder dollar i tillgångar vid konkursen, var inget stort bolag, eftersom skulderna var ännu större. Eller General Motors med sina 91000 anställda.

Anyhoo... Simma lugnt.

Av lincoln
Skrivet av Yrch:

AMD har väl högre market cap än Intel nu?

Fast det var väl ändå *ganska* uppenbart att det inte var market cap som avsågs?

Av lincoln

Satsa på Ergo-keyboard!

Körde mitt Microsoft Ergonomic 4000 tills paddingen var trasig, och symbolerna var bortnötta på ganska många tangenter.

Det är en nischprodukt, men folk som vill ha det, är villiga att betala. Kolla bara priserna på begagnade Ergo 4000.

Av lincoln

* ARM slår ut x86 på riktigt. Prestandaproblemen vi ser nu, åtgärdas av sig själva, efterhand Adobe och andra drakar bygger om sin mjukvara utan att luta sig på Intel MKL.

Övergången till ARM börjar med att man får samma laptop som idag, men lättare (mindre kyllösning) och med längre batteritid. Ganska snart märker dock marknadsförarna att journalisterna gärna sitter i solen på ett café när de testar maskinerna., och efter några iterationer, äter ljusstarka OLED-skärmar upp hela den ökade batteritiden.

* Ett efterföljande genombrott i batteriteknik (egentligen drivet av elbilsutvecklingen) återställer batteritiden. Laptoptillverkarna svarar med att öka skärmytan. Vikbara laptopskärmar dyker upp ~2026 och blir standard ~2029.

* Fler och mindre pixlar leder också till en omvälvning i hur man mäter prestanda för grafikkort. Kan man längre tala om grafikprestanda när pixlarna är interpolerade och "bara statistiskt sett rätt ("AI")?

Ett studentprojekt med ett "grafikkort" som visar "Myrornas krig" i 10000FPS på 20st 5k-skärmar, istället för vad-det-nu-var-för-spel-som-skulle-testas, illustrerar det absurda i att inte ha någon standard för acceptabla avvikelser.

* nVidia tar fram ett nytt 'retina'-liknande mått för prestanda. Specifikationen är 'öppen', men en del av kraven är en feature som bara finns på nVidia-kort och de nya N-sync-stämplade skärmarna.

* AMD tar fram en standard som är öppen på riktigt, och är baserad på input från JPEG och MPEG. Den sågas snabbt av förståsigpåare och nVidia-fans. En tung del i standarden baseras på hur ögat och hjärnan egentligen processar bildinformationen. Kritikerna skjuter i huvudsak ner den genom att hänvisa till att olika människor har olika bra syn, och bortser från att det missar poängen, när standarden ska appliceras på maskinen, inte på människan.

* Drivrutiner baserade på den nya standarden kan köra på laptop-APUer, men AMD har gjort misstaget att inkludera stöd även för äldre generationers APUer, med otillräcklig NPU-prestanda, så när de första verkliga prestandatesterna lanseras, verkar AMD på efterkälken, eftersom deras startfält (till stora delar 2 år gammalt) är långt efter nVidias mångdubbelt dyrare setups.

* Logitech hakar på Microsoft Recall och lanserar "AI"-tangentbord. Det är en glorifierad keylogger som kan spela upp tangenttryckningar.

* Konsument-backlash mot att de stora drakarna ser det som en produkt att studera vad vi redan gör, och sedan sälja det tillbaka till oss.

Fritt fabulerat. Var kul att låta tankarna vandra litet.

Av lincoln
Skrivet av Chess_Norris:

Tror inte den har släppts ännu så därav bristen på tester.

Hittade dock en liten review här (dock ej med snapdragon processorn):
https://www.timesnownews.com/technology-science/asus-vivobook-s15-oled-review-thin-light-and-perfect-multimedia-laptop-article-110520231

Tack. Och synd - CPUn är stjärnan här. Blir intressant att få reda på verklig batteritid, prestanda i verkliga program, spel, osv.

Av lincoln

Råkade se denna laptop https://www.scandinavianphoto.se/dator/barbara-datorer/window... på Scandinavian Photo-rean som @THB tipsade om.

Nån som sett några recensioner av den? Jag försökte googla, men min google-fu var inte med mig. Är den helt enkelt för ny ännu?

Av lincoln

Skulle jag köpa en nu: Minst 16" skärm, gärna OLED, och att den väger mindre än 1.5kg. 32GB minne, 1000GB SSD.

Det fanns en Acer Edge som matchade det ganska väl, men hade några problem - fläktljud och batteritid. Jag trodde det skulle komma liknande från fler tillverkare, som fixade de problemen, men nej... Så när jag väl bestämde mig för att slå till, trots problemen, verkade den ha sålt slut. Fanns bara 16GB att få tag på.

Och nu, med ARM på horisonten, känns det bättre att vänta på det. Det känns som ARM är som gjord för att lösa problem med just 'batteritid' och 'fläktljud'.

Av lincoln

Urgh. Hade ju varit nice om det gick att få utan den extra bloaten, och påslaget på prislappen för att täcka marknadsföringen. För att inte tala om kostnaden för CoPilot - dels betalar du genom att den får träna sig på allt du gör, och dels kommer de så småningom börja ta ut en prenumerationskostnad - som de kan ta ut eftersom den lärt sig på dina grejer.

Får starka vibbar av Clippy (och Skippy från Cyberpunk 2077), samt när de ångvältade Internet Explorer på alla.

Den här 'integrationen' kommer vara lika välkommen som Clippy, och lika smidigt genomförd som IE-bundlingen.

Av lincoln
Skrivet av tBiorrith:

Är det här den viktiga uppdaterings infon som är först eller?

<Uppladdad bildlänk>

Är antagligen bara deras AI som tolkat innehållet i dina raderade bilder.

Av lincoln

Man vill ha en SSD med mycket utrymme, lång livslängd och rimligt pris.

Storlek - man vill ha rejält med plats över, så man inte behöver bränna dyrbara skrivcykler på defragmentering.
Pris/GB - Sist jag kollade, var jag inte gjord av pengar.
Varumärke - Tidigare historia av tillförlitlighet, och hur man behandlat kunder som ändå råkat illa ut, är viktig.
Sist: Ingen kylfläns. Finns inte en chans att jag köper en SSD med kylfläns. Om den går så varmt att det behövs, så är den redan långt inne i den röda delen av riskzonen när det gäller livslängden.

Låååångt ner på listan: Hastighet. De pengar som blir över för att jag väljer en långsammare disk, läggs på RAM istället. Mer RAM, inte snabbare RAM.

Av lincoln
Skrivet av FX9:

Eller menade dom bara att man kan lyssna på och se allt som kan skapas av alla dessa saker..

Det är en rimligare inställning. Men om du kollar på de övriga kommentarerna, var det faktiskt en hel del som snackade om att ersätta dem som verktyg.

EDIT: Jag tror Tim Cook själv avgjorde debatten om vad de faktiskt menade, med kommentaren "Just imagine all the things it'll be used to create" /EDIT

Och även för ren konsumtion, ifrågasätter jag om det verkligen är tillräckligt med en iPads bild och ljud i alla lägen.

Hur färgglad, ljusstark och högupplöst skärmen än är, så är den bara typ 12", så det kan finnas ett ganska stort värde i att se film på annat sätt.

Och utan att starta ett flamewar, har ju Apple åtminstone tidigare inte varit direkt kända för att prioritera ljudkvalitet. 'Good enough' har nästan varit överkurs.

Är det t.ex. nån som har en TV större än 12"?
... och som inte använder iPad-högtalare för ljudet?

Av lincoln
Skrivet av Det Otroliga Åbäket:

Jag ser hur LLM:er är ett problem för såna här sidor: de resulterar sannolikt i att sidorna får färre besökare och därmed lägre reklamintäkter. Ett förbund med "fienden" är därmed åtminstone temporärt ett sätt att behålla näsan över vattenytan, så länge det fortsätter tillkomma nytt material på siten. LLM:ens ägare kan samtidigt peka på avtalet och undvika stämningar från site-ägaren.

Däremot har jag otroligt svårt att se hur sitens användare kan bli upprörda över detta. De har effektivt sett lämnat ifrån sig alla rättigheter till sina inlägg när de registrerade sig för ett konto. Vill du äga ditt innehåll, publicera det på din egen site under ditt eget namn. Jag har själv flera hundra inlägg på systersiten Serverfault och har periodvis legat på deras top-1%-lista, men det har ju aldrig varit en fråga om något annat än volontärarbete i hopp om att på något plan göra Internet lite bättre; om inte annat genom att några personer åtminstone undviker de värsta konfigurationsdumheterna när de sätter upp Internettillvända servrar. Folk som klipper-och-klistrar lösningar utan att tänka har alltid funnits, och nu har de hjälp av sina datorer. Inget att gnälla över, bara ditåt världen alltid varit på väg.

Vill bara säga: Bra analys. Och hedervärt slitet på Serverfault.

Av lincoln
Skrivet av Wh1spY:

Bra reklam ju, all världens konst och sätt att utrycka sig på, komprimerat så det får plats i en enda liten tunn maskin.

Säg det till nån som håller på med fysisk konst, t.ex. spelar ett instrument. Det finns inte en sportmössa att de kan ersättas av en uppenbar one-size-fits-all iPad. Oavsett hur mycket processorkraft den har. Det taktila är viktigt. Plus att instrumenten kan vara konstverk i sig. Det ersätter man inte med att kunna välja färg och form på det som visas på skärmen.

Mer allmänt till övriga: Så ni menar att alla dessa olika sätt att vara kreativ på, som illustreras av det som krossas, ska alltså gå att stöpa om till att ske inom den otroligt begränsade världen i en fyrkantig platta?

Enkelt motexempel: Skulle det gå att göra denna typ av one-size-fits-all, så skulle det t.ex. inte finnas folk som föredrog Windows X framför Window Y. Eller Linux.

Och detta är ändå bara så länge vi håller oss till preferenser kring hur skärmen ser ut och beter sig.

Börjar vi blanda in den fysiska världen, som är det det verkligen handlar om, framstår den totala fattigheten i en one-size-fits-all ännu tydligare: Det är som om det inte skulle finnas behov av kläder och skor i olika storlekar. Eller olika tyger och material.

Av lincoln
Skrivet av petter_mattsson:

Gissningar. Ska förtydliga det.

Förslag till rubrik: "Analytiker korrigerar sina tidigare fantasisiffror"

Av lincoln
Skrivet av flexm:

WQHD är ju 33% fler pixlar än QHD, hur men mycket mer minne det kräver varierar ju från spel till spel så svårt att säga om det pushar dig över någon gräns. Men som tumregel kan man säga att om du är GPU-flaskhalsad så blir det ca 33% sämre prestanda i ultrawide (är det cpun som flaskar så kan det vara så att det inte blir någon prestandaskillnad alls såklart).

Jag själv går lite mot strömmen här i tråden och säger "kanske" på om ultrawide är ett bra val. Jag körde 21:9 1440p i typ ett år innan jag gick tillbaka till 16:9. Spel var gött men det var själva windows-upplevelsen och att jobba på den som var sjukt o-nice.

21:9 är inte brett nog att byta bort två vanliga 16:9 skärmar, men det är brett nog att det blir ergonomiskt omöjligt att ha en extra skärm bredvid som man faktiskt jobbar på (alltså inte bara har som discord/spotify/trash).
Så om du är van vid att köra en multimonitor setup säger jag skippa helt 21:9, men om inte så kör hårt!

Min tanke exakt. Bytte till 1440p för drygt 10 år sedan. Hade som tanke att det blir "bättre än att köra 2st 1280x1024", men det var det inte. Väldigt långt därifrån.

Ska jag jobba och spela på samma rigg, ligger en setup med 3 skärmar närmare till hands. Men även med 3st 24" blir det *väldigt* brett. Eventuellt stående, då kanske... Funderar fortfarande.

Av lincoln
Skrivet av lillaankan_i_dammen:

Ytterst få använder Ai på deras cpu & GPU idag till något meningsfullt, men utvecklingen går i rusande fart. Microsoft och Apple satsar mycket på att få detta bli mainstream och folk använder Ai utan att ens veta om det.

För min egen del vill jag ha en bra LLM. Man frågar chatgpt eller Google Gemini en fråga, på några sekunder får man ut ett riktigt dåligt svar och det står att någon manuell granskare kan kolla upp svaret och man är extremt begränsad vilken information som är så offentlig så man kan lämna ut den så.

Jag vill ha en LLM, där jag kan ställa en fråga. Jag behöver inte alltid ha svaret samma dag, jag kan vänta. Men när jag får svaret så jävlar vad bra svaret ska vara. Alltså precis raka motsatsen till vad det är idag med de populära publika tjänsterna

Men det krävs lite datakraft att driva en sådan, jag tänker att det ska finnas någon kompilator så att LLM utvärderar själv ens svar när man frågar om programmering.

Först: Min avsikt är att säga det här på snällast möjliga sätt, inte vara elak.

Men... Det låter litet som om du blandar ihop träningen av nätverken, med evalueringen av nätverken.

En modell kan behöva petabyte med data, och tusentals nVidia-kort (datorkraft) för att tränas, men den klarar sig ofta med en enda inputmening (några byte data), och några GB minne och en halvkass CPU (datorkraft), för att evalueras.

Det är inte på din CPU kraftbehovet finns, för den tränar inte modellen. Precis som bilarna inte behövde fenor, för de lämnade aldrig marken.

Det är därför jag menar att "AI"-stämplar på konsumentprodukter är som fenor på 50- och 60-talsbilar.

Sen...

En LLM som svarar exakt rätt på din fråga, gör det inte genom att få extra CPU-kraft/betänketid.

Den behöver data. Massor av data.

Och den måste tränas på att förstå vad *du* menar.

Det innebär att *du* måste stå för datat.

Och du skulle behöva tömma hjärnan på psykiatersoffan i flera livstider innan en Intel Celeron skulle ha tillräckligt med data för att behöva cruncha ens en dag. Även om det är träningssidan av processningen vi snackar om.

Som sagt, detta är inte menat som någon diss av dig på något sätt.

Däremot är jag rätt trött på den totala flod av skamlösa PR-trick och ren desinformation som sprider sig nu, när marknadsförare och charlataner ser det som en lätt inkomstkälla. Jämför med 'Blockchain' som var i ropet för några år sedan. Eller fenor på bilar.

(Jag håller på med maskininlärning i yrkeslivet just nu. Tog mina första stapplande steg runt 2003-2004.)

Av lincoln
Skrivet av lillaankan_i_dammen:

Skämt åsido. Så vet jag inte riktigt vilken cpu jag skulle köpa idag. Det känns som att Ai delen på alla inom väldigt snar framtid kommer vara dålig emot vad som finns och det gäller även Apple som är i framkant.

Du kan vara lugn.

"AI-acceleratorer" på CPUerna nuförtiden, är som raketfenorna på bilarna på 50- och 60-talet.

De gör väldigt litet för funktionen.

Av lincoln

Kryssade
'Pris per GB'
'Hastighet'
Och 'Annat...'
För mig har det hittills varit viktigt att inte köra med 4 stickor, så även om priset är högre, köper jag hellre t.ex. 2x32GB än 4x16GB.

Och ofta har man ett bygge från en viss tillverkare i åtanke, och då är det intressant om det finns AGESA/XMP/vad-det-nu-heter-profiler för det man tänker bygga. Där är det ovärderligt med forum likt Sweclockers för att hitta rätt.

Av lincoln
Skrivet av hypermode:

Påverkar detta ett köp av ny Intel-processor? Sitter och lurar på att uppgradera och har alltid kört Intel, vilket jag vill fortsätta med, men har själv noll idé om huruvida en sak som denna behöver en lösning som är begränsad av hårdvarans konstruktion.

Det vet du väl bäst själv?
Det verkar ju funka som när en överklockning inte är riktigt stabil - man får klocka ner, höja spänningen eller förbättra kylningen.
Är du inte bekväm med det, kanske du ska vänta på en officiell lösning från Intel.