Inlägg

Inlägg som maniak har skrivit i forumet
Av maniak
Skrivet av lillaankan_i_dammen:

Arbete. Jag kan lugnt nyttja 100gånger så snabb dator för vanliga sysslor.

Men de som spelar så kommer säkerligen inte dessa processorer gå i 100%, varvid argument av typ att processorn vid 100% drar så mycket ström inte är relevant när de spelar på dem.

Problemet idag tycker jag är alla priserna överlag. En schysst dator blir svindyr för att schyssta prylar till den är svindyra. Processorn i sammanhanget är endast en komponent.
För mig och många andra är en desktop på sätt och viss dålig om man inte har 10GBe ethernet till sanet, frågan är om man idag inte bör gå upp till 40GBe? Sedan ska man ha all nätverkutrustning som inte flaskar på vägen.

Så för min egen del avvaktar jag med ett datorköp. Hade det endast varit för att Ryzen 9 7950X kostade strax under 10 000kr så hade jag köpt en direkt. Nu ska man ha så mycket dyrt till och det blir så dyrt så jag avvaktar.

*edit*
En med 100GBe ethernet. Ja, det är det som skiljer männen från pojkarna ;-): https://www.youtube.com/watch?v=Q0sxqze-8tc Tusan vilka fina lösningar i hemmet man skulle kunna göra om man hade så snabb uppkoppling emot Sanet.

Behöver du en switch då? Koppla direkt till SAN med 100G. Eller varför inte en threadripper med massa PCIe så kan du ha storage i samma burk.

I videon kör de med mellanox connectx-4 som bara har PCIe 3 8x (om det inte finns nån x16 modell) som klarar 8GB/s, som är 64Gbit/s. Kör du med connectx-6 så kan du få 100G på riktigt.
http://www.mullet.se/product.html?product_id=349927

Av maniak
Skrivet av tvelander:

Ah sen får du lägga eeeeeeeeenorma slantar för att lyckas koppla det någonstans
Vi kör 100/150Gb på jobbet

Är det för hemmet så klarar man sig utan switch, bara att koppla direkt mellan burkarna :). Men ser inget syfte att ha separata burkar då ens, köp en redig threadripper så kan du ha allt i samma.
Är det jobbet så har de säkert råd med 100G switch (whitelabel 100G börjar bli rätt billigt) om de jobbar med så mycket data.

Av maniak
Skrivet av tvelander:

Det som suger med RAID 0 är att du får sämre acsess tid men mer bandbredd dock finns inget nätverk i vanlig PC som klarar flytta den datan och din CPU kommer nog gå i 100 % om du ens lyckas.
Och ska du ha det för flytta data mellan diskar så är det inte ens då värt det.

Jag testat med 980 pro i raid 0 och raid kort och annat för jag håller på med det på jobbet även kört 4x 905p i olika configs

Kostar en slant men det är fullt möjligt på vanlig PC, tom utan att använda speciellt mycket CPU.

http://www.mullet.se/product.html?product_id=349927

Av maniak
Skrivet av Dinkefing:

Nej men samtidigt är det positivt att AMD tar marknadsandelar. Ju mer jämt desto bättre. Jag hoppas AMD utvecklar en riktig ARM processor. Jag var aldrig riktig lika positiv som Yoshman om att ARM kommer ta över snabbt men x86 är dött om de inte får ner energiförbrukningen de närmsta tre åren. Samma med grafikkort något måste göras.

Det var en av sakerna Jim Keller jobbade på för AMD mår han var där senast (hans primära uppgift vad jag förstått), K12 ARM. Men de la projektet på is innan något släpptes.

Av maniak
Skrivet av GooGeL:

Ja de är galaxer. JWST-bilden är en makalös tidsresa i tiden, som nuddar nära till över hela spannet bakåt i tiden, då vårt Universum uppkom från ett ännu okänt intet.

Bilden innehåller ljus från tidiga galaxer som etablerades för över 13 miljarder år sedan. Hur de ser ut idag på sekunden, får vi nyste om, om först 13 miljarder år.

Hur de ser ut idag kommer vi få veta om betydligt längre tid än 13 miljarder år då universum har expanderat (så denna galaxen är längre bort idag än den var när ljuset som vi ser idag började färdas) och kommer fortsätta expandera medans ljuset är på väg. Expansionen accelererar så till slut så kommer vi inte kunna se andra galaxer än möjligen ett par i vår lokala grupp.

Av maniak

Du lär tjäna in kostnaden för ett par nya switchar på nån månad med elkostnaden på dessa.

Av maniak
Skrivet av Lodisen:

Ja, gnäller om att företag skall betala deras utbyggnad.
När jag betalar för internet och bandbredd så skall de bara leverera. Det är inte Facebook, Netflix eller någon annans ansvar att bygga ut näten.

Om jag drar upp fyra streams i 8K på amfibielivet i Kongos innsjöar eller om jag kollar streams på Facebook spelar ingen roll.
Varken någon av dessa bör stå för kostnaden av vad tjänsten används till.

Det är ungefär som att folk köper skidor för att åka i backarna i Åre och skidtillverkaren vill att Skistar skall vara med och finansiera nya maskiner för tillverkning av skidor, då skidorna används mest i Åre.

Att ditt Internet kostar så lite som det gör beror på att konstanserna för att underhålla din "last-mile" samt övriga nätet (core, peering, dist, etc) är relativt låga då operatören oversubscribar övriga nätet då inte alla kunder använder 100% av sin bandbredd 100% av tiden. Om övriga nätet behöver uppgraderas pga att många kunder har börjat använda Netflix eller liknande tjänster så blir den kostnaden utspridd på alla kunder, säg en 20% ökning på månadskostnaden för alla, oavsett hur mycket bandbredd de använder. Är det fair, eller borde operatörerna försöka lägga den kostnaden på de kunder som faktiskt använder mer av den delade kapaciteten? I det fallet kanske en vanlig kund få en 5% ökning medans Netflixkunderna får en 30% ökning.
Man kan ju tycka att om man köper 100Mbit så borde man alltid kunna köra 100mbit oavsett vart det kommer ifrån eller ska till, men det är inte så operatörerna bygger nät och det är inte det de tar betalt för heller, då en sådan anslutning skulle kosta 10-100 gånger mer.

Inte för att jag håller med förslaget, men det skulle skifta kostnaderna mot kunder som faktiskt använder mer av nätet än andra kunder. Oavsett vad så är det kunderna som kommer få betala ändå.

Av maniak
Skrivet av timerx:

Vi får hoppas på att utvecklare inte hänger på Riot's spår med deras Vanguard anti cheat. Det kommer vara ett steg tillbaka tyvärr då detta är ett anti cheat som hakar in sig så långt in i windows kärnan det bara går. Och detta kommer aldrig att funka i linux tyvärr. Men mig veterligt så är det bara Valorant som kräver detta idag. Så 1 spel får man väll missa att spela i sådana fall

Både easy anti cheat och battleye är i kerneln.

Av maniak
Skrivet av Talisker00:

Jodå, en cloud key Gen 2.

Tydligen verkar Ubiquiti vid auto ställa in en kanal vid uppstart och sedan aldrig byta. Det låter faktiskt fungerande här och inte som mitt problem. (Även om jag ändå helst skulle viljat göra en riktig kanalplan. På mitt tidigare jobb hade vi tagit dit en burk med Ekahau för att planera på "riktigt").

Det kan sitta upp till 5000 personer i byggnaden, så vi pratar modell gigantisk. Tror inte att det är överdimensionerat med tanke på antalet användare, men däremot kanske det är för mycket effekt så APs stör varandra.

Jag har försökt få människan att segmentera mer, så det inte blir alldeles för många människor på samma VLAN. Helt hål i huvudet med tanke på broadcast-stormar och om man får in virus, men jag har jobbigt att nå fram...

Vad som däremot verkar vara problemet nu är att ALLA switchar samtidigt går in i adopting och sedan provisioning. Alltså jag ser på cloud key-GUI att varenda switch helt plötsligt behöver göra en provisioning. Det kan ju inte vara bra alls...

Beroende på hur Ubiquiti fungerar så kan han behöva göra manuell planering, och det är svårt att göra bra. Vi har kört allt på Auto med Cisco i en byggnad med tusentals användare, de anpassar sig kontinuerligt med både kanaler och styrka.

Men 30 accesspunkter med upp till 5000 användare? Nu var det ett par år sen med rekommendationen var max 30 användare per AP för en bra användarupplevelse, nu pratar vi över 160. MU-MIMO har säkert förbättrat situationen men tveksamt om man ens vill gå över 100 på en accesspunkt ändå.

Skulle öka antalet accesspunkter rejält, skippa 2.4ghz bandet, 20 eller 40mhz kanalbredd på 5ghz. Om AP endast väljer kanal vid reboot så krävs det nog att man planerar detta manuellt, samtidigt som man väljer effekt så APs på samma kanal inte kan nå varandra samt så klienterna roamar snabbare.

Alternativt ta i några konsulter som kan detta, att smälla upp wifi för så många användare är inget man bara gör sådär.

Av maniak

Om ni vill förstå vilka säkerhetsproblem de nya kraven löser kan ni kika på den här videon, TPM är bara en liten del.
https://www.youtube.com/watch?v=FJnGA4XRaq4

Av maniak
Skrivet av lillaankan_i_dammen:

Jag förstår inte svårigheterna att göra en app som kommunicerar emot ett Api, där inga andra kan göra likadant utan att just begå dataintrång. Att däremot förhindra andra kunna göra detta är mer komplicerat.
T.ex. att göra en egen App som gör sköter om inställningar i xbox, playstaion, steam och även inne i spel etc. Good luck att lyckas med detta utan att begå dataintrång. I Spotify så skulle jag och säkerligen flera vilja ha en egen app för detta, där vi har bättre kontroll över vilken musik som spelas näst osv.

https://github.com/jpochyla/psst

Finns massvis med exemplar av detta.

Inget dataintrång sker då det är användaren själv som accessar sin egen data, de förmedlar endast ett annat sätt att göra det på.

Av maniak

Vad spelar 3 år gamla siffror för teoretisk täthet för roll när de inte lanserat en produkt som ens uppnår hälften?

Av maniak
Skrivet av Nekrol:

Inte direkt, vi vet vilken hastighet de får ut med directstorage på Xboxen. Och det är inte i närheten av de 14Gb/s som utlovas i RTX I/O.
Även om Nvidia inte får ut den prestanda som utlovats så kommer det fortfarande vara snabbare med RTX I/O. Det är ju trots allt en optimering av DirectStorage. Skulle vara rätt konstigt om de inte fick ut mer hastighet.

De och Sony har väl ändå anget hastigheten på deras SSD, inte vad AMD teoretiskt skulle klara av.

Av maniak
Skrivet av Yoshman:

Har jobbat rätt mycket 10 Gbit/s på jobbet, men det har uteslutande varit med fiber. Vidare rörde detta programvara, primärt lager 3-7 och till viss del lager 2, har dålig koll på lager 1.

Någon som jobbat med både koppar och fiber? Erfarenhet, något för/nackdel med respektive teknik? Fiberkablarna som används på jobbet känns ju lite smidigare att dra än en typisk cat6 kabel.

Kort sagt, SFP+ DAC vinner eller är nära nog på alla relevanta mätpunkter medans 10GBASE-T förlorar på alla punkter (om man bortser från billiga prylar du kan köpa för hemmet) och fiber vinner när du ska mer än ett par meter. Om du bygger ett datacenter så vill du använda DAC inom ett rack till switchar i samma rack, däremot vill du i de flesta fallen använda fiber när du ska utanför racket till dina aggregeringsswitchar.
10GBASE-T drar betydligt mer effekt än SFP+, vilket är varför vi inte sett 10GBASE-T SFP+ förrän det senaste året från vissa tillverkare (följer ingen riktig standard vad jag vet), SFP+ standarden är max 2,5w. En DAC eller SR SFP+ drar under 1w.
SFP+ (DAC och SR samt LR SFP+) har lägre latens än 10GBASE-T då den senare använder sig av betydligt mer komplex encoding, 0,3µs jämfört med 2,6µs.
Hastigheten som signaler färdas i både koppar (beror på ett antal faktorer när det gäller koppar, se velocity factor eller wave propagation speed) och fiber (ljusets hastighet igenom ett medium, refractive index) är båda ca 2/3 av ljusets hastighet i vakuum, så ingen direkt skillnad där då båda hamnar på ca 5ns per meter. Dock kan wave propagation speed skilja sig mellan olika typer av kopparkablar, 65% av ljusets hastighet gäller för CAT6A, koax kablar som DAC kan vara snabbare än så (70-80%) men har inte sett några värden för just en DAC, dock gäller det så korta avstånd att det egentligen inte spelar någon roll.

Av maniak

Värt att nämna är att Cloudflares 1.1.1.1 (och Quad9 9.9.9.9, 9.9.9.10 ska stödja det) inte stödjer EDNS Client Subnet, vilket kan göra att du får prata med en server mycket längre bort än vad du annars hade gjort (används för att ge olika svar baserat på geografisk (gissad) plats), antagligen inte ett jätteproblem i praktiken och har sina privacy fördelar.

Av maniak
Skrivet av trickeh2k:

De borde ju rimligen förnya sig själva, förutsatt att man inte bara köpt engångsutförande av cert, alt. att man inte betalt fakturan?

Det är inget som görs automatiskt om inte Oculus själva satt upp det så. Normalt sett så måste du be om ett nytt cert, kan göras automatiskt med ofta har man bara övervakning eller påminnelse internt för att förnya certifikat. Sen ska det levereras på något sätt och installeras i prylen som använder certet, går också att automatisera men som tidigare så är det Oculus som måste göra det. Alltså 100% Oculus fel, klantigt men det händer oftare än man tror.

Av maniak
Skrivet av Mr_Lazy:

Då borde hela konceptet med certifierat fallera då alla bara behöver ställa tillbaka klocka så kommer certifierat som är valida i ett år helt plötsligt funkar i 30 för att man pillat med klockan

Klienten validerar certat baserat på sin egen tid. Vad spelar det för roll egentligen?

Av maniak
Skrivet av trickeh2k:

Om jag köper en tjänst av ett företag som sedan klantar sig, är det mitt fel då? Märkligt resonerat.

De utfärdar endast cert om Oculus ber om det, det är upp till Oculus att se till att byta ut sina cert innan de går ut.

Av maniak
Skrivet av trickeh2k:

@epaaj: ja, det kunde man.

Otroligt jävla klantigt att tredjepartsleverantören. Om det finns någon praktisk anledning att man inte kan använda sig av självförnyande certifikat så är det märkligt att man inte haft koll på att det klätt ut.

Du menar klantigt av Oculus.

Av maniak
Skrivet av Leedow:

Mycket pengar för bara 10 gånger (teoretisk) hastighet.
Undrar om man inte kommer undan billigare med exempelvis Thunderbolt eller USB 3. Version 3.2 ger ju ändå 20Gbit.

Du behöver en rätt biffig server eller ett gäng klienter med snabba ssd's för att ens kunna utnyttja det ändå, så priset på nätdelen är inte så hög ändå. Vill du dra ner på priset så kan du kombinera allt till en enda biffig server som är router och köra 1G på insidan, då behöver du bara ett 10G NIC.