Inlägg

Inlägg som houze har skrivit i forumet
Av houze
Skrivet av hunden:

ATX12VO har inte enbart en 10-pinnars kontakt för moderkortet, i specarna finns även en extra 6-pinnars kontakt (kallad "extra board connector" av Intel) för mer krävande moderkort. Huvudkontakten med 10 pinnar kan bara leverera upp till 288W men med extrakontakten får man ytterligare 288W. Ett grafikkort får ju dra 75W från PCIe-porten så ett moderkort med exempelvis två grafikkortsplatser skulle bara få 138W kvar till resterande komponenter så som USB-portar och andra expansionsplatser.

I praktiken kommer det för oss nördar/gamers nog alltid handla om att behöva använda både 10-pinnars och 6-pinnars-kontakterna. Eftersom kontakterna inte kan sitta precis bredvid varandra (för att inte krocka) så blir det inte så mycket platsvinst på själva moderkortet från 24-pinnarskontakten. 16 kablar istället för 24 gör väl däremot en del på kabelhärvorna.

Här finns ett moderkort för ATX12VO där båda kontakterna syns, tillsammans med kontakterna som förser SATA-enheter med ström: https://www.anandtech.com/show/15763/first-atx12vo-consumer-m...

Ja, jag tog inte med 6-pins kontakten eftersom den är extra funktionalitet utöver 10-pins som ersätter 24-pin. Behövs dessutom 4/8-pin till CPU likt tidigare men det jag vill peka på var att det inte vore orimligt att även lägga till 12-pin på PSU för väldigt strömkrävande saker.

Frågan är om Nvidia har ström i alla ledare eller om en eller flera av de tolv används för annat, 8-pins har ju 6 strömkablar så antingen används alla 12 till det eller så körs signal på en eller flera kablar.

Av houze
Skrivet av Fenrisulvfan:

Hmm, bara 2x(6+2) -> 12 pin, låter ju som en mjuk övergång, kanske kan man minska 24-pin till moderkortet i samma veva då?
12VO nätaggen känns definitivt som framtiden.

ATX12VO har bytt ut 24-pin mot 10-pin för moderkortet, är väl inte otänkbart att framtida ATX12VO-nätagg kan ha en 12-pinskontakt också.

Skrivet av Lifooz:

Ahaa, jo det kan jag svälja, lite pöl med adaptrar men sedan får vi se om AMD och Intel också hoppar på nVidias tåg, om de nu inte tagit patent på kontaktens design vill säga.

/Lifooz

Kontakten är en Molex micro-fit 3.0, så det är inget Nvidia hittat på så några patent är jag skeptiskt till, de tyckte nog bara det var en smidigare kontakttyp att använda.

Känns som initialt att detta inte spelar någon större roll, man behöver ändå 2 8-pinskablar och en adapter som sannolikt skickas med korten, beroende på adapterns utformning så kanske man kan göra lite snyggare kabeldragning.
Det som är intressant är om det kommer ATX12VO-nätagg med 12-pin i framtiden.

Av houze
Skrivet av sAAb:

Jag tvivlar på innehållet i artikeln:

"Windows 95 innebar också steget från 16-bitars kodbas till 32-bitars sådan, även om systemet behöll stöd för 16-bitarskod och MS DOS. Då Windows 95 låg till grund för mjukvara i flera efterkommande utgåvor av Windows fick utvecklargränssnitten och funktionerna samlingsnamnet Win32, en mjukvaruplattform som används än idag"

Om jag minns rätt så var det Windows NT (3.x eller 4.0) som kom två år tidigare som införde 32-bitars kod. Windows 95 var 16-bitars men hade 32-bitars hjälp-dll:er.

Första consumer-Windows med 32 bitar var Windows 2000.

Windows NT 3.1 kom som du säger 2 år tidigare med 32-bitars kod.

Däremot att säga att Windows 95 var 16-bitars känns mer som en objektiv definitionsfråga, kärnan och många delar av systemet är 32-bitars, en del saker var 16-bitars och stödet för 16-bitars mjukvara var bra då de kördes i 8086 virtual mode. Om jag förstod rätt så bootade datorn DOS i real mode som sedan läste in en Win32-kernel som slog om systemet till virtual mode, men alla OS på PC hade samma upplägg igentligen, även OS/2 och Linux behövde en 16-bitars bootloader eftersom PC alltid startades i real mode.
Så jag skulle nog kalla Win95 för ett 32-bitars system med vissa delar körandes 16-bitars kod.

Även 3.X var till vissa delar 32-bitars, med 386 enhanced mode. Även Win32-API från Windows NT kom till 3.X som Win32s.

Windows 3.X var verkligen en hybrid av 16- och 32-bitars, i grunden 16-bitars för att kunna köra på 16-bitars 80286 men med massa 32-bitars tillägg för att dra nytta av 80386 när det var möjligt. Windows 95 krävde 32-bitars CPU.

Av houze
Skrivet av Olle P:

Beror ju på hur det används...
En 6-pin-kontakt har tre plus-ledare, två nollor för återledning och en pinne som bara talar om att kontakten är ansluten. 75W fördelas alltså på två ledare.
När den utökas till 8-pin tillkommer en nolla och en indikator. Då fördelas 150W på tre ledare.
Med 12-pin, som kan antas sakna indikator, fördelas 600W på sex ledare. Dubbelt då hög effekt (strömstyrka) per pinne som 8-pin.

Jag kan se tre alternativa framtider för denna 12-pin-kontakt:
1. Den blir en tillfällig fluga när bara (en del av) denna generations grafikkort drar så hög effekt att den alls är ett vettigt alternativ.
2. Kontakten blir ny standard på server-sidan, där korten ska vara kompakta och kan komma att dra höga effekter även framöver.
3. Nvidia utnyttjar sin marknadsdominans och gör denna kontakt till ny standard på konsumentsidan, där den sätts på alla kort som behöver mer effekt än moderkortet kan mata. (Blir då även standard på PSU från ~400W och uppåt, med problem som följd hos dem som försöker använda klent kragg för att mata hungrigt grafikkort.)

Hur är det med ATX12VO, kan det vara så att nätagg av den typen kan ha 12-pin för matning av kraftfulla komponenter, de har ju redan 10-pin som ger 288W för moderkort och lättare komponenter.

Av houze
Skrivet av filbunke:

Finns ju inte mycket data om det, men 2013 hade Valve/Steam 75% av marknaden för digitala PC-spel köp. Någon som verkligen tror att andelen har minska? Snarare det omvända. Samtidigt har ju andelen PC-spel som köps digital ökat kraftigt.

Konkurrenter som GOG, Uplay, Origin, Epic, etc har ju bara småsmulor.

Och negativa effekter pga monopolställning uppkommer rätt så tidigt sett till marknadsandelar.

Försökte också hitta info om marknadsandelar men det var knepigt, Epic ska tydligen ha 15% enligt https://www.pcgamer.com/tim-sweeney-says-epic-games-store-giv... och 15% är ju inte småsmulor om det stämmer.
Steam bör vara helt klart störst men jag tror inte de har 75% längre, 2013 fanns det inte så många "spelbutiker" som det gör idag och Epic har ju varit rätt aggressiva för att plocka marknadsandelar.

Av houze

En snabb koll på kinesiska sidor så kostar 2080ti 13500 yuan, så 3090 kommer nog hamna på samma pris som 2080ti, tror de har hög skatt eller något sådant som driver upp priserna i Kina på dessa saker.

Edit: jag hade fel, priserna på 2080ti är lägre än så i Kina.

Av houze
Skrivet av Cloudstone:

Ja, nostalgi! Vilka var det nu igen, Internet Explorer, Netscape och någon till under Alta Vista-tiden?
Jag körde Netscape back in the day.

Tror du tänker på webläsaren Mosaic som var vanlig under några år, Microsoft licensierade Mosaic och utvecklade IE från det.

Av houze
Skrivet av dlq84:

Det tog en del klick för att ta reda på vilken arkitektur den använder: ARMv8 för den som undrar.

Skrivet av ronnylov:

Är väl samma design (TaiShan v110) som i övriga modeller av Kunpeng 920, t.ex. så är 8-core 920 ungefär 4 gånger långsammare än AMD 3700X i Blender enligt https://www.thefpsreview.com/2020/07/06/huaweis-8-core-7-nm-k...
Så 24 cores verkar behövas för att Kunpeng 920 ska vara snabbare i väldigt trådade laster än en 8-core x86 desktop-cpu.
Lite vagt om information, men detta är förmodligen ytterligare en modell i deras server-serie som redan finns med 64,48 och 32 cores, så den har nog 8-kanals dram, 40 pcie och annat godis för servar och kan säkert vara mer energi-effektiv än Xeon och Epyc vid samma prestanda.

Av houze
Skrivet av loevet:

@Erik_T: det ska tydligen handla om en testserver där de använder den gamla databasen för testsyften.

Så fort man läste databas från 2016 förstod man det var en kopia som användes i test-system, ett ofog som är alldeles för vanligt på för många företag, istället för att lägga ner en veckas jobb på att skapa script att populera test-databaser så tar man en kopia av produktionssystem och "sparar" några mantimmar.

Skrivet av TwentyØnePenguins:

Bara grejen att de använder kunders data i en bevisligen osäker testenvironment på det sättet är skrämmande. Så svårt är det inte att få fram dummy-data. 🙄

Håller med fullständigt.
Som jag skrev ovan, ofta ren lathet och dumsnålhet som företag tar kopior på sina databaser och använder i testmiljöer, är ju oftast relativt enkelt att skriva ihop scripts för att skapa upp dummy-data.
Men det finns lite knepiga fall där man behöver testa på skarp data för att hitta de där ovanliga buggarna men då måste man säkra upp test-miljön i samma grad som produktion vilket återigen inte händer p.g.a. av lathet, tidspress och dumsnåla beslut på företagen.

Inget nytt, detta har begått sen urminnes tider med kopior av skarp data i test men det har blivit värre av flera anledningar de senaste 20 åren i takt med system anslutna till Internet, rapid deployment, continues delivery, devops där allt ska uppdateras hela tiden och alla ska lägga ut ny mjukvara och alla är överarbetade så man funderar inte ens på vad man gör utan kör med skygglappar på och allt runtomkring är hinner man inte ta hänsyn till. Hoppades naivt att GDPR skulle stävja detta men ser inte att det haft någon effekt.

Skrivet av MsSmith:

Två anledningar:

Skattemässiga skäl - i Sverige måste informationen om affären lagras i minst sju år
GDPR - de kan inte ta bort sina kunder enligt ovan

Eftersom detta är en databas från 2016 och använts i en testmiljö så är båda argumenten ej tillämpliga.
Att det ska finnas transaktionshistorik för revision av verksamheter, verifiera skatter, löntagare, kunder mm är en bra sak, går visserligen att diskutera tidsramen men överlag handlar det om att skydda konsumenter och staten mot oseriösa verksamheter.

Skrivet av Mindfighter:

Det är ”svårt”, trots att ”alla” vet att man inte ska ha skarpt data för test så används det nästan alltid ändå. Lata programmerare som inte orkar generera relevant dummy-data eller anonymisera den skarpa datan...

Ja, som jag skrev innan, finns väldigt få fall där skarp data behövs i testsystem och när det verkligen behövs så måste systemen hanteras lika säkert som de skarpa systemen.
Sen vet jag inte om man ska skylla allt på lata programmerare, finns förmodligen ett mångfald av programmerare som gärna skulle ta sig tiden att skriva verktyg för att generera relevant dummy-data eller anonymisera den skarpa datan men den saken hamnar längst ner i varje sprint när sprint master får direktiv från product manager som får krav från customer solution director som får krav från..... (kedjan kan bli lång i vissa verksamheter).... company board, aktieägare.

Skrivet av GizmoTheGreen:

https://www.hd.se/2020-06-09/kopte-langos-via-natet-blev-av-m...

Verkar som Foodora hanterat det hela väldigt dåligt.

Är bakom betalvägg.
Vet inte om det är tillåtet på sweclockers.com att kopiera artiklar men jag kan inte tänka mig att det är det så istället för att kopiera texten från artikeln så kanske du kan sammanfatta den i ett par meningar med egna ord så vi får reda på vad den gäller?

Av houze

Kan ju bli en bra ersättare för The 100 som är inne på sista avsnitten nu, men vi får nog tyvärr vänta 3-4-5 år på detta.

Av houze
Skrivet av loevet:

Värt att notera är också att prestandaförlusten som emuleringen ger är ganska stor. Har sett utvecklare nämna siffror som 25-40 procent, men hade inte tillräckligt konkreta källor för att använda det i nyheten. En dedikerad desktop-processor på 5 nanometer och uppskruvade klockfrekvenser lär ge riktigt imponerande prestanda när den kör native-kod.

Med tanke på att iPad med A12X har lite drygt 1100 single core så låter 25-40% prestandaförlust vid emulering rimligt och 800-850 är inte dåligt resultat för en CPU på 2.4GHz och mjukvaran emuleras.

Av houze
Skrivet av Ricerunner:

Ser finemang ut, men när får vi nästa generations Optane?

Tänkte visserligen satsa på en drönare med biffigare kamera först, men som virtuellt minne för renderingar som kräver 100-400GB minne så skulle jag uppskatta något helt kopiöst om vi kunde få PCIe 4.0 och åtminstone 1,5 miljoner IOPS.
Typ innan mars 2021, helst.

Är väl nästa version av Optane DIMMs i detta pressutskick, moduler upp till 512GB med 25% högre prestanda än föregående generation, 225 gånger snabbare en SSD, över 6 GB/s läshastighet vid 256B random I/O slår ju allt förutom DRAM. Upp till 3TB borde räcka ett tag.

PCIe är ju lite långsamt men jag antar de släpper U.2 Optane med PCIe-4 när de släpper Whitley eller så väntar de och kör på PCIe-5 om 18 månader med nästa platform. Men varför vänta på diskar när man kan lagra allt i NVDIMM.

Av houze

Hoppas det släpps samtidigt som Half Life 3, så det blir lite konkurrens på marknaden /s

Av houze
Skrivet av Yoshman:

Nu använder ju det testet AVX som drar mer ström, fast 7 W är ju inte jättemycket...

Har en NUC med J5005 (Goldmont+). Satte maximal frekvens till 1,8 GHz (mot normala 2,8 GHz) och kollade hur mycket CPU rapporterade som "Package Power", blev ~1 W per kärna.

Så är fullt möjligt att det är så Intel "löst" budgeten, 1,8 GHz är rätt lite för Atom då de normalt ligger runt 2,5-3,0 GHz. Goldmont+ är 14 nm medan Tremont är 10 nm.

Därför svårt att tänka mig att Sunny Cove kärnan går ned till 1,8 GHz när alla kärnor jobbar. Är det så deklarerar i alla fall jag Lakefile som misslyckade. Möjligen kan den inte hålla kvar 2,8 GHz men borde vara i närheten (alt. ett misslyckade i min mening).

En stor poäng med big.LITTLE är att interaktiva saker tenderar vara enkeltrådade samtidigt som de är latenskänsliga. I ett sådant läge är det perfekt att ha en "stor" kärna som hanterar de interaktiva lasterna, då även med högre frekvens, medan de små kärnorna är flera och tar hand om bakgrundsjobb (som normalt inte är latenskänsligt samtidigt som fler långsammare kärnor ger bättre perf/W).

Du har nog rätt, AVX + HT i det testet så det blir lite fel att jämföra med, vi kan väl anta att Tremont borde klara sig på lägre förbrukning än Goldmont så det borde vara 4-5W över till Sunny Cove så då borde den kanske lägga sig runt 2.5-2.8? vilket borde vara helt ok i en ultraportabel enhet.

Jag är lite skeptiskt till schemaläggningen, är väl hyffsat enkelt för Operativet att hålla reda på vilket applikationsfönster som nu är aktivt och bör ha mest resurser för att vara så interaktivt som möjligt men om det finns beroenden till andra processer så blir det mer knepigt, t.ex. om man laddar en web-sida, ska webläsaren eller anti-virus få prio på den stora kärnan?

Av houze
Skrivet av Yoshman:

Går verkligen även Sunny Cove kärnan ned till "all-core" frekvensen när alla kärnor är lastad? Det verkar rätt märkligt och om det är så rätt mycket sämre än ARMs big.LITTLE då de "stora" kärnorna normal håller sin max-turbo även när de små kärnorna används (som precis som här typiskt har rätt mycket lägre max-boost).

Värt att nämna här är att Tremont nog har lite bättre IPC än vad man normal tänker när det gäller "Atom", IPC där ligger på Sandy/Ivy Bridge nivå (föregångaren Goldmont nådde Core2 nivå)!

Inte direkt jämförbart, men om man tar i7-1065G7 som drog runt knappt 25W med alla kärnor i 2.6Ghz så får man 6W på en kärna och så lägger man till 4 Atom-kärnor och 64EU grafik och totalmängden ska bli 7W så känns det som Sunny Cove-kärnan måste ner under 2.6 för att ge utrymme för de andra kärnorna och då låter tyvärr 1.8Ghz rimligt.
Eller så har jag läst av graferna på Anandtech fel, https://www.anandtech.com/show/15213/the-microsoft-surface-la...

Av houze

"Det innebär att bland annat Zen 4-baserade APU:er i familjen "Raphael" tar klivet bort från dagens Vega-baserade grafiklösningar"

Borde betyda RDNA2 i APU:er i början av 2022 antar jag.

Av houze
Skrivet av Returtony:

är inte detta lite same same som när de var ett djävla liv om att mobiler skpade hjärntumörer på de glada 90-talet

Skrivet av Kilroy:

Exakt så.

Och globalt har vi sett ~0% ökning i oförklarad hjärncancer sedan 80-talet då mobilnäten började komma.

Håller inte rikigt med, på 90-talet så var det inte så mycket masterna man bekymrade sig om utan själva telefonen, det var ju ett relativt nytt att alla helt plötsligt gick omkring och pratade med en lite sändare 2 cm från hjärnan så det fanns fog för en viss oro kring detta tills flertalet studier i ämnet gjordes som inte kunde påvisa någon inverkan.

5G-hysterin handlar ju mer om masterna och att många inte förstår att det är samma typ av radio-signaler som vi använt till massa andra saker de senaste 100 åren utan problem.

Av houze
Skrivet av cyklonen:

Just det där har jag aldrig förstått.

1. GDPR leder inte till det de påstår. De kan erbjuda vilket innehåll som helst utan att det uppstår nån konflikt.
2. EU har ingen juridisk makt utanför EU, så de kan göra precis vad de vill utan risk för sanktion.

Så nåt annat måste ligga bakom. Kanske ser de det som ett bra tillfälle att stänga ute trafik som bara kostar, men som inte betalar sig i form av annonser (antar då att ett amerikanskt bolag har annonser för den marknaden, och inte får lika bra betalt för europeiska besökare).

Trafikkostnader är försumbara i sammanhanget. Betänk att de flesta som implementerade denna typ av blockering bara gjorde det i början av GDPR, oftast beroende av en eller flera anledningar, t.ex.
- Hur GDPR skulle tolkas var otydligt för många.
- I teorin kan ägarbolag bli stämda, så om LA Times ägs av ett mediabolag som även har verksamheter inom EU kan detta bli påverkat. Även dumt att bränna broar för potentiella framtida verksamheter inom EU genom att hamna i konflikt med Europadomstolen.
- Många var inte alls förberedda, kan ta år att gå igenom all datahantering inom ett företag för att se att det uppfyller GDPR.

I praktiken så valde nog många att helt enkelt ta det säkra för det osäkra och temporärt stänga av trafik från EU tills man hade gått igenom sin datahantering och bättre förstod hur GDPR fungerar samt hur det kan beröra både verksamheten samt juridiska omkrets. De flesta av de som spärrade EU tog bort spärrarna inom några månader när de kände sig mer säkra på hur GDPR fungerade och påverkade deras verksamhet.

Av houze
Skrivet av Yoshman:

Fast man behöver inte krångla till det. Om jag köper en "Founders Edition" direkt från Nvidia för 10,000 kr exklusive moms så gör de endera brutalt mycket större vinst på den jämfört med om jag köpt den från ASUS, Gigabyte, MSI eller liknande.

Om så är fallet, varför säljer inte Nvidia alla kort själva?

Gissar att partnertillverkare och butiker har rätt tunna marginaler, vilket då betyder att bruttomarginalen visar rätt exakt vad det kostar Nvidia att tillverka en GPU. Det är som sagt i genomsnitt, lär vara lägre marginaler på de enklaste modellerna (finns flera fasta kostnader) och högre på datacentermodellerna (de kostar ju obscena summor).

Exakt summa kan vi bara gissa. Huvudpoängen är, för ett kort som man betalar 10,000 + moms (för vi skrev ju att Nvidia skulle få 10,000) ligger tillverkningskostnaden långt närmare 4,000 än 500.

Men Chrisism8 pratar inte om vad ett kort kostar utan vad färdigt kislet för en GPU kostar vilket inte inkluderar kort, minne, spänningsregulatorer, kondensatorer eller hdmi-port.

Går givetvis inte att få fram några exakta prisuppgifter vad TSMC tar för att trycka ut en krets som kan användas i ett 2080ti men ryktena talar om c:a $6k per wafer för 16nm ($10k för 7nm) och best case är lite drygt 60 kretsar per wafer så man skulle hamna runt $100/krets men med lite felande kretsar stiger det nog över $150-200/krets vilket är runt 2000kr vilket gör att 500kr är närmare än 4000kr i antalet kronor men in i procent är det mer

Nu är 2080ti kanske snarare ett undantag eftersom den är enorm, om jag förstått rätt kommer Samsung tillverka de minsta kretsarna och när man är nere på ~200mm så har jag svårt att se att det ens skiljer mer än någon hundralapp i tillverkningskostnad mellan Samsung och TSMC eftersom sådana kretsar ligger runt 300-400kr styck.

Av houze
Skrivet av Dinkefing:

Folk är dumma helt enkelt. De orkar inte bry sig. Och när man läser recensioner av Android telefoner speciellt flaggskepp nämns oftast ingenting om uppdateringar och hur bra företaget varit att uppdatera sina föregående modeller.

Folk är inte dumma, men många saknar utbildning och kunskap inom detta, likt många andra områden.

Skrivet av Dinkefing:

Men Google borde hålla truten när de själva inte kan lämna längre uppdateringar än tre år. Fem år som Apple kör med borde vara absolut minimum.

Det är fortfarande dåligt! Det borde komma säkerhetsuppdateringar varje månad. Sedan utelämnar många tillverkare flera säkerhetsfixar, det är nog bara Google som inkluderar alla med säkerhet.

Skrivet av Jackbob:

Dom flesta tillverkare har ju så fruktansvärt mycket skräp ovanpå Android så det är ju klart att det tar tid för dom att uppdatera. En av anledningarna till varför jag nyligen köpte en Pixel 3a istället för många av de andra märkena.

Jo faktiskt kan jag också tycka det är rätt snålt med 3 års stöd för telefonerna bara. Men förmodligen räknar dom med att väldigt få personer har samma telefon längre än 3 år. Tyvärr så håller ju knappt dagens litiumbatterier 3 år ens.

Ja, det är synd att Google bara har 3 år support på Pixel, de borde sätta ribban högre och även få partnertillverkarna med på spåret, Apples 5 år är en rimlig nivå.

Skrivet av Json_81:

Skräddarsydda OS har inget med prestanda att göra, det är för att tillverkarna vill att telefonen ska skilja sig från mängden. Att telefonerna saknat prestanda för nyare versioner har i regel varit rena lögner från tillverkarna.

Stämmer väl bara delvis, har varit problem med mängden RAM och disk i många modeller, kollar man på t.ex. HTC Nexus One (Android 2) som släpptes 2010 så hade den 512MB RAM och 4GB disk medan HTC Nexus 9 (Android 5) som kom 2014 med 2GB RAM och 16/32GB disk så är det enorm skillnad, tror inte Android 5 ens fungerade med bara 512MB RAM, iallafall inte om tillverkaren lagt till något eget i gränssnittet.
Kollar man på många budget-telefoner så har de ofta haft väldigt lite disk så nyare versioner av Android+tillägg inte fått plats.

Övergången till 64-bitars ARM började för 6 år sedan men det har släppts en hel del 32-bitars sedan dess, förra året började Google fasa ut supporten för 32-bitars appar, så det finns en del tekniska förklaringar till att inte uppdateringar släpps, inte bara att tillverkarna skiter i det.