Kommentar: Våra datorer är korthus av silvertejp

Permalänk
Medlem
Skrivet av Limpan4all:

Förklara varför switchfrekvensen skulle behöva ökas?
Samt förklara varför PCB skulle behöva bli tjockare?

För jag kan helt enkelt inte begripa hur dessa båda behov skulle uppstå.
Om man skulle mata GPUn med 48V så kommer det med >>90% sannolikhet behövas en mellanspänning. Detta då att omvandling från 48V direkt till 0,8-1,2V praktiskt sett får urusel verkningsgrad. Att ta ett mellansteg på 8-12V skulle underlätta betydligt. Om man skulle välja 12V så är det bara ett nytt omvandlarsteg på GPUn.

Men jag tvivlar på att det kommer att ske. Det är betydligt enklare och billigare att stoppa dit ett bättre kontakdon än att gå över till 48V matning (eller vilken annan spänning som helst utom 12V).

Högre volt kräver större mellanrum för minimera överslag? Krypströmar och värme ?
Varje gång du omvandlar så får du dessutom värmeförluster som måste bort. Tjockare pcb kan hjälpa.med avledning.

Högre Switch frequency minimerar behovet av större komponenter? Bättre Ripples

Allt har självklart en avvägning men att ha ytterligare omvandling gör bara allt större.
48->24>12>5>3.>1V känns bara onödigt gpu kommer aldrig få en ytterligare omvandling på sig inom konsument segmentet

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 4x Noctua A14x25 2xT30, 1x Noctua A12x25, 3x ek loop

Permalänk
Medlem

Vad är då lösningen? Riv upp allting och börja om från början?

Ja, någon gång kommer man att tvingas till det. 48V - kanske, 24V borde inte vara ett stort problem. Ibland måste man göra om allt från början, se på naturvetenskapen.

Permalänk
Skrivet av Swedishchef_90:

Högre volt kräver större mellanrum för minimera överslag? Krypströmar och värme ?
Varje gång du omvandlar så får du dessutom värmeförluster som måste bort. Tjockare pcb kan hjälpa.med avledning.

Högre Switch frequency minimerar behovet av större komponenter? Bättre Ripples

Allt har självklart en avvägning men att ha ytterligare omvandling gör bara allt större.
48->24>12>5>3.>1V känns bara onödigt gpu kommer aldrig få en ytterligare omvandling på sig inom konsument segmentet

OK, jag vet inte vad du har för bakgrund. Men teorin säger 0,01mm issolation per Volt spänningsdifferens. Så 48V istället för 12V som högsta spänning skulle då kräva 0,5mm vid normalt smutsig kontorsmiljö utan kondenserande luftfuktighet. Vad avser korttjocklek så är 1,6mm mer än bäl tillräkligt för 48V helt utan något som helst problem. Vid 230V AC på varje sida av ett 1,6mm FR4 mönsterkort så kan man få genomslag, det är ovanligt men det händer. Så då lägger man ledarna på samma sida med 2,5mm emellan samt fräser fram en slits emellan ledarna. Vid låga 48 Volt så finns inte problemet alls.

Om man skulla mata GPU kortet med 48V så skulle en mellanspänning på 12V vara "praktisk". Därifrån kan man använda sig av flerfas Buckomvandlare för alla lägre spänningar beroende på hur mycket rippel man "tål", samt vilken verkningsgrad som är nödvändig att uppnå. När det gäller switchfrekvensen så innebär en högre frekvens att man kan använda sig av mindre induktanser/kondensatorer men att switchförlusterna ökar avsevärt i switchelementet men även i likriktaren (som troligen måste vara en styrd komponent). Men dessa komponenter har i princip alla sina förluster under stig och falltiderna så man vill ha så få sådana som möjligt då de ökar förlusterna. Så lägre frekvenser är att föredra. Dessutom så ökar EMC problemen kraftigt med ökade frekvenser samt blir svårare att hantera speciellt när det kan röra sig om hundratals Ampere...

Så jag tror att du har fel i båda dessa avseenden.

Men kom gärna med motargument.

Stavning.
Permalänk
Medlem

"Kanske kommer datorbyggare att lämnas vid vägkanten och hamna i ett allt mer nischat segment. En framtid med mindre DIY kommer bli en tråkigare framtid."

Ja, det är ju redan ett faktum, det är en utveckling som med allting annat. Se på förstärkare, de är nästan utan undantag inte alls modulära utan du får byta hela klabbet, å andra sidan så håller de väl en 20-30 år och såvida du inte jagar senaste surround-avkodnings-standarden så den behöver den inte bytas ofta heller.

Men vad gäller grafikkort som drar mer än 500W så är det väl rätt nischat redan där... och jag ser inte varför det inte skulle kunna komma en ATX-standard 3.5, de uppdaterade ju till 3.0, så mer "exklusiva" varianter för att tillgodose 500-1000W instickskort med dedikerade 24V-anslutningar är tekniskt möjligt att lösa. Själv har jag levt med GPU:er som drar under 400W utan att lida.

Men det känns som att en del av grundproblemet med dessa brinnande 12V-high-power är mer att de drar rubbet på en lina mer än något annat, och problemet är där mestadels i GPU-änden.

Visa signatur

|[●▪▪●]| #Monster Battle Station(tm)#: Ryzen 3700X >-< GB-X570-AE >-< 32GB RAM >-< RTX 4070S >-< Crucial 2TB SSD |[●▪▪●]|

Permalänk
Medlem

Korthuset är att man skruvar upp effektbehovet med 25% för i bästa fall 10% mer prestanda. Det och absolut inget annat är datorvärldens problem just nu.

Men få om ens nån av techvärldens journalister vågar säga det.

Visa signatur

Du som inte behärskar när du skall använda de och dem så finns en mycket enkel lösning. Skriv dom så blir det inte fel.
Första egna datorn -> ZX Spectrum 48k '82.
Linux Mint, Asus B550-F, Ryzen 5700X3D, LPX 64GB 3600, RTX4060

Permalänk
Medlem

Inte behöver grafikkort som drar mera. Vi behöver bättre och effektivare kodning av Spel och annat så det inte behöver så effektslukande Grafikkort. För inte har "grafiken" så mycket bättre.

Permalänk
Medlem
Skrivet av iGMAS:

Inte behöver grafikkort som drar mera. Vi behöver bättre och effektivare kodning av Spel och annat så det inte behöver så effektslukande Grafikkort. För inte har "grafiken" så mycket bättre.

Optimering är stendöd sedan länge. Och vissa tror att AI kommer vara den magiska lösningen (fråga Nvidia). Tyvärr värderas optimering väldigt dåligt. Plus att allt ska kastas ut så fort som möjligt, finns inte tid att fixa buggar eller optimera.

Visa signatur

Byt namn på Nvidia till NvidAI