Intel "Alder Lake" med 16 kärnor i upp till 4,6 GHz tittar fram

Permalänk
Melding Plague

Intel "Alder Lake" med 16 kärnor i upp till 4,6 GHz tittar fram

Ett tidigt ingenjörsexemplar avslöjar detaljer om skillnaden på klockfrekvenser mellan "stora" och "små" kärnor.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk

Blir intressant. Jag har i drygt 20år trott att för många tillämpningar så behövs det inte vara samma kärnor, men sett svårigheten i att få till det mer generellt. Om man har en lösning där man hårdkodar att vissa processer endast ska köra på vissa kärnor. Och det i dessa processer i princip inte existerar någon flyttalsberäkningar, så skulle dessa kärnor ej behöva ha en kraftfull sådan del.

Problemet är att processorn bör fungera bra generellt och för den stora skaran. Där jag ser big och little som ett bra alternativ. Då väldigt många datorer är igång utan att göra något större, för att sedan någon timma på kvällen kanske dra igång ett spel.
Jag personligen vill kalla big little lösningar för att endast ha det kärnantal som de har stora kärnor. Även om småttingarna såklart hjälper till och beroende på utformning så olika mycket. I extremfallet så tolkar jag det som att man skiftar aktiva kärnor.

*edit*
Samma sak är det med instruktioner som AVX512. Om man har en lösning där endast 2st trådar kommer utnyttja dessa instruktioner, så skulle inte alla kärnor behöva ha tillgång till dem om man hårdkodar sin applikation.
Problemet är dock den generella lösningar som blir bra för många. I detta fall med Aldler lake så får nog de små kärnorna ej tillgång till AVX512.

Permalänk

Undrar när mjukvara för x86 "kommer ikapp" för flertrådat. Idag verkar det extremt snårigt att kunna skala utnyttjandet på ett effektivt vis. Ett spel kan ju säkert använda 6-8 trådar men sällan nära full belastning. Man kanske dedicerar en kärna till att hantera ljud, ett par till fysik, osv.

Det verkar inte vara ett enkelt problem att lösa, så varför släpper man CPUer med fler kärnor som lösningen på att kunna öka prestanda när den oftast stannar som teoretisk?

Visa signatur

i7 6700k @4,1 base - 4,4 Turbo | XFX 590X Fatboy | Gigabyte Z270 D3 | 2x16 GB Corsair Vengence 3200MHz Cl 16| Intel 750 400GB |EVO 970 1 TB Steamdrive| 64TB thin provision

Permalänk
Medlem

Sugen på att uppgradera men känns som spel kommer ha svårt att avgöra vilka kärnor som ska användas och inte.

Visa signatur

Intel Core i9 12900K@ 5,4 Ghz P & 4.2Ghz E | ASUS MAXIMUS Z690 HERO | Nvidia ASUS RTX 3080 STRIX OC | Kingston Fury DDR5 32GB 4800 Mhz 32GB| BeQuiet Dark Power PRO 1500W | Windows 11 PRO 64 bit | Samsung 980 Pro NVMe 2TB | Edifier S550 5.1 | Sennheiser Game One + ASUS Xonar Phoebus | Steelseries Prime Wireless | Corsair K75| NAS: Synology DS413 4x 3TB WD Red Raid 5

Permalänk
Medlem
Skrivet av lillaankan_i_dammen:

Blir intressant. Jag har i drygt 20år trott att för många tillämpningar så behövs det inte vara samma kärnor, men sett svårigheten i att få till det mer generellt. Om man har en lösning där man hårdkodar att vissa processer endast ska köra på vissa kärnor. Och det i dessa processer i princip inte existerar någon flyttalsberäkningar, så skulle dessa kärnor ej behöva ha en kraftfull sådan del.

Problemet är att processorn bör fungera bra generellt och för den stora skaran. Där jag ser big och little som ett bra alternativ. Då väldigt många datorer är igång utan att göra något större, för att sedan någon timma på kvällen kanske dra igång ett spel.
Jag personligen vill kalla big little lösningar för att endast ha det kärnantal som de har stora kärnor. Även om småttingarna såklart hjälper till och beroende på utformning så olika mycket. I extremfallet så tolkar jag det som att man skiftar aktiva kärnor.

*edit*
Samma sak är det med instruktioner som AVX512. Om man har en lösning där endast 2st trådar kommer utnyttja dessa instruktioner, så skulle inte alla kärnor behöva ha tillgång till dem om man hårdkodar sin applikation.
Problemet är dock den generella lösningar som blir bra för många. I detta fall med Aldler lake så får nog de små kärnorna ej tillgång till AVX512.

Utan att veta någonting om den här saken, men är det inte så det är i en del mobiler? Exempelvis 4st lägre klockade & 4st högre klockade kärnor?

Visa signatur

XFX Radeon RX 7700 XT Speedster QICK 319 Black Edition | AMD Ryzen R7 5700X | Noctua NH-D15 | Asus TUF Gaming B550-Plus | Kingston Fury Beast DDR4 3600MHz 4x8GB | Samsung 990 Pro 1TB | Corsair HX1000i | Fractal Design Define S | LG 27GL83A | Corsair K95 Platinum | Corsair Sabre RGB PRO Wireless | Corsair Void Elite Wireless

Permalänk
Medlem
Skrivet av 93Clocker:

Sugen på att uppgradera men känns som spel kommer ha svårt att avgöra vilka kärnor som ska användas och inte.

detta är dock inget som spelen gör utan är upp till windows schedueler att ange vilka kärnor som ska belastas vid tunga eller lätta laster.

Visa signatur

here we go!

Permalänk
Medlem
Skrivet av Bael:

Utan att veta någonting om den här saken, men är det inte så det är i en del mobiler? Exempelvis 4st lägre klockade & 4st högre klockade kärnor?

Njaa snarare mer eller mindre alla big little har varit mer eller mindre standard för mellan segmentet och high end sen 2014

Edit: lite fel på datum, sen 2015 ^^ snapdragon 808 och 810 samt 615 och 616 så vi snackar Nexus 6p och galaxy s6 tiden (även s6an med deras Exynos processor va en så kallad big little processor)

Visa signatur

here we go!

Permalänk
Medlem
Skrivet av The Kristoffer:

Undrar när mjukvara för x86 "kommer ikapp" för flertrådat. Idag verkar det extremt snårigt att kunna skala utnyttjandet på ett effektivt vis. Ett spel kan ju säkert använda 6-8 trådar men sällan nära full belastning. Man kanske dedicerar en kärna till att hantera ljud, ett par till fysik, osv.

Det verkar inte vara ett enkelt problem att lösa, så varför släpper man CPUer med fler kärnor som lösningen på att kunna öka prestanda när den oftast stannar som teoretisk?

Prestandaförbättringarna från när Intel tyckte att 4 kärnor dög ("640K ought to be enough for anybody."), och när AMD började elda i stjärten har nu gjort att exempelvis Steam Hardware Survey (som förövrigt är det bästa som finns på internet) 6 men framförallt 8 kärnor numera börjar bli standard. Denna övergången kommer att ta många år men redan nu ser man enorma prestandaförbättringar med fler kärnor än 4, då fler utvecklare och framförallt verktygen för att utveckla flertrådat har mognat.

Ytterligare fördelar är just det att om du har 4 kärnor kommer samtliga 4 att ha fullt upp med att köra ditt spel, har du 6 så gäller samma, men övriga processer kan glida på resterande två. Detta ger fördelar som att exempelvis kunna dubbelkolla Mortarmap i Firefox samtidigt som du spelar Squad. (Sen är detta en värdelös jämförelse då Squad är notoriskt entrådat, men du förstår min poäng).
Sen finns hela den stora poängen att din dator faktiskt kan göra tyngre saker än bara spela spel, vilket är bra det med

Skrivet av 93Clocker:

Sugen på att uppgradera men känns som spel kommer ha svårt att avgöra vilka kärnor som ska användas och inte.

^
This. Tänk vad det kommer att göra med Indie-scenen... (Utvecklingskostnader etc, har ingen aning dock)

Visa signatur

Krusidullen är stulen

Permalänk
Skrivet av The Kristoffer:

Undrar när mjukvara för x86 "kommer ikapp" för flertrådat. Idag verkar det extremt snårigt att kunna skala utnyttjandet på ett effektivt vis. Ett spel kan ju säkert använda 6-8 trådar men sällan nära full belastning. Man kanske dedicerar en kärna till att hantera ljud, ett par till fysik, osv.

Det verkar inte vara ett enkelt problem att lösa, så varför släpper man CPUer med fler kärnor som lösningen på att kunna öka prestanda när den oftast stannar som teoretisk?

Frågan ur dagens spel synvinkel blir lite felställd. Förr i tiden när t.ex crash Bandicoot gjordes så la speltillverkarna av det spelet ner otroligt tid på att leta upp sätt att få fram resuser från psx som Sony inte ville att de egentligen ens skulle komma åt, sedan funderade de på vad de kunde använda dessa resurser till.

Idag är det mer att de har en spelidé och de försöker lösa detta problem så bra som de kan. Det är inte så mycket fokus på att vi har resurser över som inte används, vad för roligt kan vi göra av dessa.

Jag tänker även tillbaka till Snes, där vissa spelkonsoler hade ett extra chip i sig som Super FX

Permalänk

Bättre än Icestorm map prestanda

Gracemont-kärnorna i 3 GHz imponerar inte om man vill ha prestanda. Troligen är Gracemont mycket lik Tremont och den ser ut att vara bättre än Apples lilla CPU. Uppgifter on ROB (retire buffert) finns ute 208 för Tremont och 111 för Icestorm. Frågan är dock om inte 4 GHz krävs.....

Permalänk
Medlem

Om de svaga kärnorna är nära Skylake i prestanda lär det ju duga gott för vardagssysslor.

Det lite knepiga är ju windows schemaläggare. Om Intel nu måste göra samma resa där som AMD gjorde med Ryzen så lär det ta ett par patchar innan det blir bra. Men det är hur som helst spännande att Intel har något nytt att komma med på riktigt. Ska man vara snäll får man ju säga att 11000-serien fick ett ljummet mottagande av användare såväl som recensenter. Så man får hoppas för konkurrensen skull att detta blir bra mycket bättre.

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Medlem
Skrivet av Ozzed:

Om de svaga kärnorna är nära Skylake i prestanda lär det ju duga gott för vardagssysslor.

Det lite knepiga är ju windows schemaläggare. Om Intel nu måste göra samma resa där som AMD gjorde med Ryzen så lär det ta ett par patchar innan det blir bra. Men det är hur som helst spännande att Intel har något nytt att komma med på riktigt. Ska man vara snäll får man ju säga att 11000-serien fick ett ljummet mottagande av användare såväl som recensenter. Så man får hoppas för konkurrensen skull att detta blir bra mycket bättre.

Windows schemaläggare ska ju redan vara klart för detta i.o.m. intels Lakefield.

Visa signatur

Kör väl en klassisk signatur:
9900K @ 5GHz/128GB 3200MHz DDR4/3x1TB NVME/6800XT på Aorus Z390 Elite
Samsung C34F791, Svive 34C801, Xiaomi 34", Logitech MX Master 3 + G512...
Behöver för jobb, ej gamer.

Permalänk
Medlem

24 trådar kan kanske sägas vara ovanligt, men knappast som i artikeln ett ”udda antal”.

Permalänk
Medlem

Mer kärnor åt folket. 16 kärnor, av varierande slag, är säkert snart standard.

Jag är ingen gamer men har hoppat på först tvåkärnig cpu Athlon 64 x2 och sedan core i5 760; båda två mellanprisade på budgetmoderkort. Sedan stoppade det som vi vet ganska rejält på konsumentsidan, jag har haft/har nån 6-kärnig AMD (före Ryzen) som inte gör någon glad, men bättre än 4-kärnig AMD åtminstone.

Mitt användningsområde är främst förhärdad slösurfning, kombinerat med 1-2 VM, en nedladdningsklient kanske, lite x264-konverteringar och redigering med avisynth ibland. Skulle gärna ha fler kärnor, min 2600k är dock ok för allt utom längre kodningar av x264 känner jag.

Visa signatur

ASUS P8Z68-v Pro i7 2600K@4.5, 32GB RAM, RX 580, 4K Samsung u24e590, Intel SSD, Seagate SSHD, LG BH16NS55 BD/RW, MacOS Monterey, Win 10+11, Linux Mint

Macbook Pro 2009, 8GB RAM, SSD, MacOS Catalina + Windows 7

Permalänk
Medlem

Ganska klena frekvenser när 5950X har stora kärnor och håller väl ca 4GHz hela vägen till 16?

Permalänk
Medlem
Skrivet av medbor:

Ganska klena frekvenser när 5950X har stora kärnor och håller väl ca 4GHz hela vägen till 16?

Citat:

Då det handlar om ett tidigt exemplar är det troligt att de maximala klockfrekvenserna lägger sig på en högre nivå vid lansering. Att det rör sig tidigt kisel märks inte minst på att den låga basfrekvensen 1,8 GHz flankeras av ett TDP-värde om 125 W, med en strömförbrukning som under kortare perioder kan toppa 228 W (PL2).

Men ja, vi får se hur det blir vid release.

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk
Medlem
Skrivet av ClintBeastwood:

Men ja, vi får se hur det blir vid release.

Absolut så, jag bara menade att det kändes lite lågt. Risken finns ju att dessa stora kärnor drar uppåt 50W stycket vid höga frekvenser, då blir det svårt...

Permalänk
Snusfri

Mycket intressant detta, hoppas att vi inte får vänta allt för länge.

Visa signatur

WS: i9 13900K - 128GB RAM - 6.5TB SSD - RTX 3090 24GB - LG C2 42" - W11 Pro
LAPTOP 1: Lenovo Gaming 3 - 8GB RAM - 512GB SSD - GTX 1650
LAPTOP 2: Acer Swift 3 - 8GB RAM - 512GB SSD
SERVER: i5 10400F - 64GB RAM - 44TB HDD
NALLE: Pixel 7 Pro

Permalänk
Medlem
Skrivet av norrby89:

detta är dock inget som spelen gör utan är upp till windows schedueler att ange vilka kärnor som ska belastas vid tunga eller lätta laster.

Frågan kvarstår fortfarande.

Visa signatur

Intel Core i9 12900K@ 5,4 Ghz P & 4.2Ghz E | ASUS MAXIMUS Z690 HERO | Nvidia ASUS RTX 3080 STRIX OC | Kingston Fury DDR5 32GB 4800 Mhz 32GB| BeQuiet Dark Power PRO 1500W | Windows 11 PRO 64 bit | Samsung 980 Pro NVMe 2TB | Edifier S550 5.1 | Sennheiser Game One + ASUS Xonar Phoebus | Steelseries Prime Wireless | Corsair K75| NAS: Synology DS413 4x 3TB WD Red Raid 5

Permalänk
Datavetare

Varför skulle det vara så svårt att få ordning på schemaläggaren?

Det som Intel och framförallt AMD gjort som rejält strular till det för OS-schemaläggaren är att de inte längre bygger kretsar där alla CPU-kärnor har samma maxfrekvens. I Intels fall finns saker som TVB och TB3.0, i AMDs fall kan i stort sätt varje kärna ha en unik maxfrekvens och det AMD jobbat med är att få till så Windows prioriterar de snabbaste kärnorna vid "rätt" tillfälle.

Jämfört med det är Alder Lake en parkpromenad. Faktum är att det egentligen redan är ett löst problem då man kan se det som en extension av hur SMT hanteras.

Ta en modern Intel/AMD CPU med SMT stöd. Antag vidare att alla kärnor har samma maximala frekvens. Fint homogent system, eller hur?...

Vad händer när man ska schemalägga tråd #2? Redan där måste man hantera att CPUn är asynkron, om man lägger den tråden på "andra" tråden hos den CPU som redan har en tråd aktiv får man endast 0-30 % effekt medan det blir ~100 % effekt om man väljer en annan CPU-tråd (om vi antar trivialt parallella problem).

Schemalägga något som Alder Lake är samma sak: först lägger man jobb på ena tråden på de "stora" kärnorna, sedan börjar man lägga jobb på de små kärnorna och i sista läget lägger man det på andra tråden hos de "stora" kärnorna.

Det blir rätt mycket som SMT, fast man har tre steg i stället för två.

Och varför ska inte Microsoft Windows kunna hantera "big/little" när Linux/Android och iOS/MacOS hanterat det galant idag?

Schemaläggning på specifika CPU-trådar är, utanför väldigt specifika fall som rimligen bara är relevant på inbyggda-system, är en uppgift för OS-kärnan. Det lägger inget merarbete på applikation/spel-utvecklare.

Däremot ligger jobbat att utveckla programvara som kan utnyttja flera kärnor nästan helt på applikation/spel-utvecklare. OS:et kan hjälpa till, vilket även CPU/ISA-design kan göra (allt annat lika så skalar program bättre på ARM64 jämfört med både ARM32 och x86/x86_64, men ARM64 är fortfarande ingen silverkula).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Och varför ska inte Microsoft Windows kunna hantera "big/little" när Linux/Android och iOS/MacOS hanterat det galant idag?

Windows hanterar redan big/little utan problem.

Visa signatur

Kör väl en klassisk signatur:
9900K @ 5GHz/128GB 3200MHz DDR4/3x1TB NVME/6800XT på Aorus Z390 Elite
Samsung C34F791, Svive 34C801, Xiaomi 34", Logitech MX Master 3 + G512...
Behöver för jobb, ej gamer.

Permalänk
Medlem
Skrivet av Yoshman:

Varför skulle det vara så svårt att få ordning på schemaläggaren?

Det som Intel och framförallt AMD gjort som rejält strular till det för OS-schemaläggaren är att de inte längre bygger kretsar där alla CPU-kärnor har samma maxfrekvens. I Intels fall finns saker som TVB och TB3.0, i AMDs fall kan i stort sätt varje kärna ha en unik maxfrekvens och det AMD jobbat med är att få till så Windows prioriterar de snabbaste kärnorna vid "rätt" tillfälle.

Jämfört med det är Alder Lake en parkpromenad. Faktum är att det egentligen redan är ett löst problem då man kan se det som en extension av hur SMT hanteras.

Ta en modern Intel/AMD CPU med SMT stöd. Antag vidare att alla kärnor har samma maximala frekvens. Fint homogent system, eller hur?...

Vad händer när man ska schemalägga tråd #2? Redan där måste man hantera att CPUn är asynkron, om man lägger den tråden på "andra" tråden hos den CPU som redan har en tråd aktiv får man endast 0-30 % effekt medan det blir ~100 % effekt om man väljer en annan CPU-tråd (om vi antar trivialt parallella problem).

Schemalägga något som Alder Lake är samma sak: först lägger man jobb på ena tråden på de "stora" kärnorna, sedan börjar man lägga jobb på de små kärnorna och i sista läget lägger man det på andra tråden hos de "stora" kärnorna.

Det blir rätt mycket som SMT, fast man har tre steg i stället för två.

Och varför ska inte Microsoft Windows kunna hantera "big/little" när Linux/Android och iOS/MacOS hanterat det galant idag?

Schemaläggning på specifika CPU-trådar är, utanför väldigt specifika fall som rimligen bara är relevant på inbyggda-system, är en uppgift för OS-kärnan. Det lägger inget merarbete på applikation/spel-utvecklare.

Däremot ligger jobbat att utveckla programvara som kan utnyttja flera kärnor nästan helt på applikation/spel-utvecklare. OS:et kan hjälpa till, vilket även CPU/ISA-design kan göra (allt annat lika så skalar program bättre på ARM64 jämfört med både ARM32 och x86/x86_64, men ARM64 är fortfarande ingen silverkula).

Jo, men här är det väl lite mer komplext. Om man vill spara energi (som verkar vara hela meningen med de svagare kärnorna) så måste man på nått sätt veta om tråden är tidskritisk eller ska dra låg effekt (eller båda) så man vet om man ska lägga den på den svagare kärnan direkt. Även om tråden är tidskritisk så kanske även en svagare kärna är tillräckligt snabb för att uppfylla tids-kraven.

Så vill man minimera energiförbrukningen så finns det lite mer att fundera på.

Permalänk
Datavetare
Skrivet av SAFA:

Jo, men här är det väl lite mer komplext. Om man vill spara energi (som verkar vara hela meningen med de svagare kärnorna) så måste man på nått sätt veta om tråden är tidskritisk eller ska dra låg effekt (eller båda) så man vet om man ska lägga den på den svagare kärnan direkt. Även om tråden är tidskritisk så kanske även en svagare kärna är tillräckligt snabb för att uppfylla tids-kraven.

Så vill man minimera energiförbrukningen så finns det lite mer att fundera på.

Poängen på desktop är rimligen inte att spara ström, inte i den bemärkelse som man normalt menar på bärbara enheter. Poängen är primärt att moderna x86 CPUer drar direkt idiotisk mängd ström vid maxfrekvens, både Intel och AMD har peak-effekt på ~50 W per kärna vilket gör det totalt omöjligt att hålla maxfrekvens när fler kärnor lastas.

Så huvudpoängen med "big/little" på desktop är att 100-150 W TDP börjar faktiskt bli en rejäl flaskhals när man går mot 12-16 kärnor. Visst kan man justera ned frekvensen på "stora" kärnor för att hålla sig inom budget, men det har flera nackdelar.

T.ex. uppför sig 5950X faktiskt sämre under maxlast jämfört med 5800X för det som befinner sin i förgrunden då den förra måste klocka ned sig mer -> latenskänsliga applikationer uppför sig sämre. Ångrar inte valet av 5950X i jobbdatorn, men den uppför sig i vissa fall faktiskt rätt illa jämfört med t.ex. MacMini M1 när alla CPU-trådar är 100 % lastade, även om de kör på låg prio, hela desktop kan börja "lagga" rejält. På MacMini M1 går det inte att märka skillnad i t.ex. webbläsaren oavsett om CPU i övrigt är 0 % eller 100 % lastad, de stora kärnorna går alltid på 3,2 GHz oavsett last.

Nu tror jag i.o.f.s. de värsta fallen av "lagg" är mer Windows fel, de händer bara när bakgrundsprocesserna tar 100 % CPU och de samtidigt har viss I/O både över nätverk och disk (men långt ifrån att nå 100 % I/O-kapacitet).

För att optimera för batteritid har Windows ett fundamentalt problem: OS kan inte automagiskt veta om en applikation är "bakgrundsprocess" eller en latenskänslig tråd. Linux har heuristik för att göra en kvalificerad gissning, men riktigt bra blir det först när man som i Android, iOS/MacOS kan explicit säga vilken typ av applikation det handlar om (bakgrundsapplikation eller interaktiv applikation).

Men i fallet Alder Lake S handlar det, utan om att med en mix av stora och små kärnor kan de stora kärnorna få merparten av TDP-utrymmet -> bättre för latenskänsliga applikationer, samtidigt som de små kärnorna helt optimeras för perf/W (vilket tyvärr ger sämre peak-prestanda -> inte optimalt för latenskritiska laster) och därmed maximerar total prestanda för saker som skalar perfekt för CPU-kärnor.

(Desktop) Windows har redan i dag en "hård" prioritering av den applikation som har input-fokus -> helt klart ska den få första tjing på första tråden på varje "stor" kärna. Är ju det saker som AMDs "best core" och Intels TVB utnyttjar för att avgöra vad den snabbaste kärnan bör köra.

På det stora hela blir det samma problematik som SMT, fast nu med tre nivåer i stället för två.

  • bäst prestanda har första tråden på varje "stor" kärna

  • näst bäst prestanda har de "små" kärnorna

  • i botten ligger att köra "andra" tråden på de stora kärnorna, detta har också negativ påverkan på den tråd som tidigare körde själv på kärnan, framförallt om den är latenskritisk. Tror det är här M1 riktigt slår AMD/Intel på fingrarna under hög last, "stora" kärnorna har inte SMT så de klockar inte ned sig och dras inte ned av att "annat" körs på samma kärna som din interaktiva last

Edit: en allt oftare förekommande rykte är ju att Zen5 i alla fall delvis blir "big/little". Om/när det händer kör i praktien alla med tekniken.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer