64 kärnor kan bli vanligt redan 2012

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av MBY
Det är, precis som med bildtelefonen, så att folk och fä då och då säger "i framtiden", "om X år", "snart" ..."kan vi styra datorn med tal". Detta är dock en teknik som för den breda allmänheten hör hemma på "Island of Misfit Technologies", tillsammans med bildtelefonen, flygande bilar, bubbelminnet osv.

Saken är ju den att det finns, sedan något decennium, taligenkännande program rent kommerisiellt, till PC. Tekniken fungerar redan hyggligt tillförlitligt, den "hör" fel ungefär lika mycket som en människa, kanske lite disträ. Det omvända är ännu äldre, talsyntas. Problemet är bara att ingen vill ha skräpet idag. Men varför skulle någon vilja ha det i morgon? Mus och tangentbord är ett så oerhört mycket mer effektivt och stringent än att babbla med datorn.

Det finns miljoner tingestar som låter ballt och är fullt tekniskt möjliga nu, sedan länge, eller inom en snar framtid, men som ändå är genomkorkad och som ingen vill ha eller behöver.

Specialapplikationer för handikappade är givetvis en annan sak: här har man kanske inte kan välja bort en ineffektiv inmatningsmetod i datorn, eller behöver en bildtelefon för att kommunicera. Det betyder inte att just tekniken är något eftersträvansvärt. Snarare är den ett nödvändigt ont.

Håller med. Röststyrning har ju funnits hur länge som helst, men knappast nåt jag skulle överge musen och tangentbordet för. Säkert bra för dem utan armar men för oss andra är det totalt värdelöst tycker jag.

Visa signatur

AMD Ryzen 5 3600 | 4x8GiB 18-20-16-36-52-2T DDR4-3400 | MSI B450-A Pro Max AGESA 1.2.0.7 | Sapphire RX 480 Nitro+ OC 8GiB | Crucial MX500 500GB | PNY CS900 2TB | Samsung 850 EVO 500GB | Samsung PM961 512GB | Scythe Kamariki 4 450W

Permalänk

Sen att man måste kunna tala extremt tydligt när det gäller röstigenkänning är väl ett problem. Visst, mjukvaran blir bättre med tiden men samtidigt så kan den inte göra under. Särskilt inte med någon som mig som blivit beskriven som att jag pratar som "Farmer Fran" i Waterboy av vänner och min flickvän säger att jag pratar som Karl Johnsons karaktär "PC Bob Walker" i Hot Fuzz.

Ni som sett filmerna förstår att knappt om man fokuserar sig så hör man vad de säger.

Tror det kvittar hur bra AI och hur många kärnor AIt måste köras på för att fungera så kommer datorn att förstå vad jag säger. Att ens öppna ett program eller diktera något via datorn är en pain in the ass. Den skriver ju inte alls vad man säger. Eller så gör den det...

64 kärnor utan mjukvara som stödjer det kommer dock inte att vara någon större hit men folk bryr sig inte om de kan använda det ifall det är det "nya".
Quad processorer verkar bli 2008 års nya innegrej på datorer från elgigaten och PC-city.

Vad folk har nytta av och vad som är tufft är två olika saker.

Jag tror framtiden ligger inom kompilatorer som kan ta en del av arbetsbördan från programmeraren och dela upp programmet i de trådar som verkar möjliga. Då kan de gamla programmerarna sitta kvar i det gamla medans de nya lär sig den nya tekniken och vi alla tjänar på program som är flertrådade.

Visa signatur

Belysningstekniker låter väl lagom flummigt?
signature your as this use backwards this read to enough dumb were you if

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av mortifer666
64 kärnor utan mjukvara som stödjer det kommer dock inte att vara någon större hit men folk bryr sig inte om de kan använda det ifall det är det "nya".
Quad processorer verkar bli 2008 års nya innegrej på datorer från elgigaten och PC-city.

Vad folk har nytta av och vad som är tufft är två olika saker.

Jag tror framtiden ligger inom kompilatorer som kan ta en del av arbetsbördan från programmeraren och dela upp programmet i de trådar som verkar möjliga. Då kan de gamla programmerarna sitta kvar i det gamla medans de nya lär sig den nya tekniken och vi alla tjänar på program som är flertrådade.

Mehhhh... Det finns ingen kompilator som kan göra det (förutom möjligen Scale till Trips-processorn, men det kommer ju aldrig till de nuvarande x86-processorerna ändå, och det handlar ju mer om single-threading på flera kärnor, vilket iofs inte är helt fel).

För att koda multitrådat måste man tänka om och programmera objekt-orienterat. Finns inga genvägar längre. Om man inte gör det kommer man inte kunna öka prestandan i sina program i framtiden, eftersom prestadan per kärna kommer att hållas någorlunda oförändrad i framtiden.

Iofs skulle man kunna använda sig av SIMD-liknande hårdvara (SSE, GPU, PPU, Cell, etc) som verkligen kan boosta prestandan men det funkar ju bara på vissa program.

Visa signatur

AMD Ryzen 5 3600 | 4x8GiB 18-20-16-36-52-2T DDR4-3400 | MSI B450-A Pro Max AGESA 1.2.0.7 | Sapphire RX 480 Nitro+ OC 8GiB | Crucial MX500 500GB | PNY CS900 2TB | Samsung 850 EVO 500GB | Samsung PM961 512GB | Scythe Kamariki 4 450W

Permalänk
Hedersmedlem
Citat:

Ursprungligen inskrivet av m3tr0
För att koda multitrådat måste man tänka om och programmera objekt-orienterat.

Att programmera objektorienterat är väl inte nödvändigare än vanligt?

Permalänk
Medlem

Nu är jag iofs bara programmerat på det "vanliga" sättet och har inte lärt mig objekt-orientering riktigt men som jag förstått så måste programmet vara programmerat på ett objekt-orienterat sätt för att kunna boosta prestandan med flera trådar och få det att köras på ett effektivt sätt.

Visa signatur

AMD Ryzen 5 3600 | 4x8GiB 18-20-16-36-52-2T DDR4-3400 | MSI B450-A Pro Max AGESA 1.2.0.7 | Sapphire RX 480 Nitro+ OC 8GiB | Crucial MX500 500GB | PNY CS900 2TB | Samsung 850 EVO 500GB | Samsung PM961 512GB | Scythe Kamariki 4 450W

Permalänk

Intel kommer att pusha hårt för detta med detta: "64kärnor kan bli vanligt redan 2012".

Anledningen är väl deras kommande satsning på RealTime raytracing.

Redan 2010 kommer det alternativ för entusiasterna och 2012 hoppas man det bli mer mainstream.

Jag personligen ser fram mot detta med Realtime raytracing.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av RawXcellence
Intel kommer att pusha hårt för detta med detta: "64kärnor kan bli vanligt redan 2012".

Anledningen är väl deras kommande satsning på RealTime raytracing.

Redan 2010 kommer det alternativ för entusiasterna och 2012 hoppas man det bli mer mainstream.

Jag personligen ser fram mot detta med Realtime raytracing.

Realtime raytracing vore inte helt fel. Blir en smärre revolution av spelgrafiken iaf.

Visa signatur

AMD Ryzen 5 3600 | 4x8GiB 18-20-16-36-52-2T DDR4-3400 | MSI B450-A Pro Max AGESA 1.2.0.7 | Sapphire RX 480 Nitro+ OC 8GiB | Crucial MX500 500GB | PNY CS900 2TB | Samsung 850 EVO 500GB | Samsung PM961 512GB | Scythe Kamariki 4 450W

Permalänk
Citat:

Ursprungligen inskrivet av m3tr0
Mehhhh... Det finns ingen kompilator som kan göra det (förutom möjligen Scale till Trips-processorn, men det kommer ju aldrig till de nuvarande x86-processorerna ändå, och det handlar ju mer om single-threading på flera kärnor, vilket iofs inte är helt fel).

För att koda multitrådat måste man tänka om och programmera objekt-orienterat. Finns inga genvägar längre. Om man inte gör det kommer man inte kunna öka prestandan i sina program i framtiden, eftersom prestadan per kärna kommer att hållas någorlunda oförändrad i framtiden.

Iofs skulle man kunna använda sig av SIMD-liknande hårdvara (SSE, GPU, PPU, Cell, etc) som verkligen kan boosta prestandan men det funkar ju bara på vissa program.

Nä, det finns inte men vad hindrar det från att utvecklas?
Redan idag så gör kompilatorerna mycket av det arbete som programmerare förr fick göra för hand.

Med tanke på hur länge vi haft c++ nu så borde object-orienterad programmering blivit vanligare.
Alla program kan ju dock inte tjäna på att bli uppdelade.

Visa signatur

Belysningstekniker låter väl lagom flummigt?
signature your as this use backwards this read to enough dumb were you if

Permalänk
Hedersmedlem
Citat:

Ursprungligen inskrivet av m3tr0
Nu är jag iofs bara programmerat på det "vanliga" sättet och har inte lärt mig objekt-orientering riktigt men som jag förstått så måste programmet vara programmerat på ett objekt-orienterat sätt för att kunna boosta prestandan med flera trådar och få det att köras på ett effektivt sätt.

Det svåra är att lyckas dela upp programet i separata delar som är minimalt beroende av varandra. Implementationen är av mindre betydelse. Och det räcker med att en liten del av programmet inte kan anpassas för att en stor del av prestandavinsten skall förloras. Amdahls lag ger följande kurva:

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av RawXcellence
Intel kommer att pusha hårt för detta med detta: "64kärnor kan bli vanligt redan 2012".

Anledningen är väl deras kommande satsning på RealTime raytracing.

Redan 2010 kommer det alternativ för entusiasterna och 2012 hoppas man det bli mer mainstream.

Jag personligen ser fram mot detta med Realtime raytracing.

Att Intel skulle hoppa från Quad-Core standardet till 64-kärnor på mindre än fyra år verkar vansinne. Det finns ingen som tjänar på detta mer än excessiva servrar och/eller företag med underligt höga krav på multi-tasking.

Detta visar bara hur dagens processorteknik dryper av bristande innovationer.

Permalänk
Citat:

Detta visar bara hur dagens processorteknik dryper av bristande innovationer. [/B]

Precis, just därför vi behöver anpassa oss till muli-core's för att inte bli ståendes när utvecklingen når sin spets.

Visa signatur

"You know what's fun to do? Rent an adult movie, take it home, record over it with The Wizard of Oz, then return it so the next guy that rents it is thinking. 'When is this Dorothy chick going to get naked?'"
- Mark Pitta

Permalänk
Hedersmedlem
Citat:

Ursprungligen inskrivet av Mr.Borka
Detta visar bara hur dagens processorteknik dryper av bristande innovationer.

Vad syftar du på nu? Det är väl inte längre mellan innovationerna nu än förr? Att endast öka frekvenserna var väl höjden av innovationsbrist?

Permalänk
Citat:

Ursprungligen inskrivet av Mr.Borka
Att Intel skulle hoppa från Quad-Core standardet till 64-kärnor på mindre än fyra år verkar vansinne. Det finns ingen som tjänar på detta mer än excessiva servrar och/eller företag med underligt höga krav på multi-tasking.

Detta visar bara hur dagens processorteknik dryper av bristande innovationer.

Javisst kan det verka vansinne! men om Intel menar allvar med RealTime- Raytracing så lär vi snart vara där.

I dagens läge kan man få hysfad Realtime-Raytracing med 16 kärnor, vilket teoretiskt kan ske redan 2009 då moderkort/processorer för detta kommer att finnas på marknaden.

64 kärnor är nog det ännu lite hemliga Polarisprojektet?

Medan projekt Larrabee kommer att lanseras i slutet på 2008.

Industrin kan behöva 64 kärnor - och en skön renderingsstation blir det.

64 kärnor kan också behövas för att ge Nvida på tafsen med Intels egen
high end lösning för grafik.

Med 64 kärnor och Realtime Raytracing, lär vi få se spel med nära fotorealistiska renderingar.

Men jag håller med om att detta kan verka lite vansinne för många.

Googla: och läs in dig på RealTime Raytracing, så kan man klura ut varför Intel beter sig som de nu gör.

I vilket fall som helst är detta som Intel nu jobbar med rätt spännande.

Troligen blir det till en början en mix av renderingstekniker för speltillverkarna - men RealTime Raytracing är längre inte någon fantasi.

Intel har bl.a köpt "Havok" och "projekt Offset" och fler köp är nog att vänta?

Samtidigt anställer man fler och fler experter från spel och 3D industri.

Vad vill då Intel med dessa köp och anställningar? jag tror som flera andra, att Intel kommer att utveckla en egen "spelmotor" som man sedan ger bort till speltillverkarna för att pusha för att RealTime Raytracing ska slå.

Framtiden here we come!

Här finns en artikelserie om detta:

1.http://www.pcper.com/article.php?aid=334
2.http://www.pcper.com/article.php?aid=455
3.http://www.pcper.com/article.php?aid=506
4.http://www.pcper.com/article.php?aid=530

Läser man igenom detta och även det som Nvidia svarar på, så förstår man att de är lite skärrade, då en saker som Nvidia påstår är fel enligt många från Intel.

Hehe! vem ska man lita på?

Permalänk
Medlem

Jag förstår inte varför realtime-raytracing skulle vara något som general-purpose processorer skulle utvecklas för specifikt.

Permalänk
Citat:

Ursprungligen inskrivet av m3tr0

För att koda multitrådat måste man tänka om och programmera objekt-orienterat. Finns inga genvägar längre. Om man inte gör det kommer man inte kunna öka prestandan i sina program i framtiden, eftersom prestadan per kärna kommer att hållas någorlunda oförändrad i framtiden.

Vad har objektorienterad programmering med det hela att göra? Finns gott om exempel på språk som inte är objektorienterade som har stöd för trådar och processer.

För att ta ett exempel (och lobba lite för mitt nya favoritspråk ), Erlang (http://en.wikipedia.org/wiki/Erlang_programming_language). Erlang är ett 20 år gammalt språk utvecklat av Ericsson med parallellism, distribuerbarhet och feltolerans som grundstenar, ursprungligen för användning i telefonväxlar. Vill du skapa 10 000 eller 100 000 processer? Inga problem. Finns benchmarks för upp till så många som 20 miljoner processer. Märk väl att det handlar om processer och inte trådar. Processer delar inte data med varandra, vilket gör att man slipper en hel del klassiska synkroniseringsproblem. Inget tjafs med semaforer eller dylikt. Data kan istället skickas vid behov genom "message passing" processerna emellan. Vill du distribuera program över flera noder (över ett nätverk exempelvis)? Inga problem. Det funkar lika enkelt som om processen hade körts lokalt. Det finns även stöd för extremt häftiga grejer som hot-swap av kod (lite slarvigt uttryckt: uppdatera en exekverande process med ny kod on-the-go)

Permalänk
Medlem

Coolt!

Visa signatur

I like my women how i like my coffee... In a plastic cup.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av echo
Jag förstår inte varför realtime-raytracing skulle vara något som general-purpose processorer skulle utvecklas för specifikt.

Inte jag heller egentligen. Men samtidigt så kanske man kan göra paralleller till "special-purpose" SIMD-instruktioner, t.ex. MMX eller SSE. Möjligt är ju att raytracing, som ju är ett optiskt problem, kan användas mer generellt för att t.ex. analysera signalpropagering?

DwarfForge: Erlang är onekligen ett coolt språk. Som jag velat läsa om/lära mig under lång tid. Vet du några bra nybörjarsidor/böcker om Erlang? Jag antar, eftersom språkparadigmet är så speciellt, att även en professionell programmerare behöver nybörjarhjälp?

Visa signatur

http://www.theatlantic.com/national/archive/2012/05/how-the-p...
"If there's a simple lesson in all of this, it's that hoaxes tend to thrive in communities which exhibit high levels of trust. But on the Internet, where identities are malleable and uncertain, we all might be well advised to err on the side of skepticism."

Permalänk
Hjälpsam

Jag förstår inte varför det skulle vara svårt att skriva program med flera trådar, tycker själv att det är ganska lätt.
Jag har iofs inte provat för C++, där kanske det är svårt med tanke på det är ett jävla skitspråk.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Hedersmedlem
Citat:

Ursprungligen inskrivet av Ratatosk
Jag förstår inte varför det skulle vara svårt att skriva program med flera trådar, tycker själv att det är ganska lätt.
Jag har iofs inte provat för C++, där kanske det är svårt med tanke på det är ett jävla skitspråk.

Det är inte svårt att skriva program som har flera trådar, inte ens i c++ (som för övrigt är ett bra språk). Det svåra är att formulera den uppgift som skall lösas så att belastningen fördelas över dessa på ett bra sätt. Trådarna skall inte heller blockera varandra i alltför hög grad.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Ratatosk
Jag förstår inte varför det skulle vara svårt att skriva program med flera trådar, tycker själv att det är ganska lätt.
Jag har iofs inte provat för C++, där kanske det är svårt med tanke på det är ett jävla skitspråk.

Det är naturligtvis inte svårt att tråda i sig, men det går bara under vissa förutsättningar: Problemet måste innehålla parallellitet och mycket sådan. Minsta lilla synkroniseringsbehov eller seriellism straffar sig hård enligt Amdahls lag, se Elgots tidigare inlägg.

Visa signatur

http://www.theatlantic.com/national/archive/2012/05/how-the-p...
"If there's a simple lesson in all of this, it's that hoaxes tend to thrive in communities which exhibit high levels of trust. But on the Internet, where identities are malleable and uncertain, we all might be well advised to err on the side of skepticism."

Permalänk
Hjälpsam

Om C++ är vi inte överens men jag misstänkte nog att inte alla skulle hålla med.
Håller dock med om att få en jämn belastning på 64 kärnor, nog inte är snutet ur näsan.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Tempel
Vi har sett det där förut och ingen vill ta en disskution med BG om det där när han dementerade det hela eftersom det hela var överspelat sen länge sen. Men det är praktiskt att kunna skriva sin egen historia, vi som var med när han verkligen sa det vet att det där är bara PR på samma sätt som tomten i Bagdad när han sa att No americans here...

Intressant sätt att försvara en vandringssägen. Så länge som inga bevis finnes, är det sant att Mr Gates sa så. Men bevis på motsatsen godtas ej.

Själv är jag inte benägen att tro att Gates skulle ha sagt något sådant, det trodde jag inte ens innan jag läste dementin.

Så, "egna historier" åt sidan, du får nog ta fram en icke-anekdotisk referens.

...och tro mig, det finns bättre argument mot Microsoft än ad hominem...

Visa signatur

http://www.theatlantic.com/national/archive/2012/05/how-the-p...
"If there's a simple lesson in all of this, it's that hoaxes tend to thrive in communities which exhibit high levels of trust. But on the Internet, where identities are malleable and uncertain, we all might be well advised to err on the side of skepticism."

Permalänk
Medlem

Det är inte så mycket relaterat att mjukvaran inte hinenr efter utan att det snrare inte finns bra lösningar för att ha program över en himla massa kärnor.

Problemet ligger i minnet, skriva/läsa samtidigt kommer alltid att ställa till med problem så länge det inte kommer någon hårdvaru baserad lösning snart.

Idagsläget är det väldigt långsamt att låsa en vis rad data för läsning/skrivning och på så vis känar man nästan inget alls på flera kärnor. Så efter ett vist antal CPU'r så är blir det bara långsamma då alla kärnor behöver mer eller mindre sitta och vänta på varandra...

Vad man åt andra sidan känar på fler kärnor är att man kan köra fler aplikationer samtidigt, samt databas system som inte kräver skrivning mår myyycket bra på multicore CPU's.

Visa signatur

Speldator: Ryzen 7800X3D, 64GB DDR5, RTX 3070
Server: i7-8700k, 32GB DDR4, RTX2080
Steam deck + de fiesta konsoller.

Permalänk
Hedersmedlem
Citat:

Ursprungligen inskrivet av MugiMugi
Vad man åt andra sidan känar på fler kärnor är att man kan köra fler aplikationer samtidigt, samt databas system som inte kräver skrivning mår myyycket bra på multicore CPU's.

Och det är ju inte fy skam. Tänk, seti@home på 63 kärnor och operativsystem + övrigt på den sista.

Permalänk
Citat:

Ursprungligen inskrivet av MBY

DwarfForge: Erlang är onekligen ett coolt språk. Som jag velat läsa om/lära mig under lång tid. Vet du några bra nybörjarsidor/böcker om Erlang? Jag antar, eftersom språkparadigmet är så speciellt, att även en professionell programmerare behöver nybörjarhjälp?

Jag kan rekommendera http://erlang.org/starting.html som utgångpunkt.
I bokväg har jag för egen del funderat på att införskaffa Programming Erlang av Joe Armstrong (en av Erlangs skapare), ISBN 978-1-9343560-0-5. Finns till salu för 164:- på adlibris enligt prisjakt.nu

Eftersom Erlang är ett funktionellt språk underlättar det naturligtvis om du har kunskaper i andra funktionella språk.

För övrigt kan man inte prata om Erlang utan att nämna klassikern Erlang the Movie, http://video.google.com/videoplay?docid=-5830318882717959520

Permalänk
Hedersmedlem
Citat:

Ursprungligen inskrivet av DwarfForge
I bokväg har jag för egen del funderat på att införskaffa Programming Erlang av Joe Armstrong (en av Erlangs skapare), ISBN 978-1-9343560-0-5.

Den recenserades på slashdot i höstas, om du inte redan har sett det:
http://books.slashdot.org/article.pl?sid=07/09/05/1410213

Permalänk
Inaktiv

Raytracing redan 2015 kanske ? Och photon mapping 2020-2025

Permalänk
Hedersmedlem
Citat:

Ursprungligen inskrivet av Elgot
Ett annat problem är att tal kan vara bland de sämre sätten att interagera med en dator. I alla fall sådana datorer vi är vana vid.

Precis. Skeppsdatorn i Star Trek Voyager som de snackar på och ger order, typ höja värmen i rummet, slå på lyset och replikera en oxstek. Det är röstkommandon bra till. Men att styra en dator man sitter framför är inte särskilt effektivt. Ibland när jag är riktigt lat använder jag vistas inbyggda som fungerar rätt hyggligt ändå.

Citat:

Ursprungligen inskrivet av Domifuling
Vi vänder på det istället, tror du det är lättare att vinna mer prestanda / core än att lösa ovanstående på en 10 års period? Jag tror det är döfött att leva kvar i 80talet när det gäller mjuk utveckling och kräva att hårdvara, enbart, skall stå för prestandaökningen. Att fokusera på dom omöjligheter som redan finns är lika döfött, det behövs nytänk och jag är helt säker på att det kommer. Att vi tycker det är svårt i dagsläget är inget hinder utan enbart en grogrund för utveckling. En sak är säker, fokuserar vi inte på att lösa problemet kommer vi dras med långt dyrare problem.

Jag tror du missförstår mig, jag är inte en av dem som buar för att det kommer flera kärnor, jag gillar det.

Citat:

Ursprungligen inskrivet av MugiMugi
Det är inte så mycket relaterat att mjukvaran inte hinenr efter utan att det snrare inte finns bra lösningar för att ha program över en himla massa kärnor.

Problemet ligger i minnet, skriva/läsa samtidigt kommer alltid att ställa till med problem så länge det inte kommer någon hårdvaru baserad lösning snart.

Idagsläget är det väldigt långsamt att låsa en vis rad data för läsning/skrivning och på så vis känar man nästan inget alls på flera kärnor. Så efter ett vist antal CPU'r så är blir det bara långsamma då alla kärnor behöver mer eller mindre sitta och vänta på varandra...

Vad man åt andra sidan känar på fler kärnor är att man kan köra fler aplikationer samtidigt, samt databas system som inte kräver skrivning mår myyycket bra på multicore CPU's.

AMD Phenoms minneskontroller fungerar väl så att den kan arbeta enskilt för olika kärnor (2x single channel som inte är dual channel alltså). Det kanske blir mer så i framtiden? Nehalem ska ju ha tripple channel, det kanske går att koppla isär den.
Då borde alltså olika kärnor att helt samtidigt läsa/skriva till minnet om jag är med rätt?

Och varje tråd behöver ju inte arbeta på samma data. Ett eget local store för data den arbetar på.
Och det är mjukvaruproblem också. Man får försöka utveckla algoritmer som är mer lock-free, wait-free.

Visa signatur

Forumregler | Feedbackforumet | Något som behöver modereras? Tryck på Anmäl inlägget och ge en anledning, någon moderator kommer granska inlägget och göra (egen) bedömning
"Fate. Protects fools, little children and ships named Enterprise." - Riker - ST:TNG

Permalänk
Hedersmedlem

För övrigt roligt med ray tracing. Våran ray tracer i ett projekt levererade sin första bild idag, lite bugg med heltals absolutbelopp istället för flytals absolut men sen fungerade den perfekt.
Senare under optimeringsfasen så borde man ge sig på att parallellisera den till flera trådar. Men den är ännu inte direkt lämplig för realtime hehe.

Visa signatur

Forumregler | Feedbackforumet | Något som behöver modereras? Tryck på Anmäl inlägget och ge en anledning, någon moderator kommer granska inlägget och göra (egen) bedömning
"Fate. Protects fools, little children and ships named Enterprise." - Riker - ST:TNG

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Aqualize
AMD Phenoms minneskontroller fungerar väl så att den kan arbeta enskilt för olika kärnor (2x single channel som inte är dual channel alltså). Det kanske blir mer så i framtiden? Nehalem ska ju ha tripple channel, det kanske går att koppla isär den.
Då borde alltså olika kärnor att helt samtidigt läsa/skriva till minnet om jag är med rätt?

Och varje tråd behöver ju inte arbeta på samma data. Ett eget local store för data den arbetar på.
Och det är mjukvaruproblem också. Man får försöka utveckla algoritmer som är mer lock-free, wait-free.

Japp, det där med 2x64-bit single-channel (unganged mode) ger en rätt fin boost i multitrådade program. Riktigt trevligt gjort av AMD. Iofs har ju GPU:n liknande access till minnet, typ 8x32-bit (256-bit) som på R580.

Men det går också att göra flera läs- eller skrivningar samtidigt till samma minneskanal - om bank interleaving är aktiverat förstås. Dock funkar det bara om minnet har flera minnesbanker. En enkelsidig minnessticka är alltså en minnesbank. Jag märkte faktiskt en stor boost själv (i minnesbandbredd åtminstone) när jag bytte från enkelsidiga minnen till dubbelsidiga minnen. Kan ju vara nåt att ha i åtanke.

Visa signatur

AMD Ryzen 5 3600 | 4x8GiB 18-20-16-36-52-2T DDR4-3400 | MSI B450-A Pro Max AGESA 1.2.0.7 | Sapphire RX 480 Nitro+ OC 8GiB | Crucial MX500 500GB | PNY CS900 2TB | Samsung 850 EVO 500GB | Samsung PM961 512GB | Scythe Kamariki 4 450W