Intel: "Processorer kan komma att offra hastighet för högre energieffektivitet"

Permalänk
Medlem
Skrivet av Spawnbadboy:

så med andra ord kommer jag kunna ha min överklockade i7-2600k i flera år till

Gött

i7-2600K måste vara ett av dom bästa teknik köp jag någonsin gjort.
Jag sitter visserligen på en i7-5820K idag men jag har kvar maskinen med i7:an och om sanningen ska fram så känns dom väldigt lika i prestanda.

Permalänk
Medlem
Skrivet av Christley:

så fort dom går över till segare processorer men mer energieffektiva så kommer inte fokus ligga på stationära marknaden utan snarare bärbara marknaden.
eftersom stationära inte har en anledning att uppgradera då. om dina fingrar inte är så gröna att det växer mossa på dom vill säga

Snarare kommer nog fokus ligga på servrar då mindre energi generellt betyder mindre värme. Högre bandbredder och lägre latensser kommer göra att vi inte behöver ha några datorer hemma, i alla fall inte några med någon större beräkningskraft. Det är vad jag tror om framtiden i alla fall

Permalänk
Medlem
Skrivet av anderjo4:

Snarare kommer nog fokus ligga på servrar då mindre energi generellt betyder mindre värme. Högre bandbredder och lägre latensser kommer göra att vi inte behöver ha några datorer hemma, i alla fall inte några med någon större beräkningskraft. Det är vad jag tror om framtiden i alla fall

Drömmen om tunna klienter, den har hängt med sen 90-talet, eller kanske tom sen 50-talet när man trodde att det bara behövdes 2-3 stora datorer i världen.

På ett sätt är drömmen redan sann, den heter smartphones, läsplattor och smart-tv.

En hel del programmerare borta i Asien sitter på klena laptops med Pentium eller sämre, de kompilerar istället på servrar som det går att hyra in sig på, fungerar ju bra om det är billigare än att köpa en värstingdator. I Sverige, och USA, är datorer ovanligt billiga i förhållande till inkomstnivån så ser det inte ut överallt.

Visa signatur

|| R9 7950X MSI PRO X670-P WIFI 32GB-DDR5-6400c32 MSI RTX4080 Ventus 3X OC || CORE i9 12900KF MSI Z690 Tomahawk WIFI DDR4 32GB-3600c16 Gear1 TUF RTX3080 OC V2 || R7 5800X3D X570S CH8 Extreme 32GB-3800c18 Gigabyte RTX3080 GAMING OC || R9 5900X(B2) B550-F 32GB-3800c18 EVGA RTX3070 FTW Ultra || R9 3900X X470-Prime Pro 32GB-3200c16 MSI RTX2070 Super ||

Permalänk
Datavetare
Skrivet av anon159643:

Jag tycker normen bland utvecklare ha blivit att ha igång runt 3 virtuella maskiner samtidigt, där 2st kan vara identiska förutom lite ändringar och man vill jämföra resultatet.

Men ser liksom inte problemet varför man inte skulle kunna ha 10 virtuella maskiner igång samtidigt på en tvåkärnig CPU. Flaskhalsarna är främst mängden RAM, för serverapplikationer är det sedan typisk hur mycket I/O som kan utföras i gästerna som begränsar.

Naturligtvis kan en maskin med två fysiska kärnor bara vettigt hantera gäster som man ger max två kärnor (även om det är tekniskt möjligt att ge gäster fler kärnor än vad som fysiskt finns), så testar man applikationer som är tänkt att köras på säg åtta kärnor så behöver man naturligtvis en maskin med minst åtta fysiska kärnor.

En av de viktigaste drivkrafterna bakom virtualiseringstrenden är just att utnyttja tillgänglig kraft mer optimalt, många servers som körs direkt på metallen har väldigt lång genomsnittlig användning av CPU kärnorna.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av anderjo4:

Snarare kommer nog fokus ligga på servrar då mindre energi generellt betyder mindre värme. Högre bandbredder och lägre latensser kommer göra att vi inte behöver ha några datorer hemma, i alla fall inte några med någon större beräkningskraft. Det är vad jag tror om framtiden i alla fall

ingen dålig tanke, nvidia har ju redan försökt med sin shield.
dock tror jag de tar ett tag om de ens händer pga laggen som följer med att strömma allt

Visa signatur

Min dator: Silent Base 600 | 1700X @ 3.9Ghz | MSI Gaming X 1080TI | RM750X | 512Gb M2 | 16Gb 3200mhz Ram | S34E790C @ 3440x1440
Tjejens dator: Define r4 | i5 3570k @ 4.2ghz | GTX Titan | 750w Supernova | 240gb SSD | 32gb ram
Citera/Tagga för svar!

Permalänk
Medlem
Skrivet av Zemlan:

Klart att för miljöns skull vore ju detta klart bra...hoppas de får ordning på Fusion "snart". Då jävlar kan de droppa allt vad energieffektivisering heter och gå rakt åt andra hållet!

Skickades från m.sweclockers.com

Det är en bit kvar men det är på G!

http://www.iflscience.com/physics/germanys-fusion-reactor-cre...

http://www.sciencealert.com/china-s-nuclear-fusion-machine-ju...

Permalänk
Avstängd

tänker bara. Ja men när väl en ny batteriteknik kommer ut så kommer man ha aparater som håller i veckor?

Permalänk
Datavetare
Skrivet av philipborg:

Just för fysik beräkningar så är det nästan enbart mjukvaran som behövs förbättras. Fysik kan nästan alltid tråda extremt bra och därför flyttar alltfler till GPGPU.

Skrivet av Aleshi:

Och fysik lämpar sig mycket bättre på parallelliserade designer, som grafikkort.

Fysikberäkningar är definitivt mer lämplig att köra på maskinvara som är parallell än "normala" program. Dock är fysiksimuleringar som t.ex. stel-kropps beräkningar inte alls lika "parallellvänliga" som grafik.

I grafik kan i princip varje pixel beräknas helt oberoende av alla andra pixels. En GPU är superspecialiserad på just saker där man har enormt många problem som sinsemellan är oberoende. En CPU är superspecialiserad på det omvända, att så snabbt som möjligt tugga i sig en sekvens av instruktioner som innehåller massor med beroenden och villkor.

Många fysiksimuleringar hamnar någonstans mittemellan detta, det handlar inte om strikt sekventiella problem men inte heller om strikt oberoende problem. Visst går det att använda en GPU till detta, men man hamnar rätt långt från teoretisk kapacitet. I praktiken passar nog SIMD i dagens CPUer (SSE/AVX) bättre för fysik än andra alternativ då SSE/AVX bättre hanterar sådant som har en del villkorad körning och visst beroende.

Man kan lite förenklat göra denna uppdelning

CPU: en ström av beräkningar per kärna
SIMD: 2-8 strömmar av beräkningar per kärna
GPU: hundratals strömmar av beräkningar per "kärna" (AMD Compute Unit/Nvidia Streaming Multiprocessor/Intel Execution Unit)

Tror just detta är varför GPGPU aldrig tar fart, det är väldigt få problem utanför grafik som är en riktigt perfekt match för GPU-beräkningar. Ovanpå det har kapaciteten med SIMD ökat väldigt mycket sett till kärna och MHz: fördubbling i Sandy Bridge, fördubbling i Haswell och även om teoretisk kapacitet inte ökade i Skylake så är det betydligt lättare att nå nära teoretisk max med AVX2/FMA i Skylake jämfört med tidigare p.g.a högre L2/L3-cache bandbredd.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Zemlan:

Klart att för miljöns skull vore ju detta klart bra...hoppas de får ordning på Fusion "snart". Då jävlar kan de droppa allt vad energieffektivisering heter och gå rakt åt andra hållet!

Skickades från m.sweclockers.com

Inte direkt, eftersom energin måste ta vägen någonstans och går den inte åt till produktens arbete så övergår den till värmeenergi. Effektiva prylar kommer alltid ha sin plats.

Permalänk
Proffsmobbare

Har man erfarenhet av Intel's T- och S-CPU:er för att sedan testa K, så inser man nog relativt snabbt att prestandaförlusten inte är något problem annat än på papper.

Permalänk
Medlem

Något jag tänker på när jag läser detta är hur gammal tekniken faktiskt är, kanske dags att bygga om mikrokoden och tekniken och fasa ut x86-stödet helt, antar att det skulle kunna ge betydligt högre prestanda och effektivitet. Känns som om det är massa onödiga flaskhalsar som står i vägen, bara för att ha kompatibilitet med saker som man inte använder längre.

Rent tekniskt är dagen moderkort helt kompatibla med en 486:a, Det största problemet är att det inte tillverkas instickskort från den tiden med dagens anslutningar, men egentligen så skulle man kunna köra en 5,25" floppy på PCI-Express eller med USB utan problem, om anslutningen fanns.

En av dom största flaskhalsarna är drivrutiner. Om man överlåter allt sådant till moderkortet och gör det statiskt så skulle vilket OS som helst kunna installera det som behövs från en statisk adress på moderkortet, och en uppdatering görs direkt i moderkortet. Dessutom skulle du bli OS-oberoende då koden skulle vara så maskinnära att du får större valfrihet, både av hårdvara och operativsystem då det är moderkortet och hårdvaran som installerar sig självt.

Kort sagt, vi behöver hårdvara som konfigurerar ditt OS, inte ett OS som konfigurerar din hårdvara.

Visa signatur

Server: Fractal design Define 7 XL | AMD Ryzen 7 5800X 8/16 | ASUS ROG CROSSHAIR VIII DARK HERO | 64GB Corsair @ 3000MHz | ASUS Radeon RX 460 2GB | Samsung 960 PRO 512 GB M.2 | 2x 2TB Samsung 850 PRO SSD | 6x Seagate Ironwolf Pro 10TB
WS: Phantex Entoo Elite | AMD Ryzen Threadripper 1950X 16/32 | ASUS Zenith extreme | 128GB G.Skill @ 2400MHz | ASUS Radeon HD7970 | 3x 2TB Samsung 960PRO M.2 | 6x Seagate Ironwolf Pro 10 TB
NEC PA301W 30" @ 2560x1600 | Linux Mint 21.3 Cinnamon

Permalänk
Entusiast
Skrivet av OldComputer:

Något jag tänker på när jag läser detta är hur gammal tekniken faktiskt är, kanske dags att bygga om mikrokoden och tekniken och fasa ut x86-stödet helt, antar att det skulle kunna ge betydligt högre prestanda och effektivitet. Känns som om det är massa onödiga flaskhalsar som står i vägen, bara för att ha kompatibilitet med saker som man inte använder längre.

Rent tekniskt är dagen moderkort helt kompatibla med en 486:a, Det största problemet är att det inte tillverkas instickskort från den tiden med dagens anslutningar, men egentligen så skulle man kunna köra en 5,25" floppy på PCI-Express eller med USB utan problem, om anslutningen fanns.

En av dom största flaskhalsarna är drivrutiner. Om man överlåter allt sådant till moderkortet och gör det statiskt så skulle vilket OS som helst kunna installera det som behövs från en statisk adress på moderkortet, och en uppdatering görs direkt i moderkortet. Dessutom skulle du bli OS-oberoende då koden skulle vara så maskinnära att du får större valfrihet, både av hårdvara och operativsystem då det är moderkortet och hårdvaran som installerar sig självt.

Kort sagt, vi behöver hårdvara som konfigurerar ditt OS, inte ett OS som konfigurerar din hårdvara.

Prestandan har väldigt lite med val av ISA att göra. Som Yoshman redan påpekat ligger Apple, IBM och Intel väldigt nära i IPC trots att de bygger på helt olika ISA. Apple har en egen variant som kör ARM, IBM kör Power och Intel x86-64. Skillnaden i prestanda för de olika plattformarna beror sen på vad de är designade för.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Inaktiv

På tal av processoptimering hur ofta använder man flyttalsdelen egentligen? Utan att veta vad jag pratar om tycker jag de bloatar ner cpuerna så mycket, jag tänker då främst på gpun.. Jag har dålig koll på hur övrigt mjukvara fungerar som windows m.m, men min egen kod så är flyttalsdelarna kraftigt begränsade. Visst det kommer ofta in flyttal, men de gör man snabbt om till heltal för att inte sänka hela skiten.

Men skulle t.ex. en cpu vars enda syfte vore att packa upp och ner filer i ett förutbestämd format vara mycket snabbare än en x86a då man slipper all bloated funktioner?
Det är liksom ofta man ska packa upp eller ner data och det vore gött om man hade en separat cpu för detta, inte minst för att ej belasta sin egen under tiden.
Självklart ska man ha snabba hdar som typ Samsung 950 Pro 512GB M.2.

Permalänk
Medlem

Du tjänar ingenting på att ta bort flyttal p.g.a. dagens processorers pipeline-struktur. Strömmen rör sig genom de relevanta delarna av processorn, och tar inte vägar som inte behövs (t.ex. flyttal).

Flyttal används ganska flitigt i grafik, fysik, statistik, m.m.

Permalänk
Entusiast
Skrivet av anon159643:

På tal av processoptimering hur ofta använder man flyttalsdelen egentligen? Utan att veta vad jag pratar om tycker jag de bloatar ner cpuerna så mycket, jag tänker då främst på gpun.. Jag har dålig koll på hur övrigt mjukvara fungerar som windows m.m, men min egen kod så är flyttalsdelarna kraftigt begränsade. Visst det kommer ofta in flyttal, men de gör man snabbt om till heltal för att inte sänka hela skiten.

Men skulle t.ex. en cpu vars enda syfte vore att packa upp och ner filer i ett förutbestämd format vara mycket snabbare än en x86a då man slipper all bloated funktioner?
Det är liksom ofta man ska packa upp eller ner data och det vore gött om man hade en separat cpu för detta, inte minst för att ej belasta sin egen under tiden.
Självklart ska man ha snabba hdar som typ Samsung 950 Pro 512GB M.2.

Ja en CPU som är designad för att göra en enda sak kan vara mycket snabbare än en generell CPU. Ett bra exempel är hårdvaran som är dedikerad för att avkoda film. Alla moderna GPUer har dedikerad hårdvara för alla vanliga filmformat. De spelar upp film långt mycket mer effektivt än GPUn kan göra som i sin tur är mycket mer effektiv än en CPU. Det sitter även hårdvara dedikerad för kryptering i en del serverprocessorer. Vi kan nog se mer av det framöver men det är inte helt lätt att hitta så snällt avgränsade uppgifter som samtidigt är tillräckligt vanliga för att det ska vara värt att lägga transistorer på det. I mobiltelefoner finns det lite mer utrymme för sådan. Det sitter ett block med DSPer för att hantera ljud och ett annat block med ISP (Image Signal Processor) som tar hand om bildbehandling.

Vi har sett ett annat stort steg i riktningen mot mer dedikerad hårdvara då Intel köpte Altera, ett företag som bygger FPGAer, alltså en sorts omprogramerbara processorer typ så man kan bygga egna specialprocessorer. Tanken verkar vara att integrera en FPGA direkt i vissa Xeon för att på så sätt kunna accelerera vissa specifika uppgifter i servrar. Så om ett företag till exempel har en server som bland annat packar upp och ner en himla massa filer varje dag så kanske de kan programmera sin FPGA för att ta hand om det. Eller så kan de integrera sökalgoritmer i den för databaser eller nåt. IBM har snackat ihop sig med Xilinix av samma anledning.

Vem vet, vi kanske får se en FPGA även på konsumentsidan så man kan låta vissa program använda den för specifika uppgifter. Det hade varit lite mer flexibelt än att bygga rena ASIC-block men samtidigt inte lika effektivt. Då hade du kunnat låta WinRAR använda den för att packa filer medan jag hade låtit REAPER använda den som DSP för musik. Men det är nog bara en önskedröm.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Inaktiv
Skrivet av Zotamedu:

Ja en CPU som är designad för att göra en enda sak kan vara mycket snabbare än en generell CPU. Ett bra exempel är hårdvaran som är dedikerad för att avkoda film. Alla moderna GPUer har dedikerad hårdvara för alla vanliga filmformat. De spelar upp film långt mycket mer effektivt än GPUn kan göra som i sin tur är mycket mer effektiv än en CPU. Det sitter även hårdvara dedikerad för kryptering i en del serverprocessorer. Vi kan nog se mer av det framöver men det är inte helt lätt att hitta så snällt avgränsade uppgifter som samtidigt är tillräckligt vanliga för att det ska vara värt att lägga transistorer på det. I mobiltelefoner finns det lite mer utrymme för sådan. Det sitter ett block med DSPer för att hantera ljud och ett annat block med ISP (Image Signal Processor) som tar hand om bildbehandling.

Vi har sett ett annat stort steg i riktningen mot mer dedikerad hårdvara då Intel köpte Altera, ett företag som bygger FPGAer, alltså en sorts omprogramerbara processorer typ så man kan bygga egna specialprocessorer. Tanken verkar vara att integrera en FPGA direkt i vissa Xeon för att på så sätt kunna accelerera vissa specifika uppgifter i servrar. Så om ett företag till exempel har en server som bland annat packar upp och ner en himla massa filer varje dag så kanske de kan programmera sin FPGA för att ta hand om det. Eller så kan de integrera sökalgoritmer i den för databaser eller nåt. IBM har snackat ihop sig med Xilinix av samma anledning.

Vem vet, vi kanske får se en FPGA även på konsumentsidan så man kan låta vissa program använda den för specifika uppgifter. Det hade varit lite mer flexibelt än att bygga rena ASIC-block men samtidigt inte lika effektivt. Då hade du kunnat låta WinRAR använda den för att packa filer medan jag hade låtit REAPER använda den som DSP för musik. Men det är nog bara en önskedröm.

Intressant, FPGA och ASIC har jag som de flesta kommit i kontakt med skolan och med hjälp av en sådan cpu så kan jag göra min AND krets med hjälp av 3st processorpinnar som jag gjorde på Aciskretsen i labben... -Skämt, man får nog göra lite mer avancerade program än vad jag gjorde.

Men om utveckling skulle stagnera så tror jag marknaden för mer skräddarsydda cpuer skulle öka, men det är som sagt svårt att hitta generella områden som du nämnde.

Permalänk
Datavetare

@Zotamedu: flera exempel på där FPGAer används är Microsoft Bing, där har man FPGAer till att beräkna hur bra olika webbplatser matchar en specifik sökning. Annat exempel är att Oracle har stoppat in fixed-function funktion i sin senaste SPARC CPU, SPARC M7, för att snabba upp vissa databasoperationer.

Precis som du skriver är fördelen med fixed-function kretsar och FPGA bättre prestanda, framförallt prestanda/W kan ökas riktigt rejält vilket är en stor anledning till att moderna mobiltelefoner innehåller massor med fixed-function block. Även CPUer för laptops blir allt mer hela systemkretsar i stället för en ren CPU, även här för att hålla ner strömförbrukning.

Nackdelen är att en sådan design inte är speciellt allmängiltig, gör man "fel" saker i den applikation man själv finner intressant blir ju alla transistorer som används till fixed-function/FPGA helt meningslösa.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Min gamla piledriver 8350 tuffar på skitbra i musikstudion!

Ljudprogrammet kan använda alla 8 kärnor och har därför inget behov av att uppgradera! När det gäller gaming är det en helt annan sak dock. Väntar på Zen till gamingdatorn, suger Zen så blir det intel (väntar ändå på nästa generations grafikkort).

Visa signatur

Dator: Fractal Design 650w modulär - Piledriver FX8350 + Arctic Cooling Freezer Xtreme Rev 2 - 4x2 gb Corsair Dominator 1866 mhz 9-9-9-24 - 1x 500 gb sataII, 1x640 Western Black Caviar, 1x Crucial m4 128 GB SSD - Fireface UCX (ljudkort) - SAPPHIRE Radeon HD7870GHZ (överclockat) - ASUS någonting lite över medelklass, 3 st 120mm chassifläktar Windows 8.1 x64

Permalänk
Medlem
Skrivet av Christley:

så fort dom går över till segare processorer men mer energieffektiva så kommer inte fokus ligga på stationära marknaden utan snarare bärbara marknaden.
eftersom stationära inte har en anledning att uppgradera då. om dina fingrar inte är så gröna att det växer mossa på dom vill säga

Anledningen till att uppgradera stationära är väl som alltid, högre prestanda.
Går säkert att bygga större chips eller fler CPU socklar.. stapla chips på höjden etc

Men visst det kommer nog bli bättre batteritid på bärbara vilket är bra.

Permalänk
Skrivet av hwasser:

Min gamla piledriver 8350 tuffar på skitbra i musikstudion!

Ljudprogrammet kan använda alla 8 kärnor och har därför inget behov av att uppgradera! När det gäller gaming är det en helt annan sak dock. Väntar på Zen till gamingdatorn, suger Zen så blir det intel (väntar ändå på nästa generations grafikkort).

Dom 8 kärnorna visade sig vara 4 riktiga kärnor.

Permalänk
Medlem
Skrivet av Yoshman:

...Tror just detta är varför GPGPU aldrig tar fart, det är väldigt få problem utanför grafik som är en riktigt perfekt match för GPU-beräkningar...

Just detta problem är också varför kvantdatorer inte kommer att bli någon hit. (fast kanske som GPU'er då)

Jag tror iofs att problemet ligger till stor del i hur traditionell kod kompilerar / skrivs.
De vanligaste programspråken i dag utvecklades inte för paralella processer, och därför så krävs det en rejäl funderare om hur man går tillväga för att få till det, även om man har någon funktion som klarar av det.
Det finns idag massor av mjukvara som skulle kunna paralelliseras, men problemet är att det saknas verktyg. Tex, Servers som ska hantera många olika saker. I dag så försöker man dela upp jobben på olika cores och ha många av dem, vilket iofs funkar hyffsat, men är egentligen inte paralellisering, då ett jobb hanteras av en core fortfarande.

Permalänk
Medlem
Skrivet av MarkSix:

i7-2600K måste vara ett av dom bästa teknik köp jag någonsin gjort.
Jag sitter visserligen på en i7-5820K idag men jag har kvar maskinen med i7:an och om sanningen ska fram så känns dom väldigt lika i prestanda.

Håller med, ett av de bästa köpen jag har gjort

Permalänk
Medlem
Skrivet av Evil Peter:

Inte direkt, eftersom energin måste ta vägen någonstans och går den inte åt till produktens arbete så övergår den till värmeenergi. Effektiva prylar kommer alltid ha sin plats.

Är väl medveten om detta.

Skickades från m.sweclockers.com

Visa signatur

| AMD Ryzen 7 5800X3D | Noctua NH-U12A | Gigabyte X570 Aorus Pro | Powercolor Radeon RX 6900XT Red Devil | 16GB G.Skill Trident Z@3600 CL15 | Gigabyte Aorus 2TB M.2 NVMe SSD | Fractal Design Ion+ Platinum 860W | Fractal Design Meshify S2 Blackout | Corsair K70 | Logitech G502 | Alienware AW3423DWF |

Permalänk
Medlem

Låter klokt. Spelentuisaster och liknande som vill ha den absolut bästa prestandan är en rätt så liten del av marknaden. Dessutom så känns det som flaskhalsen för just spel är inte hastigheten på processorer utan det faktum att en väldigt stor del av spelen är portade från konsol och då inte är något vidare optimerade för PC.

Permalänk
Datavetare
Skrivet av Lordsqueak:

Just detta problem är också varför kvantdatorer inte kommer att bli någon hit. (fast kanske som GPU'er då)

Jag tror iofs att problemet ligger till stor del i hur traditionell kod kompilerar / skrivs.
De vanligaste programspråken i dag utvecklades inte för paralella processer, och därför så krävs det en rejäl funderare om hur man går tillväga för att få till det, även om man har någon funktion som klarar av det.
Det finns idag massor av mjukvara som skulle kunna paralelliseras, men problemet är att det saknas verktyg. Tex, Servers som ska hantera många olika saker. I dag så försöker man dela upp jobben på olika cores och ha många av dem, vilket iofs funkar hyffsat, men är egentligen inte paralellisering, då ett jobb hanteras av en core fortfarande.

Finns även två huvudklasser av parallella problem:

  • data-parallella problem, väldigt bökigt att hantera effektivt i traditionella språk men här gjorde Nvidia ett jättejobb med CUDA som senare också fick en öppen variant i OpenCL. Med CUDA/OpenCL blir det naturligt att uttrycka parallellismen på ett sätt som dels är lätt för programmeraren att förstå samt också enkelt för kompilatorn att översätta till kod (både för GPU och SIMD)

  • uppgifts-parallella problem, här hittar man de flesta server relaterade saker. Full möjligt att uttrycka detta i "vanliga" programspråk, går att använda i lite fler lägen med "fork-join" ramverk som man hittar i t.ex. Java, i C/C++ tillägg som OpenMP/Cilk+ samt i språk som Go och Erlang

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Herr Andersson:

Dom 8 kärnorna visade sig vara 4 riktiga kärnor.

8 beräkningsenheter, 4 float processorer.

Skickades från m.sweclockers.com

Visa signatur

Dator: Fractal Design 650w modulär - Piledriver FX8350 + Arctic Cooling Freezer Xtreme Rev 2 - 4x2 gb Corsair Dominator 1866 mhz 9-9-9-24 - 1x 500 gb sataII, 1x640 Western Black Caviar, 1x Crucial m4 128 GB SSD - Fireface UCX (ljudkort) - SAPPHIRE Radeon HD7870GHZ (överclockat) - ASUS någonting lite över medelklass, 3 st 120mm chassifläktar Windows 8.1 x64

Permalänk
Medlem
Skrivet av Laine:

Har man erfarenhet av Intel's T- och S-CPU:er för att sedan testa K, så inser man nog relativt snabbt att prestandaförlusten inte är något problem annat än på papper.

S-serien är ju snudd på en pappersprodukt. När det väl kommer till kritan är det typ ingen skillnad. Efter att ha läst en del test blev det en Xeon istället.

http://www.techspot.com/article/960-intel-core-i7-4790s-power...

T-serien drar typ lika mycket som vanilla under medelbelastning även den.
http://www.xbitlabs.com/articles/cpu/display/core-i5-4670s-46...

Visa signatur

Error 412: Precondition Failed - You need to use a real browser in order to view this signature!

Permalänk
Medlem
Skrivet av bsk!:

Grafikkort är väl i princip en cpu optimerad för spel. Dessutom är det ju gpun och inte cpun som är flaskhalsen vid spelande.

Skickades från m.sweclockers.com

Err, nej. Ett grafikkort/gpu är vad som ger dig någon bild. Ska du skriva i Word behöver du fortfarande en gpu.

Sedan så flaskar cpu också, beroende på spel men också beroende på scenario. T.ex en AMD 860K kommer definitivt flaska ett 980Ti och inte tvärtom.

Permalänk
Medlem
Skrivet av bsk!:

Grafikkort är väl i princip en cpu optimerad för spel. Dessutom är det ju gpun och inte cpun som är flaskhalsen vid spelande.

Skickades från m.sweclockers.com

Det stämmer i den formen att en GPU = CPU om man tekniskt pratar om en processor. Däremot är tillvägagångssättet väldigt olika.

Skrivet av Friterad:

Err, nej. Ett grafikkort/gpu är vad som ger dig någon bild. Ska du skriva i Word behöver du fortfarande en gpu.

Sedan så flaskar cpu också, beroende på spel men också beroende på scenario. T.ex en AMD 860K kommer definitivt flaska ett 980Ti och inte tvärtom.

En viss sanning med modifikation, faktiskt. Eftersom en GPU är en processor med isolerat uppdrag. Ser man till CPU eller moderkort med inbyggd grafik där det går att köra kabeln i moderkortet så behövs ingen GPU i det fallet, även om den redan sitter i moderkort eller CPU för att vara politiskt korrekt.

Ytterligare en sak, som går att välja direkt i Linux med ett musklick är Software rendering viket gör att det går att köra grafikkortet utan powerkablar. Resultatet är i dag ganska onödigt då egentligen allt kräver grafikkort så den enda användningen där är för att rätta till buggar i grafikdrivrutiner. Däremot kan du fortfarande köra 2560x1600 och en del program, men eftersom dom flesta tyngre program använder grafikkortet för att beräkna så blir det löjligt därför. Du vet att kalkylprogrammen i Office-sviter redan använder GPU för att räkna ut din budget för att det ska gå fortare?

Kollar man minnet som krävs för 2560x1600 i 32 bitars färg (4 byte) så krävs inte mer 17 MB (16 384 000 byte). Så ett grafikkort med 8GB klarar lätt en upplösning på 25 600x16 000 i 64 bitars färg (8 byte = 1,844674407×10¹⁹ färger) vilket ger 3GB (3 276 800 000 byte) Däremot är det så många andra faktorer som avgör för att få det att fungera, men minnesmässigt så skulle man i princip kunna ta grafiken hundra gånger för skrivbordet, bakgrundsbilden och webben.

Något som jag tänker på är att byta designen helt så moderkortet åker ut och att grafikkortet är det primära i datorn och allt kopplas dit i stället.

Visa signatur

Server: Fractal design Define 7 XL | AMD Ryzen 7 5800X 8/16 | ASUS ROG CROSSHAIR VIII DARK HERO | 64GB Corsair @ 3000MHz | ASUS Radeon RX 460 2GB | Samsung 960 PRO 512 GB M.2 | 2x 2TB Samsung 850 PRO SSD | 6x Seagate Ironwolf Pro 10TB
WS: Phantex Entoo Elite | AMD Ryzen Threadripper 1950X 16/32 | ASUS Zenith extreme | 128GB G.Skill @ 2400MHz | ASUS Radeon HD7970 | 3x 2TB Samsung 960PRO M.2 | 6x Seagate Ironwolf Pro 10 TB
NEC PA301W 30" @ 2560x1600 | Linux Mint 21.3 Cinnamon

Permalänk
Medlem
Skrivet av OldComputer:

Det stämmer i den formen att en GPU = CPU om man tekniskt pratar om en processor. Däremot är tillvägagångssättet väldigt olika.

En viss sanning med modifikation, faktiskt. Eftersom en GPU är en processor med isolerat uppdrag. Ser man till CPU eller moderkort med inbyggd grafik där det går att köra kabeln i moderkortet så behövs ingen GPU i det fallet, även om den redan sitter i moderkort eller CPU för att vara politiskt korrekt.

En gpu är en gpu oavsett om det är integrerat eller dedikerat. GPU = Graphics Processing Unit. Sen hur politiskt korrekthet har med detta att göra vet jag inte.