Intel Larrabee förvandlas till utvecklingsplattform

Trädvy Permalänk
Inhibitor
Registrerad
Dec 1999

Intel Larrabee förvandlas till utvecklingsplattform

Intels första separata grafikkrets på mer än tio år kommer inte att dyka upp i grafikkort, åtminstone inte till en början.

Läs nyheten

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa leder till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Trädvy Permalänk
Medlem
Plats
Hemma
Registrerad
Maj 2008

Oj snacka om att jobba på övertid xD 00:57

OnT : Tråkigt men det kommer nog senare!

Stationär Dator : FD define r3|Corsair RM 750W|i7 4770K +NH-U9B SE2|Z87-DS3H|ASUS R9 290 4GB DirectCuII|A-data 1600 DDR3 8GB|2TB + 1TB + 1 TB + 120Gb SSD
Bärbar dator : Acer Aspire TimelineX 5820TG

BeErNwHiSkY:Beer and Whisky!

Trädvy Permalänk
Medlem
Plats
:)
Registrerad
Okt 2008

Right..Gillar inte intels grafiska del utav marknaden, men deras drivers är nice dock.

Apple Mac Mini

Trädvy Permalänk
Medlem
Plats
Västerås
Registrerad
Okt 2005

Jag har inte riktigt fattat det där med Raytracing och det i realtid. Är det nån bedrift som ATi/Nvidia ligger långt ifrån att klara av eller?

Trädvy Permalänk
Hedersmedlem
Registrerad
Maj 2006

Det var ju inte direkt oväntat.

“Any sufficiently advanced technology is indistinguishable from magic.”
- Arthur C. Clarke

Trädvy Permalänk
Hedersmedlem
Plats
Norrland
Registrerad
Jan 2002

Inte ett dugg oväntat, trist att dessa försenas dock då konkurrensen hade varit fin.

Main: Corsair 350D, Ryzen 1700, 32GB RAM, 4,5TB SSD+HDD, GTX 1070 Phoenix GS, XB271HU, U2713HM, HP ZR24w
Spel: R5 Blackout, 6700K, 32GB RAM, 2TB SSD, 1080 Ti Phoenix GS, X34A + Oculus Rift
"HTPC": Ncase M1, 2700K, 16GB RAM, 0,75TB SSD lagring, GTX 1070 Mini, TV
Lenovo 700-15ISK: 6300HQ, 16GB RAM, 2,25TB lagring, 950m 4GB
Switch, Wii U, 3DS, GBA, PS4, PS3, PS2, PSP, PS Vita, Xbox One, Dreamcast

Trädvy Permalänk
Medlem
Registrerad
Apr 2009

den kommer nog samtidigt som duke nukem forever XD

Trädvy Permalänk
Medlem
Registrerad
Dec 2004
Citat:

Ursprungligen inskrivet av slusk
Jag har inte riktigt fattat det där med Raytracing och det i realtid. Är det nån bedrift som ATi/Nvidia ligger långt ifrån att klara av eller?

Ray-tracing är helt annorlunda från vanlig rastrering och om ATi/NVIDIA ligger långt ifrån att klara eller ej blir lite av en irrelevant fråga. Dagens grafikkortskrestar är byggda för rastrering och (nästan) inget annat.

Bedriften att konvertera dagens ATi/NVIDIA kort till sådana som är specialiserade för Ray-tracing är nog minst lika stort som för Intel att bygga om sina x86-or till detta ändamål (läs: för Intel att konstruera Larrabee).

Citat:

Ursprungligen inskrivet av Futuju
den kommer nog samtidigt som duke nukem forever XD

Med skillnaden att Intel är ett ofantligt mycket större bolag och att deras framtid kan stå på spel här.

Parallellisering är ett hett ämne och det kan, inom en snar framtid på sisådär ett par år, vara nödvändigt att få ut konkurrenskraftiga CPU/GPU-kombo-kretsar.

Ta Windows som exempel. I och med Windows Aero så har "riktiga" GPU-krestar varit nödvändiga. Det är inte otänkbart att med tanke på hur mycket "HD"-material som börjar användas, att man till slut blir tvingad till att ha mer datorkraft än vad CPU-er klarar av att ge, bara för att avkoda video/audio.

"Nothing is impossible because impossible itself says I M Possible..."

Trädvy Permalänk
Medlem
Registrerad
Mar 2009

skulle vara kul o se någon nyhet där det står att något _INTE_ är försenat

Ryzen m-atx:
|| Windows 10 || MSI B350M || Ryzen 1700X OC@ 3.8GHz || Nvidia 1060 6GB || 32GB RAM || EVGA P2 750W ||
HTPC:
|| Windows 10 || Asrock Z77m-itx || I7 3770k || 8GB RAM || Corsair 620W ||
________________________________________________________________________________________________

Trädvy Permalänk
Medlem
Plats
Västerås
Registrerad
Okt 2005
Citat:

Ursprungligen inskrivet av Weeblie
Ray-tracing är helt annorlunda från vanlig rastrering och om ATi/NVIDIA ligger långt ifrån att klara eller ej blir lite av en irrelevant fråga. Dagens grafikkortskrestar är byggda för rastrering och (nästan) inget annat.

Bedriften att konvertera dagens ATi/NVIDIA kort till sådana som är specialiserade för Ray-tracing är nog minst lika stort som för Intel att bygga om sina x86-or till detta ändamål (läs: för Intel att konstruera Larrabee).

Kan väl inte påstå att jag är allt för imponerad av deras film som intel visade upp på deras konvent där dom skulle visa att dom klarade av det. Sen vet jag inte om jag skulle tycka att Ray-tracing är nått för spelen, tycker faktiskt det ser för plastigt och polerat ut för att det ska se verkligare ute än vad dagens DX10-DX11 gör. Det ser helt enkelt för perfekt utan minsta skavanker eller diffusa skuggor

Trädvy Permalänk
Medlem
Registrerad
Dec 2004
Citat:

Ursprungligen inskrivet av slusk
Kan väl inte påstå att jag är allt för imponerad av deras film som intel visade upp på deras konvent där dom skulle visa att dom klarade av det. Sen vet jag inte om jag skulle tycka att Ray-tracing är nått för spelen, tycker faktiskt det ser för plastigt och polerat ut för att det ska se verkligare ute än vad dagens DX10-DX11 gör. Det ser helt enkelt för perfekt utan minsta skavanker eller diffusa skuggor

Jag håller med om att de demon vi har på realtidsraytracing ännu inte är så värst imponerande.

Fördelen är istället långsiktlig. Borsett från att öka antalet "hörn" (eller motsvarande) i varje polygon, vilket skulle bidra positivt i båda fallen, så kräver rastrering att man använder sig av mer och mer komplicerade modeller för att få fram fotorealistiska effekter.

Skuggor, reflektioner och refraktioner får man, per design, med raytracing medan för rastrering så räknas de som "svåra"/"omöjliga" att implementera (speciellt när de kombineras).

Av samma orsak att programmeringsspråk på högre nivåer tar mark från dem på lägre nivåer så tror jag att man till slut kommer fram till en situation där det helt enkelt blir för dyrt att skapa nya grafikmotorer baserat på restrering. Redan nu så har det blivit lite av en trend att köpa in komponenter från tredjepart (någonsin undrat varför de ultrarealistiska träden i många nya spel ser lika ut? SpeedTree!). Så vad hjälper raytracing här? Jo...

Rastrering = Komplicerad modell + Mindre datorkraft
Raytracing = Enkel modell + Mycket datorkraft

Ta Moores lag och låt den snurra ett par varv; plocka sedan en valfri renderingsmotor baserat på raytracing (kanske någon gammal 3ds max variant?) och vips så har du vispat fram realtidsrendering med fotorealistiska effekter... med minimalt nytänkande!

Med lite skjutande från höften så skulle jag dock vilja påstå att det kanske tar 10+ år innan raytracing tar över helt. I mellanskedet så får vi nog snarare hybridmotorer. D.v.s. sådana som både går på bensin och på etanol.

ps. För enkelhetensskull så räknar jag även in närbesläktade metoder som fotonmappning som raytracing.

"Nothing is impossible because impossible itself says I M Possible..."

Trädvy Permalänk
Medlem
Plats
Västerås
Registrerad
Okt 2005
Citat:

Ursprungligen inskrivet av Weeblie
Jag håller med om att de demon vi har på realtidsraytracing ännu inte är så värst imponerande.

Fördelen är istället långsiktlig. Borsett från att öka antalet "hörn" (eller motsvarande) i varje polygon, vilket skulle bidra positivt i båda fallen, så kräver rastrering att man använder sig av mer och mer komplicerade modeller för att få fram fotorealistiska effekter.

Skuggor, reflektioner och refraktioner får man, per design, med raytracing medan för rastrering så räknas de som "svåra"/"omöjliga" att implementera (speciellt när de kombineras).

Av samma orsak att programmeringsspråk på högre nivåer tar mark från dem på lägre nivåer så tror jag att man till slut kommer fram till en situation där det helt enkelt blir för dyrt att skapa nya grafikmotorer baserat på restrering. Redan nu så har det blivit lite av en trend att köpa in komponenter från tredjepart (någonsin undrat varför de ultrarealistiska träden i många nya spel ser lika ut? SpeedTree!). Så vad hjälper raytracing här? Jo...

Rastrering = Komplicerad modell + Mindre datorkraft
Raytracing = Enkel modell + Mycket datorkraft

Ta Moores lag och låt den snurra ett par varv; plocka sedan en valfri renderingsmotor baserat på raytracing (kanske någon gammal 3ds max variant?) och vips så har du vispat fram realtidsrendering med fotorealistiska effekter... med minimalt nytänkande!

Med lite skjutande från höften så skulle jag dock vilja påstå att det kanske tar 10+ år innan raytracing tar över helt. I mellanskedet så får vi nog snarare hybridmotorer. D.v.s. sådana som både går på bensin och på etanol.

ps. För enkelhetensskull så räknar jag även in närbesläktade metoder som fotonmappning som raytracing.

Jo jag har greppat konceptet men jag är fortfarande inte helt övertygad såvida man inte börjar att göra bilderna lite mera skitiga än vad dom är idag. Alla bilder är säkert exakt uträknade med exakt vinkel vart ljuset ska träffa och vilken vinkel det ska infalla på nästa objekt osv men vafan lite skit i hörnet kan väl inte skada?

Jo man har ju börjat förstå vilka ofantliga summor som ligger bakom dom nya stora grafikmotorerna och även fast dagens spel använder rastrering så kan man ju se klart och tydligt utvecklingen på dagens spel på dom 10år som har gått. Så skulle verkligen inte förvåna mig om du har rätt att spelen om 10år kommer vara mycket mera realistiska.
Läste om nått förut som hette typ Radiosity som skulle just få bort den övernaturligt polerade ytan på raytracebilder är det fortfarande nått som dom håller på med eller vart det inget av det?

Trädvy Permalänk
Medlem
Registrerad
Dec 2004
Citat:

Ursprungligen inskrivet av slusk
Jo jag har greppat konceptet men jag är fortfarande inte helt övertygad såvida man inte börjar att göra bilderna lite mera skitiga än vad dom är idag. Alla bilder är säkert exakt uträknade med exakt vinkel vart ljuset ska träffa och vilken vinkel det ska infalla på nästa objekt osv men vafan lite skit i hörnet kan väl inte skada?

http://hof.povray.org/

Bara att plocka och vräka.

"Nothing is impossible because impossible itself says I M Possible..."

Trädvy Permalänk
Medlem
Plats
Lidingö
Registrerad
Nov 2007
Citat:

Ursprungligen inskrivet av slusk
Jo jag har greppat konceptet men jag är fortfarande inte helt övertygad såvida man inte börjar att göra bilderna lite mera skitiga än vad dom är idag. Alla bilder är säkert exakt uträknade med exakt vinkel vart ljuset ska träffa och vilken vinkel det ska infalla på nästa objekt osv men vafan lite skit i hörnet kan väl inte skada?

Jo man har ju börjat förstå vilka ofantliga summor som ligger bakom dom nya stora grafikmotorerna och även fast dagens spel använder rastrering så kan man ju se klart och tydligt utvecklingen på dagens spel på dom 10år som har gått. Så skulle verkligen inte förvåna mig om du har rätt att spelen om 10år kommer vara mycket mera realistiska.
Läste om nått förut som hette typ Radiosity som skulle just få bort den övernaturligt polerade ytan på raytracebilder är det fortfarande nått som dom håller på med eller vart det inget av det?

Att göra det "skitigare" är nog ganska enkelt.
Det är väl troligt att de lägger ner energi på att visa hur perfekt det kan bli istället för hur realistiskt det kan bli. Eftersom en perfekt bild av ett landskap är tuffare än ett realistiskt. Eftersom vi ännu inte har kommit upp i fotorealism, så vi ser skillnad på animerat och fotat..

P67A-GD65 | 2600K | GTX580 SLI | NH-D14 | 4x4GB @ 1600MHz 9-9-9-24 | Vertex 3 120GB | Newton R2 800W | NZXT H2

Dell U2711 | QPad MK-85 | QPad 5K | QPad CT Large | Sennheizer PC360 | Logitech Extreme 3D Pro

Trädvy Permalänk
Medlem
Plats
Malmö
Registrerad
Jun 2003

Konstigt de skriver >150 W och inget < värde...eller var intelanställda dåliga på matte i skolan?

Citat:

Ursprungligen inskrivet av Futuju
den kommer nog samtidigt som duke nukem forever XD

Bundlat med Duke nukem forever

Arbetsdator Antec Three Hundred | Core i7-860@stock | 16GB DDR3@1333 | Samsung 830 256GB SSD + 4TB HDD | GTX 460@900/1800/4200
HTPC/Speldator Lian Li PC-A05FNB | Core i5-3570K@4200 | 16GB DDR3@1600 | Samsung 850 EVO 250GB SSD + 4TB HDD | GTX 660@1098/1098/6008 | Xbox One Wireless Controller
Klocka GTX 460 med NiBiTor 5.8

Trädvy Permalänk
Medlem
Plats
Uppland
Registrerad
Sep 2006

Inte oväntat men ändå härliga nyheter eftersom jag älskar AMD och ATI.

Memento mori...

Trädvy Permalänk
Medlem
Plats
i källarn
Registrerad
Sep 2008

knappast oväntat

Trädvy Permalänk
Avstängd
Plats
Uppsala
Registrerad
Okt 2003

Bye bye Larrabee

hahahaha

AMD X4 945ee @ 3,8 Ghz | Asus M3N-HT Deluxe | 8GB Corsair PC8500 | SLI: Asus + Gigabyte GTX 275 @ 696Mhz | 1TB+1TB Seagate 7200.12, Samsung F3 | X-Fi XtremeGamer | FD Define R2 | Corsair 750W | Dell 2209WA @ 75Hz | Windows 7 RC | www.minhembio.com/Camper | Datorn som Produktlista

Trädvy Permalänk
Medlem
Plats
Linköping
Registrerad
Mar 2006

Är ganska övertygad om att både Cypress och Fermi kan köra raytracing i realtid via mjukvara (dvs Stream, CUDA, OpenCL, etc). No big loss.

// Jay-C
CPU: i7 2600K w/ H80i | GPU: GTX 570 OC | SSD: 510 120GB | MB: P8Z68-V Pro
RAM: 2x4GB Vengeance 1600MHz CL8 | APU: X-Fi Titanium Pro | PSU: AX850

Trädvy Permalänk
Medlem
Plats
Söderhamn
Registrerad
Jul 2009
Citat:

Ursprungligen inskrivet av slusk
Läste om nått förut som hette typ Radiosity som skulle just få bort den övernaturligt polerade ytan på raytracebilder är det fortfarande nått som dom håller på med eller vart det inget av det?

Radiosity är inget som "tar bort den övernaturligt polerade ytan". Radiosity används för att räkna ut indirekt ljus. Ett annat sätt att räkna ut indirekt ljus kallas GI (Global Illumination) och innehåller olika tekniker för att få fram detta ljus.

Fördelen med GI över Radiosity är att det inte är geometriberoende. Radiosity räknar ut baserat på antalet vertices (punkter som knyter samman polygoner), medan GI struntar i sånt och räknar på ett annat sätt, t ex. genom att kolla varje renderad pixel (brute force) eller en adaptiv lösning, där x antal samples tas och som sedan interpoleras för att få fram en godtycklig ljussättning.

====================

Samma sak händer här som med HDR-rendering... Folk får se ett användningsområde och tror att det är det enda man kan använda tekniken till.

När HDR-rendering kom så användes det mycket tillsammans med en bloom-effekt, vilket gjorde att folk bara trodde att det var allt HDR var till för, vilket självklart inte stämmer.

Samma sak med raytracing, folk tror att allt man kan göra med det är knivskarpa skuggor och reflekterande bollar.

Problemet är såklart datorkapaciteten. Inom "förrenderingsvärlden" där jag själv jobbar så har man kommit avsevärt mycket längre, men där behöver vi inte få ut 25 frames på en sekund (oh the joy om det vore så!), utan det kan ta allt från 1 sekund till 200 timmar för en bild. När vi använder skuggor så har vi inte knivskarpa skuggor, utan istället så kallade area lights, vilka fungerar som riktiga ljuskällor. Ett faktiskt område kastar ljus, vilket gör att både ljusdistributionen och skuggorna blir mjukare.

Samma sak med reflektionerna, vi använder nästan aldrig 100% skarpa reflektioner (eller refractions), utan suddar till det för att öka realismen.

Allt detta tar såklart tid. Ju fler roliga tekniker som används, desto längre tid tar det. Raytracing i spel skulle jag säga ligger någonstans mellan 80- och 90-talet än så länge.

Tror absolut att raytracing är "the way to go" eftersom man enkelt kan rendera fysiskt korrekt och inte behöver syssla med "fusktekniker" som används under rastrering. Dock tror jag inte att framtidens spelmotorer kommer vara 100% raytracing, utan snarare en kombination av rastrering och raytracing, ungefär så som renderaren mental ray fungerar. Mental images, som har skapat mental ray, köptes för övrigt upp av Nvidia häromåret.

I nästa version av mental ray kommer man kunna använda grafikkortet för både previewrendering och finalrendering, så gränserna mellan spel och förrendering håller mer och mer på att suddas ut.

Trädvy Permalänk
Medlem
Registrerad
Jul 2003

Med andra ord kommer Intel knappast att ha något svar på AMD Fusion "all in one" processor (CPU + GPU).

Framtiden ser helt plötsligt mycket ljusare ut för det gröna laget.

Trädvy Permalänk
Medlem
Plats
Göteborg
Registrerad
Okt 2007
Citat:

Ursprungligen inskrivet av A1200
Med andra ord kommer Intel knappast att ha något svar på AMD Fusion "all in one" processor (CPU + GPU).

Framtiden ser helt plötsligt mycket ljusare ut för det gröna laget.

Uhmm... Du vet att de haft grafikstyrkretsar ett bra tag va?

Man ska kramas inte slåss!

Trädvy Permalänk
Medlem
Plats
Uppsala
Registrerad
Okt 2007

Dagens grafikkort använder så kallad lokal rendrering. Den tekniken innebär att renderaren tar hand om en polygon i taget och struntar i omgivande polygoners effekt i motsats till en raytracer renderare. En stor fördel för lokal rendering är att scenens storlek (dimensioner, modeller och komplexitet) påverkar inte prestanda nämnvärt.
Man kan ändå få en hyffsat realistisk bild genom att uttnyttja olika tekniker så som multi-pass, programmable shaders, lightmaps, shadowmaps, m.m.
Nackdelen är att alla dessa tekniker är tidskrävande "hacks" som endast tar bort begränsningarna med lokal-rendrering.

En vanlig raytracer rendrerare tar inte hänsyn till indirekta ljus. Men en raytracer som använder en Global Illumination modell (GI) inberäknar det indirekta ljuset och resultatet blir en mer realistisk bild med automatisk indirekt ljus, reflektioner, refraktioner och skuggor. Intel använde inte GI i sin larabee demo. Ett problem är att en scens storlek (antal modeller, modellernas komplexitet) påverkar prestanda och bildkvalité i mycket större grad än med lokal renderering.

Dessutom påstår Intel att A.I och fysik kan göras bättre och enklare med hjälp av samma hårdvara som fixar raytracing för grafiken.

Allt som allt, raytracing med GI är överlägsen om någon gång hårdvaran finns tillgänglig så är det en stor fördel både för gamers och spelstudios.

Trädvy Permalänk
Medlem
Plats
Ålesund
Registrerad
Jun 2002

Ray tracing är inte bara användbart för spel, inom design av t.ex. bilar så är det värt väldigt mycket om man kan göra så realistiska modeller som möjligt i datorn utan att behöva lägga ner pengar och framför allt TID på att bygga fler fysiska modeller än nödvändigt.

Trädvy Permalänk
Medlem
Plats
Askersund
Registrerad
Okt 2008
Citat:

Ursprungligen inskrivet av mrSvamp
Uhmm... Du vet att de haft grafikstyrkretsar ett bra tag va?

Och de duger ju inte ens till att skala upp HD med. Med tillräckligt snabb grafikdel i CPU:n behövs inte länger externa grafikkort, och Intels nuvarande grafik kretsar är inte ens nära ATI/Nvidias.

Vid närmare eftertanke. Vad tror ni Intel gör om Fermi går dåligt, Nvidia tappar värde, och Larrabee inte visar sig vara en hållbar produkt? Då kanske vi får se Intell ta fram plånboken och köpa sig en grafikkortstillverkare?

"Jag har inte gått 5 år på Chalmers, men till och med jag vet att det är en dum idé att blanda vatten och elektronik"
Min Fru

Trädvy Permalänk
Medlem
Registrerad
Jul 2001
Citat:

Ursprungligen inskrivet av lideri
Och de duger ju inte ens till att skala upp HD med. Med tillräckligt snabb grafikdel i CPU:n behövs inte länger externa grafikkort, och Intels nuvarande grafik kretsar är inte ens nära ATI/Nvidias.

Vid närmare eftertanke. Vad tror ni Intel gör om Fermi går dåligt, Nvidia tappar värde, och Larrabee inte visar sig vara en hållbar produkt? Då kanske vi får se Intell ta fram plånboken och köpa sig en grafikkortstillverkare?

Inte en helt omöjlig framtid i mina ögon. Däremot en ganska trist och dyster sådan. Själv hoppas jag mer på det motsatta; att Intel, AMD och Nvidia konkurrerar på alla plan med CPU, chipset och GPU.

"We're paratroopers, lieutenant. We're supposed to be surrounded!" - Lt. Winters, Bastogne 1944

Trädvy Permalänk
Avstängd
Plats
Älvdalen
Registrerad
Jul 2009

Tråkigt att höra.

Real-tid raytracing vore verkligen fett!

Men när Larrabee äntligen kommer, så har AMD och Nvidia hunnit i kapp, och kanske kommit med något liknande eller bättre.

Trädvy Permalänk
Medlem
Plats
Skåne
Registrerad
Jan 2002
Citat:

Ursprungligen inskrivet av lideri
Och de duger ju inte ens till att skala upp HD med. Med tillräckligt snabb grafikdel i CPU:n behövs inte länger externa grafikkort, och Intels nuvarande grafik kretsar är inte ens nära ATI/Nvidias.

Vid närmare eftertanke. Vad tror ni Intel gör om Fermi går dåligt, Nvidia tappar värde, och Larrabee inte visar sig vara en hållbar produkt? Då kanske vi får se Intell ta fram plånboken och köpa sig en grafikkortstillverkare?

Jag tror aldrig Amerikanska konkurrensverket eller EU hade släppt igenom en sådan affär.

Livets 3 pelare:
SEX, MAT & KAFFE.

Trädvy Permalänk
Medlem
Plats
Lund
Registrerad
Maj 2008
Citat:

Ursprungligen inskrivet av Lurcazzus
Jag tror aldrig Amerikanska konkurrensverket eller EU hade släppt igenom en sådan affär.

Förhoppningsvis inte. Å andra sidan ägs ju ATI av AMD. Så helt otroligt är det inte. Men visst är Nvidia ett mycket större företag?

Trädvy Permalänk
Medlem
Plats
Södertälje
Registrerad
Apr 2007
Citat:

Ursprungligen inskrivet av coopdeo
Förhoppningsvis inte. Å andra sidan ägs ju ATI av AMD. Så helt otroligt är det inte. Men visst är Nvidia ett mycket större företag?

MYCKET större, de har ju etablerat sig på fler marknader än ATi också.

Main Rig FD Define R4 |Intel C2Q Q9650@3.6GHz|Asus P5Q-E|OCZ Reaper 4GB@800MHz|WD6400AAKS|HD6850|Corsair HX650
HTPC HDPLEX H1.S |Intel Core i3 4330|ASRock Z87E-ITX|8GB|128GB mSATA
Work Dell Vostro 3360 |Intel Core i5-3317U|8GB|Samsung 840 Pro 256GB