Intel lanserar Kaby Lake för bärbara datorer

Trädvy Permalänk
Inhibitor
Registrerad
Dec 1999

Intel lanserar Kaby Lake för bärbara datorer

Processorjätten Intel lanserar åter en ny generation för bärbara datorer lagom till IFA-mässan i Berlin. Den här gången handlar det om Kaby Lake, med bättre prestanda och stöd för 4K-video.

Läs hela artikeln här

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa leder till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Trädvy Permalänk
Medlem
Plats
Göteborg
Registrerad
Nov 2003

Tunt minst sagt, de borde sparat in på den dyra presentationen och sänkt priserna istället.
Snaran runt x86 dras åt för varje år

Trädvy Permalänk
Medlem
Plats
Malmö
Registrerad
Maj 2014

"För Kaby Lake-Y introduceras inledningsvis tre modeller – Core i7-7Y75, i5-7Y54 och m3-7Y30,..."

Okej... Intel har gjort det.
De har nu lyckats göra de absolut mest komplexa CPU namnen jag har sett på länge... Kunde de inte gjort 775Y, 754Y och 730Y istället.

Oavsett så är detta nog en bra high-end surfplatta/lätt laptop CPU, för 4k skärm och film tittande. Något vi alla gör 24/7 tydligen

Trädvy Permalänk
Medlem
Plats
Stockholm
Registrerad
Apr 2013
Skrivet av Paddanx:

"För Kaby Lake-Y introduceras inledningsvis tre modeller – Core i7-7Y75, i5-7Y54 och m3-7Y30,..."

Okej... Intel har gjort det.
De har nu lyckats göra de absolut mest komplexa CPU namnen jag har sett på länge... Kunde de inte gjort 775Y, 754Y och 730Y istället.

Oavsett så är detta nog en bra high-end surfplatta/lätt laptop CPU, för 4k skärm och film tittande. Något vi alla gör 24/7 tydligen

Man undrar ju hur dom gör... Drar dom i en sådan där enarmad bandit och skriver av kombinationen av siffror och bokstäver kanske?

Server: AMD Ryzen 7 1800X 8/16 | ASUS Crosshair VI hero | 64 GB Corsair RAM @3000 MHz | ASUS radeon RX 460 2GB | Samsung 960 PRO 512 GB M.2 | 2x 2 TB Samsung 850 PRO SSD | 6x Seagate 10 TB | NEC PA301W @ 2560x1600 | Linux Mint 19 Cinnamon

Trädvy Permalänk
Medlem
Plats
Borås
Registrerad
Jul 2005

Sålde de inte tillräckligt med M-processorer så de måste döpa om den till något som alla känner till som mer high-end eller hur tänkte de? Att Sweclockers lyckades få till det visar ju hur gediget korkad namnändringen Intel gjort är

Desktop: ASUS P8Z77-V LK, Intel Core i7 3770K, 16GB Corsair XMS3 DDR3,
ASUS ROG STRIX GeForce GTX 1080 8GB GAMING, HyperX Savage SSD 480GB
Notebook: MSI GE72 2QF-054NE Apache Pro
http://www.blackmesagame.com

Trädvy Permalänk
Medlem
Plats
Malmö
Registrerad
Maj 2014
Skrivet av OldComputer:

Man undrar ju hur dom gör... Drar dom i en sådan där enarmad bandit och skriver av kombinationen av siffror och bokstäver kanske?

Gissade själv på tärningar... en med bokstäver, resten med siffror, och de skrivs exakt i den ordningen de landar

Vill minnas (du som borde ha nog med kunskap att bekräfta eller rätta mig), behövde inte "586:an" ändra till riktigt namn (Pentium) pga Intel inte fick fortsätta att namnge dem som 386, 486 osv. Så... de behöver inte det nu längre, eller är det "i7/i5/m3" delen som gör det till ett "namn"?

Trädvy Permalänk
Medlem
Plats
Karlstad
Registrerad
Nov 2010

Rubriken borde vara Intel gör en Nvida och namndöper sina nya processorer så att vanligt folk inte vet vad de köper.
Siba har en märkning som jag gillar bra, bättre, bäst. Varför inte införa samma fast på engelska så folk lättare kan göra sina val, alltså: Bad, Worse, The worst

Nå det jag hoppas med de nya är bättre stöd för usb 3.1. Nu vet jag ej om processorns stöd har förbättras, men när tillverkarna nu gör nya laptops kanske de tar fram nya moderkort..

Gått över till enbart Google Chromebook på klientsidan.

Trädvy Permalänk
Medlem
Plats
Huddinge/Stockholm
Registrerad
Jan 2015

Dessa cpu namn alltså.. Allt för att förvirra och vilseleda konsumenterna.

Dator 1: | i7 7700k | MSI GTX 1080 Gaming X | MSI Z270 Gaming pro carbon | Corsair LPX DDR4 16 GB | FD define S | Samsung 850 EVO 1TB | Noctua NH-U12S | Corsair RM750x 750W | Windows 10
Skärm 1: ASUS 27" ROG SWIFT PG279Q 1440p @ 165Hz/IPS/G-Sync

Trädvy Permalänk
Medlem
Plats
Karlstad
Registrerad
Nov 2010
Skrivet av Paddanx:

Vill minnas (du som borde ha nog med kunskap att bekräfta eller rätta mig), behövde inte "586:an" ändra till riktigt namn (Pentium) pga Intel inte fick fortsätta att namnge dem som 386, 486 osv. Så... de behöver inte det nu längre, eller är det "i7/i5/m3" delen som gör det till ett "namn"?

Nej, det handlade om att Intel ej kunde skydda namnet 586 från andra tillverkare som AMD, och cyrix. https://en.wikipedia.org/wiki/Pentium

Btw. Under 486ans tid var typ allt som det inte stod intel på just bättre än en intel. (cyrix prisvärdighet ej prestanda)

Gått över till enbart Google Chromebook på klientsidan.

Trädvy Permalänk
Medlem
Registrerad
Maj 2004

Blir någonting sådant i nästa HTPC om inte AMD överraskar med någonting riktigt trevligt.

Trädvy Permalänk
Medlem
Plats
Solna
Registrerad
Jan 2015

Har försökt kolla upp det här med hevc stöd generellt, men speciellt till mobiltelefon. Tydligen kom hårdvarustöd för hevc med snapdragon 801 för typ 3+ år sedan till mobiler. I denna artikel står det att en av nyheterna i kaby lake är stöd för hevc. Är mobilerna i framkant och intel supersega eller missar jag något?

Skickades från m.sweclockers.com

ASUS ROG G751JT, GTX970m, I7 4710HQ

Trädvy Permalänk
Medlem
Plats
#Archlinux
Registrerad
Jun 2007
Skrivet av Maktor:

Har försökt kolla upp det här med hevc stöd generellt, men speciellt till mobiltelefon. Tydligen kom hårdvarustöd för hevc med snapdragon 801 för typ 3+ år sedan till mobiler. I denna artikel står det att en av nyheterna i kaby lake är stöd för hevc. Är mobilerna i framkant och intel supersega eller missar jag något?

Skickades från m.sweclockers.com

Grafikkort brukar ha de stödet.

Arch - Makepkg, not war -||- Asus Crosshair Hero VI -||- GSkill 16GiB DDR4 15-15-15-35-1T 3600Mhz -||- AMD 1600x @ 4.1GHz -||- nVidia MSI 970 Gaming -||- Samsung 850 Pro -||- EVEGA G2 750W -||- Corsair 570x -||- Asus Xonar Essence STX -||- Sennheiser HD-650 -||
Arch Linux, one hell of a distribution.

Trädvy Permalänk
Medlem
Plats
Stockholm
Registrerad
Aug 2007

Spännande! Vet inte hur mycket nytta man har av 4k på en laptop dock, men men.

Spel: Ryzen 7 1800x, R9 270, 16GB DDR4 Flare X
Har haft dessa GPUer: Tseng ET6000, Matrox M3D, 3DFX Voodoo 1-3, nVidia Riva 128, TNT, TNT2, Geforce 256 SDR+DDR, Geforce 2mx, 3, GT 8600m, GTX460 SLI, GTX580, GTX670 SLI, 1080 ti AMD Radeon 9200, 4850 CF, 6950@70, 6870 CF, 7850 CF, R9 390, Vega 64
Lista beg. priser GPUer ESD for dummies

Trädvy Permalänk
Medlem
Plats
Stockholm
Registrerad
Feb 2007
Skrivet av Herr Kantarell:

Spännande! Vet inte hur mycket nytta man har av 4k på en laptop dock, men men.

Mer än i en mobiltelefon, tror jag. Laptops ligger alldeles för långt efter i skärmupplösning. Jämför en laptop med vilken smartphone som helst så ser du att en mobiltelefon på 5,2 tum oftast har högre upplösning än en 15 tums laptop, vilket är helt vansinnigt i mitt tycke.

Skickades från m.sweclockers.com

AMD Ryzen 5 1600 | ASUS Prime X370 Pro | OCZ Vector 512GB | Fractal Design Newton R3 600W | Fractal Design Define R4| Corsair Venegance Red DDR4 16GB 3000MHz | Powercolor Radeon HD7970 | Eizo Foris FS2331

Trädvy Permalänk
Medlem
Plats
Karlstad
Registrerad
Nov 2010
Skrivet av Herr Kantarell:

Spännande! Vet inte hur mycket nytta man har av 4k på en laptop dock, men men.

Det är bara en tidsfråga, först ska man ha någon skärm som kan visa upp 4k, vilket de flesta än inte har. Men för att folk ska skaffa detta, så behöver fler grafikkort få stöd för det. Och folk har datorer ibland länge vilket innebär att även om de ej använder funktionen första året så kanske de använder den om några år.

För mig är dock vet den interna igpun har en egentligen en ickefråga även ju mer skit ju mindre glad jag blir, såvida vi ej pratar om surfplatta eller liknande som ej har en extern gpu. Däremot ser jag som väldigt negativt om den externa gpun ej stöder 4k, skärmen ska dock helst vara 1080 för mig idag. (4k används då vid extern skärm eller när man remotar in på datorn vilket i.o.f.s blir en extern skärm)

Detta med att man måste ha så extrema grafikkort för att visa 4k och 8k är fel. Det behövs inte alls mycket datakraft för att statisk kunna visa en bild i 8k. Ska bilden dock vara rörlig och mer komplexa grafikberäkningar så skenar datakraft-behovet snabbt iväg, men det mesta av all grafik är ej sådan.

*edit*
Dagens problem är dock skärmarna. Förr i tiden var man ej tvungen att köra maxupplösning på skärmarna (Crt), köper man idag en 4K/8K skärm för bildredigering för man lite problem om man samtidigt vill spela på den på ett billigt grafikkkort.

Gått över till enbart Google Chromebook på klientsidan.

Trädvy Permalänk
Medlem
Plats
Stockholm
Registrerad
Dec 2008

@Johan86c: Notera dock att om du kör spelen i 1920x1080 på en 4K-skärm skalar pixlarna 1:2 i varje ledd (varje bildpixel blir 4 panelpixlar). I teorin ska du inte kunna se skillnad mot en skärm som har 1920x1080 i panelupplösning eftersom pixlarna skalar med heltal (om du inte sitter så nära att du kan se subpixlarna). Sony använde det tricket på någon high-end lur med 4K-skärm nyligen och löste prestandaproblemen genom att rita allt utom bilder och video i 1920x1080.

Mjölnir: AMD Ryzen 5 2400G | Gigabyte GA-AB350N | Crucial Ballistix Sport 8GB | Sapphire RX 580 8GB NITRO+ | IKEA Knagglig
Server: Intel i7-2600 | ASRock Z68 Fatal1ty (defekt men bootar) | Corsair XMS 32GB | Sapphire HD 5850 1GB | NZXT Switch 810

Trädvy Permalänk
Medlem
Plats
Karlstad
Registrerad
Nov 2010
Skrivet av Djhg2000:

@Johan86c: Notera dock att om du kör spelen i 1920x1080 på en 4K-skärm skalar pixlarna 1:2 i varje ledd (varje bildpixel blir 4 panelpixlar). I teorin ska du inte kunna se skillnad mot en skärm som har 1920x1080 i panelupplösning eftersom pixlarna skalar med heltal (om du inte sitter så nära att du kan se subpixlarna). Sony använde det tricket på någon high-end lur med 4K-skärm nyligen och löste prestandaproblemen genom att rita allt utom bilder och video i 1920x1080.

Grymt bra om det stämmer för det finns en drös programvara som nu är hårdkodad för 1920x1080, tyvärr mycket även för 1920x1200. Detta gör ju övergången enklare och den stora skaran användare är ju gamers, högre upplösning är 1920x1080 är bra för många, men de som ska spela kanske föredrar lite högre fps istället.

Jag har för övrigt uppdaterat en mjukvara i år där kund av kostnadsskäll ej ville ha uppdaterat till 1920x1080 utan behålla 1280x1024 (eller vad det nu var) och ej köra programmet i fullscreen. Detta vore knappast accepterat för en gamer..

Nå då ökar som sagt behovet för många med 4k om 1080 också fungerar bra på samma skärm.

Gått över till enbart Google Chromebook på klientsidan.

Trädvy Permalänk
Medlem
Plats
Malmö
Registrerad
Maj 2014
Skrivet av Djhg2000:

@Johan86c: Notera dock att om du kör spelen i 1920x1080 på en 4K-skärm skalar pixlarna 1:2 i varje ledd (varje bildpixel blir 4 panelpixlar). I teorin ska du inte kunna se skillnad mot en skärm som har 1920x1080 i panelupplösning eftersom pixlarna skalar med heltal (om du inte sitter så nära att du kan se subpixlarna). Sony använde det tricket på någon high-end lur med 4K-skärm nyligen och löste prestandaproblemen genom att rita allt utom bilder och video i 1920x1080.

Vill minnas samma knep kan (och borde kunna) användas på 2560x1440 ner till HD 1280x720, just därför den upplösningen passar mindre enheter bättre imho än 4k, då den drar mindre ström, men har en naturlig skalning till något många GPUer klarar, även på laptop.

För större enheter så är självklart fullHD och 4k alternativet bättre, men jag förstår inte poängen med en 10-12" enhet ens som ska ha 4k upplösning... om du inte tänkte ha 2 extra batteri till den.

Många sådana förbättringar som görs på CPU/GPU fronten ovan tex gör att man tydligen, istället för mer batteritid i praktiken, förstör något annat så att batteritiden blir lika illa, eller tom sämre. Tycker det är synd att man inte kan satsa på maximal batteritid istället, då tex några pixlar på en så liten skärm gör skit samma för en film.

Trädvy Permalänk
Medlem
Plats
Malmö
Registrerad
Maj 2014
Skrivet av Johan86c:

Nej, det handlade om att Intel ej kunde skydda namnet 586 från andra tillverkare som AMD, och cyrix. https://en.wikipedia.org/wiki/Pentium

Btw. Under 486ans tid var typ allt som det inte stod intel på just bättre än en intel. (cyrix prisvärdighet ej prestanda)

Ahh tack för den rättningen. Förklarar varför det blev som det blev.

Trädvy Permalänk
Medlem
Plats
Södertälje
Registrerad
Aug 2007

Hur kommer det sig att 7100u och 7200u har samma pris?

CPU: i7 3770k@4,50Ghz MB Z77X-D3H RAM: 16GB@2133mhz (10-12-11-27 2T)
GPU: 980Ti@1404,8 HDD: 4st MLC 1st TLC and 2st HDD for random: FD-PSU-TS2B-800W. Sound: SB-Z -> toslink (DTS)-> old JVC. MB Via to Z-2300 for VOIP. http://valid.x86.fr/nf1u3d https://www.techpowerup.com/gpuz/gxryb

Trädvy Permalänk
Medlem
Registrerad
Okt 2004

Det var ju mer anmärkningsvärt att de tydligen gjort en THz-processor enligt en av bilderna.

Trädvy Permalänk
Datavetare
Plats
Stockholm
Registrerad
Jun 2011
Skrivet av Herr Kantarell:

Spännande! Vet inte hur mycket nytta man har av 4k på en laptop dock, men men.

Massor!!! Har en 15" laptop med 3200x1800 skärm (som utan problem dras runt av Haswells HD4400) och skulle aldrig kunna gå tillbaka till säg 1920x1080 på 13", är som natt och dag att läsa text på en högupplöst skärm.

Numera är det väldigt få program som inte fungerar bra med högupplösta skärmar, tidigare (innan Win8) var det största problemet.

Angående Kaby Lake. I första batchen känns 15 W modellerna mest intressanta, i7-7500U med 3,5 GHz turbo-boost ser riktigt bra ut och raderar ut en av de få poängerna med att ens fundera på fyrkärninga modeller med 45 W TDP i en laptop då väldigt nära 100 % av det man gör på en laptop begränsas av enkeltrådprestanda. Max turboboost för 45 W TDP modellerna ligger idag runt 3,5 GHz, men rasar fort allt eftersom fler kärnor aktiveras.

Sättet Windows schemalägger trådar är inte heller optimalt för bärbara, den försöker allt för mycket att aktivera alla kärnor vilket för enheter med relativt många kärnor samt låg TDP betyder låg frekvens och därmed lägre enkeltrådprestanda -> sämre upplevd prestanda i interaktiva program.

Senaste bytet på jobbet var från en fyrkärnig 45 W Sandy Bridge till en tvåkärnig 15 W Broadwell (i7-5600U). I praktiken är den senare modellen minst lika snabb, det trots att den används för programutveckling. Ovanpå det får man en betydligt lättare, tystare enhet med mycket bättre batteritid!

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Trädvy Permalänk
Medlem
Plats
Sverige / Stockholm
Registrerad
Nov 2006

Och inget om Optane... Hoppas innerligt att dom inte försöker dra en fuling och låta oss vänta ytterligare en gen för att få stöd för denna SSD teknik.

Skylakes Iris Pro var i övrigt omotiverat dålig gentemot Broadwells/Haswells motsvarighet. Hoppas dom fått till det denna gång, så att man verkligen får känna av en radikal skillnad mot vanliga HD Graphics. 72EU's med EDRAM kanske inte är 3X så kraftfullt som 24EU's, men det bör iaf ge 2 till 2.5X mer kraft kan jag tycka.

Dator: EEE901 N270/ 1GB / 20GB SSD ... Kraftigt nedbantat/tweakat Win7 x86 for speeeEED!
Facebook användare? Hatar tidslinjen? gå med i denna FB-grupp:
Undo Timeline ...med lite tur får h*lvetet ett slut!

Trädvy Permalänk
Medlem
Plats
Botkyrka, Stockholm
Registrerad
Jul 2001
Skrivet av lastninja:

Och inget om Optane... Hoppas innerligt att dom inte försöker dra en fuling och låta oss vänta ytterligare en gen för att få stöd för denna SSD teknik.

Jag vet inte riktigt vad du menar, behöver CPUn något särskilt stöd för det?

CPUn struntar väl i vad det sitter för typ av minneskretsar i en SSD, det är ju upp till kontrollern och firmwaren att hålla reda på?
Och det gäller ju oavsett vilket paket som man nu lanserar tekniken i.

Trädvy Permalänk
Medlem
Plats
Sverige / Stockholm
Registrerad
Nov 2006
Skrivet av Kilroy:

Jag vet inte riktigt vad du menar, behöver CPUn något särskilt stöd för det?

CPUn struntar väl i vad det sitter för typ av minneskretsar i en SSD, det är ju upp till kontrollern och firmwaren att hålla reda på?
Och det gäller ju oavsett vilket paket som man nu lanserar tekniken i.

Anledningen till att jag skrev så var för att jag i början av året läste en nyhet där Intel skulle ha påstått att stöd för Optane inte skulle finnas till Skylake utan just skulle bli en feature med Kaby Lake..... Sen om det endast skulle krävas nytt chipset, eller även en Kaby Lake CPU gick dom inte in på ...men med tanke på hur fasligt snabba Optane kretsarna sägs bli, så vete fan om dom vanliga gränssnitten bjuder på tillräcklig bandbredd (om man nu inte vill snylta i grandiös skala från pci express bussen, med biverkningen att flaska tex grafikkortet).
...Med nyheten jag läste i beaktning och Optanes massiva prestandakliv så är jag därför öppen för att gränssnittet kan bli nått helt nytt som kräver access till dedikerade resurser i CPU'n.
Det ska bli spännande att se hur lösningen kommer se ut.

Dator: EEE901 N270/ 1GB / 20GB SSD ... Kraftigt nedbantat/tweakat Win7 x86 for speeeEED!
Facebook användare? Hatar tidslinjen? gå med i denna FB-grupp:
Undo Timeline ...med lite tur får h*lvetet ett slut!

Trädvy Permalänk
Medlem
Plats
sweden
Registrerad
Dec 2008
Skrivet av lastninja:

Anledningen till att jag skrev så var för att jag i början av året läste en nyhet där Intel skulle ha påstått att stöd för Optane inte skulle finnas till Skylake utan just skulle bli en feature med Kaby Lake..... Sen om det endast skulle krävas nytt chipset, eller även en Kaby Lake CPU gick dom inte in på ...men med tanke på hur fasligt snabba Optane kretsarna sägs bli, så vete fan om dom vanliga gränssnitten bjuder på tillräcklig bandbredd (om man nu inte vill snylta i grandiös skala från pci express bussen, med biverkningen att flaska tex grafikkortet).
...Med nyheten jag läste i beaktning och Optanes massiva prestandakliv så är jag därför öppen för att gränssnittet kan bli nått helt nytt som kräver access till dedikerade resurser i CPU'n.
Det ska bli spännande att se hur lösningen kommer se ut.

Har inte läst så mycket om optanes, men borde inte disken köra NVMe i alla fall?

Intel kan ju hittat på eget gränsnit i stället för att köra sakta express/m2n , men kan ju lika gärna bara höjt hastigheten till lagrings portarna från 4x (går ju öka linens hastighet).

Skickades från m.sweclockers.com

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Trädvy Permalänk
Medlem
Plats
Botkyrka, Stockholm
Registrerad
Jul 2001
Skrivet av lastninja:

Anledningen till att jag skrev så var för att jag i början av året läste en nyhet där Intel skulle ha påstått att stöd för Optane inte skulle finnas till Skylake utan just skulle bli en feature med Kaby Lake..... Sen om det endast skulle krävas nytt chipset, eller även en Kaby Lake CPU gick dom inte in på ...men med tanke på hur fasligt snabba Optane kretsarna sägs bli, så vete fan om dom vanliga gränssnitten bjuder på tillräcklig bandbredd (om man nu inte vill snylta i grandiös skala från pci express bussen, med biverkningen att flaska tex grafikkortet).
...Med nyheten jag läste i beaktning och Optanes massiva prestandakliv så är jag därför öppen för att gränssnittet kan bli nått helt nytt som kräver access till dedikerade resurser i CPU'n.
Det ska bli spännande att se hur lösningen kommer se ut.

Det är inga nya gränssnitt på G så vitt jag vet.

SATA, NVMe, SAS, DIMM, PCI-Express är alla möjliga. (Jag vet att jag blandat ihop sakerna lite men för att illustrera.)
Jag ser inte riktigt behovet av något särskilt för just Optane.
Men jag har inte följt saker så noga.