Intel lanserar Kaby Lake för bärbara datorer

Permalänk
Melding Plague

Intel lanserar Kaby Lake för bärbara datorer

Processorjätten Intel lanserar åter en ny generation för bärbara datorer lagom till IFA-mässan i Berlin. Den här gången handlar det om Kaby Lake, med bättre prestanda och stöd för 4K-video.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

Tunt minst sagt, de borde sparat in på den dyra presentationen och sänkt priserna istället.
Snaran runt x86 dras åt för varje år

Permalänk
Medlem

"För Kaby Lake-Y introduceras inledningsvis tre modeller – Core i7-7Y75, i5-7Y54 och m3-7Y30,..."

Okej... Intel har gjort det.
De har nu lyckats göra de absolut mest komplexa CPU namnen jag har sett på länge... Kunde de inte gjort 775Y, 754Y och 730Y istället.

Oavsett så är detta nog en bra high-end surfplatta/lätt laptop CPU, för 4k skärm och film tittande. Något vi alla gör 24/7 tydligen

Permalänk
Medlem
Skrivet av Paddanx:

"För Kaby Lake-Y introduceras inledningsvis tre modeller – Core i7-7Y75, i5-7Y54 och m3-7Y30,..."

Okej... Intel har gjort det.
De har nu lyckats göra de absolut mest komplexa CPU namnen jag har sett på länge... Kunde de inte gjort 775Y, 754Y och 730Y istället.

Oavsett så är detta nog en bra high-end surfplatta/lätt laptop CPU, för 4k skärm och film tittande. Något vi alla gör 24/7 tydligen

Man undrar ju hur dom gör... Drar dom i en sådan där enarmad bandit och skriver av kombinationen av siffror och bokstäver kanske?

Visa signatur

Server: Fractal design Define 7 XL | AMD Ryzen 7 5800X 8/16 | ASUS ROG CROSSHAIR VIII DARK HERO | 64GB Corsair @ 3000MHz | ASUS Radeon RX 460 2GB | Samsung 960 PRO 512 GB M.2 | 2x 2TB Samsung 850 PRO SSD | 6x Seagate Ironwolf Pro 10TB
WS: Phantex Entoo Elite | AMD Ryzen Threadripper 1950X 16/32 | ASUS Zenith extreme | 128GB G.Skill @ 2400MHz | ASUS Radeon HD7970 | 3x 2TB Samsung 960PRO M.2 | 6x Seagate Ironwolf Pro 10 TB
NEC PA301W 30" @ 2560x1600 | Linux Mint 21.3 Cinnamon

Permalänk
Medlem

Sålde de inte tillräckligt med M-processorer så de måste döpa om den till något som alla känner till som mer high-end eller hur tänkte de? Att Sweclockers lyckades få till det visar ju hur gediget korkad namnändringen Intel gjort är

Visa signatur

Desktop: MSI MPG X570 GAMING PLUS, AMD Ryzen 9 5950X, Be Quiet Dark Rock Pro 4, 32GB G.Skill Trident Z RGB 3200,
ASUS ROG STRIX GeForce GTX 1080 8GB GAMING, Samsung 970 EVO Plus 500GB
Notebook: Macbook Pro 14" M1 Pro

Permalänk
Medlem
Skrivet av OldComputer:

Man undrar ju hur dom gör... Drar dom i en sådan där enarmad bandit och skriver av kombinationen av siffror och bokstäver kanske?

Gissade själv på tärningar... en med bokstäver, resten med siffror, och de skrivs exakt i den ordningen de landar

Vill minnas (du som borde ha nog med kunskap att bekräfta eller rätta mig), behövde inte "586:an" ändra till riktigt namn (Pentium) pga Intel inte fick fortsätta att namnge dem som 386, 486 osv. Så... de behöver inte det nu längre, eller är det "i7/i5/m3" delen som gör det till ett "namn"?

Permalänk
Inaktiv

Rubriken borde vara Intel gör en Nvida och namndöper sina nya processorer så att vanligt folk inte vet vad de köper.
Siba har en märkning som jag gillar bra, bättre, bäst. Varför inte införa samma fast på engelska så folk lättare kan göra sina val, alltså: Bad, Worse, The worst

Nå det jag hoppas med de nya är bättre stöd för usb 3.1. Nu vet jag ej om processorns stöd har förbättras, men när tillverkarna nu gör nya laptops kanske de tar fram nya moderkort..

Permalänk
Medlem

Dessa cpu namn alltså.. Allt för att förvirra och vilseleda konsumenterna.

Visa signatur

Dator 1: | i9 9900k | MSI RTX 4080 Ventus 3x OC | ASUS ROG STRIX Z390-F Gaming | Corsair LPX DDR4 32 GB 3200Mhz | FD define S | Samsung 850 EVO 1TB | Samsung 980 NVMe M.2 1TB | Noctua NH-U12S | Corsair RM750x 750W | Windows 10
Skärm 1: ASUS 27" ROG SWIFT PG279Q 1440p @ 165Hz/IPS/G-Sync
Skärm 2: ASUS 27" TUF VG27AQ1A 1440p @ 170Hz/IPS/G-Sync/HDR

Permalänk
Inaktiv
Skrivet av Paddanx:

Vill minnas (du som borde ha nog med kunskap att bekräfta eller rätta mig), behövde inte "586:an" ändra till riktigt namn (Pentium) pga Intel inte fick fortsätta att namnge dem som 386, 486 osv. Så... de behöver inte det nu längre, eller är det "i7/i5/m3" delen som gör det till ett "namn"?

Nej, det handlade om att Intel ej kunde skydda namnet 586 från andra tillverkare som AMD, och cyrix. https://en.wikipedia.org/wiki/Pentium

Btw. Under 486ans tid var typ allt som det inte stod intel på just bättre än en intel. (cyrix prisvärdighet ej prestanda)

Permalänk
Medlem

Blir någonting sådant i nästa HTPC om inte AMD överraskar med någonting riktigt trevligt.

Permalänk
Medlem

Har försökt kolla upp det här med hevc stöd generellt, men speciellt till mobiltelefon. Tydligen kom hårdvarustöd för hevc med snapdragon 801 för typ 3+ år sedan till mobiler. I denna artikel står det att en av nyheterna i kaby lake är stöd för hevc. Är mobilerna i framkant och intel supersega eller missar jag något?

Skickades från m.sweclockers.com

Visa signatur

ASUS ROG G751JT, GTX970m, I7 4710HQ

Permalänk
Medlem
Skrivet av Maktor:

Har försökt kolla upp det här med hevc stöd generellt, men speciellt till mobiltelefon. Tydligen kom hårdvarustöd för hevc med snapdragon 801 för typ 3+ år sedan till mobiler. I denna artikel står det att en av nyheterna i kaby lake är stöd för hevc. Är mobilerna i framkant och intel supersega eller missar jag något?

Skickades från m.sweclockers.com

Grafikkort brukar ha de stödet.

Visa signatur

Arch - Makepkg, not war -||- Gigabyte X570 Aorus Master -||- GSkill 64GiB DDR4 14-14-15-35-1T 3600Mhz -||- AMD 5900x-||- Gigabyte RX6900XT -||- 2x Adata XPG sx8200 Pro 1TB -||- EVGA G2 750W -||- Corsair 570x -||- O2+ODAC-||- Sennheiser HD-650 -|| Boycott EA,2K,Activision,Ubisoft,WB,EGS
Arch Linux, one hell of a distribution.

Permalänk
Medlem

Spännande! Vet inte hur mycket nytta man har av 4k på en laptop dock, men men.

Visa signatur

Ryzen 9 5950X, 32GB 3600MHz CL16, SN850 500GB SN750 2TB, B550 ROG, 3090 24 GB
Har haft dessa GPUer: Tseng ET6000, Matrox M3D, 3DFX Voodoo 1-3, nVidia Riva 128, TNT, TNT2, Geforce 256 SDR+DDR, Geforce 2mx, 3, GT 8600m, GTX460 SLI, GTX580, GTX670 SLI, 1080 ti, 2080 ti, 3090 AMD Radeon 9200, 4850 CF, 6950@70, 6870 CF, 7850 CF, R9 390, R9 Nano, Vega 64, RX 6800 XT
Lista beg. priser GPUer ESD for dummies

Permalänk
Inaktiv
Skrivet av Herr Kantarell:

Spännande! Vet inte hur mycket nytta man har av 4k på en laptop dock, men men.

Mer än i en mobiltelefon, tror jag. Laptops ligger alldeles för långt efter i skärmupplösning. Jämför en laptop med vilken smartphone som helst så ser du att en mobiltelefon på 5,2 tum oftast har högre upplösning än en 15 tums laptop, vilket är helt vansinnigt i mitt tycke.

Skickades från m.sweclockers.com

Permalänk
Inaktiv
Skrivet av Herr Kantarell:

Spännande! Vet inte hur mycket nytta man har av 4k på en laptop dock, men men.

Det är bara en tidsfråga, först ska man ha någon skärm som kan visa upp 4k, vilket de flesta än inte har. Men för att folk ska skaffa detta, så behöver fler grafikkort få stöd för det. Och folk har datorer ibland länge vilket innebär att även om de ej använder funktionen första året så kanske de använder den om några år.

För mig är dock vet den interna igpun har en egentligen en ickefråga även ju mer skit ju mindre glad jag blir, såvida vi ej pratar om surfplatta eller liknande som ej har en extern gpu. Däremot ser jag som väldigt negativt om den externa gpun ej stöder 4k, skärmen ska dock helst vara 1080 för mig idag. (4k används då vid extern skärm eller när man remotar in på datorn vilket i.o.f.s blir en extern skärm)

Detta med att man måste ha så extrema grafikkort för att visa 4k och 8k är fel. Det behövs inte alls mycket datakraft för att statisk kunna visa en bild i 8k. Ska bilden dock vara rörlig och mer komplexa grafikberäkningar så skenar datakraft-behovet snabbt iväg, men det mesta av all grafik är ej sådan.

*edit*
Dagens problem är dock skärmarna. Förr i tiden var man ej tvungen att köra maxupplösning på skärmarna (Crt), köper man idag en 4K/8K skärm för bildredigering för man lite problem om man samtidigt vill spela på den på ett billigt grafikkkort.

Permalänk
Medlem

@anon159643: Notera dock att om du kör spelen i 1920x1080 på en 4K-skärm skalar pixlarna 1:2 i varje ledd (varje bildpixel blir 4 panelpixlar). I teorin ska du inte kunna se skillnad mot en skärm som har 1920x1080 i panelupplösning eftersom pixlarna skalar med heltal (om du inte sitter så nära att du kan se subpixlarna). Sony använde det tricket på någon high-end lur med 4K-skärm nyligen och löste prestandaproblemen genom att rita allt utom bilder och video i 1920x1080.

Visa signatur

Mjölnir: Ryzen 9 3900X | X570-I | Ballistix Sport 32GB | Powercolor RX 5500XT 4GB ITX | Kolink Sattelite
Server: Ryzen 5 1400 | X470-F | Ballistix Sport 24GB | ASUS HD 7790 2GB | Sapphire RX 470 8GB ME | NZXT Switch 810

Permalänk
Inaktiv
Skrivet av Djhg2000:

@Johan86c: Notera dock att om du kör spelen i 1920x1080 på en 4K-skärm skalar pixlarna 1:2 i varje ledd (varje bildpixel blir 4 panelpixlar). I teorin ska du inte kunna se skillnad mot en skärm som har 1920x1080 i panelupplösning eftersom pixlarna skalar med heltal (om du inte sitter så nära att du kan se subpixlarna). Sony använde det tricket på någon high-end lur med 4K-skärm nyligen och löste prestandaproblemen genom att rita allt utom bilder och video i 1920x1080.

Grymt bra om det stämmer för det finns en drös programvara som nu är hårdkodad för 1920x1080, tyvärr mycket även för 1920x1200. Detta gör ju övergången enklare och den stora skaran användare är ju gamers, högre upplösning är 1920x1080 är bra för många, men de som ska spela kanske föredrar lite högre fps istället.

Jag har för övrigt uppdaterat en mjukvara i år där kund av kostnadsskäll ej ville ha uppdaterat till 1920x1080 utan behålla 1280x1024 (eller vad det nu var) och ej köra programmet i fullscreen. Detta vore knappast accepterat för en gamer..

Nå då ökar som sagt behovet för många med 4k om 1080 också fungerar bra på samma skärm.

Permalänk
Medlem
Skrivet av Djhg2000:

@Johan86c: Notera dock att om du kör spelen i 1920x1080 på en 4K-skärm skalar pixlarna 1:2 i varje ledd (varje bildpixel blir 4 panelpixlar). I teorin ska du inte kunna se skillnad mot en skärm som har 1920x1080 i panelupplösning eftersom pixlarna skalar med heltal (om du inte sitter så nära att du kan se subpixlarna). Sony använde det tricket på någon high-end lur med 4K-skärm nyligen och löste prestandaproblemen genom att rita allt utom bilder och video i 1920x1080.

Vill minnas samma knep kan (och borde kunna) användas på 2560x1440 ner till HD 1280x720, just därför den upplösningen passar mindre enheter bättre imho än 4k, då den drar mindre ström, men har en naturlig skalning till något många GPUer klarar, även på laptop.

För större enheter så är självklart fullHD och 4k alternativet bättre, men jag förstår inte poängen med en 10-12" enhet ens som ska ha 4k upplösning... om du inte tänkte ha 2 extra batteri till den.

Många sådana förbättringar som görs på CPU/GPU fronten ovan tex gör att man tydligen, istället för mer batteritid i praktiken, förstör något annat så att batteritiden blir lika illa, eller tom sämre. Tycker det är synd att man inte kan satsa på maximal batteritid istället, då tex några pixlar på en så liten skärm gör skit samma för en film.

Permalänk
Medlem
Skrivet av anon159643:

Nej, det handlade om att Intel ej kunde skydda namnet 586 från andra tillverkare som AMD, och cyrix. https://en.wikipedia.org/wiki/Pentium

Btw. Under 486ans tid var typ allt som det inte stod intel på just bättre än en intel. (cyrix prisvärdighet ej prestanda)

Ahh tack för den rättningen. Förklarar varför det blev som det blev.

Permalänk
Medlem

Hur kommer det sig att 7100u och 7200u har samma pris?

Visa signatur

CPU: 5900x. Mem:64GB@3200 16-17-17-34-1T. (ImDIsk)
GPU: 1080 Ti@ca 6-7%OC. Sound: SB-Z -> toslink (DTS)-> old JVC. MB Realtek to Z-2300 for VOIP.

Permalänk
Medlem

Det var ju mer anmärkningsvärt att de tydligen gjort en THz-processor enligt en av bilderna.

Permalänk
Datavetare
Skrivet av Herr Kantarell:

Spännande! Vet inte hur mycket nytta man har av 4k på en laptop dock, men men.

Massor!!! Har en 15" laptop med 3200x1800 skärm (som utan problem dras runt av Haswells HD4400) och skulle aldrig kunna gå tillbaka till säg 1920x1080 på 13", är som natt och dag att läsa text på en högupplöst skärm.

Numera är det väldigt få program som inte fungerar bra med högupplösta skärmar, tidigare (innan Win8) var det största problemet.

Angående Kaby Lake. I första batchen känns 15 W modellerna mest intressanta, i7-7500U med 3,5 GHz turbo-boost ser riktigt bra ut och raderar ut en av de få poängerna med att ens fundera på fyrkärninga modeller med 45 W TDP i en laptop då väldigt nära 100 % av det man gör på en laptop begränsas av enkeltrådprestanda. Max turboboost för 45 W TDP modellerna ligger idag runt 3,5 GHz, men rasar fort allt eftersom fler kärnor aktiveras.

Sättet Windows schemalägger trådar är inte heller optimalt för bärbara, den försöker allt för mycket att aktivera alla kärnor vilket för enheter med relativt många kärnor samt låg TDP betyder låg frekvens och därmed lägre enkeltrådprestanda -> sämre upplevd prestanda i interaktiva program.

Senaste bytet på jobbet var från en fyrkärnig 45 W Sandy Bridge till en tvåkärnig 15 W Broadwell (i7-5600U). I praktiken är den senare modellen minst lika snabb, det trots att den används för programutveckling. Ovanpå det får man en betydligt lättare, tystare enhet med mycket bättre batteritid!

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk

Och inget om Optane... Hoppas innerligt att dom inte försöker dra en fuling och låta oss vänta ytterligare en gen för att få stöd för denna SSD teknik.

Skylakes Iris Pro var i övrigt omotiverat dålig gentemot Broadwells/Haswells motsvarighet. Hoppas dom fått till det denna gång, så att man verkligen får känna av en radikal skillnad mot vanliga HD Graphics. 72EU's med EDRAM kanske inte är 3X så kraftfullt som 24EU's, men det bör iaf ge 2 till 2.5X mer kraft kan jag tycka.

Visa signatur

Dator: EEE901 N270/ 1GB / 20GB SSD ... Kraftigt nedbantat/tweakat Win7 x86 for speeeEED!
Facebook användare? Hatar tidslinjen? gå med i denna FB-grupp:
Undo Timeline ...med lite tur får h*lvetet ett slut!

Permalänk
Medlem
Skrivet av lastninja:

Och inget om Optane... Hoppas innerligt att dom inte försöker dra en fuling och låta oss vänta ytterligare en gen för att få stöd för denna SSD teknik.

Jag vet inte riktigt vad du menar, behöver CPUn något särskilt stöd för det?

CPUn struntar väl i vad det sitter för typ av minneskretsar i en SSD, det är ju upp till kontrollern och firmwaren att hålla reda på?
Och det gäller ju oavsett vilket paket som man nu lanserar tekniken i.

Permalänk
Skrivet av Kilroy:

Jag vet inte riktigt vad du menar, behöver CPUn något särskilt stöd för det?

CPUn struntar väl i vad det sitter för typ av minneskretsar i en SSD, det är ju upp till kontrollern och firmwaren att hålla reda på?
Och det gäller ju oavsett vilket paket som man nu lanserar tekniken i.

Anledningen till att jag skrev så var för att jag i början av året läste en nyhet där Intel skulle ha påstått att stöd för Optane inte skulle finnas till Skylake utan just skulle bli en feature med Kaby Lake..... Sen om det endast skulle krävas nytt chipset, eller även en Kaby Lake CPU gick dom inte in på ...men med tanke på hur fasligt snabba Optane kretsarna sägs bli, så vete fan om dom vanliga gränssnitten bjuder på tillräcklig bandbredd (om man nu inte vill snylta i grandiös skala från pci express bussen, med biverkningen att flaska tex grafikkortet).
...Med nyheten jag läste i beaktning och Optanes massiva prestandakliv så är jag därför öppen för att gränssnittet kan bli nått helt nytt som kräver access till dedikerade resurser i CPU'n.
Det ska bli spännande att se hur lösningen kommer se ut.

Visa signatur

Dator: EEE901 N270/ 1GB / 20GB SSD ... Kraftigt nedbantat/tweakat Win7 x86 for speeeEED!
Facebook användare? Hatar tidslinjen? gå med i denna FB-grupp:
Undo Timeline ...med lite tur får h*lvetet ett slut!

Permalänk
Skrivet av lastninja:

Anledningen till att jag skrev så var för att jag i början av året läste en nyhet där Intel skulle ha påstått att stöd för Optane inte skulle finnas till Skylake utan just skulle bli en feature med Kaby Lake..... Sen om det endast skulle krävas nytt chipset, eller även en Kaby Lake CPU gick dom inte in på ...men med tanke på hur fasligt snabba Optane kretsarna sägs bli, så vete fan om dom vanliga gränssnitten bjuder på tillräcklig bandbredd (om man nu inte vill snylta i grandiös skala från pci express bussen, med biverkningen att flaska tex grafikkortet).
...Med nyheten jag läste i beaktning och Optanes massiva prestandakliv så är jag därför öppen för att gränssnittet kan bli nått helt nytt som kräver access till dedikerade resurser i CPU'n.
Det ska bli spännande att se hur lösningen kommer se ut.

Har inte läst så mycket om optanes, men borde inte disken köra NVMe i alla fall?

Intel kan ju hittat på eget gränsnit i stället för att köra sakta express/m2n , men kan ju lika gärna bara höjt hastigheten till lagrings portarna från 4x (går ju öka linens hastighet).

Skickades från m.sweclockers.com

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Medlem
Skrivet av lastninja:

Anledningen till att jag skrev så var för att jag i början av året läste en nyhet där Intel skulle ha påstått att stöd för Optane inte skulle finnas till Skylake utan just skulle bli en feature med Kaby Lake..... Sen om det endast skulle krävas nytt chipset, eller även en Kaby Lake CPU gick dom inte in på ...men med tanke på hur fasligt snabba Optane kretsarna sägs bli, så vete fan om dom vanliga gränssnitten bjuder på tillräcklig bandbredd (om man nu inte vill snylta i grandiös skala från pci express bussen, med biverkningen att flaska tex grafikkortet).
...Med nyheten jag läste i beaktning och Optanes massiva prestandakliv så är jag därför öppen för att gränssnittet kan bli nått helt nytt som kräver access till dedikerade resurser i CPU'n.
Det ska bli spännande att se hur lösningen kommer se ut.

Det är inga nya gränssnitt på G så vitt jag vet.

SATA, NVMe, SAS, DIMM, PCI-Express är alla möjliga. (Jag vet att jag blandat ihop sakerna lite men för att illustrera.)
Jag ser inte riktigt behovet av något särskilt för just Optane.
Men jag har inte följt saker så noga.