Nvidia Geforce GTX 860M i prestandatest – Maxwell för bärbara datorer

Permalänk
Datavetare
Skrivet av CGI:

Jag hade en sådan i ett år på förra jobbet och hade den till allt möjligt. Det var en underbar liten dator, årets modell lär ju vara ännu trevligare. Det där hände aldrig mig, så antingen har du fel på batteriet eller på laddaren. Den laddas och den laddas ganska snabbt.

15" rMBP har en laddare på 85W, det är fullt tillräckligt för att ladda batteri samt ge ström till CPU+HD5200 (Iris Pro) då detta drar max ca 50W. Väljer man däremot modellen med nVidia 750M (som har en TDP på 50-55W) så finns flera rapporter om att datorn börjar throttlar om man lastar den hårt, något folk gissar beror på för klen laddare. Känns som detta kan vara en brandrisk, laddar jag min 15" MBP med MBA laddare så blir laddaren _väldigt_ varm.

Jämför med Dell XPS 15, den har en CPU med något lägre TDP (37W, i princip samma CPU som 15" rMBP fast med HD4600 i stället för HD5200) kommer alltid med samma GDDR5 utrustade version av 750M som topp-modellen av 15" rMBP, men Dell har valt en laddare med 130W. Denna dator har inte problem att maxa både CPU och GPU samtidigt, båda datorerna har väldigt snarlik vikt, storlek, design på kylningen och är överhuvudtaget väldigt lika i funktion, så det borde inte vara värmeproblem som gör att rMBP "throttlar".

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Zotamedu:

Näst sista stycket i artikeln:

"Intressant i sammanhanget är att Geforce GTX 860M enligt rykten ska komma i två utföranden – en med arkitekturen Kepler och MXM-instickskort med 75 watt TDP. Den andra som behandlas här ska istället endast finnas i fastlött utförande och ha det lägre TDP-värdet 50 watt, att jämföra mot 75 watt för Geforce GTX 770M."

Innan dess har vi två GT 620, fyra GT 630, fem GT 640 och två GTX 660. Notera även att det är en salig blandning mellan Fermi och Kepler så du vet inte ens vilken arkitektur du får. Går vi längre bak i tiden har vi dubbletter av GT 520M, GT 430, GT 440, GT S 450 och GTX 460.

och om prestandan är samma mellan de olika versionerna så spelar det ingen som helst roll för majoriteten av dem som köper laptops.

Visa signatur

Chassi: Silverstone Fortress FT05B PSU: Corsair RM650i MoBo: ROG Strix X570-F CPU: AMD Ryzen 3600X Mem: 32GB G.Skill Trident Z Neo GPU: EVGA GTX970 SSC Cooling: Corsair H115i SSD: Samsung 970 EVO Plus 1TB SSD & MX100 512GB

Permalänk
Avstängd
Skrivet av confusedcake:

alltid dessa rebrands.. samma med det nya amd kortet R9 M290x .. som är ungefär lika bra prestanda mässigt som ett 7970m.. men även 8970m var en rebrand av 7970m bara med mer "minne" 4gb istället för 2gb..

Men nu var de rebrands inom en ny serie och inte två kort med exakt samma namn men två helt skilda arkitekturer. Problemet är inte rebrandning utan att Nvidia namnsätter dessa helt åt helvete.

Visa signatur

||NZXT H440 Black/Red||Intel i5 2500k @ 4,2GHz ||Noctua NH-D14 ||GA-Z77X-UD3H ||8 gb Corsair Vengeance 1600mhz DDR3 ||MSI GeForce GTX 970 ||OCZ Agility 3 120GB SSD ||Samsung Spinpoint F3 1TB ||Corsair HX750W||
Software is like sex, it's better when it's free. - Linus Torvalds

Permalänk
Entusiast
Skrivet av Petterk:

Och det var likadant med 200-serien, 300-serien, 400-serien, 500-serien och 600-serien samt hos ATI/AMD. Nu är jag medveten om att dessa 5 olika nummer-serier också är baserat på tre olika grundarkitekturer. Samt har massor renames. Innan GDDR3 och GDDR5-problematiken fanns det kort som körde DDR2 och GDDR3 på samma serie och modell. Innan det så fanns det kort som körde GDDR1, 2 och 3 på samma kort. Innan det så fanns andra problem.

Du missade helt poängen. Det är en väldigt stor principiell skillnad på att sälja en krets i olika generation då båda lagen generellt sänker priset och flyttar ner den i prestandastegen mot det Nvidia gör som är att sälja olika grafikkort med samma namn. Rebrands kan vara rätt ok om de görs rätt, det vill säga att kortet faktiskt blir billigare och får en lägre märkning. Då får man som sagt anstränga sig för att bli lurad för ingen vettig människa kan förvänta sig att man får mer prestanda för mindre pengar mellan två generationer. Dessutom kan den intresserade läsaren enkelt kolla upp vad som gäller.

Det Nvidia gör saknar dock helt ursäkter. Jag skriver Nvidia för jag har aldrig sett AMD göra det men någon annan får gärna rätta mig om jag har fel. Du som konsument har ingen möjlighet alls att kolla vilken version av GT 630 det sitter i datorn du köper. Det kan vara en GK208 eller en GF108. Kortet med Kepler har mer än dubbelt så hög teoretisk prestanda. Båda finns med DDR3 så det hjälper inte om tillverkaren har varit duktig och skrivit ut det vilket är hyfsat ovanligt men förekommer.

Skrivet av CynXen:

och om prestandan är samma mellan de olika versionerna så spelar det ingen som helst roll för majoriteten av dem som köper laptops.

Men det har långt ifrån alltid varit samma prestanda. Se GT 630 med 1024 MB DDR3 som klarar 311 MFLOPS och har ett TDP på 65 W. Nästa GT 630 med 1024 MB DDR3 klarar 692.7 MFLOPS och har TDP på 25 W. Exakt samma namn och minne. Ena har Fermi och andra Kepler. Du vet inte vilket du får när du köper en dator. Sen var det GTX 660 eller GTX 660. Retail bygger på GK106 med 5 SM för 960 CUDA-kärnor. OEM bygger på GK104 (samma som GTX 680) fast med 6 SM för 1152 CUDA-kärnor. Men för att inte OEM ska vara för bra så har den lägre klockfrekvenser så du får även lägre minnesbandbredd. De presterar inte likadant utan vilket kort som är bäst varierar beroende på vilket spel man råkar köra. Praktiskt när det i princip bara brukar finnas tester på retailkorten. Varför då släppa ett annat kort med exakt samma namn om de inte råkar ha en baktanke? Du som köpare har inte ens chans i världen att se om det sitter GK104 eller GK106 innan du redan köpt datorn.

Sen kan du omöjligt få exakt samma prestanda på en Kepler och en Maxwell när det skiljer så mycket i strömförbrukning. 25 W som det skulle skilja på de båda kretsarna är jättemycket i en laptop så kylningen måste vara betydligt bättre i den som kör gammal Kepler. Så antingen får du en större laptop eller om det är samma kylare, en mer högljudd laptop.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Medlem
Skrivet av Yoshman:

15" rMBP har en laddare på 85W, det är fullt tillräckligt för att ladda batteri samt ge ström till CPU+HD5200 (Iris Pro) då detta drar max ca 50W. Väljer man däremot modellen med nVidia 750M (som har en TDP på 50-55W) så finns flera rapporter om att datorn börjar throttlar om man lastar den hårt, något folk gissar beror på för klen laddare. Känns som detta kan vara en brandrisk, laddar jag min 15" MBP med MBA laddare så blir laddaren _väldigt_ varm.

Jämför med Dell XPS 15, den har en CPU med något lägre TDP (37W, i princip samma CPU som 15" rMBP fast med HD4600 i stället för HD5200) kommer alltid med samma GDDR5 utrustade version av 750M som topp-modellen av 15" rMBP, men Dell har valt en laddare med 130W. Denna dator har inte problem att maxa både CPU och GPU samtidigt, båda datorerna har väldigt snarlik vikt, storlek, design på kylningen och är överhuvudtaget väldigt lika i funktion, så det borde inte vara värmeproblem som gör att rMBP "throttlar".

Aj då, ja dåligt val av laddare av Apple då. OnT så ska det bli väldigt intressant att se mer om hur Maxwell-mobility presterar.

Visa signatur

Lead 3D Artist, Sweden
Xeon Gold 6246R, 2x Nvidia RTX A5000 24 GB + NVLink, 384 GB ECC RAM

Permalänk
Skrivet av Teddis:

Har en MacBook Air med hd4000 och en vek liten 45w-kloss. Kan inte stå vittne för det du säger. Batteriet laddas upp, omän kanske långsammare, även under spelsessioner.

Skickades från m.sweclockers.com

Skrivet av CGI:

Jag hade en sådan i ett år på förra jobbet och hade den till allt möjligt. Det var en underbar liten dator, årets modell lär ju vara ännu trevligare. Det där hände aldrig mig, så antingen har du fel på batteriet eller på laddaren. Den laddas och den laddas ganska snabbt.

"If the battery is removed from a MacBook or MacBook Pro, the computer will automatically reduce the processor speed. This prevents the computer from shutting down if it demands more power than the A/C adaptor alone can provide."

Visa signatur

Blegh <3 ^^

Permalänk
Medlem
Skrivet av Anitramane:

"If the battery is removed from a MacBook or MacBook Pro, the computer will automatically reduce the processor speed. This prevents the computer from shutting down if it demands more power than the A/C adaptor alone can provide."

Är ju någon säkerhetsföreskrift du citerar (från var?). I praktiken så kan vi ju lugnt säga att man kan spela på en macbook med strömkabeln i utan att oroa sig för att batteriet ska ta slut.

Visa signatur

i9-10980XE ~4.6GHz | 128GB DDR4-3600 | ASUS WS X299 PRO | RTX 4070 Super, Founders Edition
i7-7820X 4.8GHz | 64GB DDR4-3200 | ASUS WS X299 PRO | RTX 3080, Founders Edition

Permalänk
Medlem
Skrivet av Anitramane:

Jag ^^!

"If the battery is removed from a MacBook or MacBook Pro, the computer will automatically reduce the processor speed. This prevents the computer from shutting down if it demands more power than the A/C adaptor alone can provide."

Underdimensionerad laddare är bara förnamnet

Undrar varför dom valt att göra så, förresten kan man överhuvudtaget ta bort batteriet på Macbook?
Dom nyare alltså.

Permalänk
Medlem

Funderar på att köpa mig en laptop, är det värt att vänta på dessa grafikkort eller att "fynda" en laptop med exempelvis 700-serien för ett förhoppningsvis bättre pris än vanligt då jag antar att de bör sjunka nu?

Permalänk
Entusiast
Skrivet av Friterad:

Undrar varför dom valt att göra så, förresten kan man överhuvudtaget ta bort batteriet på Macbook?
Dom nyare alltså.

För att en laddare som kan ge högre effekt blir större och de måste tänka på sin design. Har sagt det ett tag nu att Apple mer och mer satsar på design för funktion istället för att kombinera dem som tidigare. Deras senaste skärm är till exempel snygg att titta på och designmässigt matchar den senaste serien Macbooks men det är mycket pengar för en skärm som inte går att justera och som inte har några valmöjligheter när det gäller portar. En skärm för nästan 10 000 kr borde ju vara höj och sänkbar i alla fall och man kan tycka att den skulle ha några alternativ utöver en thunderbolt sladd. Var samma med generationen innan fast då hade du bara en miniDP och inget annat. Lite tråkigt för tidigare hade de en bra balans mellan design och funktion men nu blir det nästan bara design. Tror inte det är bra för deras varumärke i längden.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Skrivet av Teddis:

Är ju någon säkerhetsföreskrift du citerar (från var?). I praktiken så kan vi ju lugnt säga att man kan spela på en macbook med strömkabeln i utan att oroa sig för att batteriet ska ta slut.

Det är från ett Apple dokument

Skrivet av Friterad:

Undrar varför dom valt att göra så, förresten kan man överhuvudtaget ta bort batteriet på Macbook?
Dom nyare alltså.

Inte på retina

Visa signatur

Blegh <3 ^^

Permalänk
Medlem

MXM

MXM-kort brukar så vitt jag vet användas för Quadrokort. Så kretsen ska förmodligen användas till Geforce- och Quadrokort.

Permalänk
Medlem
Skrivet av Zotamedu:

Du missade helt poängen. Det är en väldigt stor principiell skillnad på att sälja en krets i olika generation då båda lagen generellt sänker priset och flyttar ner den i prestandastegen mot det Nvidia gör som är att sälja olika grafikkort med samma namn. Rebrands kan vara rätt ok om de görs rätt, det vill säga att kortet faktiskt blir billigare och får en lägre märkning. Då får man som sagt anstränga sig för att bli lurad för ingen vettig människa kan förvänta sig att man får mer prestanda för mindre pengar mellan två generationer. Dessutom kan den intresserade läsaren enkelt kolla upp vad som gäller.

Det Nvidia gör saknar dock helt ursäkter. Jag skriver Nvidia för jag har aldrig sett AMD göra det men någon annan får gärna rätta mig om jag har fel. Du som konsument har ingen möjlighet alls att kolla vilken version av GT 630 det sitter i datorn du köper. Det kan vara en GK208 eller en GF108. Kortet med Kepler har mer än dubbelt så hög teoretisk prestanda. Båda finns med DDR3 så det hjälper inte om tillverkaren har varit duktig och skrivit ut det vilket är hyfsat ovanligt men förekommer.

Väl medveten om det, men det var inte riktigt det jag kommentera. Klockfrekvens och minnestypsskillnader är stora nog att ha varit problem i mer än tio år. Det utan att som Nvidia blanda in olika arkitekturer med exakt samma modellnamn. AMD blandar där bara olika arkitekturer under samma modellserie. Hos AMD krävs det sådär modellnamn +100 för att hamna på en annan generation/arkitektur. Namnen kan inte riktigt användas för att avgöra prestanda hos någon. Hos AMD får du fortfarande stöd för andra features med sådär 60 som skillnad i en 5-siffrig nummerserie. Fast Nvidia har t.o.m. haft lite av den här problematiken på mid-range spelkort. T.ex. så långt tillbaka som 8800 GT/GTS serien som kom i en rad olika varianter med G80 och G92. Där G92 fick stöd för bättre videoavkodning. Med mera, men det enda som skilde modellnamnen där var om man tittade på minnesmängden. Eller tittade noga på detaljerade specifikationer. G92 hängde för den delen med enda till GTS 250 på desktopsidan. Är alltid problem om folk inte vet vad de får.

Permalänk
Entusiast
Skrivet av Petterk:

Väl medveten om det, men det var inte riktigt det jag kommentera. Klockfrekvens och minnestypsskillnader är stora nog att ha varit problem i mer än tio år. Det utan att som Nvidia blanda in olika arkitekturer med exakt samma modellnamn. AMD blandar där bara olika arkitekturer under samma modellserie. Hos AMD krävs det sådär modellnamn +100 för att hamna på en annan generation/arkitektur. Namnen kan inte riktigt användas för att avgöra prestanda hos någon. Hos AMD får du fortfarande stöd för andra features med sådär 60 som skillnad i en 5-siffrig nummerserie. Fast Nvidia har t.o.m. haft lite av den här problematiken på mid-range spelkort. T.ex. så långt tillbaka som 8800 GT/GTS serien som kom i en rad olika varianter med G80 och G92. Där G92 fick stöd för bättre videoavkodning. Med mera, men det enda som skilde modellnamnen där var om man tittade på minnesmängden. Eller tittade noga på detaljerade specifikationer. G92 hängde för den delen med enda till GTS 250 på desktopsidan. Är alltid problem om folk inte vet vad de får.

Fast både AMD och Nvidia har varit ungefär lika duktiga på att flytta gamla kretsar till nya serier och som sagt behöver det inte vara ett problem i sig. Generellt är det inte ett stort problem. Tittar du på stationära kort står det ofta vilken typ av RAM det är även på färdigbyggda datorer och om du är nyfiken på hur ett R7 250 presterar så kommer alla prestera likadant. Vill du däremot veta hur ett GT 640 presterar så har du ingen aning om din dator kommer prestera ens i närheten av samma.

Undrar om man kan få tag på någon från Nvidia och se om man kan få en förklaring till konceptet. Att GTX 680 blev GTX 770 och lite billigare eller 7970 GHz blev 280X och lite billigare kan man ju acceptera eftersom det flyttades ner ett steg på prestandaskalan och fick en lägre prislapp. Lite tråkigt men alternativet är att du ska försöka lista ut vilka kort som passar var i olika generationer och olika namnscheman. Det gör ingen glad.

Edit: Sagt och gjort. Jag jagade runt lite på Nvidias hemsida för att hitta någon att maila. Tyvärr har de inga mailadresser på sin hemsida så testade supportchatten. Fick prata med en trevlig herre vid namn Rahul som förklarade att Nvidia inte hade något ansvar då de inte tillverkade de korten själva utan det var helt upp till deras partnertillverkare. Fick en liten lista på kort som de själva tillverkar. Tydligen är det fritt fram för deras partnertillverkare att ändra bäst de vill. Jag frågade om inte det var en lite konstig affärsmodell då det ju är svårt för konsumenter att veta vad man får. Till svar fick jag att han bara jobbade med teknisk support och inte visste mer men han skulle vidarebefordra frågan till marknadsföringsavdelningen. Jag återkommer när jag får ett mail av dem. Tycker fortfarande det är lite udda att låta andra företag leka fritt med Nvidias varumärke på det viset. Ska bli intressant att se hur de motiverar det.

Edit 2: Fick nu svar via mail från någon annan. Svaret var dock detsamma igen. Det vill säga att Nvidia själva inte tillverkar kort så allt är upp till partnertillverkarna. Jag skickade tillbaks ett längre svar med exempel och frågade varför de korten står med på deras egen hemsida som referensdesign om det är partnertillverkarna som blandar ihop det.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24