AMD förbättrar prestanda och energieffektivitet med FSR4

Permalänk
Medlem
Skrivet av evil penguin:

Jag tror du gått på ett PR-trick. Termerna Nvidia använder för olika tekniker:

"G-SYNC ULTIMATE": kräver Gsync-modul, låst till Nvidia
"G-SYNC": kräver Gsync-modul, låst till Nvidia
"G-SYNC Compatible": ingen Nvidia-teknik, bara namnet Nvidia använder för VESA Adaptive Sync (precis som AMD använder namnet Freesync för samma teknik)

Notera den lite lömska namngivningen... "G-SYNC Compatible" är bara ett namn, men namnet är lite designat för att låta som att det är något G-SYNC-kompatibelt. Det är ju i själva verket en helt annan teknik än Gsync; en teknik som inte har något med Gsync att göra och som redan stöddes av både AMD och Intel innan Nvidia hittade på detta namn.

Dvs, det är inte att "vanliga" g-sync fungerar även med AMD och Intel så mycket som att VESA Adaptive Sync, som redan fungerade med AMD och Intel, nu även stöds av Nvidia.

Vad gäller att de kommer sluta med faktiskt Gsync så verkar den här nyheten antyda raka motsatsen: https://www.sweclockers.com/nyhet/39450-snart-far-fler-skarma...
Dvs, ny lösning för Gsync-moduler i samarbete med Mediatek.

Du har säkert koll på detta men för andras skull är det värt att notera att Freesync från AMD var öppet från början och grunden till det som senare blev VESA Adaptive Sync, en process som AMD välkomnade och drev på. Nvidia kort fungerade med Freesync märkta skärmar innan "Gsync compatible" märkningen kom.

AMDs konsekventa stöd för och främjande av öppna standarder är en av huvudanledningarna till att jag köper deras produkter över Nvidia / Intel.

Permalänk
Medlem
Skrivet av takeoninja:

Nvidia kort fungerade med Freesync märkta skärmar innan "Gsync compatible" märkningen kom.

Bara med traditionell "fast" synk? Införandet av namnet "Gsync compatible" sammanfaller såvitt jag vet med när Nvidia, sent omsider, införde stöd för VESA Adaptive Sync.

På samma sätt "fungerar" ju AMD-kort med faktiska G-sync-skärmar (inte att förväxla med senare "G-sync compatible"), bara att det enbart ger "fast" synk.

Skrivet av takeoninja:

Du har säkert koll på detta men för andras skull är det värt att notera att Freesync från AMD var öppet från början och grunden till det som senare blev VESA Adaptive Sync, en process som AMD välkomnade och drev på.

Skrivet av takeoninja:

AMDs konsekventa stöd för och främjande av öppna standarder är en av huvudanledningarna till att jag köper deras produkter över Nvidia / Intel.

Ja, det är principiellt att föredra i mitt tycke. Det jag poängterar är mer att G-sync *inte* öppnats upp, vilket var vad som lades fram från början.

Visa signatur

Desktop: Ryzen 5800X3D || MSI X570S Edge Max Wifi || Sapphire Pulse RX 7900 XTX || Gskill Trident Z 3600 64GB || Kingston KC3000 2TB || Samsung 970 EVO Plus 2TB || Samsung 960 Pro 1TB || Fractal Torrent || Asus PG42UQ 4K OLED
Proxmox server: Ryzen 5900X || Asrock Rack X570D4I-2T || Kingston 64GB ECC || WD Red SN700 1TB || Blandning av WD Red / Seagate Ironwolf för lagring || Fractal Node 304

Permalänk
Medlem
Skrivet av takeoninja:

Du har säkert koll på detta men för andras skull är det värt att notera att Freesync från AMD var öppet från början och grunden till det som senare blev VESA Adaptive Sync, en process som AMD välkomnade och drev på. Nvidia kort fungerade med Freesync märkta skärmar innan "Gsync compatible" märkningen kom.

AMDs konsekventa stöd för och främjande av öppna standarder är en av huvudanledningarna till att jag köper deras produkter över Nvidia / Intel.

https://www.sweclockers.com/artikel/26863-teknikstund-nvidia-...

"Den fick snart en konkurrent från AMD i form av Freesync. En teknik AMD istället baserade på öppen standard i form av VESA Adaptive Sync från Displayport version 1.2a. En teknik som i första hand togs fram för att spara energi hos bärbara enheter genom att dynamisk ändra panelens frekvens."

Funktionen fanns redan i Vesa standarden när AMD satte sitt Freesync namn på den.

Permalänk
Medlem
Skrivet av MarkSix:

https://www.sweclockers.com/artikel/26863-teknikstund-nvidia-...

"Den fick snart en konkurrent från AMD i form av Freesync. En teknik AMD istället baserade på öppen standard i form av VESA Adaptive Sync från Displayport version 1.2a. En teknik som i första hand togs fram för att spara energi hos bärbara enheter genom att dynamisk ändra panelens frekvens."

Funktionen fanns redan i Vesa standarden när AMD satte sitt Freesync namn på den.

Det var dock AMD som tog fram förslaget om att inkludera tekniken i DP 1.2a. Så det var inte riktigt så enkelt som att de bara satte sitt namn på en existerande teknik, de var även med och standardiserade tekniken.

Permalänk
Skrivet av Swedishchef_90:

De ligger väl på samma generation? Vad pratar du om....
7000 serien 5nm

4090 5nm

Vad gör att nvidia är en generation före?

Rätt bra om du läser hela tråden och vad alla skriver innan du svarar. Syftar på det som flera skrivit om i tråden, att Nvidia ligger runt en 1 generation eller så före när det gäller AI på konsumentsidan.

Permalänk
Medlem
Skrivet av Potato PC:

Rätt bra om du läser hela tråden och vad alla skriver innan du svarar. Syftar på det som flera skrivit om i tråden, att Nvidia ligger runt en 1 generation eller så före när det gäller AI på konsumentsidan.

Inte så jag uppfattade ditt svar.
AMDs Mi300 ligger efter på det som verkar efterfrågas mot Nvidias H100, här har amd över 2ggr mer vram samt nya minnen.

På konsumentsidan har de samma generation MEN 1.5-2 ggr efter i prestanda

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Skrivet av Swedishchef_90:

Inte så jag uppfattade ditt svar.
AMDs Mi300 ligger efter på det som verkar efterfrågas mot Nvidias H100, här har amd över 2ggr mer vram samt nya minnen.

På konsumentsidan har de samma generation MEN 1.5-2 ggr efter i prestanda

Ja, jag vet att de har samma generation. När jag skriver 1 eller så generationer före så menar jag skillnad i prestanda och inte i att man tekniskt ligger en generation före (5 vs 7 nm).

Permalänk
Medlem
Skrivet av perost:

Det var dock AMD som tog fram förslaget om att inkludera tekniken i DP 1.2a. Så det var inte riktigt så enkelt som att de bara satte sitt namn på en existerande teknik, de var även med och standardiserade tekniken.

Om vi skall gräva ner oss i detta… ”Adaptive Sync” kom först till embedded DisplayPort, eDP, redan 2009. eDP är det som används i en bärbar för att skicka en signal från GPU till den inbyggda skärmen, och på samma sätt i telefoner. Den var avsedd att ändra uppdateringsfrekvensen väldigt sällan för att spara energi. Om man körde en film med 30 bilder per sekund så kunde man dra ner uppdateringsfrekvensen på skärmen till 30 bilder per sekund istället för 60 för att spara energi. Hade man 24 bilder per sekund kunde man dra ner den dit, för att både spara energi och slippa 3:2 pulldown om det var interlaced skit. Apple gjorde detta på iPhone och iPad redan innan Nvidia lanserade G-sync (även om de garanterat hade börjat jobba på sin lösning innan Apple lanserade).

Vad AMD gjorde var att helt enkelt använda den här funktionen till att ändra uppdateringsfrekvensen varje frame. Det var iofs tillåtet enligt standarden, men inte riktigt avsikten, och det ingick inte heller i ”riktiga” DP förrän 2014. Detta kallade AMD Freesync, och började marknadsföra skärmar med det namnet för att visa vilka som verkligen klarade av den funktionen. Det är detta som gör att väldigt många tidiga Freesync-skärmar inte kan gå lägre än 40Hz eller 48Hz - man utnyttjade en funktion som var avsedd att matcha framerate på en film på bärbara, och som bara råkade finnas i scalern på lösa skärmar för att de delade hårdvara i en del fall.

Visa signatur

5900X | 6700XT

Permalänk
Medlem
Skrivet av takeoninja:

AMDs konsekventa stöd för och främjande av öppna standarder är en av huvudanledningarna till att jag köper deras produkter över Nvidia / Intel.

AMD tjänar 90% av sina pengar på X86 precis som Nvidia håvar in på CUDA, dvs ej öppna teknologier. Båda dessa företag använder sig av proprietär teknik när det passar, och öppen när de passar. Ser inte att AMD skulle vara speciellt mycket bättre än varken Nvidia eller Intel här. Har man monopol-ställning utnyttjar man det.

Permalänk
Medlem
Skrivet av Lussarn:

AMD tjänar 90% av sina pengar på X86 precis som Nvidia håvar in på CUDA, dvs ej öppna teknologier. Båda dessa företag använder sig av proprietär teknik när det passar, och öppen när de passar. Ser inte att AMD skulle vara speciellt mycket bättre än varken Nvidia eller Intel här. Har man monopol-ställning utnyttjar man det.

Cyniskt synsätt, historien visar att AMD har en betydligt större tendens till öppna teknologier än vad Nvidia har

Visa signatur

CPU: R7 5800X3D | GPU: XFX 6900XT Merc 319 | MB: Gigabyte X570 PRO-I| RAM: 2x16 Corsair LPX@3600MHz CL18|Cooling: Scythe Ninja 5 (Noctua A12x25)|PSU: Corsair SF750|SSD: Samsung 970 EVO Plus 1TB + Corsair MP510 4TB + Samsung 850 EVO 2TB + Samsung 850 PRO 2TB|CASE:NR200P

Permalänk
Medlem
Skrivet av sweisdapro:

Cyniskt synsätt, historien visar att AMD har en betydligt större tendens till öppna teknologier än vad Nvidia har

Enligt nvidia har dem 750 open source project
https://developer.nvidia.com/open-source

Så vet inte om det stämmer...

AMD har 13 officiella
https://www.amd.com/en/corporate/research/open-source.html

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem
Skrivet av MarkSix:

https://www.sweclockers.com/artikel/26863-teknikstund-nvidia-...

"Den fick snart en konkurrent från AMD i form av Freesync. En teknik AMD istället baserade på öppen standard i form av VESA Adaptive Sync från Displayport version 1.2a. En teknik som i första hand togs fram för att spara energi hos bärbara enheter genom att dynamisk ändra panelens frekvens."

Funktionen fanns redan i Vesa standarden när AMD satte sitt Freesync namn på den.

Nä inte riktigt. Kolla här:

https://www.vesa.org/wp-content/uploads/2014/07/VESA-Adaptive...

Notera vilka som skrivit det. AMD var tongivande i utformningen av VESA standarden. Därför Freesync direkt var kompatibelt.

Permalänk
Medlem
Skrivet av Swedishchef_90:

Enligt nvidia har dem 750 open source project
https://developer.nvidia.com/open-source

Så vet inte om det stämmer...

AMD har 13 officiella
https://www.amd.com/en/corporate/research/open-source.html

Vilket inte var helt vad vi diskuterade, eller menar du att för att Nvidia har mycket open source (en hel del ser ut att röra CUDA, vilket fortfarande bara gynnar Nvidia i slutändan) så spelar det inte någon roll att de låser ner G-sync och DLSS (något som inte AMD gjort med Freesync och FSR, vilket gynnar även Nvidia-kort)

Visa signatur

CPU: R7 5800X3D | GPU: XFX 6900XT Merc 319 | MB: Gigabyte X570 PRO-I| RAM: 2x16 Corsair LPX@3600MHz CL18|Cooling: Scythe Ninja 5 (Noctua A12x25)|PSU: Corsair SF750|SSD: Samsung 970 EVO Plus 1TB + Corsair MP510 4TB + Samsung 850 EVO 2TB + Samsung 850 PRO 2TB|CASE:NR200P

Permalänk
Medlem
Skrivet av sweisdapro:

Cyniskt synsätt, historien visar att AMD har en betydligt större tendens till öppna teknologier än vad Nvidia har

Skrivet av sweisdapro:

Vilket inte var helt vad vi diskuterade, eller menar du att för att Nvidia har mycket open source (en hel del ser ut att röra CUDA, vilket fortfarande bara gynnar Nvidia i slutändan) så spelar det inte någon roll att de låser ner G-sync och DLSS (något som inte AMD gjort med Freesync och FSR, vilket gynnar även Nvidia-kort)

Läs din egen kommentar

"historien visar att AMD har en betydligt större tendens till öppna teknologier än vad Nvidia har"

Uppenbart så visar historien tvärtom, om vi ser på gjorda open source saker, dock har amd en vana att skicka ut open source då de inte har mjukvarukompetensen typ Rocm, fsr

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem
Skrivet av Swedishchef_90:

Läs din egen kommentar

"historien visar att AMD har en betydligt större tendens till öppna teknologier än vad Nvidia har"

Uppenbart så visar historien tvärtom, om vi ser på gjorda open source saker, dock har amd en vana att skicka ut open source då de inte har mjukvarukompetensen typ Rocm, fsr

Jag sade inte specifikt open source, utan Öppna Teknologier, vilket jag tyckte var ganska tydligt inte bara ska tolkas som open source, utan även då saker som Freesync och FSR som ju är fritt fram att använda på dina Nvidia-kort (till skillnad från G-sync och DLSS).
Det handlar ju inte heller bara om mängden öppen mjukvara, utan vilken typ av mjukvara du väljer att låsa och göra öppen (se, än en gång, Freesync/G-sync, FSR/DLSS, Linux-drivare, etc)

Visa signatur

CPU: R7 5800X3D | GPU: XFX 6900XT Merc 319 | MB: Gigabyte X570 PRO-I| RAM: 2x16 Corsair LPX@3600MHz CL18|Cooling: Scythe Ninja 5 (Noctua A12x25)|PSU: Corsair SF750|SSD: Samsung 970 EVO Plus 1TB + Corsair MP510 4TB + Samsung 850 EVO 2TB + Samsung 850 PRO 2TB|CASE:NR200P

Permalänk
Medlem
Skrivet av sweisdapro:

Jag sade inte specifikt open source, utan Öppna Teknologier, vilket jag tyckte var ganska tydligt inte bara ska tolkas som open source, utan även då saker som Freesync och FSR som ju är fritt fram att använda på dina Nvidia-kort (till skillnad från G-sync och DLSS).
Det handlar ju inte heller bara om mängden öppen mjukvara, utan vilken typ av mjukvara du väljer att låsa och göra öppen (se, än en gång, Freesync/G-sync, FSR/DLSS, Linux-drivare, etc)

Tänk om AMD hade fått sin vilja igenom med FSR och dödat DLSS, som dom faktiskt hade tänkt. Då hade det blivit stopp i maskineriet och ingen AI uppskalning osv, tycker du verkligen det hade varit bra?

Som det ser ut nu kan säkert 90% av alla som spelar ett nyare UE5 spel som kräver uppskalning faktiskt köra med DLSS och därmed få den bästa uppskalaren, AMD eldas i baken så dom kommer i kapp. Nvidia trycker på ännu hårdare, det är bra för utvecklingen.

När man kommer så långt så det inte längre går att hitta på något bättre, typ ljudkort (och till viss del adaptive sync), ja då kan man låsa upp det i en standard som tar år att utveckla vidare i. För tillfället går det fort framåt med uppskalning, och det gör det för att företag slåss mot varandra. Det är konkurrens och ses normalt som något bra.

Permalänk
Medlem
Skrivet av sweisdapro:

Jag sade inte specifikt open source, utan Öppna Teknologier, vilket jag tyckte var ganska tydligt inte bara ska tolkas som open source, utan även då saker som Freesync och FSR som ju är fritt fram att använda på dina Nvidia-kort (till skillnad från G-sync och DLSS).
Det handlar ju inte heller bara om mängden öppen mjukvara, utan vilken typ av mjukvara du väljer att låsa och göra öppen (se, än en gång, Freesync/G-sync, FSR/DLSS, Linux-drivare, etc)

Inget av det som Amd har släppt som "öppen teknologi" har ju dock varit marknadsledande.
VESA uppfann freesync som redan nämnts, om än standardiserades ihop med amd.

Fsr är ju så kasst hittils att de är tvugna att börja härma nvidia, något som inte skulle hänt utan att dlss var bättre.

Nvidias Linux drivers är open source.

Enbart öppna teknologier gör ju att innovation försvinner. Varför forska om andra gör det åt en?

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem
Skrivet av Swedishchef_90:

Enbart öppna teknologier gör ju att innovation försvinner. Varför forska om andra gör det åt en?

Framförallt blir det mycket kommitté, och det tar tid med olika företag som vill åt olika håll. Det kan vara bra om man pratar PCI-express bussar eller stora delar av Linux där det måste finnas utomordentligt stor kompabilitet, men i spel-bibliotek är det andra prioriteringar som kommer överst. I grund till PC är det X86, Windows, DirectX och något grafikkort kort med propreitär drivis, det är inte mycket open source eller öppna standarder där inte.

Att ett open source (men inte öpen standard) FSR på något sätt skulle göra en jätteskillnad i ett för övrigt rätt slutet ekosystem, nja säger jag.

Permalänk
Medlem
Skrivet av Lussarn:

Tänk om AMD hade fått sin vilja igenom med FSR och dödat DLSS, som dom faktiskt hade tänkt. Då hade det blivit stopp i maskineriet och ingen AI uppskalning osv, tycker du verkligen det hade varit bra?

Som det ser ut nu kan säkert 90% av alla som spelar ett nyare UE5 spel som kräver uppskalning faktiskt köra med DLSS och därmed få den bästa uppskalaren, AMD eldas i baken så dom kommer i kapp. Nvidia trycker på ännu hårdare, det är bra för utvecklingen.

När man kommer så långt så det inte längre går att hitta på något bättre, typ ljudkort (och till viss del adaptive sync), ja då kan man låsa upp det i en standard som tar år att utveckla vidare i. För tillfället går det fort framåt med uppskalning, och det gör det för att företag slåss mot varandra. Det är konkurrens och ses normalt som något bra.

Jag tycker inte att AI-uppskalning är något självklart bra, däremot är det inte dåligt att spel till stor del implementerar båda teknikerna som det är nu så att de som vill uppskala kan göra det.
#native4thewin

Visa signatur

CPU: R7 5800X3D | GPU: XFX 6900XT Merc 319 | MB: Gigabyte X570 PRO-I| RAM: 2x16 Corsair LPX@3600MHz CL18|Cooling: Scythe Ninja 5 (Noctua A12x25)|PSU: Corsair SF750|SSD: Samsung 970 EVO Plus 1TB + Corsair MP510 4TB + Samsung 850 EVO 2TB + Samsung 850 PRO 2TB|CASE:NR200P

Permalänk
Medlem
Skrivet av sweisdapro:

Jag tycker inte att AI-uppskalning är något självklart bra, däremot är det inte dåligt att spel till stor del implementerar båda teknikerna som det är nu så att de som vill uppskala kan göra det.
#native4thewin

Förstår inte hur folk som förespråkar ''native'' tänker kring framtiden. Vill nu inte ha strålspårning etc, eller hur tänker ni att det ska drivas?

Visa signatur

''Man får betala för kvalitet och stabilitet'' //Pantburk 2024.

Permalänk
Medlem
Skrivet av sweisdapro:

Jag tycker inte att AI-uppskalning är något självklart bra, däremot är det inte dåligt att spel till stor del implementerar båda teknikerna som det är nu så att de som vill uppskala kan göra det.
#native4thewin

Yes för native är så "sann" 😅 stäng av alla AA också isåfall

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem
Skrivet av Ryzer:

Förstår inte hur folk som förespråkar ''native'' tänker kring framtiden. Vill nu inte ha strålspårning etc, eller hur tänker ni att det ska drivas?

kraftigare GPU?

Visa signatur

CPU: R7 5800X3D | GPU: XFX 6900XT Merc 319 | MB: Gigabyte X570 PRO-I| RAM: 2x16 Corsair LPX@3600MHz CL18|Cooling: Scythe Ninja 5 (Noctua A12x25)|PSU: Corsair SF750|SSD: Samsung 970 EVO Plus 1TB + Corsair MP510 4TB + Samsung 850 EVO 2TB + Samsung 850 PRO 2TB|CASE:NR200P

Permalänk
Medlem
Skrivet av Swedishchef_90:

Yes för native är så "sann" 😅 stäng av alla AA också isåfall

mer sant än AI-pixlar i alla fall

Visa signatur

CPU: R7 5800X3D | GPU: XFX 6900XT Merc 319 | MB: Gigabyte X570 PRO-I| RAM: 2x16 Corsair LPX@3600MHz CL18|Cooling: Scythe Ninja 5 (Noctua A12x25)|PSU: Corsair SF750|SSD: Samsung 970 EVO Plus 1TB + Corsair MP510 4TB + Samsung 850 EVO 2TB + Samsung 850 PRO 2TB|CASE:NR200P

Permalänk
Medlem
Skrivet av sweisdapro:

mer sant än AI-pixlar i alla fall

Nope, taa= hur fsr och AI pixlar görs.

Nedskalar och sedan lägger på flera lager för att fylla på och jämna ut kanter enlig algoritmer

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem
Skrivet av Swedman18:

Enligt vilket påhitt?

Kolla börsvärdet. Det indikerar ganska kraftigt vilket bolag som i dagsläget är starkast på marknaden.

Visa signatur

Vänligen,
Gabe

Permalänk
Medlem
Skrivet av Gabe:

Kolla börsvärdet. Det indikerar ganska kraftigt vilket bolag som i dagsläget är starkast på marknaden.

Nej börsvärde är framtidstro. Sällan nuvarande ståndpunkt

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem
Skrivet av Swedishchef_90:

Nej börsvärde är framtidstro. Sällan nuvarande ståndpunkt

Bevisligen uppvisar Nvidias tekniker en efterfrågan som många vill ha, vilket förklarar det uppblåsta börsvärdet. Anledningen till att många företag eftersträvar deras produkter är att de erbjuder högre prestanda. Det innebär att de ligger i framkant med sin hårdvaruteknik.

Börsvärdet grundar sig i hög grad på historisk avkastning de senaste åren, vilket visar på lönsamhet över tid, samt en långsiktig bedömning av värdet både i nuet och för framtiden. För större företag innebär detta generellt mindre spekulation kring framtida potential. För mindre start-upföretag styrs börsvärdet nästan uteslutande av marknadens framtida förväntningar, vilket du belyser.

Visa signatur

Vänligen,
Gabe