Jag studerar på högskola och borde kunna det här egentligen men känner mig dum som ett spån just nu. Uppgiften är:
En Ethernet ram är 72 bytes lång och skickas mellan två datorer i ett 100 Mbps LAN. Kabeln mellan datorerna är 100m lång och signalerna går med 2/3 av ljusets hastighet som är avrundad till 3*10^8m/s. Hur lång tid tar det från att första biten skickas tills sista biten kommit fram till den mottagande datorn.
Jag har tänkt (72*8 / 100 *10^6) * (100 / 2*10^8) vilket skulle bli 2,88 Piko sekunder. Stämmer min uträkning? Jag tycker rent reflexmässigt att värdet kanske borde vara lite större.
Edit: sorry hade en släng av dyslexi när jag skrev frågan första gången.
Till att börja med så räknar vi ut hur lång tid det tar från att första biten skickas tills dess att den kommer fram.
Det tar 100m / ( (2/3) * 3*10^8 m/s ) = 1/2 * 10^-6 s = 0.5us = 500 ns.
Sedan så räknar vi ut hur hur lång tid det tar från att första biten skickas tills att sista biten skickas. För att göra detta måste vi veta hur snabbt en enskild bit skickas vilket inte framgår av uppgiften.
Om vi antar att det är vanligt 100Mbit/s Ethernet, så tar det 1s / (100*10^6 bit/s ) = 1*10^-8 bit/s = 10ns/bit.
72 bitar tar då 72* 10ns/bit = 720ns att skicka.
Totala tiden från att första biten skickas tills att sista kommer fram blir alltså 500ns + 720 ns = 1220 ns = 1.22us
(Tilläggas kan att Ethernet ramar inte är 72 bitar långa, utan minimistorleken på ett Ethernet paket är större än så, men det är en annan fråga.)
Vilket är en mycket rimligare storlek.
Mina uträkningar behöver då naturligtvis justeras, men det överlåter jag åt dig att göra - det är ändå en rätt trivial justering.