@Mitne, czemu problemy.... po prostu wstawiasz kolejny znak. Pytanie - jak wygląda 0?
Przy tym, że komputery i tak operują na bitach, na niewiele się to zdaje. Owszem, jest w stanie nieco skrócić zapis, ale i do liczenia będzie tyle samo. W pewnym sensie to jest jakby czterdziestobitowa definicja jednego bajta. Czyli by przesłać "1" i tak trzeba wysłać 39 zer....
W systemie szesnastkowym do przesłania takiej wartości potrzeba zaledwie 16 bitów, więc przesłanie wartości decymalnej 1 = 3x (0000) i 000 oraz 1. Czyli znaczenie ma tylko przy skróceniu samego zapisu, ale sam proces liczenia by się wydłużał.
wiennio
2
Ijon_Tichy
1
wiennio
0
Ijon_Tichy
1
wiennio
0
Mitne
1
qrcok
0
Przy tym, że komputery i tak operują na bitach, na niewiele się to zdaje. Owszem, jest w stanie nieco skrócić zapis, ale i do liczenia będzie tyle samo. W pewnym sensie to jest jakby czterdziestobitowa definicja jednego bajta. Czyli by przesłać "1" i tak trzeba wysłać 39 zer....
W systemie szesnastkowym do przesłania takiej wartości potrzeba zaledwie 16 bitów, więc przesłanie wartości decymalnej 1 = 3x (0000) i 000 oraz 1. Czyli znaczenie ma tylko przy skróceniu samego zapisu, ale sam proces liczenia by się wydłużał.
tow_wieslaw
0
Katakume
0
tow_wieslaw
0