1ビットは、0と1で2種類だからって理由で、1ビットで2種類の文字が表せるってのが理解できない。 0と1は、0と1で、文字を表してるわけではないじゃん?
0:あ 1:ぬ って対応表を内部にもっとるだけやが。
そうそう。0だの1だのってのは信号でしかないので、それをどう解釈するかはまた別の話。それが「表現する」ってことやね。 0=男 1=女 でもいいし。どういう解釈を与えるにしろ、表せ...
だから、問題文に、1バイトで2種類の文字が表せるという前提を書いておかないと、わからなくない? だって、1文字をあらわすのに7ビット必要なものだって8ビット必要なものだってあ...
「1ビットで2種類の文字(情報)が表せる」というのはビットの定義みたいなもんなので、そこを明言したところで問題は変わらないよ。 元々の問題は2バイトで1文字を表す、と書いて...
わかった! コンピューターでの文字の表し方を知らなかったから、ちんぷんかんぷんだったんだ!
3ビットで表せる文字(二進数表現:111)と、4ビットで表せる文字(二進数表現:1111)があるとして 111111111111というデータが流れてきたときこれをどう読むんだ? 「111 111 111 111」の四文...
あるいは文字の開始-終了符号がついてるとかね そういう条件はなんらかのテストなら書いてあるよね
正式な資格試験とかだったりだと そういうの書いてあると思うけど
1ビットは、0と1で2種類だからって理由で、 前提から違うぞ。1ビットで2種類の情報を表現できるだけで、それを0と1に割り振らなければならないというルールはないぞ。