本当に初期の作品の多くは、5ビットのボドーのコードで行われましたが、それらはすぐにかなりの制限になりました(唯一の32の可能な文字は、その基本的にのみ大文字を、そしていくつかの句読点が、数字のために十分ではない「空間」) 。
そこから、かなりの数のマシンが6ビット文字になりました。しかし、これはまだかなり不十分でした-大文字と小文字(英語)の文字と数字が必要な場合、句読点にさらに2文字しか残されていないため、ほとんどの場合、文字セットに含まれる文字は1つだけです。
ASCIIは7ビット文字セットを定義しました。これは、長い間多くの用途に「十分」であり、ほとんどの新しい文字セット(ISO 646、ISO 8859、Unicode、ISO 10646など)の基礎にもなっています。
バイナリコンピューターは、設計者が2のべき乗のサイズを作成するように動機付けます。とにかく「標準」の文字セットには7ビットが必要だったので、2のべき乗を得るためにもう1ビット追加するのはそれほど長くはありませんでしたより受け入れられました)。
それ以来、文字セットは16ビットと32ビットに移動しましたが、ほとんどの主流のコンピューターは、元のIBM PCにほぼ基づいています。繰り返しになりますが、市場が十分に8ビット文字で十分に満足しているため、PCが現在の支配レベルに達していない場合でも、とにかくすべての人がより大きな文字ですべてを行うかどうかはわかりません。
また、市場はかなり変化したことを付け加える必要があります。現在の市場では、文字サイズはソフトウェアよりもハードウェアによって定義されています。Windows、Javaなどは、かなり前に16ビット文字に移動しました。
現在、16ビットまたは32ビットの文字をサポートする上での障害は、16ビットまたは32ビットの文字自体に固有の難しさによるものであり、i18nの一般的なサポートの難しさによるものです。(たとえば)ASCIIでは、文字が大文字か小文字かを検出したり、2つの文字を変換したりすることは非常に簡単です。完全なUnicode / ISO 10646では、それは基本的には説明できないほど複雑です(標準が試してさえいないという点まで、説明ではなく表を提供します)。次に、一部の言語/文字セットでは、大文字/小文字の基本的な考え方さえ当てはまらないという事実を追加します。次に、それらの一部の文字を表示することでさえ、はるかに複雑であるという事実を追加します。
それはすべてのソフトウェアが非常に複雑であるため、ほとんどのソフトウェアは試してさえいません。状況は徐々に改善されつつありますが、ゆっくりとは運用上の言葉です。