1
非決定性から余分な力を獲得しないコンテキストフリー言語用のマシン
計算のマシンモデルを検討する場合、通常、チョムスキー階層は(順番に)、有限オートマトン、プッシュダウンオートマトン、線形境界オートマトン、およびチューリングマシンによって特徴付けられます。 最初と最後のレベルでは1(正規言語と帰納的可算言語)、それは我々が決定論的または非決定的なマシンを考慮するかどうかのモデルのパワーに違いはない、すなわちのDFAは、NFAのに相当し、DTMのは非関税措置と同等である2。 ただし、PDAとLBAの場合、状況は異なります。決定論的PDAは、非決定論的PDAよりも厳密に小さい言語セットを認識します。また、決定論的LBAが非決定論的LBAと同程度に強力であるかどうかも重要な未解決の問題です[1]。 これは私の質問を促します: 文脈自由言語を特徴付けるが、非決定論が余計な力を加えない機械モデルはありますか?(そうでない場合、この理由を示唆するCFLのプロパティがありますか?) (私には)文脈自由言語が何らかの形で非決定性を必要とすることは証明できないと思われますが、決定論的なマシンで十分な(既知の)マシンモデルはないようです。 拡張の質問は同じですが、状況依存言語の場合です。 参照資料 S.-Y. 黒田、「言語のクラスと線形境界オートマトン」、情報と制御、7:207-223、1964。 脚注 コメントに対する補足的な質問ですが、チョムスキー階層のレベル(セットを含めることで順序付けされている)が0から3ではなく、3から0になっている理由はありますか? 明確にするために、私は認識のみできる言語について話している。明らかに、複雑さの問題は、このような変更によって根本的な影響を受けます。