AI効果は知能の悪いテストによって引き起こされますか?
ウィキペディアによると ... AI効果は、見物人が人工知能プログラムの動作を、それが本当の知能ではないと主張することによって割り引いたときに発生します。 Pamela McCorduck氏は、次のように書いています。「人工知能分野の歴史の一部として、誰かがコンピューターに何かをさせる方法を見つけるたびに、優れたチェッカーをプレイし、単純だが比較的非公式な問題を解決します」と批評家の合唱がありました。 「[1] AI研究者のロドニー・ブルックスは、「その一部を見つけ出すたびに、それが不思議なことをやめます。 『ああ、それは単なる計算だ』と言っています」[2] ウィキペディアのページでは、見物人がAIプログラムを「割引」する理由を説明できるいくつかの異なる理由を提案しています。ただし、これらの理由は、人間がAIプログラムの動作を「割引き」する際に間違いを犯していること、およびこれらのAIプログラムが実際にはインテリジェントである可能性があることを示唆しているようです。人間が間違いを犯しているが、AIプログラムの振る舞いを「割引き」しているのではないという別の議論をしたいと思います。 次の状況を考えます。Xを実行できるマシンを構築したい(Xは、インテリジェンスのようないくつかの特性です)。マシンにそのX基準があるかどうかを直感的に評価できます。しかし、私はXが実際に何の良い定義がありませんです。私ができることは、何かにXがあるかどうかを識別することだけです。 しかし、Xを持っている人ならYもできると思います。ですから、Yができるマシンを作れば、きっとXを備えたマシンができました。 Yを実行できるマシンを構築した後、自分のマシンにXがあるかどうかを調べます。したがって、私のマシンにはXがありません。Yを実行できるマシンはかっこいいですが、本当に欲しいのはXを備えたマシンです。描画ボードに戻って、Xに到達するための新しいアイデアを考えます。 ホワイトボードに数時間書いた後、私はXを持っている人がZを行うことができることに気づきました。もちろんです!私はZを実行できる新しいマシンを構築しようとしています。Zを実行できる場合は、Xが必要です。 Zを実行できるマシンを作成した後、Xがあるかどうかを確認します。そして、私は製図板に戻り、サイクルが繰り返され、繰り返されます... 基本的に、人間はプロキシ測定を介してエンティティにインテリジェンスがあるかどうかを判断しようとしていますが、これらのプロキシ測定は潜在的に欠陥があります(実際にインテリジェンスを持たなくてもこれらのプロキシ測定を満たすことができるため)。インテリジェンスを定義し、それを正確に測定できるテストを設計する方法を知るまでは、インテリジェンスを備えたマシンを構築することはほとんどありません。つまり、AI効果が発生するのは、人間がプログラムを「インテリジェント」ではないと見なすためではなく、人間が「知性」を定義する方法を知らないためです。 この引数は有効ですか、それとも正しいですか?そうでなければ、なぜでしょうか?