タグ付けされた質問 「philosophy」

人工知能の哲学的側面に関する質問について。人間/ AIの値の調整、人工意識、AGIの実現可能性、AIの倫理、新ルディズムなどのトピック。

1
人工一般知能に類推は必要ですか?
アナロジーはコミュニケーションにおいて非常に強力です。既知のドメインにマッピングするだけで、ドメインの知識がない人々に複雑な概念を説明できます。ホフスタッターはそれらが重要であると言い、ダイクストラは彼らが危険だと言います。とにかく、アナロジーは人間のコミュニケーションの概念を伝達するための強力な方法と見なすことができます(伝達学習と言っていいでしょうか?)。 私はCase-Based Reasoningなどのレガシーな作業を知っていますが、AIのアナロジーメカニズムに関する最近の作業はありません。 AGIに類推が必要かどうか、およびそれらがどれほど重要かについてコンセンサスはありますか? 具体的な作品や出版物で回答を裏付けることを検討してください。

1
AIは苦しむことを学ぶことができますか?
私は最初に「AIは苦しむ可能性があるか?」ということを念頭に置いていました。苦しみは人間にとって重要です。かかとにダメージを与えていると想像してください。痛みがなければ、あなたはそれを害し続けます。AIについても同様です。しかし、私は自分に「ちょっと待ってください。すでに存在しています。表示されるのはエラーと警告です」と言いました。苦しみと同じ目的があると言えます。しかし、何か足りないものを感じました。痛みを感じる。エラーとバグは単なるデータです。ロボットが進化するために機械学習と遺伝的プログラミングを使用できるとしましょう。 AIは苦しむことを学ぶことができますか?単なる情報として知っているだけではありません。

3
人間は意識的または知覚的なAIを傷つけることができますか?
意識的なAIが可能である場合、AIを拷問(または傷つけ)するために何をしているのかを知っている人も可能ですか?これは回避できますか?どうやって? この質問は、人間と同じくらい意識的なロボットではなく、コンピュータベースのAIを扱います(これは質問の前提です)。質問は、違法ダウンロードと同じくらい追跡が困難であるが、倫理的にははるかに悪い犯罪をどのように防ぐことができるのか疑問に思います。ほとんどの人がロボットに親切で共感しているにもかかわらず、常に悪い人がいるので、一般的な良心に頼ることはうまくいかないことに注意してください。



2
IQを人間の知能の測定として使用する場合、機械の知能の測定としても使用できますか?
人間のように、機械の知能の指標としてIQを使用した場合、現時点で最もインテリジェントなAIシステムのIQは何でしょうか。IQでない場合、インテリジェンスをマシンと、または1つのマシンを別のマシンとどのように比較するのが最善ですか? この質問は、マシンのIQを測定できるかどうかを尋ねるものではありませんが、IQが最も好ましい、または一般的な知能の測定方法である場合、人工知能は、人間の知能を測定する最も一般的な方法とどのように比較されますか。多くの人は、新車のインテリジェント度や他のタイプのインテリジェントマシンに関するチューリングテストの関連性を理解していない可能性があります。

5
自動運転車がAIとして分類されるのはなぜですか?
自動運転車は人工知能とどのように関連していますか?人工知能とは、人間の心の状態をコピーして、同じようにタスクを実行できるときだと思います。しかし、自動運転車は、その環境のために動作するルールベースのマシンだけではないのですか?彼らは自己を認識しておらず、これまで経験したことのない状況で行動するための良い方法を選択することはできません。 私は多くの人がAIについて話すときに自動運転車にしばしば言及することを知っていますが、これらが関連しているとは本当に確信していません。私はAIが何であるかについて非常に厳密な理解を持っているか、

3
AIについて議論するときに擬人化言語を使用する必要がありますか?
英語は人工知能について話すのにあまり適していません。そのため、AIが実際に「何をしているのか」について人間が互いに通信することは困難です。したがって、機械の内部特性が人類の内部特性に似ていない場合でも、機械の動作を説明するために「人間に似た」用語を使用する方が理にかなっています。 擬人化言語はテクノロジーで多く使用されていましたが(コンピュータープログラマーがテクノロジーを説明するときに擬人化用語を使用することを正当化しようとするハッカーの辞書の定義である擬人化を参照してください)、AIが進歩し続けるにつれて、技術的な聴衆と非技術的な聴衆の両方とのコミュニケーションに擬人化言語を使用する。私たちが何をしているのか説明できない場合、どうすればAIをうまく活用できますか? 関連記事のリストを表示するアルゴリズムを開発したいとします。アルゴリズムが素人にどのように機能するかを説明する方法は2つあります。 非常に擬人化 -アルゴリズムはWebサイト上のすべての記事を読み取り、見ている記事に非常に類似している記事を表示します。 非常に技術的 -アルゴリズムは各記事を「単語のバッグ」に変換し、各記事の「単語のバッグ」を比較して、どの記事が最も一般的な単語を共有しているかを判断します。バッグの中で最も多くの単語を共有する記事は、ユーザーに表示されるものです。 明らかに、#2は#1より「技術的に正しい」かもしれません。アルゴリズムの実装を詳しく説明することにより、私たちが大きく同意しない出力を生成した場合に、アルゴリズムを修正する方法を誰かが理解しやすくなります。 しかし、#1はより読みやすく、エレガントで、理解しやすいです。アルゴリズムが実行する方法ではなく、アルゴリズムが実行していることの一般的な意味を提供します。コンピューターが記事を「読み取る」方法の実装の詳細を抽象化することで、アルゴリズムを実際のシナリオで使用することに集中できます。 したがって、ステートメント1で強調されている擬人化言語を使用したほうがよいでしょうか。そうでない場合、なぜでしょうか? PS:答えが私が話している対象者に依存する場合(非技術者は#1を好むかもしれませんが、技術者は#2を好むかもしれません)、それも私に知らせてください。


2
検索と学習の違いは何ですか?
私は記事に出くわした苦い真実を経て、2分の論文 YouTubeチャンネル。リッチサットンさんのコメント... 苦いレッスンから学ばなければならないことの1つは、汎用メソッドの強力な能力であり、利用可能な計算が非常に大きくなっても、増加する計算に応じてスケーリングし続けるメソッドです。このように恣意的に拡張されているように見える2つの方法は、検索と学習です。 ここでの検索と学習の違いは何ですか?私の理解は、学習は検索の一種であり、ディープラーニングのコンテキストでの損失関数を最小化するデータの表現を繰り返し検索することです。

2
「説明の権利」はどのように合理的ですか?
電子に興味の最近の景気改善がなされてきたX plainable A rtificial I ntelligence(XAI)。DARPAページに記載されているXAIの使命は次のとおりです。 Explainable AI(XAI)プログラムは、次のような機械学習手法のスイートを作成することを目的としています。 高レベルの学習パフォーマンス(予測精度)を維持しながら、より説明可能なモデルを作成します。そして 人間のユーザーが新世代の人工知能パートナーを理解し、適切に信頼し、効果的に管理できるようにします。 New York Timesの記事、AIにそれ自体を説明するように教えることはできますか?XAIの必要性を人間の関心の観点から説明するだけでなく、XAIのために開発されている技法について一目でわかる見通しを提供するのに優れています。XAIムーブメントの背後にある力は、説明の権利の概念(新登場?と述べた。 私たちがお互いに責任を負う現在の基準を考えると、説明の権利はどのように合理的ですか?

1
ニューラルネットワークの結果をどのようにデバッグ、理解、または修正しますか?
画像の認識と分解(国境の顔、自動車のストリートシーン、不確実な/複雑な状況での意思決定、または部分的なデータによる)など、NNベースのアプローチが多くのAI領域で非常に強力なツールになっていると言うことは、かなり議論の余地がないようです。ほとんどの場合必然的に、これらの使用の一部は、NNベースのAIが人間の負担の一部またはすべてを引き受ける状況に発展し、一般的に人々が一般的に行うよりも優れています。 例としては、自動運転車、医療診断、人間/身元の検証、回路/設計の検証、疑わしいトランザクションアラートのステップとして仮想的に使用されるNNが含まれる場合があります。次の10年かそこらでおそらく多くの分野。 これが発生し、一般的には成功していると見なされているとします(たとえば、人間の医師の65%などに対して診断が80%正しく行われるか、またはNNコンポーネントを含むAIを備えた車が人間が運転する車や代替車よりも8%少ないクラッシュ、または何でも)。 さて-これらの1つが異常にそして真剣に1つのケースで何か非常に間違っていると仮定します。どうすればそれに取り組むことができますか?正式な論理ステップを使用すると、正式な決定プロセスを追跡できますが、NNを使用すると、正式なロジックがない場合があります。特に、それが十分に複雑になると(数十年で)、200億のニューラルプロセッサとそのI / Oの重みしかありません。と接続、命が失われた場合でも、いくつかの事件の原因を特定することができない場合があります。また、システムが継続的に学習する以上のことを言うことは不可能であり、そのような事件はまれです。 私はまた、NNで「ブラックボックス」または同等のフライトレコーダーを実行する意味のある方法を聞いたことがありません。製品の欠陥に対する他の対応とは異なり、イベント後にこのようなケースを修正するためにNNをトレーニングできたとしても、新しいNN設定によって問題が修正されたか、またはそうすることにおける他の問題のリスクとバランス。非常に不透明です。それでも、明らかに、AIアプローチとしては非常に価値があります。 20年後、NNが飛行機の飛行または航空機の設計における(安全で成功したと認められた)コンポーネントであるか、緊急事態を監視するため、または銀行で詐欺を発見するために病院システムに組み込まれ、通常どおり規制および市場の要求が存在し、一般的な市場での年間の良い記録で行われ、可能性があると、その後1ケースでは、そのようなシステムいくつかの時間後に1つの機会にはっきりmisacts -それは危険な誤読道路、生活損傷薬または露骨に誤診を推奨していますか送金される前に偶然に捕まった清算銀行で、2億ポンドのあからさまな不正取引を清算します。 製造業者は、公衆または市場の懸念に対処するために、または事件を説明するために何ができますか?取締役会から「これはどのようにして起こり、修正されたことを確認したのですか」と言われたとき、技術チームは何をしますか?どのような意味のあるログを保持できますか?社会は、不確実性と時折の風変わりな行動が固有である可能性があることを受け入れなければならないでしょうか?または、NNにより適したロギング/デバッグ/決定アクティビティにアプローチするより良い方法はありますか?

3
この議論は、スーパーインテリジェンスの存在を否定するものですか?
スーパーインテリジェンスは、あらゆる人間のすべての知的活動を超えることができる機械であり、そのような機械は、人類を終わらせる機械としてSFにしばしば描かれています。 どのマシンもアルゴリズムを使用して実行されます。Church-Turingの論文では、現代のコンピューターで実行できるアルゴリズムは、チューリングマシンで実行できます。ただし、人間はチューリングマシンを簡単にシミュレートできます。これは、アルゴリズムを実行することもできるので、マシンがすべての知的活動を超えることができないことを意味しませんか? 私の直感は超知能が可能であると私に告げるので、この議論はおそらく欠陥があります。しかし、欠陥がどこにあるのか私には明らかではありません。これは私自身の議論であることに注意してください。
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.