タグ付けされた質問 「philosophy」

人工知能の哲学的側面に関する質問について。人間/ AIの値の調整、人工意識、AGIの実現可能性、AIの倫理、新ルディズムなどのトピック。

13
自動運転車は誰を殺すかについて倫理的な決定をどのように行うことができますか
明らかに、自動運転車は完璧ではないので、Google車(例として)が困難な状況に陥ったと想像してください。 以下に、一連のイベントによって引き起こされる不幸な状況の例をいくつか示します。 車は道路を横断する10人の群衆に向かっているので、時間内に停止することはできませんが、壁にぶつかって10人を殺す(乗客を殺す)ことは避けられます。 車の乗客にとって生存の可能性が高いことを考慮して、オートバイのライダーを殺さないようにします。 人間を支持して路上で動物を殺し、 犬を殺さないように車線を変更して別の車に衝突する、 そして、いくつかのジレンマがあります。 アルゴリズムは、人間と動物の違いを認識していますか? 人間や動物の大きさは重要ですか? 乗客数と前の人の数をカウントしますか? 赤ちゃん/子供が乗船していることを「知っている」のですか? 年齢も考慮されますか(例えば、古い方を先に殺すなど)。 アルゴリズムは、技術的な観点から何をすべきかをどのように決定しますか?上記のことを知っている(殺す確率を数える)か、知らない(単に自分自身の破壊を避けるために人々を殺す)か? 関連記事: 自動運転車を殺すためにプログラムしなければならない理由 自動運転車が倫理的な決定を下せるようにする方法

9
なぜ説明可能なAIが必要なのですか?
AIを開発する本来の目的がいくつかのタスクで人間を支援することであり、その目的がまだ続いている場合、なぜその説明可能性を気にする必要があるのでしょうか?たとえば、ディープラーニングでは、インテリジェンスが能力を最大限に引き出し、その決定に慎重に到達する限り、そのインテリジェンスがどのように機能するかを知る必要があるのはなぜですか?


21
デジタルコンピューターは無限を理解できますか?
人間として、私たちは無限と考えることができます。原則として、十分なリソース(時間など)がある場合、無限に多くのもの(抽象的、数字のような、または実数を含む)をカウントできます。 たとえば、少なくとも、整数を考慮することができます。主に考えて、画面に表示される多くの数字を無限に「理解」できます。今日、私たちは少なくとも人間ができる人工知能を設計しようとしています。しかし、私は無限にこだわっています。私は、無限を理解するためにモデルを(深いかどうかにかかわらず)教える方法を見つけようとします。機能的アプローチで「理解」を定義します。たとえば、コンピューターが10個の異なる数字や物を区別できる場合、それは何らかの方法でこれらの異なるものを本当に理解することを意味します。 前に述べたように、人間は原則として無限の整数を数えることができるため、無限を理解しています。この観点から、モデルを作成したい場合、モデルは実際には抽象的な意味での関数であり、このモデルは無限に多くの数を区別する必要があります。コンピューターは、このような無限関数をモデル化する能力が限られたデジタルマシンであるため、無限に多くの整数を区別するモデルを作成するにはどうすればよいですか? たとえば、カード上の数字を認識するディープラーニングビジョンモデルを使用できます。このモデルでは、各整数を区別するために、各カードに番号を割り当てる必要があります。無限の数の整数が存在するため、モデルはデジタルコンピューターで人間のように各整数に異なる数をどのように割り当てることができますか?無限のものを区別できない場合、無限をどのように理解しますか? 実数を考慮すると、問題はさらに難しくなります。 私が欠けている点は何ですか?このテーマに焦点を当てたリソースはありますか?

4
技術的特異点の概念は何ですか?
技術的特異性のアイデアを聞いたことがありますが、それは何であり、人工知能とどのように関係していますか?これは、人工知能マシンが成長して人間ができることを超えて自分で学び、成長が始まるまでの理論上のポイントですか?この時点に到達すると、どのように知ることができますか?

9
人工知能はハッキングに対して脆弱ですか?
論文「敵対的設定におけるディープラーニングの制限」では、ニューラルネットワークがトレーニングするデータセットを操作できる攻撃者によって、ニューラルネットワークがどのように破損する可能性があるかを探っています。著者たちは、手書き数字を読み取ることを目的としたニューラルネットワークで実験を行い、ニューラルネットワークでトレーニングされた手書き数字のサンプルを歪めることにより、その読み取り能力を弱めました。 悪意のある攻撃者がAIをハッキングしようとするのではないかと心配しています。例えば 自動運転車をだまして、一時停止標識と速度制限を誤って解釈する。 ATMのような顔認識のバイパス。 スパムフィルターのバイパス。 映画レビュー、ホテルなどのだまされやすい感情分析 異常検出エンジンのバイパス。 音声コマンドの偽造。 機械学習ベースの医療予測の誤分類。 どのような敵対効果が世界を混乱させる可能性がありますか?どうすればそれを防ぐことができますか?


7
何かをAIと呼ぶための最小要件は何ですか?
私は人工知能(AI)の用語が最近使われすぎていると信じています。たとえば、自動操縦(車や飛行機など)に乗っていたり、背後に単純なアルゴリズムがあったとしても、人々は何かが自動で動くことを見てAIと呼んでいます。 何かがAIだと言えるようにするための最低限の一般的な要件は何ですか?

11
人間のような感情を経験するAIを開発することにより、どのような目的が達成されますか?
で、最近のウォールストリートジャーナルの記事、ヤンLeCunnは、次の文を作ります: 人間レベルのAIを達成するための次のステップは、インテリジェントな(自律的ではない)マシンを作成することです。車内のAIシステムは安全に家に帰りますが、中に入ったら別の目的地を選択することはありません。そこから、感情や道徳的価値とともに、基本的なドライブを追加します。脳と同じように学習する機械を作成すれば、人間のような資質と欠陥を継承する機械を想像するのは簡単です。 個人的には、感情を経験するAIを作成する理由がないため、人工知能の感情について話すのは馬鹿げていると一般に考えています。明らかに、ヤンは同意しません。質問は、これを行うことでどのような目的が果たされるのでしょうか?AI は有用なツールとして機能するために感情を必要としますか?

4
AIに置き換えられたジョブを再発明する方法は?
一般に、自動化されたAIソリューションに置き換えられる可能性のある職務記述書を再発明する可能性はありますか?私の最初のアイデアは次のとおりです。 AIを監視し、その誤ったアクションにフラグを立てます。 非常に難しいシナリオでコントロールを引き継ぐ可能性があります。 AIの精度を向上させるためのトレーニング/テストデータの作成/収集。


7
AIタスクには意識が必要ですか?
意識は定義するのが難しいですが、この質問では、「無生物のマシンに大量のデータを置くのではなく、実際に感覚入力を経験する」と定義しましょう。もちろん、人間には心があります。通常のコンピューターの場合、「見る」ものはすべて単なるデータです。あるいは、人間は知覚力があると言えますが、従来のコンピューターはそうではありません。 感覚的なマシンを構築することができるかどうかという質問はさておき、AIが感覚的であるかどうかによって実際に違いが生じるのでしょうか?言い換えれば、感情の欠如によって不可能になったタスクがありますか?
14 philosophy 

2
高度な人工知能を作成するための意識はどれほど重要ですか?
高度なAIを作成するための意識と自意識はどれほど重要ですか?私たちはそのようなものからどれくらい離れていますか? たとえばニューラルネットワークを作成する場合、(おそらく)意識はありませんが、数学だけが背後にありますが、将来、より複雑なタスクを解決するためにAIを意識する必要がありますか?さらに、実際に何かが意識的であるか、それが偽物であるかを確実に知る方法はありますか?意識的であると主張するコンピュータープログラムを作成するのは「簡単」ですが、それがそうであることを意味するものではありません(例:Siri)。 また、AIが意識なしで事前定義されたルールのみに基づいている場合、それを「インテリジェンス」と呼ぶことさえできますか?

7
「人工知能」という表現に代わる優れた選択肢は何ですか?
私は、「人工知能」という名前の説得力のある批判を行った「人工知能の呼び出しをやめる」という非常に興味深い記事を読みました。 インテリジェンスという言葉は非常に広範であるため、「人工知能」が本当にインテリジェントかどうかを判断するのは困難です。したがって、人工知能は、人間の知能を複製すると誤解される傾向がありますが、実際には人工知能とは異なります。 人工知能は本当に「人工」ではありません。人工とは、何かを偽造することを意味しますが、これは人工知能とはまったく異なります。 「人工知能」という表現に代わる優れた選択肢は何ですか?(良い答えは名前をランダムにリストしません;彼らは彼らの代替名が良いものである理由の根拠を与えます。)

3
AIの研究に関するゲーデルの定理の意味は何ですか?
注:ゲーデルの定理に関する私の経験はかなり限られています。ゲーデルエッシャーバッハを読んだことがあります。ゲーデルの定理入門の前半をスキムした(ピータースミス作)。そして、インターネット上のあちこちにあるランダムなもの。つまり、私は理論について漠然とした高度な理解しか持っていません。 私の謙虚な意見では、ゲーデルの不完全性定理(およびホールティング問題やレーブの定理などの多くの関連定理)は、最も重要な理論的発見です。 ただし、定理の理論的応用が(少なくとも私の知る限り)それほど多くないことを観察するのは少し残念です。に向けて簡単にコミットして喜んでである。 それにもかかわらず、心の哲学/ AIの文脈に定理を適用するいくつかの試みがまだあります。私の頭の上から: ルーカス・ペンローズの議論:これは、心が正式なシステム(コンピューターのように)に実装されていないことを主張しています。(ただし、それほど厳密な証拠ではありません) どうやらMIRIの研究のいくつかはLöbsThereomを使用していますが、私が知っている唯一の例はLöbianエージェントの協力です。 これらはすべて非常にクールですが、さらにいくつかの例はありますか?特に、学界で実際に真剣に検討されているもの。 (cf.ゲーデルの最初の不完全性定理の哲学的意味は何ですか?SEで)
13 philosophy 

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.