AIタスクには意識が必要ですか?


14

意識は定義するのが難しいですが、この質問では、「無生物のマシンに大量のデータを置くのではなく、実際に感覚入力を経験する」と定義しましょう。もちろん、人間には心があります。通常のコンピューターの場合、「見る」ものはすべて単なるデータです。あるいは、人間は知覚力があると言えますが、従来のコンピューターはそうではありません。

感覚的なマシンを構築することができるかどうかという質問はさておき、AIが感覚的であるかどうかによって実際に違いが生じるのでしょうか?言い換えれば、感情の欠如によって不可能になったタスクがありますか?


AI関連の哲学に関するメタディスカッション
ベンN

技術的には、もちろん、私たちが「見る」ものはすべて単なるデータであり、電気的な衝動が視神経を伝わっています。
ネイサン

@NathanArthur彼は私たちが見ているものについてではなく、自分自身を見た経験について話している。
デビッドシュワルツ

@DavidSchwartzポイントが取得されました。:)
ネイサンReinstateMonicaアーサー

「AI」と「タスク」をより適切に定義する必要があります。これらを一緒に使用する場合は、「任意のAIタスク」を定義します。エキスパートシステムは弱いAIに分類され、特定のタスクを非常にうまく実行します。この場合、答えは非常に明確です-いいえ、一連の症状を考慮して診断を提供するために意識は必要ありません。
CramerTV

回答:


10

誰も知らない。

理由:あなたの仲間の人間が実際に意識的であるかどうかを正式に決定することは不可能だからです(代わりに彼らは哲学的に「ゾンビ」と呼ばれるものかもしれません)。決定するには、現代の物理学で知られているテストでは十分ではありません。したがって、あなたは唯一の衆生であり、他のすべての人はロボットである可能性があります。

その結果、どのタスクが感覚を必要とするかを判断できません。

ゾンビの存在論的地位は議論の余地があることに注意してください:AIの哲学者(ダニエル・デネットなど)は、ゾンビは論理的に不可能であると主張しますが、デビッドチャルマースなどのゾンビは、自分がクオリアを経験することを主張することを強いられると主張する(つまり、知性がある)そうではありませんが。ここではチューリングテストの強力な神経学的なバージョンは、ゾンビを検出するには不十分である理由についても説明フラナガンとPolgerにより、非常に読みやすい紙があります。

編集:感情と非感情を区別する客観的なテストが存在するかどうかについてのコメントに応えて:

誰も知らない。私たち信じていることは、これには現代の物理学が現在私たちに伝えることができるものに加えて、何かが必要になるだろうということです。デビッド・チャルマースは、電荷が距離に直交するのと同じ方法で、クオリアを他の物理ユニットに直交する新しい形式の物理ユニットとして導入すべきだと推測しています。

客観的なテストがない場合、チューリングテストのバリアントに依存する必要があります。これは、知能よりも被験者の意識を保証するものではありません。


これは独断的な見方から取ったもので、「感覚と経験能力が新たに可能になるのはAIに与えることができるものだった」という質問には直接答えていないと思います。代わりに、他の生物での感覚のしくみに取り組みます。
アビックモハン

2
それは、(正確には感情を議論する目的のために)、「意識的なAI」と「他の人間」の間に違いがないからです。あなたがロボットであるかもしれないことを考えると、あなたができないことは何ができますか(言うことは不可能ですが)、私はそうではないことを知っていますか?そのようなタスクはありません。QED。
NietzscheanAI

あなたは、別の想定された感覚の存在を取っている、それが感覚であるかどうかわからないと言っているので、私の非感覚が阻害する仕事はない。最初に、あなた答えを知っているようです。それは「いいえ」です。第二に、あなたは彼が彼が使用したい意識の定義を与える質問についてのビットをまだ無視している-あなたは彼が「感覚的な機械を構築することが可能かどうかの質問を脇に置く...」 。あなたはそのようなマシンが可能かどうかに完全に集中しており、それが意味するものではありません。
アビクモハン

2
ポイントは、そのようなマシンが存在できるかどうかではありません(ヒント:そうです-私は1人です)。重要な点は、他のエンティティのクオリアの経験を判断できないため、「マシンはタスクXに対してクオリアの実行を経験する必要がある」というステートメントを証明または反証する物理テストがないことです。
NietzscheanAI

1
OPが「実際に経験する」とは異なる定義を使用していた場合、たとえば「メタ認知が可能になる追加タスクはどれか」という質問をすると、答えは異なります。現状では、「実際の経験」=クオリア、AI哲学でよく議論されているトピックです。
NietzscheanAI

4

番号。

見ることの経験は、定義によって非因果関係です。因果関係のないものは、物理的なプロセスの要件にはなりません。クオリアは、他の方法では不可能だった何かを行う能力をロボットに与えることができません。

多分。

特定のAIタスクにクオリアは必要ありませんが、十分に高度なAIがクオリアを必要としないというわけではありません。いわゆるAIコンプリートタスクには、クオリアを使用しませんが、とにかくそれを生成するロボットが必要になる可能性があります。

はい。

クオリアは、希望的でウォッシュな非物理的特性を指す場合がありますが、物理的にも存在することがわかっているという点で特別です。私のクオリアを故意に議論することができるという事実(または、あなたが私を信じないなら、あなたができるという事実)は、私の(またはあなたの)クオリアが物理的な効果を持っていることを意味します。

私たちが他人のクオリアを自分自身に基づいて受け入れるなら、それは私たち自身の物理的基盤のためでなければならないということは理にかなっています1。したがって、同等の物理的容量を持つロボット2はクオリアを必要とすると主張することができます。

1主観が非因果が物理的であることから、そうすることができない原因となるものを受け入れるために私たちを。

2クオリアが何らかの直接的な物理的症状に何らかの形で結び付けられているという特に奇妙な仮定をしない限り、間違ったものを進化させたとしても、それは正しい確実性を持つ正しいものであると主張するでしょう。


2

常識に基づいた簡単なテストを使用してみましょう:意識がないときに、理由の使用を必要とする問題を人間がどのくらいの頻度で解決するのを見ますか?はい、ラマヌジャンのような天才のインスタンスを見つけることができますが、夢の状態の間または後に複雑な問題を解決しますが、それらは部分的な意識を伴います。アインシュタインのような人がcom睡状態にあるときに相対性理論を考え出すことはありません。建国の父は、睡眠歩行中に独立宣言を書きませんでした。実際、深いデルタ波の睡眠中に主婦がその週の買い物リストをまとめている例すら見つけることさえできません。これは、知性の厳密な定義に基づいており、理性の使用が必要です。「あのハエは賢い」とか「そのリスは賢い」とは誰も言わない どちらも理由を使用できないためです。これはAIにとって非常に高い水準ですが、日常会話で実用性の問題として一般の人々が使用する常識の定義です。同様に、実際には、誰もがその種の知性を発揮するには意識が必要であると想定しています。

逆に、この議論への異議を判断するための別の常識に基づいた基準、特に3人の要素に基づいた独善主義者を見つけることができます。1)実用性。2)異議が誠実にそれを保持する人々に及ぼす影響。3)これらの信念に基づいた行動が他者に及ぼす影響。このケースを作成するにはいくつかの段落が必要ですが、完全に徹底的にケースを作成したい場合は長さが必要です。私たちの基準が絶対的な証拠である場合、他の人間が意識を持っていることを証明できないことは事実です。実際、何に対しても絶対的な証拠を提供することはできません。どんなに馬鹿げていても些細なことでも、常に異議を唱える余地があります。一部の哲学者が指摘したように、おそらく私たちが知っている現実のすべては単なる夢であるか、ジム・キャリーの映画「トルーマン・ショー」の陰謀のような陰謀に関係しているのです。そのような異議に対処するための鍵は、彼らがますます受け入れがたい異議の無限回帰を必要とすることであり、そのような不合理な疑いを正当化するために必要な追加のステップごとにその可能性が急落します。このような異議のカーディナリティ(またはファジーセットのうるささ)に基づいて、機械学習の「ばかげた測定基準」を思いつくことができるかどうか、私はいつも疑問に思っていました。批評家があらゆる種類の不合理な異議でドアに足を突き刺すことを許可した場合、議論を閉じることは不可能です。何も決定できないので、人類は不作為で麻痺します。しかし、ロックバンドのラッシュがかつて指摘したように、「決定しないことを選択した場合でも、あなたはまだ選択をしている」。ある時点で、絶対的な証拠がない場合でも、テストを適用してそのようなことを決定する必要があります。テストの適用を拒否することも選択肢の1つです。この種の議論を解決することは、中国のゲームGoのゲームのようなものです。他のプレイヤーが包囲されて、それ以上の動きがなくなると、ゲームは終了します。人の証拠が暴かれ、それ以上の正当化の根拠が残っていない場合、その人は不当に行動していると結論付けることができます。ホロコーストは決して起こらなかった、またはフラットアースソサエティなどを主張している人々が駆け回っていますが、彼らの存在は私たちの考えに反する行動をとるべきではありません。結局のところ、彼らは私たちの反論のすべてに答えることができないので、私たちは合理的な疑いを超えて、フラットアースソサエティのようなクランクの異議を非難することができます。クオリアと哲学ゾンビは、興味深い会話と思考の糧となるために育てられたことをうれしく思いますが、独白主義は、フラットアースソサエティのアイデアほどまれにしか行動されません。結局のところ、彼らは私たちの反論のすべてに答えることができないので、私たちは合理的な疑いを超えて、フラットアースソサエティのようなクランクの異議を非難することができます。クオリアと哲学ゾンビは、興味深い会話と思考の糧となるために育てられたことをうれしく思いますが、独白主義は、フラットアースソサエティのアイデアほどまれにしか行動されません。結局のところ、彼らは私たちの反論のすべてに答えることができないので、私たちは合理的な疑いを超えて、フラットアースソサエティのようなクランクの異議を非難することができます。クオリアと哲学ゾンビは、興味深い会話と思考の糧となるために育てられたことをうれしく思いますが、独白主義は、フラットアースソサエティのアイデアほどまれにしか行動されません。それに対して実行しています。

GK Chesterton(別名「常識の使徒」)が彼の古典を指摘しているように 正統派を、多くの古典哲学者が説いたような根本的な疑念は、知恵への道ではなく、狂気への道です。合理的な疑いを超えると、不当に行動することになります。彼は、絶対的な証拠がなければ、別の二次的な形の証拠に頼ることができると言います。人の哲学が、悪名高い英国の精神機関であるハンウェルに人を導くかどうかです。チェスタートンは、人々が実際に独身主義のような考えに基づいて行動するとき(アイビーで覆われた教室でそれらを単に論争的に議論するのではなく)、彼らが発狂するという良いケースを作ります統合失調症の特定の形態の基準。急進的な疑念がクオリアに適用された場合に発生する非人道化も、社会障害的な行動と密接に結びついています。GKCは彼の恐ろしい例を直接引用していませんが、Rene Descartes自身が生きた証拠でした。彼は素晴らしい数学者であり、彼自身の存在を除いてすべてを疑い、今でも有名な格言「私は思う、だから私はそうだ」と応援しています。しかし、デカルトはまた、彼の死んだ妹のマネキンを彼と一緒にヨーロッパのカフェに運んでいましたが、そこで彼はそれとおしゃべりするのを見ることができました。このすべての要点は、信者の幸福にどのように影響するか、またはそれらの信念に基づいた倫理的選択を通じて他者にどのように影響するかによって、アイデアの価値を判断できるということです。人々が独り言や一般的なクオリアの否定で表現された種類の過激な疑いに実際に行動するとき、それはしばしば彼らと接触する他の人々に悪い影響を及ぼします。彼は素晴らしい数学者であり、彼自身の存在を除いてすべてを疑い、今でも有名な格言「私は思う、だから私はそうだ」と応援しています。しかし、デカルトはまた、彼の死んだ妹のマネキンを彼と一緒にヨーロッパのカフェに運んでいましたが、そこで彼はそれとおしゃべりするのを見ることができました。このすべての要点は、信者の幸福にどのように影響するか、またはそれらの信念に基づいた倫理的選択を通じて他者にどのように影響するかによって、アイデアの価値を判断できるということです。人々が独り言や一般的なクオリアの否定で表現された種類の過激な疑いに実際に行動するとき、それはしばしば彼らと接触する他の人々に悪い影響を及ぼします。彼は素晴らしい数学者であり、彼自身の存在を除いてすべてを疑い、今でも有名な格言「私は思う、だから私はそうだ」と応援しています。しかし、デカルトはまた、彼の死んだ妹のマネキンを彼と一緒にヨーロッパのカフェに運んでいましたが、そこで彼はそれとおしゃべりするのを見ることができました。このすべての要点は、信者の幸福にどのように影響するか、またはそれらの信念に基づいた倫理的選択を通じて他者にどのように影響するかによって、アイデアの価値を判断できるということです。人々が独り言や一般的なクオリアの否定で表現された種類の過激な疑いに実際に行動するとき、それはしばしば彼らと接触する他の人々に悪い影響を及ぼします。しかし、デカルトはまた、彼の死んだ妹のマネキンを彼と一緒にヨーロッパのカフェに運んでいましたが、そこで彼はそれとおしゃべりするのを見ることができました。このすべての要点は、信者の幸福にどのように影響するか、またはそれらの信念に基づいた倫理的選択を通じて他者にどのように影響するかによって、アイデアの価値を判断できるということです。人々が独り言や一般的なクオリアの否定で表現された種類の過激な疑いに実際に行動するとき、それはしばしば彼らと接触する他の人々に悪い影響を及ぼします。しかし、デカルトはまた、彼の死んだ妹のマネキンを彼と一緒にヨーロッパのカフェに運んでいましたが、そこで彼はそれとおしゃべりするのを見ることができました。このすべての要点は、信者の幸福にどのように影響するか、またはそれらの信念に基づいた倫理的選択を通じて他者にどのように影響するかによって、アイデアの価値を判断できるということです。人々が独り言や一般的なクオリアの否定で表現された種類の過激な疑いに実際に行動するとき、それはしばしば彼らと接触する他の人々に悪い影響を及ぼします。

回り道で、AIコミュニティは、適切な証拠なしに一般的なクオリア、意識などを機械学習製品に帰するという逆の間違いを犯すという、かなり深刻なリスク-おそらく永続的な誘惑-に直面しています。私は最近、非常に弱い定義と、自己組織化との明確な混乱に基づいて、植物が「知能」を持っているという効果について、衝撃的なほど悪い論理的根拠で行われた事例を耳にした。岩に知性がないという絶対的な証拠を提供することはできません。これは、ネガティブを反証するという古い問題に相当します。ありがたいことに、現時点では実際にそのような信念に基づいて行動する男性はほとんどいません。このような議論を真剣に受けとめれば、「70代(私はまだ私がLOLに盗まれたことに腹を立てています)。しかし、希望、思考、hub慢、発明者の高尚な信任、影響力のために、意識、知性、および他のそのような性質を最先端の機械に帰するという同じ間違いを犯すことははるかに簡単ですサイエンスフィクションと現代のテクノロジーとの関係。将来、私はAIのカーゴカルトを持っていることを疑う余地はありません-おそらくある種の絶滅危ed種のように、公民権で合法的に保護されていますが、岩以上の意識、魂、または実際の知性を持っていません。これについては引用しないでください。しかし、ロッド・セリングがかつてこの効果について物語を書いたと思います。希望的思考、hub慢、発明者の高尚な信任、サイエンスフィクションの影響、テクノロジーとの現代の恋愛のために、最先端の機械に対する知性やその他の品質。将来、私はAIのカーゴカルトを持っていることを疑う余地はありません-おそらくある種の絶滅危ed種のように、公民権で合法的に保護されていますが、岩以上の意識、魂、または実際の知性を持っていません。これについては引用しないでください。しかし、ロッド・セリングがかつてこの効果について物語を書いたと思います。希望的思考、hub慢、発明者の高尚な信任、サイエンスフィクションの影響、テクノロジーとの現代の恋愛のために、最先端の機械に対する知性やその他の品質。将来、私はAIのカーゴカルトを持っていることを疑う余地はありません-おそらくある種の絶滅危ed種のように、公民権で合法的に保護されていますが、岩以上の意識、魂、または実際の知性を持っていません。これについては引用しないでください。しかし、ロッド・セリングがかつてこの効果について物語を書いたと思います。-おそらくある種の絶滅危ed種のように公民権で法的に保護されているが、岩以上の意識、魂、または実際の知性は持っていない。これについては引用しないでください。しかし、ロッド・セリングがかつてこの効果について物語を書いたと思います。-おそらくある種の絶滅危ed種のように公民権で法的に保護されているが、岩ほど意識、魂、または実際の知性は持っていない。これについては引用しませんが、ロッド・セリングがかつてこの効果について物語を書いたと思います。

この運命を回避する最善の方法は、これらの事柄の常識的な解釈と定義に固執することです。これは、私たちの人生で決して超えることのできないAIの非常に高い水準を設定するため、大部分から遠ざかります。 、もしあれば。おそらく、AIはどのレベルの技術でも論理的には不可能です。その結果と解釈できるいくつかの証拠を思い出します。チェスタートンとヒレール・ベロックやアーノルド・ルンのような同僚が、少なくとも啓蒙時代までさかのぼって、西欧文明で理性の使用が実際に崩壊しているという評価において正しい場合、それらの高いが合理的な基準は厳しくなることがますます Lunnの1931年の本The Flight from Reasonは、この点で古典的であり、まだ反論されていません。この歴史的傾向はそれ自体広義のトピックですが、理由の否定とテクノロジーへの執着はどちらも明白な方法でAIの分野に直接関連していると言えば十分です。理由からの逃避がまだ進行中の場合、 AIの定義における理性と意識のような不可欠な資質の使用を降格するために、無頓着で簡単な異議申し立てにますます誘惑されますが、それを証明するためのますます弱い基準を考え出します; 同時に、当社の技術は引き続き改善され、それにより人工知能の「人工」面が向上します。そして、AIの定義における理性や意識のような不可欠な性質の使用を降格するために、無謀で安易な異議に訴えるようになりますが、それを証明するためのますます弱い基準を考え出します。同時に、当社の技術は引き続き改善され、それにより人工知能の「人工」面が向上します。そして、AIの定義における理性や意識のような不可欠な性質の使用を降格するために、無謀で安易な異議に訴えるようになりますが、それを証明するためのますます弱い基準を考え出します。同時に、当社の技術は引き続き改善され、それにより人工知能の「人工」面が向上します。

誤解しないでください。AIを使って本当にエキサイティングなことができるとは思わなかったら、ここにはいません。しかし、それらのほとんどは、人間が考えることは難しいが、意識や人間の知能を示す理由の使用を必要としない接線上の問題のすべてのクラスを解決することにより、実際の人間の知能を複製することなく達成できます。たたみ込みニューラルネットの画像認識機能は、一例です。人間の知能が必要な場合は、赤ちゃんを産むことで、最も簡単で経済的で実績のある方法でいつでも製造できます。おそらく、これらの接線形式のAIは、今のところは十分なはずです。理性がAIに必要かどうかを判断するのに十分な数の理性を所有していない場合、理性の使用を機械に注入することはできません。またはそれが何で構成されているかを見分けることさえできます。AIの重要性を意識するまで、AIの意識を設計したり非難したりすることはできません。ただし、このスレッドを読んでインテリジェントな応答を評価する人は全員、意識状態でそうしていると思います。今のところ、それ自体が問題に答えるはずです。


2

あなたが提供した定義に関して:

無生物の機械に大量のデータを送るのではなく、実際に感覚入力を経験します。

コンピューターと人間の両方が感覚入力を経験します。コンピューターを人間の眼球に接続し、人間の脳と同じフィルタリングルーチンを実行させることができます(目を動かしたり、焦点が合っていないオブジェクトから不鮮明さを除去したりするなど)。

意識のより正確な定義は、自己反映する能力と傾向です。コンピューターと人間の脳はどちらも自律的な活動をしています。機械的だけでなく、私たちの反応にも。無意識のコンピューターと自己認識の人間の心の違いは、私たちも自分の中のそれらのパターンを「見て」、それらを考慮する能力を持っているということです。

そして、いや、AIタスクには意識は必要ありません。画像認識は、人間やその他の意識を必要としないAIタスクです。あなたの脳は、目からの色の「ウォッシュ」を、ほとんど自律的な方法で個別のオブジェクトに分類します。

tl; dr意識は自己参照です。


-1

2種類のタスクには意識が必要です。

  1. 意識

  2. 問題を解決するには、さまざまな3Dの状態と問題を解決する方法の事前知識を類推する必要がある、極端な動的性を必要とするタスク

ただし、特定の問題を解決する方法の知識が得られると、さらなる最適化により意識の必要性が排除されます。

問題に十分な特異性を与えると、一般的なソルバーの必要がなくなります。そして、意識に対する残りの唯一の必要性は、それ自体のためです。


-1

非常にニッチな意味で、私はイエスと言います。

感覚が可能にする唯一のタスクは、それ自体の実際の感情と思考でした。この時点では、私たちがAIに完了を要求するタスクのいずれにおいても、感情は関与していません。私たちは、実用的な意味で、感覚のあるAIができることのほとんどすべてを行うために「死んだ」マシンを教えることができるという点に急速に近づいています。

感情は口語的に「自分自身と他のエンティティがそれぞれ別個の代理人であることを理解しながら推論する能力」またはそれらの線に沿った何かにしばしば変換されます。それは文字通り、あなたが上にある自己認識と意識の定義に沿った何かを意味します。私が言いたいのは、データを本当にうまく学習し、解釈するだけで、「死んだ」AIが最初の考え方を非常にうまく模倣できるポイントにすぐに近づいているということです。

ここに画像の説明を入力してください

                              ロボットは骨の融合、またはかつて存在していた存在を見ていますか?

したがって、真に知覚力のあるマシンは、情報を「真に」体験できるという点でのみ、能力が優れています(実際に高度な「デッド」AIと比較して)。

これは、いわゆる「知識の議論」と並行して非常にうまく機能します、本質的にこの問題を議論するます。私が聞いたバージョンでは、部屋にはあらゆる種類の情報にアクセスできる非常に賢い女の子がいるということです。彼女は青が好きです。またはそう彼女は考えます; 彼女は実際にそれを見たことがない。彼女は色や色の働きなどについて、世界中のあらゆる情報を利用できますが、彼女はそれを見るまで青が何であるかを本当に知っていますか?

この分野へのもう一つの素晴らしい歴史的なベンチャーは有名な絵画です:

                                        Ceci n'est pas une pipe

キャプションの翻訳:「これはパイプではありません」。そして、アイデアは、正直なところ、これはパイプではないということです。現時点では、特定の構成での画面上のピクセルの束です-私たちはすべてパイプを「見る」ことができますが、それは本当にどういう意味ですか?

結局のところ、超インテリジェントな「デッド」AIは、実際には「ライブ」にできるものなら何でもでき、後者は「ライブ」自体よりも優れていると思います。


あなたが与える感情の口語的な定義はOPが使っていたものではありません-それらの定義は実際の経験、すなわちクオリアでした。対照的に、あなたが引用する「黒と白の部屋」の思考実験は、特にクオリアについてです。
NietzscheanAI

正しい。残りの段落ではそれを取り上げます。
アビクモハン

-2

感情のない存在は苦しむことができません。たとえば、別の人の苦しみに喜びを感じたい場合は、知覚力のあるAIだけで十分です。

たくさんの苦しみを生み出さなければ満足も生産もできないサディストがいたとします。そして、私たちは人間と動物の苦しみを最小限にすることだけを気にかけたと言います。この仕事に必要なのは、人間や動物以外の人が苦しむことです。意識的なAIはそうするでしょうが、無意識のAIはそうしません。

おそらく内省によって以外、意識は証明できないというコメントで主張がなされました。しかし、サディストは他の人を拷問することに喜びを感じているので、明らかにこれは問題ではありません。


3
サディストは、他のすべての人と同じように、感情を、明らかに同等の非感情と区別する能力がないので、ここでも感情は必要ありません。
NietzscheanAI

A being with sentience cannot suffer-あなたが意味するかアウト
ミシカル

e-サディズムについての素晴らしい見方については、スタニスワフ・レムによる「マークIII獣の魂」の物語を参照してください。
NietzscheanAI

@NietzscheanAI 2つのAIがあるとします。一方はそれが知覚可能であることを証明できましたが、もう一方はできませんでした。前者はこのタスクを実行できますが、後者はできません。サディストは他のすべての人と同じように能力がないというあなたの主張は、サディストも他のすべての人と同じように能力があることを意味します。
デビッドシュワルツ

知性を証明する既知の手段はありません。私の回答でリンクしている「ゾンビ地球」に関するフラナハンの論文を参照してください。
NietzscheanAI
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.