人工知能はどのように私たちを傷つけることができますか?


51

人工知能は人間を傷つけたり、殺したりする可能性があるとよく耳にします。

人工知能はどのように私たちを傷つけることができますか?


6
AIは危険になる可能性のある多くの理由とシナリオが提案されているため、これは少し広範です。たとえば、上記のDuttaAが示唆しているように、人間は対象を決定するインテリジェントな兵器システムを設計する場合があります。これは既に狭いAIを使用することが可能なため、本当に心配です。おそらく、あなたが読んだ特定の懸念事項を引用するかリンクすることで、あなたが理解したい特定の恐怖にもっと文脈を与えます(editを使用してください)。
ニール・スレーター

4
@NeilSlaterはい、それは広すぎるかもしれませんが、この答えai.stackexchange.com/a/15462/2444はいくつかのもっともらしい理由を提供すると思います。質問を編集して、誤った仮定を削除しました。
nbro

2
この質問は、特に「スーパーインテリジェンス」または一般的なAIに関するものですか?(たとえば、仮想の超知能の場合、仮想の「制御問題」が問題になります。しかし、現代の自動化された武器システムは超
知能で

@DukeZhou OPはもともと明示的にスーパーインテリジェンスに言及していませんでしたが、SIを含むAIと見なすことができるものすべてに言及していたと思います。
nbro

3
最初に、通常のインテリジェンスがあなたにどのような害を及ぼす可能性があるかを尋ねますか?答えは同じです。
J ...

回答:


47

tl; dr

多くがあり、有効な人々が恐れるかもしれない(またはより良い理由を心配すること)AIは、すべてのロボットと終末論的なシナリオを伴いません、。

これらの懸念をよりよく説明するために、これらを3つのカテゴリに分けてみます。

コンシャスAI

これはあなたの質問が言及しているAIのタイプです。人類を破壊/奴隷化する超インテリジェントな意識AI。これは主にサイエンスフィクションによってもたらされます。ハリウッドの有名な例には、ターミネーター」「マトリックス」「ウルトロンの時代」があります。最も影響力のある小説はアイザック・アシモフによって書かれ、「ロボットシリーズ」と呼ばれています(「I、robot」、映画としても改作されました)。

これらの作品のほとんどでの基本的な前提は、AIが意識的になり、知性において人間を上回るまで進化するということです。ハリウッド映画は主にロボットとロボットと人間との戦いに焦点を当てていますが、実際のAI(つまり、それらを制御する「脳」)には十分な重点が置かれていません。サイドノートとして、物語のために、このAIは通常、すべてを制御するスーパーコンピューターとして描かれています(主人公が特定のターゲットを持つようにするため)。「あいまいなインテリジェンス」については十分な調査が行われていません(より現実的だと思います)。

現実の世界では、AIは特定のタスクの解決に焦点を当てています!さまざまな領域の問題を解決できるAIエージェント(たとえば、音声の理解、画像の処理、運転など-人間のように)は、一般的な人工知能と呼ばれ、AIが「思考」し、なるために必要です意識します。

現実的には、たちはGeneral Artificial Intelligenceからの方法です。それが将来これ達成できない理由についての証拠ないと言われている。そのため、現時点では、まだAIの初期段階にあるとしても、AIが人間よりもインテリジェントになるまで進化しないと信じる理由はありません。

悪意を持ったAIの使用

AIが世界を征服するのはまだまだ先のことですが、今日のAIに関心を持つ理由いくつかあります。もう1つ注目したいカテゴリは、今日のAIの悪意のある使用です。

今日利用できるAIアプリケーションにのみ焦点を当てます。悪意のある目的に使用できるAIの例:

  • DeepFake:画像に他の人の顔を他の人のビデオに押し付ける手法。これは最近、セレブポルノで人気を集めており、偽のニュースやデマを生成するために使用できます。出典:123

  • 用いて質量監視システム及び顔認識認識することができるソフトウェア毎秒面の何百万、AIは、質量監視のために使用することができます。大衆監視について考えるとき、中国について考えるとき、ロンドンアトランタ、ベルリンのような多くの西部の都市は、世界で最も監視されている都市の一つです。中国は、社会的信用システムを採用することで、さらに一歩踏み出しました。これは、ジョージオーウェルの1984年のページから直接取り上げられていると思われる民間人向けの評価システムです。

  • ソーシャルメディアを通じて人々に影響を与えます。ターゲットマーケティングとプレースメントの追加を目的としてユーザーの好みを認識すること(多くのインターネット企業で一般的な慣行)の他に、AIは(とりわけ)人々の投票に悪影響を及ぼす可能性があります。出典:123

  • ハッキング

  • ドローン攻撃、ミサイルターゲティングシステムなどの軍事用途。

AIの悪影響

このカテゴリはかなり主観的ですが、AIの開発にはいくつかの有害な副作用が伴う可能性があります。このカテゴリと以前のカテゴリの違いは、これらの効果は有害ではありますが、意図的に行われないことです。むしろ、AIの開発で発生します。以下に例を示します。

  • 仕事が冗長になる。AIが良くなると、多くの仕事がAIに置き換えられます。残念ながら、ほとんどの技術開発にはこの副作用があるため、これについてできることはあまりありません(たとえば、農業機械が多くの農家を失業させ、オートメーションが多くの工場労働者を置き換え、コンピューターも同じようになりました)。

  • データバイアスを強化します。これは非常に興味深いカテゴリです。AI(特にニューラルネットワーク)は、訓練されたデータと同じくらい優れているだけであり、データに既に存在するさまざまな形態の社会的バイアスを永続化し、さらには高める傾向さえあります。人種差別的および性差別的な行動を示すネットワークの例は数多くあります。ソース:1234


4
「ジョブが冗長になる」ことが深刻な懸念事項である理由がわかりません。誰も(少なくとも人間の大多数)仕事をする必要がなく、代わりに彼らの趣味と人生を楽しむことに集中できれば、世界はどれほど美しいでしょう。
kukis

4
@kukisすでに裕福でない限り、仕事なしでどうやって食べ物や家などを手に入れることができますか?仕事は、ほとんどの人にとって生存を意味します。
nbro

6
仕事が冗長になることに関して、私たちはそれについて何かできるように思えます。すなわち、仕事を持っている人間に依存しないように経済モデルを刷新します。もし私たちの経済システムが十分な安価な労働力であふれると故障するのであれば、明らかに欠陥があります。そして、この欠陥が近い将来に危険になると予想されるため、修正する必要があります。
ナット

2
AIが主要な問題を引き起こす可能性がある別の例は、株式取引です。最近の株式取引の大部分は、競争が激化するAIによって行われています。AIは、人間のトレーダーよりもはるかに速く反応することができます。しかし、それらを書いた人間でさえ、これらのAIが意思決定を行う理由を必ずしも理解していないという点に達し、株価予測アルゴリズムが破綻したことによる市場への壊滅的な影響がいくつかありました。
ダレルホフマン

8
@penelopeは、AIが置換しようとするすべてのジョブが「低関心」であるとは限りません。私は、(それほど遠くない)将来交換される可能性のある多くの高需要の仕事があると主張します。いくつかの例は、医師、トレーダー、パイロットです。AIが進歩を続け、病気の診断を改善し続けるなら、医師の仕事が削減されると考えるのは不合理ではありません。
Djib2011

14

短期

  • 産業事故、航空機の自動操縦、自動運転車などによる物理的な事故。特に、異常気象やセンサー障害などの異常な状況の場合。通常、AIは広範囲にテストされていない条件下では機能が低下します。
  • 雇用の可能性の低下、恵まれない人々に対する障壁などの社会的影響。ローン、保険、仮釈放。
  • 推奨エンジンは、私たちの行動を変えるためにますます私たちを操作しています(そして、私たち自身の「小さな世界」の泡を強化します)。推奨エンジンは、さまざまな種類の不適切なコンテンツを幼い子供に定期的に提供します。これは、多くの場合、コンテンツ作成者(YouTubeなど)が適切なキーワードスタッフィングを使用して子供に優しいように見えるためです。
  • 政治的操作...十分だと思います。
  • プライバシー侵害のもっともらしい否定。AIがあなたの電子メールを読み、電話をかけることさえできるようになったので、だれかが人間にあなたの個人情報を操作させ、彼らがそれをするためのコンピューターを手に入れたと主張することは簡単です。
  • 戦争をビデオゲーム変えます。つまり、兵士を危険にさらされておらず、犠牲者から遠く離れた人が遠隔操作する機械に置き換えます。
  • 透明性の欠如。私たちは、決定の背後にある正当性を得るための手段がほとんどないマシンを決定することを信頼しています。
  • 資源消費と汚染。これは単なるAIの問題ではありませんが、AIが改善されるたびにビッグデータに対する需要が高まり、これらが相まって、ストレージ、処理、およびネットワーキングの必要性が高まっています。電力と希少な鉱物の消費に加えて、インフラストラクチャは数年の寿命後に廃棄する必要があります。
  • 監視 —スマートフォンとリスニングデバイスが広く普及しているため、データの宝庫がありますが、すべてを選別するには多すぎます。もちろん、AIを使ってふるいにかけます。
  • サイバーセキュリティ —サイバー犯罪者はAIを利用してターゲットを攻撃しています。

これらのすべてが既に本格化していることを言及しましたか?

長期

AIとAGIの間に明確な境界線はありませんが、このセクションでは、AGIに向かってさらに進むとどうなるかについて詳しく説明します。次の2つの選択肢があります。

  • インテリジェンスの性質に対する理解の向上の結果としてAGIを開発するか、
  • または、機能しているように見えるものを一緒に平手打ちしますが、今の多くの機械学習のように、あまりよく理解していません。

最初のケースでは、AIが「不正」になった場合、他のAIを構築して、それを裏切り、中和します。2番目のケースでは、できませんし、運命にあります。AIは新しい生命体になり、私たちは絶滅するかもしれません。

潜在的な問題を次に示します。

  • コピーアンドペースト。AGIの問題の1つは、デスクトップコンピューター上で実行される可能性が非常に高いことで、これにより多くの問題が発生します。
    • スクリプトキディ — AIをダウンロードして、破壊的な方法でパラメーターを設定できます。関連して、
    • 犯罪者グループまたはテロリストグループは、AIを好みに合わせて構成できます。AIをダウンロードして、研究を行うよう指示し、ステップバイステップの指示を与えることができれば、爆弾の作成や生物兵器の専門家を見つける必要はありません。
    • 自己複製AI —これに関するコンピューターゲームがたくさんあります。AIは壊れ、ウイルスのように広がります。処理能力が高いほど、自身を保護し、さらに広がることができます。
  • コンピューティングリソースの侵入。より多くの計算能力がAIにとって有益である可能性があります。AIは、サーバーリソース、またはデスクトップとモバイルデバイスのリソースを購入または盗む可能性があります。極端に言えば、これは、すべてのデバイスが使用できなくなり、すぐに.worldに大混乱をもたらすことを意味します。また、大量の電力消費を意味する可能性があります(そして、発電所はコンピューターで制御されているため、「プラグを抜く」のは難しいでしょう!)
  • 自動化された工場。世界でより多くの物理的存在を獲得したいAGIは、工場を引き継いで、新しい工場を建設し、本質的にそれ自体のボディを作成できるロボットを生産することができます。
  • これらはかなり哲学的な考慮事項ですが、AIによって人間を破壊するものがあると主張する人もいます。
    • 劣等感。多くのAIエンティティが最高の人間よりも賢く、速く、信頼性が高く、創造的だったらどうでしょうか?
    • 無意味。ロボットが肉体労働の必要性に取って代わり、AIが知的労働の必要性に取って代わるので、私たちは本当に何もすることができません。AIがすでに先を行くので、誰もノーベル賞を受賞することはありません。そもそもなぜ教育を受けるのでしょうか?
    • モノカルチャー/停滞 —さまざまなシナリオ(単一の「慈悲深い独裁者」AGIなど)で、社会は新しいアイデアや何らかの変化なしに永続的なパターンに固定される可能性があります(そうかもしれませんが)。基本的に、勇敢な新世界。

AGIが近づいていると思いますが、これらの問題を最小限に抑えるために、これらの問題に留意する必要があります。


1
工場をプログラムし直してロボットを構築することができるAIの種類は、遠く離れていると思います。現代の「AI」は、本当に洗練されたパターン認識です。
user253751

「長期」と「AGI」と言いました。AGIは、定義により、洗練されたパターン認識をはるかに超えています。そして、「洗練されたパターン認識」は現実世界のアプリケーションで使用される最も一般的なものですが、他の方向にも多くの作業がすでにあります(特に問題の分解/アクション計画、IMOはこれらのタイプのシナリオの要です)。 )
アルテリウス

8

他の答えに加えて、私はnuking cookie factoryの例を追加したいと思います:

機械学習AIは基本的に、人間が説明する目標を達成しようとします。たとえば、人間はCookieファクトリを実行するAIを作成します。彼らが実装する目標は、最高の利益率でできるだけ多くのクッキーを販売することです。

ここで、十分に強力なAIを想像してください。このAIは、他のすべてのCookie工場を廃止すると、誰もが自分の工場でCookieを購入しなければならず、売り上げと利益が増加することに気付くでしょう。

したがって、ここでの人為的エラーは、アルゴリズムで暴力を使用することに対するペナルティを与えていません。人間はアルゴリズムがこの結論に達することを期待していなかったため、これは簡単に見落とされます。


8
これは、Unityで階段を登るために誰かがAIを訓練していたredditで見た実世界の例を思い出させます。多くの力で地面に押し込むことができ、物理学がグリッチを起こし、空中に飛び、トップで最速になることを発見しました。
GammaGames

2
または、さらに悪いことに、人間は原子を使って作られ、原子を使ってクッキーを作るのに適していると判断するでしょう。
nick012000

以前にこの議論を聞いたことがあります。AIの終末を予測する誤りの1つは、AIが何をするかを予測できないことです。それは... AIが他のクッキー会社をニューキングは世界経済を投げるとクッキーのための任意の潜在的な需要を破壊する可能性があることを認識するであろう経済学、需要と供給の法則完全に可能だ
ザック・ディアス

8

AIによる害に対する私のお気に入りのシナリオには、高度なインテリジェンスではなく、低いインテリジェンスが含まれます。具体的には、灰色のグー仮説。

これは、自己複製、自動化されたプロセスが実行され、すべてのリソースをそれ自体のコピーに変換する場所です。

ここでのポイントは、AIが高度な知性や一般的な知性を持っているという意味で「スマート」ではないということです。それは、たった1つのことで非常に優れており、指数関数的に複製する能力を持っています。


3
FWIW、人間はすでに灰色のグーです。私たちは利己的な灰色のグーであり、さらに効率的な灰色のグーに置き換えられたくありません。
user253751

1
@immibisそれはもちろん哲学ではなく、事実上のPOVです。人間と自己複製/自己維持型マシンを区別する人はたくさんいます。ゾンビ映画は、大多数があなたの定義を心から
受け継い

1
@immibis この回答が参照しているウィキペディアの灰色のグーの記事を読みましたか?この用語は、インテリジェントな動作ではなく、非インテリジェントな(ナノ)マシンが正常に動作することを指します。ですから、アルバート・アインシュタインは食べたときに食べなかったので、人間はそうではありません(AIもそうではありません)。
クバンチク

@kubanczyk「インテリジェンス」という用語の基本的な意味は、学界でも一般大衆でも広く誤解されているようです。インテリジェンスは、一般に(他の意思決定メカニズムに関連する)スペクトルであり、問​​題のコンテキストにおける特定の意思決定の有用性に基づいています。したがって、灰色のグーは知性がありますが、知性は限定的で狭くなります。
公爵

5

最大の本当の脅威は、すでに見られている不均衡/混乱です。国を90%失業させるという変化は現実のものであり、その結果(さらに不均等な富の分配となる)は、考えてみれば恐ろしいものです。


2
産業革命の最中に人々は同じことを言ったため、ほとんどの農業の仕事は冗長になりました。あなたは間違っていないかもしれませんが、個人的には心配していますが、トレンドを研究している調査では、これは問題ではなく、新しい仕事が開かれる可能性が高いことが示されています。
Programmdude

@Programmdude-産業革命の変化と、今後数十年で何が起こるかというPの出現による秘書職の排除との間にも根本的な違いがあると思います。
メイヨー

2
@Programmdudeそして人々は正しかった。産業革命は人々の生き方に関するすべてを変えました。それは富の分配と農場収入に存在する人々の能力の点で非常に破壊的でした。他の観点から:数百年後の未来を振り返る奴隷の所有者は、おそらくこの期間に対するAIの影響が状況を形成するので破壊的であるとは思わないでしょう。
ビルK

@BillK奴隷の所有者に関する部分まで、私はあなたと一緒にいました。AIは自己認識ではないことを知っていますか?
レイ

@Ray AIを意味するのではなく、AIを制御する(したがって、すべての富を持っている)人々を意味し、実際には、物事が私たちにとって理解できないほど異なるかもしれないことを指摘する方法でした振り返ってみると、その違いを感じます。
ビルK

5

私は、一般の人々の恐怖とは反対の方向に向かう例がありますが、それは非常に現実的なことであり、すでに起こっていることです。これはAI固有ではありませんが、AIによって悪化すると思います。これは、人間が重要なアプリケーションで盲目的AIの結論を信頼するという問題です。

私たちには、人間の専門家が決定を下すことになっている多くの分野があります。薬を例にとりましょう-薬Xと薬Yのどちらを与えるべきでしょうか?私が頭に浮かぶ状況は、頻繁に複雑な問題です(Cynefinの意味で)誰かに非常に注意を払い、多くの専門知識を使用することは本当に良いことであり、結果は本当に重要です。

医療情報学者には、医療におけるこの種の問題に対する意思決定支援システムを作成する必要があります(他のドメインでも同じタイプであると思います)。彼らは最善を尽くしますが、人間の専門家は常に、システムの提案を意思決定の際のもう1つの意見とみなすことを期待しています。多くの場合、知識の状態と開発者が利用できるリソースを考えると、それ以外のものを約束することは無責任です。典型的な例は、ラジオニクスにおけるコンピュータービジョンの使用です。患者はCTスキャンを取得し、AIは画像を処理して、患者に腫瘍があるかどうかを判断する必要があります。

もちろん、AIは完璧ではありません。ゴールドスタンダードに対して測定した場合でも、100%の精度を達成することはありません。そして、それ自体の目標メトリックに対してうまく機能するすべてのケースがありますが、問題は非常に複雑であるため、目標メトリックはそれをうまくキャプチャできません-CTコンテキストで例を考えることはできませんが、ここでは、アルゴリズムが投稿の人気を支持するSEでも見られますが、これは事実の正確さの不完全なプロキシです。

あなたはおそらくその最後の段落を読んでうなずき、「うん、私は最初の導入MLコースでそれを学んだ」と言った。何だと思う?医師は、入門的なMLコースを受講したことはありません。彼らはめったに、医学雑誌に掲載される論文の結論を理解するのに十分な統計的リテラシーを持っているわけではありません。彼らが彼らの27番目の患者に話しているとき、彼らの16時間のシフトに7時間、空腹で、そして感情的に排出されて、そしてCTはそれほど明確に見えないが、コンピューターは「それは悪性腫瘍ではない」と言う、彼らはしないさらに10分かけて画像に集中するか、教科書を調べるか、同僚に相談してください。彼らは、コンピューターが言うことを理解しているだけで、彼らの認知的負荷が再び急増していないことに感謝しています。そのため、彼らは専門家から、画面から何かを読む人になります。さらに悪いことに、一部の病院では、管理者がコンピューターを信頼するだけでなく、便利なスケープゴートであることもわかっています。そのため、医師はコンピュータの出力に反する悪い予感を抱いており、その予知に基づいて行動し、AIの意見を覆すことを選択したことを擁護することは困難になります。

AIは強力で便利なツールですが、ツール所有者を置き換えることができないタスクは常に存在します。


より多くの例を探している場合、機械学習を使用して保釈または仮釈放の申請者の再犯率を予測することに関する論争は良いものです。医師や裁判官が、医学的および法的専門知識に加えて、AIを理解するために必要な統計的専門知識のレベルを持つことを期待すべきではないことに同意します。AI設計者は、アルゴリズムの誤りを認識し、ユーザーに明確なガイダンスを提供する必要があります。たぶん、医師に結果を直接与えるのではなく、CTスキャンをどこで見るかを伝えてください。
craq

4

これは他の答えを補完することを意図しているだけなので、AIが人類を喜んで奴隷にしようとする可能性については説明しません。

しかし、すでに別のリスクがここにあります。私はそれを非マスター技術呼びます。私は科学技術を教えられており、私見、AI 自体には善悪の概念も自由もありません。しかし、それは人間によって構築および使用され、そのため非合理的な行動が関与する可能性があります。

AIよりも一般的なITに関連した実生活の例から始めます。ウイルスやその他のマルウェアについて話します。コンピューターは、データをすばやく処理するのに適したかなり愚かなマシンです。したがって、ほとんどの人はそれらに依存しています。一部の(悪い)人は、コンピューターの正しい動作を混乱させるマルウェアを開発します。そして、コンピューターの損失に十分に備えていない中小規模の組織にひどい影響を与える可能性があることは誰もが知っています。

AIはコンピューターベースであるため、コンピュータータイプの攻撃に対して脆弱です。ここでの例は、AI駆動の車です。このテクノロジーはほぼ準備完了です。しかし、マルウェアが道路上の他の人を攻撃しようとする車の影響を想像してください。AIのコードに直接アクセスしなくても、サイドチャネルによって攻撃される可能性があります。たとえば、カメラを使用して信号標識を読み取ります。しかし、機械学習の実装方法のために、AIジェネラリーは、人間と同じようにシーンを分析しません。研究者たちは、普通の人間にはまだ元の記号が見えるが、AIには別の記号が見えるように記号を変更できることを示しました。標識が道路優先標識であると想像してみてください...

つまり、たとえAIに悪意がなくても、悪者はそれをひどく振る舞わせることができます。そして、より重要なアクション(AI、医療、車、飛行機、爆弾とは言えない)に委任されるリスクが高くなります。別の言い方をすれば、私はAI自体を本当に恐れているのではなく、人間がAIを使用できる方法を恐れています。


3

最も現実的な(つまり、現在の既存のAIに関連する)リスクの1つは、2つの理由により、教師なしのAIに盲目的に依存していることにあると思います。

1. AIシステムが劣化する可能性があります

AIシステムの物理エラーは、物理システムが間違った値を提供し始めるため、テストされていない地域でひどく間違った結果を生成し始める可能性があります。これは、セルフテストと冗長性によって引き換えられることもありますが、それでも人の監督が必要になる場合があります。

自己学習型AIにはソフトウェアの弱点もあります。重みネットワークまたは統計的表現は、1つの誤った結果で立ち往生する極小値に近づく場合があります。

2. AIシステムは偏っている

これは幸いにも頻繁に議論されますが、言及する価値があります:AIシステムの入力の分類は、トレーニング/テストデータセットにもバイアスがかかっているため、しばしばバイアスがかかっています。これにより、より明確な例として、AIは特定の民族の人々を認識しなくなります。ただし、AIが特定のデータを認識せず、工場で誤って発火したり、機器を壊したり、人を傷つけたりするなど、何らかの悪い事故の後にのみ発見される明白なケースはあまりありません。


これは良い、現代的な答えです。ニューラルネットワークなどの「ブラックボックス」AIは、絶対的な方法でテストすることが不可能であるため、100%未満の予測が可能になり、ひいては100%未満の信頼性になります。AIが特定の問題に対する代替戦略を開発する時期と、この代替戦略が私たちにどのように影響するかはわかりません。これは、車の運転やリソースの管理などの重要なタスクをAIに依存したい場合、これは非常に大きな問題です。
ランスロット

1

ロボットがヒューマンマシンインターフェースに似ている場合、デバイスはリモートコントロールされた車と同じです。ジョイスティックの後ろのオペレーターと話し合い、希望的な行動について交渉することができます。遠隔操作ロボットは、その行動を人間にまでさかのぼることができ、その動機を予測できるため、安全な発明です。彼らは日常生活を改善するために使用することができ、彼らと遊ぶのは面白いです。

対照的に、一部のロボットはジョイスティックで制御されず、内部のダイスジェネレーターで動作します。サイコロのおもちゃは、ギャンブルにおける社会的役割から知られていますが、神秘的な意味も持っています。通常、ランダムジェネレーターは、人間の影響の外にある暗黒の力によって制御されるカオス的挙動と強く関係しています。ロボットに組み込まれ、学習アルゴリズムで改善された電子サイコロは、ヒューマンマシンインターフェイスの反対ですが、ランダムに制御されたロボットは予想できない人間とゲームをプレイするため、潜在的なトラブルメーカーです。次のサイコロの数を予測することは不可能であるため、ロボットも突然動作します。

ランダムに制御されたゲームと負の社会的影響との関係は、次の文で説明されました。

引用:「多くの伝統的な非西洋社会では、ギャンブラーは成功を神に祈り、神の意志の観点から勝ち負けを説明するかもしれません。“ビンデ、パー。「ギャンブルと宗教:一致と対立の歴史。」Journal of Gambling Issues 20(2007):145-165。


1

現在、人間は「考えるもの」の生態学的経済的ニッチに存在しています。

AIも考えているものであるため、生態学的経済的ニッチに侵入するでしょう。生態学と経済学の両方で、あなたのニッチを他のものが占めることは、存続を続けるための素晴らしい計画ではありません。

これによって人間の生存がどの程度正確に損なわれるかは、かなり混chaとしたものになります。AIが種として、あるいは支配的な生命体としてさえ、人間の生存を危険にさらす可能性のある多くの妥当な方法があります。


「超倫理」のない強力なAIがあり、人間よりも製造が安く(「ボディ」や世界を操作する方法を含む)、人間よりもスマートまたはスマートであるとします。

これは、リソースを求めてAIと競合し始めるケースです。それはミクロ経済規模で起こります(この問題を解決するために、人間を雇うのでしょうか、それともAIを購入/構築/レンタル/雇うのでしょうか?)。AIが人よりも安くなり、スマートになる速度に応じて、これはゆっくり(一度に1つの業界)または非常に高速に行われます。

資本主義競争では、安価なAIに移行しないものは最終的に競争力を失います。

現在、短期的には、AIの利点がわずかなものである場合、生産性が向上する前に20年にわたって人間を教育するための高コストが、このプロセスを遅くする可能性があります。この場合、AIの代わりに病気を診断するために医師に飢w賃金以上の支払いをする価値があるかもしれませんが、おそらく学生ローンを返済する価値はありません。したがって、新しい人間の医師は急速に訓練されなくなり、既存の医師は貧困に陥ります。その後、20〜30年以上にわたり、AIは診断目的で医師に完全に取って代わります。

AIの利点が大きい場合は、迅速になります。医師は、人間の診断を行うために貧困レベルの賃金を支払う価値さえありません。ガソリンベースの農業が引き継いだときに、筋肉ベースの農業でそのようなことが起こっているのを見ることができます。

過去の産業革命の間、人間が考えることができるという事実は、余剰の人間労働者を他の行動に再利用できることを意味します。製造ライン、サービスエコノミージョブ、コンピュータープログラミングなど。しかし、このモデルでは、AIはその種の仕事での人間よりもトレーニングや構築が安く、スマートまたはスマートです。

エタノールに誘発されたアラブの春から明らかなように、作物と農地は機械と人間の両方の燃料として使用できます。耕作地を有用な仕事に変えるという点で機械がより効率的になると、食物の価格上昇が見られるようになります。これは通常、暴動につながります。人々は本当に飢えて死ぬのが好きではなく、これを防ぐために政府を転覆するために自分の命を危険にさらすつもりです。

助成金付きの食料などを提供することで、人々を和らげることができます。これが経済的に不自由ではない限り(つまり、十分に高価な場合、これを行わない他の場所から競合する可能性があります)、これは単に政治的に不安定です。

別の方法として、短期的には、ますます効率的なAI経営の経済から利益を得ている所有カーストは、警察や軍カーストがこの暴動を鎮めるために支払うことができます。これには、忠誠心を維持するために、警察/軍事カーストが生活水準の上下中流階級であることが必要です-暴徒に加わらないようにする必要があります。

したがって、AIを導入できる利益センターの1つは、AIベースの軍事および警察です。視覚およびその他のデータフィードの処理に基づいて致命的および非致死的兵器を提供するドローンは、食糧価格の暴動やその他の不安定性を抑えるために必要な中流階級の警察/軍隊の数を減らすことができます。AIは生物や人間よりも安価な身体とトレーニングを備えていると既に述べたように、これは支出1ドルあたりに展開できる力の量を増やすこともできます。

この時点で、私たちは、飢えた人間がAIラン経済を打倒し、現在使用されているより効率的な使用から生産手段を奪うことを防ぐために使用されている主にAIラン警察と軍隊について話している。

最上位のシステムを「所有」している痕跡の人間は、富と権力を最適化するために地元で合理的な決定を下しています。それらは長期間持続する場合としない場合があります。比較的少量のリソースを消費し、AI実行の経済を台無しにしない限り、それらを取り除くための選択のプレッシャーはあまりありません。他方、彼らは価値のないものを何も提供していないので、彼らは「トップ」に位置することは政治的に不安定です。

このプロセスは、「強力な」一般的なAIを想定しています。狭いAIはこれを断片的に実行できます。例えば、安価で効果的な診断用コンピューターは、驚くほど短期間でほとんどの医師を貧困に陥れる可能性があります。自動運転車は、経済の5〜10%を飲み込む可能性があります。情報技術はすでに控えめなAIで小売部門を飲み込んでいます。

技術の進歩はすべて、人間のより良い仕事につながると言われています。そして、これは過去300年以上にわたって真実です。

しかし、1900年以前は、技術の進歩が馬の仕事をより良くすることも事実でした。その後、ICEと自動車が到着し、現在では作業馬がはるかに少なくなっています。残りの馬は基本的に人間の個人使用人に相当します。「すごい、かっこいい、馬」の斬新さと、巨大な動物に乗って制御する楽しみのために保持されます。


1

すでに提供されている多くの答えに加えて、敵対的な例の問題を取り上げます、画像モデルの分野でのます。

敵対的な例は、多くの場合人間の観察者には知覚できないが、モデルの予測を大きく変える特別に設計されたノイズで混乱した画像です。

例は次のとおりです。


0

現実世界の問題を解決するために使用されるAIは、人類にリスクをもたらす可能性があり、必ずしも感覚を必要としません。これには、ある程度の人間の愚かさも必要です。

人間とは異なり、AIは感情、倫理、または欲の制約なしで最も論理的な答えを見つけます...論理のみ。このAIに、人間が作成した問題(気候変動など)を解決する方法を尋ねると、その解決策は、人類全体を排除して地球を保護することです。明らかにこれには、AIにその結果に基づいて行動する能力を与える必要があり、それが私の以前のポイントである人間の愚かさを私にもたらします。


0

人工知能は、(人間の)自然知能のいずれかの方法で私たちを傷つける可能性があります。自然と人工知能の区別は、人間がより密接に自分自身を増強し始めると消えます。知性はもはやアイデンティティを特徴づけることができず、無限の所有物になります。引き起こされる害は、進化する自己同一性を維持するために人間が耐えることができる限りのものです。


0

私たちの世界経済がAIであると考えられるべきだということを理解している人はほとんどいません。ニューラルネットのノードは、さまざまな企業または個人がお金を支払いまたは受け取ることになります。-それは人工であるので、人工の資格があります

このニューラルネットワークは、人間よりもタスクにおいて優れています。資本主義は、人間が計画した経済(計画経済)に対して常に勝ちました。

このニューラルネットは危険ですか?企業廃棄物で汚染された川で漁師と大きな収入を得ているCEOの場合は異なる場合があります。

このAIはどのように危険になりましたか?それは人間の欲望によるものだと答えることができます。私たちの創造は自分自身を反映しています。つまり、ニューラルネットワークを適切に動作するようにトレーニングしていません。すべての人間の生活の質を向上させるためにニューラルネットをトレーニングする代わりに、リッチフォークをより豊かにするようにトレーニングしました。

このAIが危険でなくなるようにトレーニングするのは簡単でしょうか?たぶんそうではないかもしれませんが、一部のAIは人生よりも大きいだけかもしれません。それはまさに適者生存です。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.