人工知能は人間を傷つけたり、殺したりする可能性があるとよく耳にします。
人工知能はどのように私たちを傷つけることができますか?
人工知能は人間を傷つけたり、殺したりする可能性があるとよく耳にします。
人工知能はどのように私たちを傷つけることができますか?
回答:
多くがあり、有効な人々が恐れるかもしれない(またはより良い理由を心配すること)AIは、すべてのロボットと終末論的なシナリオを伴いません、。
これらの懸念をよりよく説明するために、これらを3つのカテゴリに分けてみます。
これはあなたの質問が言及しているAIのタイプです。人類を破壊/奴隷化する超インテリジェントな意識AI。これは主にサイエンスフィクションによってもたらされます。ハリウッドの有名な例には、「ターミネーター」、「マトリックス」、「ウルトロンの時代」があります。最も影響力のある小説はアイザック・アシモフによって書かれ、「ロボットシリーズ」と呼ばれています(「I、robot」、映画としても改作されました)。
これらの作品のほとんどでの基本的な前提は、AIが意識的になり、知性において人間を上回るまで進化するということです。ハリウッド映画は主にロボットとロボットと人間との戦いに焦点を当てていますが、実際のAI(つまり、それらを制御する「脳」)には十分な重点が置かれていません。サイドノートとして、物語のために、このAIは通常、すべてを制御するスーパーコンピューターとして描かれています(主人公が特定のターゲットを持つようにするため)。「あいまいなインテリジェンス」については十分な調査が行われていません(より現実的だと思います)。
現実の世界では、AIは特定のタスクの解決に焦点を当てています!さまざまな領域の問題を解決できるAIエージェント(たとえば、音声の理解、画像の処理、運転など-人間のように)は、一般的な人工知能と呼ばれ、AIが「思考」し、なるために必要です意識します。
現実的には、私たちはGeneral Artificial Intelligenceからの方法です。それが将来これを達成できない理由についての証拠はないと言われている。そのため、現時点では、まだAIの初期段階にあるとしても、AIが人間よりもインテリジェントになるまで進化しないと信じる理由はありません。
AIが世界を征服するのはまだまだ先のことですが、今日のAIに関心を持つ理由はいくつかあります。もう1つ注目したいカテゴリは、今日のAIの悪意のある使用です。
今日利用できるAIアプリケーションにのみ焦点を当てます。悪意のある目的に使用できるAIの例:
DeepFake:画像に他の人の顔を他の人のビデオに押し付ける手法。これは最近、セレブポルノで人気を集めており、偽のニュースやデマを生成するために使用できます。出典:1、2、3
用いて質量監視システム及び顔認識認識することができるソフトウェア毎秒面の何百万、AIは、質量監視のために使用することができます。大衆監視について考えるとき、中国について考えるとき、ロンドン、アトランタ、ベルリンのような多くの西部の都市は、世界で最も監視されている都市の一つです。中国は、社会的信用システムを採用することで、さらに一歩踏み出しました。これは、ジョージオーウェルの1984年のページから直接取り上げられていると思われる民間人向けの評価システムです。
ソーシャルメディアを通じて人々に影響を与えます。ターゲットマーケティングとプレースメントの追加を目的としてユーザーの好みを認識すること(多くのインターネット企業で一般的な慣行)の他に、AIは(とりわけ)人々の投票に悪影響を及ぼす可能性があります。出典:1、2、3。
ドローン攻撃、ミサイルターゲティングシステムなどの軍事用途。
このカテゴリはかなり主観的ですが、AIの開発にはいくつかの有害な副作用が伴う可能性があります。このカテゴリと以前のカテゴリの違いは、これらの効果は有害ではありますが、意図的に行われないことです。むしろ、AIの開発で発生します。以下に例を示します。
仕事が冗長になる。AIが良くなると、多くの仕事がAIに置き換えられます。残念ながら、ほとんどの技術開発にはこの副作用があるため、これについてできることはあまりありません(たとえば、農業機械が多くの農家を失業させ、オートメーションが多くの工場労働者を置き換え、コンピューターも同じようになりました)。
データのバイアスを強化します。これは非常に興味深いカテゴリです。AI(特にニューラルネットワーク)は、訓練されたデータと同じくらい優れているだけであり、データに既に存在するさまざまな形態の社会的バイアスを永続化し、さらには高める傾向さえあります。人種差別的および性差別的な行動を示すネットワークの例は数多くあります。ソース:1、2、3、4。
これらのすべてが既に本格化していることを言及しましたか?
AIとAGIの間に明確な境界線はありませんが、このセクションでは、AGIに向かってさらに進むとどうなるかについて詳しく説明します。次の2つの選択肢があります。
最初のケースでは、AIが「不正」になった場合、他のAIを構築して、それを裏切り、中和します。2番目のケースでは、できませんし、運命にあります。AIは新しい生命体になり、私たちは絶滅するかもしれません。
潜在的な問題を次に示します。
AGIが近づいていると思いますが、これらの問題を最小限に抑えるために、これらの問題に留意する必要があります。
他の答えに加えて、私はnuking cookie factoryの例を追加したいと思います:
機械学習AIは基本的に、人間が説明する目標を達成しようとします。たとえば、人間はCookieファクトリを実行するAIを作成します。彼らが実装する目標は、最高の利益率でできるだけ多くのクッキーを販売することです。
ここで、十分に強力なAIを想像してください。このAIは、他のすべてのCookie工場を廃止すると、誰もが自分の工場でCookieを購入しなければならず、売り上げと利益が増加することに気付くでしょう。
したがって、ここでの人為的エラーは、アルゴリズムで暴力を使用することに対するペナルティを与えていません。人間はアルゴリズムがこの結論に達することを期待していなかったため、これは簡単に見落とされます。
AIによる害に対する私のお気に入りのシナリオには、高度なインテリジェンスではなく、低いインテリジェンスが含まれます。具体的には、灰色のグー仮説。
これは、自己複製、自動化されたプロセスが実行され、すべてのリソースをそれ自体のコピーに変換する場所です。
ここでのポイントは、AIが高度な知性や一般的な知性を持っているという意味で「スマート」ではないということです。それは、たった1つのことで非常に優れており、指数関数的に複製する能力を持っています。
最大の本当の脅威は、すでに見られている不均衡/混乱です。国を90%失業させるという変化は現実のものであり、その結果(さらに不均等な富の分配となる)は、考えてみれば恐ろしいものです。
私は、一般の人々の恐怖とは反対の方向に向かう例がありますが、それは非常に現実的なことであり、すでに起こっていることです。これはAI固有ではありませんが、AIによって悪化すると思います。これは、人間が重要なアプリケーションで盲目的にAIの結論を信頼するという問題です。
私たちには、人間の専門家が決定を下すことになっている多くの分野があります。薬を例にとりましょう-薬Xと薬Yのどちらを与えるべきでしょうか?私が頭に浮かぶ状況は、頻繁に複雑な問題です(Cynefinの意味で)誰かに非常に注意を払い、多くの専門知識を使用することは本当に良いことであり、結果は本当に重要です。
医療情報学者には、医療におけるこの種の問題に対する意思決定支援システムを作成する必要があります(他のドメインでも同じタイプであると思います)。彼らは最善を尽くしますが、人間の専門家は常に、システムの提案を意思決定の際のもう1つの意見とみなすことを期待しています。多くの場合、知識の状態と開発者が利用できるリソースを考えると、それ以外のものを約束することは無責任です。典型的な例は、ラジオニクスにおけるコンピュータービジョンの使用です。患者はCTスキャンを取得し、AIは画像を処理して、患者に腫瘍があるかどうかを判断する必要があります。
もちろん、AIは完璧ではありません。ゴールドスタンダードに対して測定した場合でも、100%の精度を達成することはありません。そして、それ自体の目標メトリックに対してうまく機能するすべてのケースがありますが、問題は非常に複雑であるため、目標メトリックはそれをうまくキャプチャできません-CTコンテキストで例を考えることはできませんが、ここでは、アルゴリズムが投稿の人気を支持するSEでも見られますが、これは事実の正確さの不完全なプロキシです。
あなたはおそらくその最後の段落を読んでうなずき、「うん、私は最初の導入MLコースでそれを学んだ」と言った。何だと思う?医師は、入門的なMLコースを受講したことはありません。彼らはめったに、医学雑誌に掲載される論文の結論を理解するのに十分な統計的リテラシーを持っているわけではありません。彼らが彼らの27番目の患者に話しているとき、彼らの16時間のシフトに7時間、空腹で、そして感情的に排出されて、そしてCTはそれほど明確に見えないが、コンピューターは「それは悪性腫瘍ではない」と言う、彼らはしないさらに10分かけて画像に集中するか、教科書を調べるか、同僚に相談してください。彼らは、コンピューターが言うことを理解しているだけで、彼らの認知的負荷が再び急増していないことに感謝しています。そのため、彼らは専門家から、画面から何かを読む人になります。さらに悪いことに、一部の病院では、管理者がコンピューターを信頼するだけでなく、便利なスケープゴートであることもわかっています。そのため、医師はコンピュータの出力に反する悪い予感を抱いており、その予知に基づいて行動し、AIの意見を覆すことを選択したことを擁護することは困難になります。
AIは強力で便利なツールですが、ツール所有者を置き換えることができないタスクは常に存在します。
これは他の答えを補完することを意図しているだけなので、AIが人類を喜んで奴隷にしようとする可能性については説明しません。
しかし、すでに別のリスクがここにあります。私はそれを非マスター技術と呼びます。私は科学技術を教えられており、私見、AI 自体には善悪の概念も自由もありません。しかし、それは人間によって構築および使用され、そのため非合理的な行動が関与する可能性があります。
AIよりも一般的なITに関連した実生活の例から始めます。ウイルスやその他のマルウェアについて話します。コンピューターは、データをすばやく処理するのに適したかなり愚かなマシンです。したがって、ほとんどの人はそれらに依存しています。一部の(悪い)人は、コンピューターの正しい動作を混乱させるマルウェアを開発します。そして、コンピューターの損失に十分に備えていない中小規模の組織にひどい影響を与える可能性があることは誰もが知っています。
AIはコンピューターベースであるため、コンピュータータイプの攻撃に対して脆弱です。ここでの例は、AI駆動の車です。このテクノロジーはほぼ準備完了です。しかし、マルウェアが道路上の他の人を攻撃しようとする車の影響を想像してください。AIのコードに直接アクセスしなくても、サイドチャネルによって攻撃される可能性があります。たとえば、カメラを使用して信号標識を読み取ります。しかし、機械学習の実装方法のために、AIジェネラリーは、人間と同じようにシーンを分析しません。研究者たちは、普通の人間にはまだ元の記号が見えるが、AIには別の記号が見えるように記号を変更できることを示しました。標識が道路優先標識であると想像してみてください...
つまり、たとえAIに悪意がなくても、悪者はそれをひどく振る舞わせることができます。そして、より重要なアクション(AI、医療、車、飛行機、爆弾とは言えない)に委任されるリスクが高くなります。別の言い方をすれば、私はAI自体を本当に恐れているのではなく、人間がAIを使用できる方法を恐れています。
最も現実的な(つまり、現在の既存のAIに関連する)リスクの1つは、2つの理由により、教師なしのAIに盲目的に依存していることにあると思います。
AIシステムの物理エラーは、物理システムが間違った値を提供し始めるため、テストされていない地域でひどく間違った結果を生成し始める可能性があります。これは、セルフテストと冗長性によって引き換えられることもありますが、それでも人の監督が必要になる場合があります。
自己学習型AIにはソフトウェアの弱点もあります。重みネットワークまたは統計的表現は、1つの誤った結果で立ち往生する極小値に近づく場合があります。
これは幸いにも頻繁に議論されますが、言及する価値があります:AIシステムの入力の分類は、トレーニング/テストデータセットにもバイアスがかかっているため、しばしばバイアスがかかっています。これにより、より明確な例として、AIは特定の民族の人々を認識しなくなります。ただし、AIが特定のデータを認識せず、工場で誤って発火したり、機器を壊したり、人を傷つけたりするなど、何らかの悪い事故の後にのみ発見される明白なケースはあまりありません。
ロボットがヒューマンマシンインターフェースに似ている場合、デバイスはリモートコントロールされた車と同じです。ジョイスティックの後ろのオペレーターと話し合い、希望的な行動について交渉することができます。遠隔操作ロボットは、その行動を人間にまでさかのぼることができ、その動機を予測できるため、安全な発明です。彼らは日常生活を改善するために使用することができ、彼らと遊ぶのは面白いです。
対照的に、一部のロボットはジョイスティックで制御されず、内部のダイスジェネレーターで動作します。サイコロのおもちゃは、ギャンブルにおける社会的役割から知られていますが、神秘的な意味も持っています。通常、ランダムジェネレーターは、人間の影響の外にある暗黒の力によって制御されるカオス的挙動と強く関係しています。ロボットに組み込まれ、学習アルゴリズムで改善された電子サイコロは、ヒューマンマシンインターフェイスの反対ですが、ランダムに制御されたロボットは予想できない人間とゲームをプレイするため、潜在的なトラブルメーカーです。次のサイコロの数を予測することは不可能であるため、ロボットも突然動作します。
ランダムに制御されたゲームと負の社会的影響との関係は、次の文で説明されました。
引用:「多くの伝統的な非西洋社会では、ギャンブラーは成功を神に祈り、神の意志の観点から勝ち負けを説明するかもしれません。“ビンデ、パー。「ギャンブルと宗教:一致と対立の歴史。」Journal of Gambling Issues 20(2007):145-165。
現在、人間は「考えるもの」の生態学的経済的ニッチに存在しています。
AIも考えているものであるため、生態学的経済的ニッチに侵入するでしょう。生態学と経済学の両方で、あなたのニッチを他のものが占めることは、存続を続けるための素晴らしい計画ではありません。
これによって人間の生存がどの程度正確に損なわれるかは、かなり混chaとしたものになります。AIが種として、あるいは支配的な生命体としてさえ、人間の生存を危険にさらす可能性のある多くの妥当な方法があります。
「超倫理」のない強力なAIがあり、人間よりも製造が安く(「ボディ」や世界を操作する方法を含む)、人間よりもスマートまたはスマートであるとします。
これは、リソースを求めてAIと競合し始めるケースです。それはミクロ経済規模で起こります(この問題を解決するために、人間を雇うのでしょうか、それともAIを購入/構築/レンタル/雇うのでしょうか?)。AIが人よりも安くなり、スマートになる速度に応じて、これはゆっくり(一度に1つの業界)または非常に高速に行われます。
資本主義競争では、安価なAIに移行しないものは最終的に競争力を失います。
現在、短期的には、AIの利点がわずかなものである場合、生産性が向上する前に20年にわたって人間を教育するための高コストが、このプロセスを遅くする可能性があります。この場合、AIの代わりに病気を診断するために医師に飢w賃金以上の支払いをする価値があるかもしれませんが、おそらく学生ローンを返済する価値はありません。したがって、新しい人間の医師は急速に訓練されなくなり、既存の医師は貧困に陥ります。その後、20〜30年以上にわたり、AIは診断目的で医師に完全に取って代わります。
AIの利点が大きい場合は、迅速になります。医師は、人間の診断を行うために貧困レベルの賃金を支払う価値さえありません。ガソリンベースの農業が引き継いだときに、筋肉ベースの農業でそのようなことが起こっているのを見ることができます。
過去の産業革命の間、人間が考えることができるという事実は、余剰の人間労働者を他の行動に再利用できることを意味します。製造ライン、サービスエコノミージョブ、コンピュータープログラミングなど。しかし、このモデルでは、AIはその種の仕事での人間よりもトレーニングや構築が安く、スマートまたはスマートです。
エタノールに誘発されたアラブの春から明らかなように、作物と農地は機械と人間の両方の燃料として使用できます。耕作地を有用な仕事に変えるという点で機械がより効率的になると、食物の価格上昇が見られるようになります。これは通常、暴動につながります。人々は本当に飢えて死ぬのが好きではなく、これを防ぐために政府を転覆するために自分の命を危険にさらすつもりです。
助成金付きの食料などを提供することで、人々を和らげることができます。これが経済的に不自由ではない限り(つまり、十分に高価な場合、これを行わない他の場所から競合する可能性があります)、これは単に政治的に不安定です。
別の方法として、短期的には、ますます効率的なAI経営の経済から利益を得ている所有カーストは、警察や軍カーストがこの暴動を鎮めるために支払うことができます。これには、忠誠心を維持するために、警察/軍事カーストが生活水準の上下中流階級であることが必要です-暴徒に加わらないようにする必要があります。
したがって、AIを導入できる利益センターの1つは、AIベースの軍事および警察です。視覚およびその他のデータフィードの処理に基づいて致命的および非致死的兵器を提供するドローンは、食糧価格の暴動やその他の不安定性を抑えるために必要な中流階級の警察/軍隊の数を減らすことができます。AIは生物や人間よりも安価な身体とトレーニングを備えていると既に述べたように、これは支出1ドルあたりに展開できる力の量を増やすこともできます。
この時点で、私たちは、飢えた人間がAIラン経済を打倒し、現在使用されているより効率的な使用から生産手段を奪うことを防ぐために使用されている主にAIラン警察と軍隊について話している。
最上位のシステムを「所有」している痕跡の人間は、富と権力を最適化するために地元で合理的な決定を下しています。それらは長期間持続する場合としない場合があります。比較的少量のリソースを消費し、AI実行の経済を台無しにしない限り、それらを取り除くための選択のプレッシャーはあまりありません。他方、彼らは価値のないものを何も提供していないので、彼らは「トップ」に位置することは政治的に不安定です。
このプロセスは、「強力な」一般的なAIを想定しています。狭いAIはこれを断片的に実行できます。例えば、安価で効果的な診断用コンピューターは、驚くほど短期間でほとんどの医師を貧困に陥れる可能性があります。自動運転車は、経済の5〜10%を飲み込む可能性があります。情報技術はすでに控えめなAIで小売部門を飲み込んでいます。
技術の進歩はすべて、人間のより良い仕事につながると言われています。そして、これは過去300年以上にわたって真実です。
しかし、1900年以前は、技術の進歩が馬の仕事をより良くすることも事実でした。その後、ICEと自動車が到着し、現在では作業馬がはるかに少なくなっています。残りの馬は基本的に人間の個人使用人に相当します。「すごい、かっこいい、馬」の斬新さと、巨大な動物に乗って制御する楽しみのために保持されます。
私たちの世界経済がAIであると考えられるべきだということを理解している人はほとんどいません。ニューラルネットのノードは、さまざまな企業または個人がお金を支払いまたは受け取ることになります。-それは人工であるので、人工の資格があります
このニューラルネットワークは、人間よりもタスクにおいて優れています。資本主義は、人間が計画した経済(計画経済)に対して常に勝ちました。
このニューラルネットは危険ですか?企業廃棄物で汚染された川で漁師と大きな収入を得ているCEOの場合は異なる場合があります。
このAIはどのように危険になりましたか?それは人間の欲望によるものだと答えることができます。私たちの創造は自分自身を反映しています。つまり、ニューラルネットワークを適切に動作するようにトレーニングしていません。すべての人間の生活の質を向上させるためにニューラルネットをトレーニングする代わりに、リッチフォークをより豊かにするようにトレーニングしました。
このAIが危険でなくなるようにトレーニングするのは簡単でしょうか?たぶんそうではないかもしれませんが、一部のAIは人生よりも大きいだけかもしれません。それはまさに適者生存です。