ゲーム理論を使用した研究トピックの選択


19

この最近のゲーム理論の質問は、私に考えさせられました(もちろん接線です):ゲーム理論を使用して取り組む研究質問を選択するための個人的な戦略を効率的に最適化することは可能ですか?

質問の形式化に向かう​​ために、次の(非公式に述べられた)仮定を行います。

  • 私は同様に、私が利用できる特定の問題を「楽しんで」います(「好きなことをしてください!」という「ソフト」(そして正しい!)答えを避けるために)。
  • 私が取り組むことを選択した特定の問題に対する答えを見つけることに成功する場合も、しない場合もあります。どんな問題に対しても、問題を解決するのにどれだけ上手くいくかの確率の見積もりがあります(それに時間を費やした後)。
  • 私の目標は、最終的に評価されるとき(仕事に応募する、テニュアに応募する、フェローシップに応募する、など)に私の報酬を最大化することです。 。私は問題ごとの正確な見返りについて明確な考えを持っていませんが、合理的な見積もりをすることができます。
  • 問題のペイオフと問題の難易度の間には、緩やかな逆の関係があります。私の目標のもう1つの声明は、違いを「ゲーム」することです(つまり、「ぶら下がり果物」を探します)。
  • この全体的な問題のインスタンスは、研究の質問のリスト(おそらく無限数)によって指定され、それに質問の価値と質問の難易度の見積もりをしっかりと付けます(計算コストなしで、入力として与えられます)。私は敵(私を評価している人)に対してこのゲームをプレイしています。自然は、与えられた問題を解決する確率を与えられ、それを試みることを選択した後に問題を解決するかどうかを決定します。

何が起こっているのかを実際に形式化するために(そして、興味のない、または議論/議論型の応答を回避します)、この問題を、無限のアクションセットを持つ不完全な情報を持つ広範な形式のゲームと見なします。


質問:このタイプのゲームは効率的に計算できないと思います。しかし、ほぼ私のペイオフを最大化する多項式時間アルゴリズムはありますか?PTASはどうですか?

または、代わりに、この問題に対してより正確なゲーム理論モデルがありますか?もしそうなら、同じ質問が成り立ちます:私は(およそ)ペイオフを効率的に最大化できますか?もしそうなら、どのように?


4
これをゲームとして定式化する際の潜在的な問題の1つは、あなたを評価する人物であるあなたの敵が必ずしもあなたと対戦していないことです。確かに、彼らはあなたの側にいる場合が多く、最低限の要件を満たしていない場合にのみあなたが失敗するのを喜んで見ます。別の可能性のある敵は他のすべての研究者です。彼らは同じ問題に(おそらく共同で)取り組んでいる可能性があり、そのためあなたが結果を得る前に結果を得ようとしてあなたに反対しているからです。
デイブクラーク

この質問の目的のために(できる限り議論を避けたいので、これは良い質問です...)、私を評価している人が本当に最高の個人を1人だけ選択するという深刻なプレッシャーにさらされていると仮定しましょう特定の報酬であるため、敵対者です。また、「真にオリジナルなものはすべてそれだけである:オリジナル」であると仮定しましょう。したがって、他の研究者は深刻な懸念ではありません。私は(もちろん!)個人的に他の可能性に興味がありますが、それを開いたままにしておくと悪い答えを招くと思います。:)
ダニエルアポン

別のモデルに値する可能性のある問題の1つの要因:取り組むことを選択した問題ごとの成功/報酬構造の確率の評価。
ダニエルアポン

2
RTriPi(t)t

2
もちろん、実際には、あなたが答える各質問はより多くの質問のロックを解除します。事前に予測することはできませんが、開始した一連の質問よりもはるかに簡単で価値がありますが、戦略ツリーを作成し始めるとこのように、あなたがゲームについて言える面白いことを見つける可能性は劇的に低下します。
ピーターショー

回答:


4

質問の代替モデルを提案して、あなたの質問に答えようとします。私は通常ここで答えるよりも多くの質問をするので、最善を尽くしていますが、私の答えが最適でない場合はあなたが許すことを願っています。

ゲーム理論を有効にするのに最適な質問を表現する方法は、より競争力のあるシナリオを想定することだと思います。すなわち、さまざまな異なる俳優の間で競争が必要です。だから、私は次のことを仮定します:

  • 大きいが有限数があるnは私が呼ぶ可能な研究課題、同じセットの追求しようとする他の研究者のQを、あなたが興味を持っていることは、。
  • 各研究問題は、次の特性によって定義されます。
    • 問題を解決できるかどうかを把握するために必要な時間投資(またはI
    • 問題の解決における成功の確率、またはS 「真実の瞬間」に到達し、十分な時間を投資すると、問題を解決できるかどうかをランダムに決定します
    • 成功が達成されれば、あなたのキャリア、またはU(ユーティリティなど)に利益をもたらします
  • これらの研究者はそれぞれ、次の量の異なるレベルを持っています。
    • 研究への投資に利用できる時間、t
    • 研究の才能、r
    • 対人関係のスキルと他のキャリアを支援する資質、l(好意的など)。これは、研究者がキャリアアップのために研究の成功をいかに活用するかを決定します。

さて、どんな問題でも協力できないと仮定して、これから「動的反復ゲーム」と呼ぶものを考えてみましょう。これは繰り返しプレイされるゲームですが、プレイされるたびにわずかに変化します。

してみましょうMは、ゲーム内で、移動、または巻数こと。ゲームの最初の兆候は、すべてのアクター(研究者)と彼らが取り組むことができるすべての問題に加えて、各アクターと上記の各問題に関連付けられたすべての値を含むリストとして表すことができます。(もちろん、私はすべての研究者が現在すべての問題について、および他のすべての研究者について現在知られているすべてを知っていると仮定し、これを完璧な情報のゲームにしている。)

ゲームの各反復中に、特定のアクターは研究課題を選択して取り組みます。各アクターはいつでも質問を切り替えることができ、問題が解決した場合、他のすべてのプレーヤーのキャリアUに対するメリットは0になります。プレーヤーが十分な時間を費やして問題を解決できない場合、その特定のプレーヤーは再びその問題を解決しようとすることを禁止されます...ただし、他のプレーヤーは問題に取り組むことを許可され、別の俳優が解決できる可能性があります成功しました。すべてのMターンが終了すると、ゲームは終了します。

研究者が問題を選択するたびに、そのプレーヤーは「真実の瞬間」に近づき、問題を解決できる可能性があります。問題が解決されると、lに基づいて研究者のキャリアに特定の利点が追加されます。研究の才能は成功の確率を増幅し、自由時間は特定のターンで進歩する能力を増幅します。

これを解決するための多項式時間アルゴリズムがあるとは思えません。「問題を解決する」と「ナッシュを見つける」ことを考えた場合、研究者が純粋な戦略ナッシュ均衡のプレイに制限されるべき理由はないため、問題は混合戦略ナッシュ均衡に関係し、最悪の場合はPPAD完全になります。問題の均衡。」(あなたが最も積極的な研究者であれば、あなたは先に進んでお気に入りのナッシュ均衡を計算し、それを他のすべてのプレイヤーに知らせるかもしれません...だから誰も戦略から戦略を変えないだろうという自信を与えます通知したプロファイル。)

とにかく、これは私がこれまでに投稿した中で最も複雑な答えです。少なくとも何らかの価値があることを願っています。誰かがそれに対する応答を持っているかどうか、またはそれを改善するための推奨事項を教えてください。


1
フィリップ、答えてくれてありがとう!これは問題に対する素晴らしい視点です。私は疑問に思う:「部分情報」の概念を問題に追加して、PPADの完全性の状態を維持する方法を考えてもらえますか?このゲームのプレイヤーとして、すべての敵が何をしているのかが必ずしもわからないという事実をモデル化するものです各質問に答えます)?これを追加すると、Nash Equilibriumの計算の複雑さに影響しますか?(わかりません!)
ダニエルアポン

1
@ダニエル・アポン:コメントありがとう!条件を変更することは難しいとは思わないので、敵が何をしているか、またはその特徴が何であるかを単純に知りません。唯一の注意点は、不完全な情報ゲームを扱っている場合、ナッシュ均衡の存在の保証はなくなると思います。「Stackelbergゲーム」と呼ばれるものについてはあまり知りませんが、提案された変更に関連する可能性があると思います。私は実際、不完全な情報ゲームに最適なソリューションの概念は何であるか疑問に思っています...私はそれにいくつかの考えを与えます。
フィリップホワイト

私はこれについてもう少し読みます...不完全な情報を持つゲームを扱うために使用されるので、ベイジアンのゲームはここで関連があると思います。ここに私が見たウィキペディアのページへのリンクがあります: en.wikipedia.org/wiki/Bayesian_game
フィリップホワイト
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.