2014年10月、Mark Riedl博士は、オリジナルのLovelace Test(2001年に公開)に触発された後、「Lovelace Test 2.0」と呼ばれるAIインテリジェンスのテスト方法を公開しました。マークは、オリジナルのラブレーステストに合格することは不可能であると考えていたため、より弱く、より実用的なバージョンを提案しました。
Lovelace Test 2.0は、AIがインテリジェントであるためには創造性を示さなければならないという仮定を立てています。論文自体から:
Lovelace 2.0テストは次のとおりです。人工エージェントaは次のようにチャレンジされます。
タイプtの成果物oを作成する必要があります。
o制約Cのセットに準拠する必要があります。ci∈Cは自然言語で表現可能な基準です。
tとCを選択した人間の評価者hは、oがtの有効なインスタンスであり、Cを満たすことを満足します。そして
人間の審判員rは、tとCの組み合わせが平均的な人間にとって非現実的ではないと判断します。
人間の評価者は、AIが勝つための非常に簡単な制約を考え出す可能性があるため、人間の評価者は、AIが失敗するまで、AIに対してますます複雑な制約を考え続けることが期待されます。Lovelace Test 2.0のポイントは、さまざまなAIの創造性を比較することであり、チューリングテストのように「インテリジェンス」と「非インテリジェンス」の明確な境界線を提供することではありません。
ただし、このテストが実際にアカデミックな環境で使用されているのか、それとも現時点で思考実験としてのみ使用されているのかについて興味があります。Lovelaceテストは、アカデミックな環境では簡単に適用できるように見えますが(人工エージェントをテストするために使用できる測定可能な制約を開発する必要があるだけです)、主観的すぎる場合もあります(人間は特定の制約のメリットに同意できない場合があり、 AIによって作成された創造的なアーティファクトが実際に最終結果を満たします)。