入力としての著者名のニューラルネットワークアーキテクチャ?


8

私はニューラルネットを構築して、さまざまな入力(サイズ、アートメディアなど)で芸術作品の価値を予測し、著者も入力として含めたいと思います(多くの場合、膨大な1つの芸術作品の価値を考慮します)。

私の現在の懸念は、著者の名前がNNの理想的な数値入力ではないことです(つまり、増加する整数値で各著者をコーディングするだけで、リストのさらに下の著者に間接的により多くの値を割り当てます-_-) 。私の考えは、データセット内のすべての著者に対して個別の入力を作成し、1つのホットエンコーディングを使用してNNへの入力をより適切に表すことでした。

ただし、このアプローチは、私のトレーニングデータに含まれていない作成者がNNへの入力として使用されている場合(つまり、新しい作成者)に問題が発生します。「他の著者」入力フィールドでこれを回避できますが、この入力のNNをトレーニングしなかったため、これが正確ではないのではないかと心配しています(評価付きのすべての芸術作品には著者がいます)。

私はこれまで十分に考えていませんでしたが、おそらく著者がいない評価と、著者との評価の2つのNNをトレーニングして、「著者のない評価」が十分に正確であるために十分なトレーニングデータがあることを確認しました。

実装に取り​​掛かる前に、私はまだ最高のNNアーキテクチャを概念化しようとしています。そのため、誰かが提案やコメントを持っている場合は、とても感謝しています!

前もって感謝します、ヴィンス

PS私はこれを、友達との小さな競争として、NNと従来の商業的評価手法を比較するためにやっています。保険数理科学よりもコンピュータサイエンスで勝利を収めるのを手伝ってください。


1
質問とは関係ありませんが、以前のオファー、アーティストの他の作品、およびアートマーケットの世界でのイベントに基づいた機能を含めることを検討してください。それらは通常、作品の価格設定に大きな影響を与えます。
アルファ

回答:


4

私がお勧めする最も簡単なアプローチは、「他の作者」の機能を持たないワンホットエンコーディングソリューションです。トレーニング中にドロップアウトを使用する場合、ネットワークは、作者の機能が1に設定されていない入力ベクトルを処理する方法を学習する必要があります。その後、不明な作者がいる場合は、1がまったくありません。著者の機能の、そしてそれはまだそれを処理する方法を学んだはずです。

別の可能なアプローチは、「他の作者」のための機能を備えたワンホットエンコーディングです。そのウェイトのトレーニングデータを引き続き取得するには、単純にデータ拡張を使用できます。このための最も単純なデータ拡張アプローチは、トレーニングデータにインスタンスのコピーを作成することですが、それらのコピーについては、「他の作成者」機能を実際の作成者ではなく1に設定します。

私が考えることができる最も複雑な解決策は、著者の文字列表現を取り、プログラムにその著者に関する情報をオンラインで見つけさせて(たとえば、ウィキペディアのページを検索してみて)、すべてのテキストをLSTMにプッシュすることです。次に、LSTMの「出力レイヤー」を他の機能とマージし(これらの2つを一緒にすると「入力ベクトル」になります)、その上にさらにいくつかのレイヤーを積み重ね、全体をトレーニングします。最後まで。友人との競争に多額のお金が含まれる場合を除き、これはおそらく複雑すぎて価値がありません。


3

著者のアイデンティティをエンコードするのではなく、著者に関するいくつかのプロキシ機能を見つけようとします。著者の良いと思われる機能には、作品に関する他の機能(サイズ、メディアタイプなど)の平均が含まれます。また、予測のために重要なのは、すべての作品の以前の販売価格に関する統計です。販売時に表示されたのと同じように、履歴トレーニングデータにプロキシデータを含めることを忘れないでください。

これらのプロキシがあると、著者のアイデンティティをワンホットエンコーディングしてMLアルゴリズムでアイデンティティのみに基づいて重みを割り当てるよりもはるかにうまく機能する可能性が高くなります。

筆者の名前の文字列がアートワークの価値と相関することを期待する理由はほとんどありません。そこ悪い対いくつかの良いブランド名の効果が、私はそれも、他の要因からの単離に予測することは非常に困難になると思う、と知られていない歴史を持つ芸術家を除いて、これと同様の効果を考慮に入れる必要があり、歴史的な販売データを含みます。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.