タグ付けされた質問 「natural-language-processing」

自然言語処理(NLP)に関連する質問。これは、コンピューターと人間(または自然)言語の間の相互作用に関係します。特に、大量の自然言語データを処理および分析するプログラムの作成方法について説明します。

3
ニューラルネットワークはさまざまな入力サイズをどのように処理できますか?
私が知る限り、ニューラルネットワークの入力層には一定数のニューロンがあります。 ニューラルネットワークがNLPのようなコンテキストで使用される場合、さまざまなサイズの文章またはテキストブロックがネットワークに供給されます。さまざまな入力サイズは、ネットワークの入力層の固定サイズとどのように調整されますか?言い換えれば、このようなネットワークは、1単語から複数ページのテキストまでの入力を処理するのに十分な柔軟性を備えているのでしょうか? 入力ニューロンの固定数の仮定が間違っていて、新しい入力ニューロンがネットワークに追加/削除されて入力サイズに一致する場合、これらをどのようにトレーニングできるのかわかりません。 NLPの例を挙げますが、多くの問題には本質的に予測不可能な入力サイズがあります。これに対処するための一般的なアプローチに興味があります。 画像の場合、固定サイズにアップ/ダウンサンプリングできることは明らかですが、テキストの場合、テキストを追加/削除すると元の入力の意味が変わるため、これは不可能なアプローチのようです。

9
機械翻訳の実際の品質はどうですか?
今日まで、私はAIの素人として、自動翻訳の約束された達成された改善に混乱しています。 私の印象は、まだ非常に遠い道のりがあるということです。または、非常に単純なウィキペディアの記事の自動翻訳(たとえばGoogleが提供および提供)がまだ主に愚かで読みやすく、ほとんど読めず、非常に部分的に有用で有用な理由は他にありますか? 個人の好み(読みやすさ、有用性、有用性)に依存するかもしれませんが、私の個人的な期待は非常に失望します。 他の方法:Googleの翻訳は、それでも大多数のユーザーにとって読みやすく、有用で、有用ですか? または、Googleにその成果を保持する理由があります(そして、ユーザーに表示できる最高のものを表示しないようにします)。 予備的な結果:私たちは、文字通りのレベルでのみ、対等な立場と理解で人工知能と話をすることはまだできません。それでは、なぜ私たちは恐れる必要がありますか?そのため、彼らはより多くの私たちが知っているよりも知っているが、我々は知りませんか- ?

4
SiriとCortanaのAIプログラムはありますか?
SiriとCortanaは、人間とほとんど同じように通信します。主に質問(アラームやリマインダーを設定しない)で検索結果を表示するGoogleとは異なり、SiriとCortanaは人と同じように回答を提供します。 それで、彼らは実際のAIプログラムなのでしょうか? (「質問」とは、学術関連の質問やルート/気温の質問ではなく、意見に基づく質問を意味します)。


1
ナレッジベースは現在どのような役割を果たしており、今後どのような役割を果たすのでしょうか?
現在、人工知能は機械学習、特にディープラーニングとほぼ同等のようです。この分野では、ディープラーニングが、従来は機能エンジニアリングにとって非常に重要だった人間の専門家に取って代わると言っている人もいます。ディープラーニングの台頭は、一方では神経科学と神経可塑性という2つのブレークスルーによって支えられたと言われています特に、高度に可塑的な人間の脳のように、人工ネットワークを使用してほぼすべての機能をモデル化できることがわかります。一方、計算能力の向上、特にGPUとFPGAの導入により、アルゴリズムインテリジェンスが格段に向上し、数十年前に作成されたモデルが非常に強力で多用途になりました。過去数年間に蓄積されたビッグデータ(ほとんどはラベル付けされたデータ)も関連していると付け加えます。 このような開発はコンピュータービジョン(および音声認識)を新しい時代にもたらしますが、自然言語処理とエキスパートシステムでは、状況はそれほど変わっていないようです。 ニューラルネットワークの常識を達成するのは難しいように見えますが、ほとんどの文章、会話、短いテキストには、背景世界の知識から引き出されるべき推論が含まれています。したがって、知識グラフ化は人工知能にとって非常に重要です。ニューラルネットワークは知識ベースの構築に利用できますが、ニューラルネットワークモデルはこれらの構築された知識ベースを利用するのが難しいようです。 私の質問は: 1)ナレッジベース(たとえば、Googleによって作成された「ナレッジグラフ」)は、AIの有望なブランチですか?もしそうなら、KBはどのように機械学習を強化できますか?そして、自然言語の生成にどのように役立つのでしょうか? 2)DLが支配的な時代の生存のために、知識ベース(または包括的な用語のシンボリックアプローチ)の方向はどこにありますか?あるヴォルフラム様のzダイナミックな知識ベースは、新たな方向性?または新しい方向性はありますか? 「知識ベース」または「知識グラフ」として質問にタグ付けできなかったため、ここで適切な質問をしていることを願っています。 基本的な何か、またはこれらの問題に対処するアイデアがありませんか?

3
文間の構造的類似性を計算するにはどうすればよいですか?
2つの文が類似しているかどうかを判断する必要がある問題に取り組んでいます。BM25アルゴリズムとワードネットシンセットを使用して、構文と意味の類似性を判断するソリューションを実装しました。解決策は適切に機能しており、文章内の単語の順序が乱雑であっても、2つの文章が類似していることを測定しています。例えば Pythonは優れた言語です。 良いpythonは言語です。 私の問題は、これらの2つの文が類似していると判断することです。 構造的類似性の可能な解決策は何でしょうか? 文章の構造をどのように維持しますか?

3
機械学習で大部分が探索されていないトポロジはどれですか?[閉まっている]
閉じた。この質問はより集中する必要があります。現在、回答を受け付けていません。 この質問を改善したいですか?この投稿を編集するだけで1つの問題に焦点を当てるように質問を更新します。 5日前休業。 ジオメトリとAI マトリックス、キューブ、レイヤー、スタック、および階層は、トポロジーと正確に呼ぶことができるものです。この文脈でトポロジーを検討してください。学習システムのより高いレベルの幾何学的設計です。 複雑さが増すにつれ、これらのトポロジーを有向グラフ構造として表すと便利な場合があります。状態図とマルコフのゲーム理論に関する研究は、有向グラフが一般的に使用される2つの場所です。有向グラフには、頂点(多くの場合、閉じた図形として視覚化される)と、図形を結ぶ矢印として視覚化されるエッジがあります。 また、GANを有向グラフとして表すこともできます。この場合、各ネットの出力は、反対の方法で他のトレーニングを駆動します。GANはトポロジー的にメビウスの帯に似ています。 最適なソリューションに収束したり、最適なソリューションを追跡したりする数学だけでなく、そのような収束をサポートできるネットワーク接続のトポロジーも理解せずに、新しい設計とアーキテクチャを発見することはできません。オペレーティングシステムを作成する前に、オペレーティングシステムが何を必要とするかを想像しながら、最初にプロセッサを開発するようなものです。 まだ検討していないトポロジーを垣間見るために、最初にどのトポロジーが検討されたかを見てみましょう。 ステップ1 — 2次元での押し出し 1980年代には、元のパーセプトロンの設計を拡張して成功を収めました。研究者たちは、多層ニューラルネットワークを作成するために2番目の次元を追加しました。合理的な収束は、学習率によって減衰され、他のメタパラメーターで減衰された活性化関数の勾配による誤差関数の勾配の逆伝播によって達成されました。 ステップ2 —離散入力信号への次元の追加 既存の手動で調整された画像のたたみ込み手法に基づくたたみ込みネットワークの出現が、ネットワーク入力に垂直方向、色成分、およびフレームに導入されたことがわかります。この最後の次元は、CGI、顔の置換、および現代の映画制作におけるその他の形態学的手法にとって重要です。それがなければ、画像の生成、分類、ノイズ除去ができます。 ステップ3-ネットワークのスタック ニューラルネットのスタックが出現するのは1990年代後半であり、1つのネットワークのトレーニングが別のネットワークによって監視されています。これは、ニューロンの連続した層という意味でも、画像内の色の層という意味でもない、概念的な層の導入です。このタイプの階層化も再帰ではありません。それは、ある構造が別の完全に異なる種類の構造内の器官である自然界に似ています。 ステップ4 —ネットワークの階層 2000年代から2010年代初頭にかけての研究(ラプラシアンなど)からニューラルネットの階層が頻繁に出現することがわかります。トポロジーを表す有向グラフで、ネットワーク全体が頂点になるメタ構造が表示されます。 ステップ5%mdash; デカルトオリエンテーションからの出発 非カルテシアの体系的に繰り返される細胞の配置とそれらの間のつながりが文献に登場し始めています。たとえば、Gauge Equivariant Convolutional Networksと 20面体CNN(Taco S. Cohen、Maurice Weiler、Berkay Kicanaoglu、Max Welling、2019)は、凸正二十面体に基づく配置の使用を検討しています。 まとめ レイヤーには、隣接するレイヤー間の有向エッジの完全なセットにマッピングされた頂点と減衰行列の通常重要なアクティベーション関数があります[1]。画像のたたみ込みレイヤーは、多くの場合、2次元の頂点配置にあり、減衰キューブは隣接するレイヤー間の有向エッジの要約されたセットにマッピングされます[2]。スタックには、メタ有向グラフの頂点として層状ネット全体があり、それらのメタ頂点はシーケンスで接続されており、各エッジはトレーニングメタパラメーター、強化(リアルタイムフィードバック)信号、またはその他の学習制御のいずれかです。 。ネットの階層は、複数のコントロールを集約してより低いレベルの学習を指示できるという概念、または1つのより高いレベルのスーパーバイザネットワークによって複数の学習要素を制御できるフリップケースを反映しています。 学習トポロジーの傾向の分析 機械学習アーキテクチャの傾向を分析できます。トポロジーには3つの傾向があります。 因果関係の次元の深さ—信号処理のレイヤー。アクティベーションの1つのレイヤーの出力は、減衰パラメーター(重み)のマトリックスを通じて次のレイヤーの入力に供給されます。より大きな制御が確立されると、後方伝播における基本的な勾配降下から始めて、より深い深度を達成できます。 入力信号の次元—スカラー入力からハイパーキューブ(ビデオには水平、垂直、透明度を含む色深度、フレームがあります)—これはパーセプトロンの意味での入力数と同じではないことに注意してください。 トポロジーの発達—上記の2つは本質的にデカルトです。寸法は既存の寸法に直角に追加されます。ネットワークは(ラプラシアン階層のように)階層に配線され、メビウスストリップは(GANのように)円のようにストリップされるため、傾向は地形的であり、頂点がニューロンではなく、それらのより小さなネットワークである有向グラフによって最もよく表されます。 不足しているトポロジは何ですか? このセクションでは、タイトルの質問の意味について詳しく説明します。 それぞれがニューラルネットを表す複数のメタ頂点を配置して、複数のスーパーバイザーメタ頂点が連携して複数の従業員のメタ頂点を監視できる理由はありますか? エラー信号の逆伝播が、負のフィードバックの唯一の非線形等価物であるのはなぜですか? コントロールを表す2つの相互エッジがある場合、監視ではなくメタ頂点間のコラボレーションを使用できませんか? ニューラルネットは主に非線形現象の学習に使用されるので、ネットまたはそれらの相互接続の設計で他のタイプの閉じたパスを禁止するのはなぜですか? ビデオクリップを自動的に分類できるように、画像にサウンドを追加できない理由はありますか?その場合、脚本は映画の可能な特徴抽出であり、敵対的なアーキテクチャを使用して映画スタジオシステムなしで脚本を生成し、映画を制作できますか?そのトポロジーは有向グラフとしてどのように見えますか? 直交配置されたセルは、非直交の頂点とエッジの任意の規則的なパッキング配置をシミュレートできますが、プラスまたはマイナス90度以外のカメラの傾きが一般的であるコンピュータービジョンでこれを行うのは効率的ですか? 自然言語の理解と組み立て、または人工認識を目的とした学習システムで、ネットワーク内の個々のセルまたはAIシステム内のセルのネットワークを直交して配置することは効率的ですか? …

4
BERTを文生成タスクに使用できますか?
私はNLPの新しい学習者です。文章生成タスクに興味があります。私に関する限り、最先端の方法の1つは、RNNを使用して一連の単語を生成するCharRNNです。 ただし、BERTは数週間前にリリースされ、非常に強力です。したがって、この作業をBERTの助けを借りて実行できるかどうか疑問に思っています。私はこの分野の新しい学習者です。アドバイスをありがとう!

3
AIはどのように言語を学習しますか?
AIが言語を教える方法が思いつかないことに気づいたとき、私はAIとその仕組みについて考えていました。子供は、言語と写真をオブジェクトに関連付けることで言語を学習する傾向があります(たとえば、人々が犬の周りで「犬」という言葉を言い、後に人々が「犬」と「車」と言って何を学ぶかを理解します」など)。ただし、テキストベースのAIでは、このメソッドを使用して学習することはできませんでした。これらのAIは、あらゆる種類の入力デバイスにアクセスできないためです。 私が思いつくことができる唯一の方法は、英語(またはそれが「話す」ことを意図されている任意の言語)ですべての単語と規則でプログラミングすることですが、これには、場合によっては何年もかかる可能性があります。 これをどのように行うことができるかについて誰かが何か考えを持っていますか?または、すでに完了している場合は、どのように実行しますか? ちなみに、この文脈では、私はAIを使用して、人間に近い知能を備えた人工知能システムを意味しており、言語に関する予備知識はありません。

5
意図的に人に嘘をついたり、人をだますことができるAIシステムはまだ開発されていますか?
今日のAIシステムは非常に有能なマシンであり、最近、自然言語処理と応答の領域がAIマシンの基本的なアルゴリズム構造と同様に革新とともに爆発的に増加しています。 私は、これらの最近のブレークスルーを踏まえて、(できればある程度の成功を収めて)知っている事実について人間が知っているようにうそをつくことができるAIシステムが開発されているかどうか尋ねています。 注:私が求めていることは、チューリングテストの標準的な議論を超えています。私は、事実を「理解」し、この事実に対する嘘を公式化できるマシンを求めています。おそらく他の事実を使用して、嘘の一部として信頼できる「隠蔽」を生成します。 EG:CIAスーパーコンピューターはスパイに盗まれ、コンピューターを使用して何かを行おうとしますが、コンピューターは依存関係が欠落していると言い続けます。または、その人はある場所に頻繁に出かけるが、現時点ではそこにいないことを知って、人の不正確な場所を与える。もちろん、これほど洗練されている必要はありません。

2
誰かがまだ概念依存理論を使用していますか?
Roger Schankは、1970年代に、Conceptual Dependency(CD)を使用して言語処理に関する興味深い研究を行いました。その後、彼は最近では教育に従事しているため、フィールドから少し移動しました。自然言語生成(BABEL)、ストーリー生成(TAILSPIN)、およびその他の領域にはいくつかの有用なアプリケーションがあり、個々の文章ではなく計画やエピソードが含まれることがよくありました。 他の誰かがCDまたはその変種を使い続けましたか?私は、ストーリーを生成するための表現としてCDを使用するHovyのPAULINEを除いて、他のプロジェクトについては知りません。

1
AIをトレーニングしてすべての言語を学習させようとした人はいますか?
ほとんどのプロジェクトは、AIに個別の特定の言語を学ぶように教えようとしているようです。 言語全体で、書き言葉と話し言葉の関係があることに気づきました。ほとんどの場合、第2言語を学習した後は、より多くの言語を学習する方がはるかに楽になり、異なる言語の言葉とフレーズの関係を理解し​​始めます。 誰かがAIをトレーニングしてすべての言語を学ぶことを試みましたか? これは、AIに単一の特定の言語を、その特定の言語のすべての詳細と詳細で教えようとするよりもはるかに単純な問題ではないでしょうか?実際には、トレーニングセットから他の言語の多くの関連データを省略していますか?

1
プログラムを生成できるAI
私は開発中の人工知能エージェントであるVivを調査しています。私の理解に基づいて、このAIは新しいコードを生成し、ユーザーからのクエリに基づいてそれを実行できます。私が知りたいのは、このAIがクエリに基づいてコードを生成する方法を学ぶ方法です。このプロセスにはどのような機械学習アルゴリズムが関係していますか?私が検討したことの1つは、プログラムのデータセットを段階的に分解することです。例えば: 5項の平均を取るコード 1-5 つの用語をすべて一緒に追加2-5で除算 次に、テキストをコードに変換するアルゴリズムをトレーニングします。それは私が理解した限りです。どこから始めればいいかわからないので、何も試していません。誰かがVivを実装する方法について何かアイデアがありますか?これはVivのデモです。

4
一連の文法規則を使用して英語を一般化することはできますか?
プログラミング言語には、有効なステートメントと式の構成を管理する一連の文法規則があります。これらのルールは、ユーザーが作成したプログラムの解析に役立ちます。 英語(ロケール固有)のステートメントを正確に解析でき、AIベースのプロジェクトで使用するために実装できる機能的に完全な一連の文法規則はありますか? オンラインで利用できるNLPツールキットはたくさんありますが、それほど効果的ではありません。それらのほとんどは、特定のコーパスを使用してトレーニングされ、式のさまざまな部分間の複雑な相関関係を推測できない場合があります。 言い換えれば、コンピュータが英語で書かれた精通した文を、まるで大人の英語を話す人間が​​構文解析したかのように構文解析できるかどうかです。 編集:それが単純な文法規則を使用して表現できない場合、それを一般化するためにどのような意味構造を使用できますか? EDIT2:この論文は、自然言語には文脈自由性がないことを証明しています。複雑すぎても解決策を探しています。

2
Winograd SHRDLUに類似した最新のNLP実装はありますか?
Winograd SHRDLUプログラムに出会いましたが、非常に興味深く、意欲的でした。 それに関するコンセンサスは何ですか?同様の試みはありますか? 私はの本読んでいテリー・ウィノグラード 自然言語を理解し、彼はより多くのプログラム、LISP言語の機能について説明します。私はまた、言語学者のマイケル・ハリデーと、ウィノグラードの本で言及されている言語理論の体系的(機能的)文法を見つけました。 この理論をセマンティック機能の基礎として使用する他のai / NLPはありますか? https://en.wikipedia.org/wiki/SHRDLU

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.