タグ付けされた質問 「time-series」

時系列は、(連続時間または離散時間のいずれかで)時間をかけて観測されたデータです。

1
時系列の二乗が定常である場合、元の時系列は定常ですか?
時系列の2乗が静止している場合、元の時系列も同様であり、逆もまた同様であると述べた解決策を見つけました。しかし、私はそれを証明することができないようです、これが本当であるかどうか、そしてそれがそれを導き出す方法であるかどうか誰もが考えていますか?

3
機械学習を使用した複数の期間の予測
私は最近、時系列の知識を要約しましたが、機械学習はほとんど一歩先の予測しか与えないことに気付きました。 一段先の予測我々は時間単位のデータを持っている場合は、午前12時などの予測午前11時と11時まで午前10時からのデータを使用して、例えば、I平均予測 機械学習の方法でh-steps-aheadの予測を作成できますか?h-step-ahead予測では、たとえば、毎時のデータを想定して、午前10時からのデータを使用して7-step-ahead予測を行い、11、12、13、14、15、16、17の推定値を取得します。 o時計。 写真の例: 私の主な質問に関連して私は思います: h-ahead-ahead予測を行うために機械学習を使用している人を見かけない理由は何ですか? 機械学習を使用する方法がある場合、それはARIMAよりも正確ですか?

1
ARIMAモデルの周期的動作の条件
私は季節ではなく周期的な時系列をモデル化して予測しようとしています(つまり、季節に似たパターンがありますが、一定の期間ではありません)。これは、予測のセクション8.5で説明されているように、ARIMAモデルを使用して実行できるはずです。 データがサイクルを示す場合、の値は重要です。環状の予測を得るために、有することが必要であるP ≥ 2のパラメータのいくつかの追加の条件と一緒。AR(2)モデルの場合、サイクリック動作は、場合に発生φ 2 1 + 4 φ 2 &lt; 0。pppp≥2p≥2p\geq 2ϕ21+4ϕ2&lt;0ϕ12+4ϕ2&lt;0\phi^2_1+4\phi_2<0 一般的なARIMA(p、d、q)の場合のパラメーターのこれらの追加条件は何ですか?私はどこにもそれらを見つけることができませんでした。

1
時系列のノイズの多いパッチを強調表示するにはどうすればよいですか?
時系列データがたくさんあります-水位と速度vs時間。これは、水理モデルシミュレーションからの出力です。モデルが期待どおりに動作していることを確認するための確認プロセスの一環として、各時系列をプロットして、データに「ウォブル」がないことを確認する必要があります(以下のマイナーウォブルの例を参照)。モデリングソフトウェアのUIを使用すると、このデータを確認するのにかなり時間がかかり、面倒です。したがって、結果を含むモデルのさまざまなデータをExcelにインポートし、それらをすべて一度にプロットする短いVBAマクロを作成しました。時系列データを分析して疑わしいセクションを強調表示する別の短いVBAマクロを記述したいと思っています。 これまでの私の唯一の考えは、データの勾配について分析を行うことができるということです。特定の検索ウィンドウ内で勾配が正から負に複数回急速に変化する場所は、不安定であると分類できます。もっと簡単なトリックはありませんか?基本的に、「安定した」シミュレーションは非常に滑らかな曲線を提供するはずです。突然の変化は、計算の不安定性の結果である可能性があります。

1
VARモデルが定常データよりも非定常データでうまく機能するのはなぜですか?
pythonのstatsmodels VARライブラリを使用して財務時系列データをモデル化していますが、いくつかの結果に戸惑いました。VARモデルは時系列データが定常的であることを前提としています。不注意に2つの異なる証券の非定常シリーズの対数価格を当てはめましたが、驚くべきことに、当てはめられた値とサンプル内予測は、比較的重要ではない定常残差で非常に正確でした。サンプル内予測のは99%で、予測残差シリーズの標準偏差は予測値の約10%でした。R2R2R^2 ただし、対数価格を比較し、その時系列をVARモデルに当てはめると、当てはめ値と予測値はマークから大きく外れ、平均の周りの狭い範囲で跳ね返ります。その結果、残差は、近似値よりもログの戻りを予測する仕事がうまくいきます。予測残差の標準偏差は、近似データ系列よりも15倍大きく、予測系列の.007値です。R2R2R^2 VARモデルの適合対残差を誤って解釈したり、他のエラーを起こしたりしていませんか?非定常時系列は、同じ基礎データに基づく定常時系列よりも正確な予測になるのはなぜですか?私は同じpythonライブラリのARMAモデルを少し使ってみましたが、この単一のシリーズデータのモデリングのようなものは何もありませんでした。

1
ベイジアンオンラインチェンジポイント検出(マージナル予測分布)
私は、AdamsとMacKayによるベイジアンのオンラインチェンジポイント検出ペーパー(リンク)を読んでいます。 著者は限界予測分布を書くことから始めます: ここでP(xt + 1| バツ1 :t)= ∑rtP(xt + 1|rt,x(r)t)P(rt|x1:t)(1)P(xt+1|x1:t)=∑rtP(xt+1|rt,xt(r))P(rt|x1:t)(1) P(x_{t+1} | \textbf{x}_{1:t}) = \sum_{r_t} P(x_{t+1} | r_t, \textbf{x}_t^{(r)}) P(r_t | \textbf{x}_{1:t}) \qquad \qquad (1) txtxtx_tは時間での観測です。ttt tx1:tx1:t\textbf{x}_{1:t}は、時刻までの一連の観測を示します。ttt rt∈Nrt∈Nr_t \in \mathbb{N}は現在のランレングスです(最後の変化点からの時間。0でもかまいません)。そして r tx(r)txt(r)\textbf{x}_t^{(r)}は、実行関連付けられた観測値のセットです。rtrtr_t Eq。1は正式に正しい(@JuhoKokkalaによる以下の返信を参照)が、について実際に予測したい場合は、次のように展開する必要があると理解しています。xt+1xt+1x_{t+1} P(xt+1|x1:t)=∑rt,rt+1P(xt+1|rt+1,x(r)t)P(rt|x1:t)P(rt+1|rt)(1b)P(xt+1|x1:t)=∑rt,rt+1P(xt+1|rt+1,xt(r))P(rt|x1:t)P(rt+1|rt)(1b) P(x_{t+1} | \textbf{x}_{1:t}) = \sum_{r_t, r_{t+1}} P(x_{t+1} | r_{t+1}, \textbf{x}_t^{(r)}) P(r_t | \textbf{x}_{1:t}) P(r_{t+1} | r_t) …

1
ARIMAとLSTMを使用した時系列予測
私が扱っている問題は、時系列値を予測することです。一度に1つの時系列を見ていて、たとえば入力データの15%に基づいて、将来の値を予測したいと思います。これまでのところ、2つのモデルに出会いました。 LSTM(長期短期記憶;再帰型ニューラルネットワークのクラス) 有馬 私は両方を試し、それらに関するいくつかの記事を読みました。現在、私はこの2つを比較する方法について理解を深めようとしています。これまでに見つけたもの: 大量のデータを処理し、十分なトレーニングデータが利用可能な場合、LSTMは適切に機能しますが、ARIMAは小さなデータセットに適しています(これは正しいですか?) ARIMAでは(p,q,d)データに基づいて計算する必要がある一連のパラメーターが必要ですが、LSTMではそのようなパラメーターを設定する必要はありません。ただし、LSTMを調整する必要があるいくつかのハイパーパラメーターがあります。 上記の特性以外に、最良のモデルを選択するのに役立つポイントや事実は見つかりませんでした。誰かが記事、論文、またはその他のものを見つけるのを手伝ってくれる人がいてくれたら本当にありがたいです(これまでのところ運が悪く、あちこちにいくつかの一般的な意見だけがあり、実験に基づくものはありません)。 元々はストリーミングデータを扱っていることを述べなければなりませんが、今のところ、最大サイズが20kデータポイントの50個のデータセットを含むNABデータセットを使用しています。

2
回帰のより最近の観測により多くの重みを割り当てる
Rでより最近の観測により多くの重みを割り当てるにはどうすればよいですか? 私はこれをよくある質問または欲求と見なしますが、これを実装する方法を正確に理解するのに苦労します。私はこれについてたくさん検索しようとしましたが、良い実用的な例を見つけることができません。 私の例では、時間の経過とともに大きなデータセットができます。最近のデータ行にある種の指数重み付けを適用したいと言いたいです。したがって、2015年の観測は2012年の観測よりもモデルのトレーニングに重要であると言って、ある種の指数関数を持つことになります。 データセット変数にはカテゴリ値と数値の混合が含まれており、ターゲットは数値です-それが重要な場合。 GBRET / Random Forestなどのモデルを使用して、理想的にはCARETパッケージでテスト/試してみたいと思います。 更新質問 2つのポイント間の日付距離によって重みを指数関数的に減衰させる方法について、以下に示す応答に感謝します。 ただし、このモデルをキャレットでトレーニングする場合、重みはどの程度正確に考慮されますか?各トレーニング行の重み値は、将来のあるポイントとそのポイントが履歴的に発生したときの間の距離です。 重みは予測中にのみ機能しますか?なぜなら、それらがトレーニング中に出てきた場合、さまざまなクロスフォールドが異なる重みを持ち、実際にその前の時点であるかもしれない何かを予測しようとするため、あらゆる種類の問題を引き起こさないのではないでしょうか?

2
時系列モデルで適切な遅延順序を選択するために、情報基準(調整されたはない)が使用されるのはなぜですか?
ARMA-GARCHのような時系列モデルでは、モデルの適切なラグまたは順序を選択するために、AIC、BIC、SICなどのさまざまな情報基準が使用されます。 私の質問は非常に単純です、なぜ適切なモデルを選択するために調整されたを使用しないのですか?調整後の値が高くなるモデルを選択できます。調整された両方のために前者PENALIZEモデルにおける説明変数の追加数の情報量基準PENALIZE以降PENALIZE尤度値。 R2R2R^2R2R2R^2R2R2R^2R2R2R^2

2
シーケンスイベント予測内でのLSTMの最適な使用
次の1次元シーケンスを想定します。 A, B, C, Z, B, B, #, C, C, C, V, $, W, A, % ... A, B, C, ..ここの文字は「通常の」イベントを表しています。 #, $, %, ...ここの記号は「特別な」イベントを表しています すべてのイベント間の時間間隔は均一ではありませんが(数秒から数日まで)、過去のイベントほど、将来のイベントに影響を与える可能性は低くなります。理想的には、これらの時間遅延を明示的に考慮することができます。 通常のイベントタイプは約10000、特別なイベントタイプは約100です。特別なイベントに先行する通常のイベントの量はさまざまですが、100〜300を超えることはほとんどありません。 基本的に、特別なイベントを予測できるようになる、通常のイベントシーケンスのパターンを探すことに興味があります。 これで、さまざまな方法でこれに取り組むことができます:特徴ベクトル+標準分類、相関ルール学習、HMMなどを作成します。 この場合、LSTMベースのネットワークがどのように最適になるかについて興味があります。簡単なのは、Karparthyのchar-rnnのようなことを行い、履歴が与えられたら次のイベントを予測することです。次に、新しいシーケンス C, Z, Q, V, V, ... , V, W モデル全体を実行して、次に来る可能性が最も高い特別なイベントを確認できます。しかし、それは適切なフィット感をまったく感じていません。 これは一時的な分類の問題なので、Alex Gravesが説明しているように、Connectionistの一時的な分類を使用するのが適切です。 ただし、現時点で多額の投資をする前に、LSTMがどれだけ適切にここに収まるかを感じるために、より簡単で迅速に実験できる何かを探しています。Tensorflowは、ある時点でCTCの例を見ますが、まだ見ていません。 だから私の(サブ)質問は: 上記の問題があり、LSTMを試してみたいのであれば、char-rnnタイプのアプローチを試してみる価値はありますか。 イベント間タイミング情報をどのように明示的に組み込みますか。no-opイベントで固定クロックを使用することは明らかに機能しますが、見苦しいようです。 LSTMをトレーニングできたとしたら、モデルを調べて、どのような種類のイベント「モチーフ」を取得したかを確認する方法はありますか?(つまり、convnetsのフィルターに類似) 常に役立つサンプルコード(Pythonを推奨)。 編集:シーケンスにノイズがあることを追加するだけです。一部のイベントは安全に無視できますが、正確にどのイベントを前もって言うことが常に可能であるとは限りません。したがって、理想的には、モデル(およびモデルから派生したモチーフ)はこれに対して堅牢です。

2
tsoutliersパッケージとauto.arimaを使用して予測を解釈および実行する方法
1993年から2015年までの月次データがあり、これらのデータを予測したいと思います。私はtsoutliersパッケージを使用して外れ値を検出しましたが、自分のデータセットを使用して予測を続行する方法がわかりません。 これは私のコードです: product.outlier&lt;-tso(product,types=c("AO","LS","TC")) plot(product.outlier) これはtsoutliersパッケージからの私の出力です ARIMA(0,1,0)(0,0,1)[12] Coefficients: sma1 LS46 LS51 LS61 TC133 LS181 AO183 AO184 LS185 TC186 TC193 TC200 0.1700 0.4316 0.6166 0.5793 -0.5127 0.5422 0.5138 0.9264 3.0762 0.5688 -0.4775 -0.4386 s.e. 0.0768 0.1109 0.1105 0.1106 0.1021 0.1120 0.1119 0.1567 0.1918 0.1037 0.1033 0.1040 LS207 AO237 TC248 AO260 AO266 0.4228 …

3
R季節時系列
私はこのdecompose関数を使用してR、月次時系列の3つのコンポーネント(トレンド、季節性、ランダム)を考え出します。グラフをプロットするか、表を見ると、時系列が季節性の影響を受けていることがはっきりとわかります。 ただし、時系列を11の季節性ダミー変数に回帰すると、すべての係数が統計的に有意ではなく、季節性がないことを示しています。 2つの非常に異なる結果が得られた理由がわかりません。これは誰かに起こりましたか?私は何か間違ったことをしていますか? ここにいくつかの役立つ詳細を追加します。 これは私の時系列とそれに対応する毎月の変化です。どちらのグラフでも、季節性があることがわかります(または、これが私が評価したいものです)。特に、2番目のグラフ(シリーズの月ごとの変化)には、繰り返しのパターン(同じ月の高いポイントと低いポイント)が見られます。 以下はdecompose関数の出力です。@RichardHardyが言ったように、この関数は実際の季節性があるかどうかをテストしません。しかし、分解は私の考えを裏付けているようです。 ただし、11の季節ダミー変数(1月から11月、12月を除く)で時系列を回帰すると、次のようになります。 Coefficients: Estimate Std. Error t value Pr(&gt;|t|) (Intercept) 5144454056 372840549 13.798 &lt;2e-16 *** Jan -616669492 527276161 -1.170 0.248 Feb -586884419 527276161 -1.113 0.271 Mar -461990149 527276161 -0.876 0.385 Apr -407860396 527276161 -0.774 0.443 May -395942771 527276161 -0.751 0.456 Jun -382312331 527276161 -0.725 0.472 …

1
PCAは自己相関データをどのように処理していますか?
一部の特派員が自己相関の計算方法に関して興味深い質問をしたからといって、時系列と自己相関についての知識がほとんどないまま、私はそれを試してみました。 特派員は彼のデータ(時系列のデータポイント)をそれぞれ1タイムラグずらして配置したため、最初の行は元のデータ、2行目はデータ(私が理解しているように)の行列になりますデータは時間単位ずつシフトされ、次の行は別の行単位にシフトされます。これを最後に尾に接着し、「円形」のデータセットを作成することでさらに実現しました。32323232×3232×3232\times32111 次に、そこから何が得られるかを調べるために、相関行列を計算し、これから主成分を計算しました。驚いたことに、私は周波数分解のイメージを取得し、(他のデータについても)1つの周波数、つまり、データの1周期が最初の主成分であり、4周期が2番目のPCであるというように続きました。 (固有値の「関連」PC を取得しました323232666&gt;1&gt;1>1)。最初、これは入力データに依存すると思っていましたが、循環シフト(「テプリッツ」行列とも呼ばれます)を使用したデータセットの特別な構成により、体系的にこのようになっていると思います。PCソリューションのバリマックスまたは他の回転基準への回転は、わずかに異なり、おそらく興味深い結果をもたらしましたが、一般に、そのような周波数分解を提供するようです。 以下は、ポイントのデータセットから作成した画像へのリンクです。曲線は、因子行列の負荷から単純に作成されます。1つの曲線は、1つの因子の負荷です。最初のPC1の曲線は、最大の振幅を示しているはずです(おおよそ、loadingsquareの合計が最大であるため)323232 質問: Q1:これは仕様による機能ですか?(このタイプのデータセットを持つPCAの) Q2:このアプローチは、周波数/波長分析への真剣なアプローチに実際に何らかの形で使用できますか? [更新]ここはデータセットです(コピーできるようになっていることを願っています) -5,-3,-1,0,2,4,6,5,3,1,1,0,-2,-3,-1,0,3,5,7,6,7,5,4,3,2,3,5,4,3,2,3,4 -3,-1,0,2,4,6,5,3,1,1,0,-2,-3,-1,0,3,5,7,6,7,5,4,3,2,3,5,4,3,2,3,4,-5 -1,0,2,4,6,5,3,1,1,0,-2,-3,-1,0,3,5,7,6,7,5,4,3,2,3,5,4,3,2,3,4,-5,-3 0,2,4,6,5,3,1,1,0,-2,-3,-1,0,3,5,7,6,7,5,4,3,2,3,5,4,3,2,3,4,-5,-3,-1 2,4,6,5,3,1,1,0,-2,-3,-1,0,3,5,7,6,7,5,4,3,2,3,5,4,3,2,3,4,-5,-3,-1,0 4,6,5,3,1,1,0,-2,-3,-1,0,3,5,7,6,7,5,4,3,2,3,5,4,3,2,3,4,-5,-3,-1,0,2 6,5,3,1,1,0,-2,-3,-1,0,3,5,7,6,7,5,4,3,2,3,5,4,3,2,3,4,-5,-3,-1,0,2,4 5,3,1,1,0,-2,-3,-1,0,3,5,7,6,7,5,4,3,2,3,5,4,3,2,3,4,-5,-3,-1,0,2,4,6 3,1,1,0,-2,-3,-1,0,3,5,7,6,7,5,4,3,2,3,5,4,3,2,3,4,-5,-3,-1,0,2,4,6,5 1,1,0,-2,-3,-1,0,3,5,7,6,7,5,4,3,2,3,5,4,3,2,3,4,-5,-3,-1,0,2,4,6,5,3 1,0,-2,-3,-1,0,3,5,7,6,7,5,4,3,2,3,5,4,3,2,3,4,-5,-3,-1,0,2,4,6,5,3,1 0,-2,-3,-1,0,3,5,7,6,7,5,4,3,2,3,5,4,3,2,3,4,-5,-3,-1,0,2,4,6,5,3,1,1 -2,-3,-1,0,3,5,7,6,7,5,4,3,2,3,5,4,3,2,3,4,-5,-3,-1,0,2,4,6,5,3,1,1,0 -3,-1,0,3,5,7,6,7,5,4,3,2,3,5,4,3,2,3,4,-5,-3,-1,0,2,4,6,5,3,1,1,0,-2 -1,0,3,5,7,6,7,5,4,3,2,3,5,4,3,2,3,4,-5,-3,-1,0,2,4,6,5,3,1,1,0,-2,-3 0,3,5,7,6,7,5,4,3,2,3,5,4,3,2,3,4,-5,-3,-1,0,2,4,6,5,3,1,1,0,-2,-3,-1 3,5,7,6,7,5,4,3,2,3,5,4,3,2,3,4,-5,-3,-1,0,2,4,6,5,3,1,1,0,-2,-3,-1,0 5,7,6,7,5,4,3,2,3,5,4,3,2,3,4,-5,-3,-1,0,2,4,6,5,3,1,1,0,-2,-3,-1,0,3 7,6,7,5,4,3,2,3,5,4,3,2,3,4,-5,-3,-1,0,2,4,6,5,3,1,1,0,-2,-3,-1,0,3,5 6,7,5,4,3,2,3,5,4,3,2,3,4,-5,-3,-1,0,2,4,6,5,3,1,1,0,-2,-3,-1,0,3,5,7 7,5,4,3,2,3,5,4,3,2,3,4,-5,-3,-1,0,2,4,6,5,3,1,1,0,-2,-3,-1,0,3,5,7,6 5,4,3,2,3,5,4,3,2,3,4,-5,-3,-1,0,2,4,6,5,3,1,1,0,-2,-3,-1,0,3,5,7,6,7 4,3,2,3,5,4,3,2,3,4,-5,-3,-1,0,2,4,6,5,3,1,1,0,-2,-3,-1,0,3,5,7,6,7,5 3,2,3,5,4,3,2,3,4,-5,-3,-1,0,2,4,6,5,3,1,1,0,-2,-3,-1,0,3,5,7,6,7,5,4 2,3,5,4,3,2,3,4,-5,-3,-1,0,2,4,6,5,3,1,1,0,-2,-3,-1,0,3,5,7,6,7,5,4,3 3,5,4,3,2,3,4,-5,-3,-1,0,2,4,6,5,3,1,1,0,-2,-3,-1,0,3,5,7,6,7,5,4,3,2 5,4,3,2,3,4,-5,-3,-1,0,2,4,6,5,3,1,1,0,-2,-3,-1,0,3,5,7,6,7,5,4,3,2,3 4,3,2,3,4,-5,-3,-1,0,2,4,6,5,3,1,1,0,-2,-3,-1,0,3,5,7,6,7,5,4,3,2,3,5 3,2,3,4,-5,-3,-1,0,2,4,6,5,3,1,1,0,-2,-3,-1,0,3,5,7,6,7,5,4,3,2,3,5,4 2,3,4,-5,-3,-1,0,2,4,6,5,3,1,1,0,-2,-3,-1,0,3,5,7,6,7,5,4,3,2,3,5,4,3 3,4,-5,-3,-1,0,2,4,6,5,3,1,1,0,-2,-3,-1,0,3,5,7,6,7,5,4,3,2,3,5,4,3,2 4,-5,-3,-1,0,2,4,6,5,3,1,1,0,-2,-3,-1,0,3,5,7,6,7,5,4,3,2,3,5,4,3,2,3

3
予測モデルの伝達​​関数-解釈
私はARIMAモデリングに夢中になっていて、プロモーションモデリングの目的で外因性変数が追加されており、ビジネスユーザーに説明するのに苦労しています。場合によっては、ソフトウェアパッケージは単純な伝達関数、つまりパラメーター*外生変数で終わることがあります。この場合、解釈は簡単です。つまり、プロモーションアクティビティX(外因性のバイナリ変数で表されます)は、従属変数(たとえば、需要)にYの量で影響します。したがって、ビジネス用語では、プロモーション活動XはYユニットによる需要の増加をもたらすと言えます。 伝達関数がより複雑になる場合があります。たとえば、多項式*外生変数の除算です。私ができることは、すべての動的回帰係数を見つけるために多項式の除算を行い、たとえば、プロモーション活動は、それが発生する期間中の需要だけでなく、将来の期間にも影響を与えると言うことです。しかし、ソフトウェアパッケージは多項式の除算として出力伝達関数を出力するため、ビジネスユーザーは直感的な解釈を行うことができません。除算せずに複雑な伝達関数について言えることはありますか? 関連するモデルのパラメータと関連する伝達関数を以下に示します。 定数= 4200、AR(1)、プロモーション活動係数30、Num1 = -15、Num2 = 1.62、Den1 = 0.25 ですから、この期間にプロモーション活動を行うと、需要のレベルが30単位増えると思います。また、伝達関数(多項式の除算)が存在するため、プロモーション活動は現在の期間だけでなく、その後の期間にも影響を与えます。問題は、プロモーションの影響を受ける将来の期間の数と、需要単位での期間あたりの影響をどのように見つけることができるかです。

3
Pythonによる時系列異常検出
いくつかの時系列データセットに異常検出を実装する必要があります。私はこれまでにこれをやったことがなく、いくつかのアドバイスを期待していました。私はpythonに非常に慣れているので、ソリューションを実装することを好みます(私のコードのほとんどは、私の作業の他の部分ではpythonです)。 データの説明:過去2年間(つまり24-36期間のみ)に収集され始めたばかりの月次時系列データです。基本的に、複数のクライアントについて月ごとに監視されるいくつかのメトリックがあります。 time_period client metric score 01-2013 client1 metric1 100 02-2013 client1 metric1 119 01-2013 client2 metric1 50 02-2013 client2 metric2 500 ... これが私が考えていることです:データをデータフレーム(パンダ)に取り込み、各クライアント/メトリックのペアのローリング6か月の平均を計算します。現在の期間の値が6か月平均に基づくしきい値を超える場合は、フラグを立てます。問題はかなり単純なようです。しっかりとしたアプローチを取っていることを確認したいだけです。 このアイデアを少し具体化するためのアドバイスをいただければ幸いです。質問が少し抽象的であることを知っています。それをお詫びします。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.