タグ付けされた質問 「replication」

レプリケーションは、情報を共有して、ソフトウェアやハードウェアコンポーネントなどの冗長リソース間の整合性を確保し、信頼性、フォールトトレランス、またはアクセス性を向上させるプロセスです。

2
e-SATAポートの乗算の期待されるパフォーマンス?
特定の読み取り/書き込みワークロードの場合、esataポートの乗算を使用して、4ディスクアレイから30 MiB /秒を取得します。まったく同じアレイを4つのsata接続に移動すると、同じワークロードで90 MiB /秒が得られます。これは乗数の予想されるパフォーマンスへの影響ですか?そうでない場合、ソフトウェア、コントローラー、またはエンクロージャー間で問題を絞り込むにはどうすればよいですか? 何年にもわたって多数の変数を試した後でも、まったく同じ結果が得られました。 多くのLinuxバージョン(RHEL5、Fedora 9、11、13、16)とそれに伴うすべてのカーネル。 2種類のエンクロージャー(両方ともローエンドの100ドル4ディスクモデル)、合計4つのエンクロージャー。 2種類のSATAコントローラーチップセット(Marvell 88SE91xxおよびSilicon Image 3132) 4つのSATAコントローラー(約$ 30〜$ 60のpci-x1インターフェイスカードと1つのPCI、すべてFISベースのスイッチング)。 3つのSATA速度(1.5-、3.0-、および6.0-Gbps) 4種類のHDD(Samsung Spinpoint F1 1TB、WD Caviar Black 2TB、Seagate Barracuda XT 3TB)。 3台のコンピューター(最初のe-sataアレイを作成したときのAthlon 3ghz + 1GB RAM、次にCore 2 Duo + 4GB、現在はCore i5 750 + 8GB)。 何年も前に最初のeSATAエンクロージャーを作ったとき、遅い速度はPCI(33mhz)カード、未成熟なSATAドライバー、またはおそらくSATA-1.5Gbps 5400 RPMドライブの使用に関連していると思いました。しかし、x1 6Gbpsコントローラー、3.0カーネル、6Gbps 7200rpm HDDを備えた今でも、何も変わっていません。個々のSATA接続に移動するまで、その特定のワークロードに対して同じ30 MiB /秒を引き続き取得します。 これはすべてのポート乗算実装の基本的な制限ですか?

3
Windows DFSR-複製されたディレクトリのアクセス許可を変更し、1週間以上にわたって350,000のバックログを保持
質問:この350,000ファイルのバックログをより速く完了する方法はありますか?ほとんどすべてのファイルで唯一の変更は、影響を受ける各ファイルのACLの変更でした。一部のファイルは内容が変更されていますが、この状況では一般的ではありません。 これは修正される可能性があります。このテキストを編集して、一定の期間と検証後に成功/失敗を確認します。この質問文の終わりに向かって、それを修正した可能性がある最近行われた変更について詳しく説明しました。 約450,000ファイルのDFSRレプリケーショングループがあり、1.5 TBのスペースを使用しています。この状況では、約500マイル離れた2つのWindows Server 2008 R2サーバーがあります。他のサーバーがありますが、このレプリケーショングループには関与していません。サーバーアルファはメインサーバーであり、ほとんどのスタッフが使用しています。サーバーベータは、リモートオフィスのサーバーであり、ビジー状態ではありません。 ここで、このレプリケーション・グループのバックログのグラフは(PNGは、Googleドライブ上にホストされている)スローシンクロの進行状況を示します。 そのレプリケーショングループのルートディレクトリにある権限エントリを削除する必要がありました。もちろん、ほとんどのサブフォルダーに継承されています。この変更はサーバーALPHAで行いました。その直後、DFSRには350,000のファイルバックログがありました。1週間以上経ち、現在は267,000に達しています。(最初に)変更されたのは、単一の権限の変更のみでした。 これは何が起こったかです(これは解決策ではなく、この問題の原因となったものの別の説明です):http : //blogs.technet.com/b/askds/archive/2012/04/14/saturday-mail-sack -because-it-turns-out-friday-night-was-alright-for-fighting.aspx#dfsr サーバーBETAで発生した変更は、その方向にバックログがないため、サーバーALPHAに非常に迅速に複製されます。ベータ版で変更されたファイルは、問題なくアルファ版に変換されます。 それは、一端で50Mbps接続のファイバーを介して他端で100Mbpsのファイバーに24/7をフルスピードで複製します。ステージング領域は各サーバーで100GBです。イベントログには何も興味深いものはありません。この特定のレプリケーションにも、このALPHA / BETAサーバーペアにもない関連のないレプリケーショングループに表示される、関連のない最高水準点イベントがあります。特に、最高水準点や接続エラーのイベントログエントリはありません。 レプリケーショングループに関するALPHAのビュー: 帯域幅の節約:99.83%の削減(18.1 GBではなく30.85 MBの複製) 30.85MB / 18.1GBは、ALPHAとBETAでDFSRサービスを最後に再起動してから発生したと思います。もしそうなら、これは非常に長い時間がかかっていても(実際にかかるはずの時間よりも長い)、実際にはファイルの内容がネットワーク経由で転送されていないことを示しています。 複製フォルダ:1.46TB(実サイズ)、439,387(ファイル)、52,886(フォルダ) 競合および削除されたフォルダー:100.00GB(構成済みサイズ)、34.01GB(実際のサイズ)、19,620(ファイル)、2,393(フォルダー) ステージングフォルダー:200.00GB(構成済みサイズ)、92.54GB(実際のサイズ) ログ(5月14日午後7時)に1つの最高水準点エラーが発生したため、ステージングクォータを100GBから200GBに増やしました。マイクロソフトが承認したルートは20%増加することを知っていますが、私はこれで遊んでいません。ステージングディスクアレイには、十分な空き容量があります。 すべてのサーバーでウイルス対策を無効にしても効果はありませんでしたが、少しは役立つと思いました。今のところ、ウイルス対策を再度有効にしていますが、方程式から変数を削除するために、レプリケーショングループのパスをスキャンから除外するように設定しています。 これを速くする方法はありますか?私はサーバーBETAでもこの変更を加えるだけですが、ALPHAで変更されたが、BETAにレプリケートされていないファイルがあり、BETAで継承されたアクセス許可の変更を行うと、OLDファイルがBETAからALPHAにプッシュされます(DFSRがどのファイルが衝突で勝ったかを比較するとき、ファイルのタイムスタンプを無視します)。そして、それが起こるのはむしろ悪いでしょう。 バックログはゆっくりと減少しています。とてもゆっくりと。しかし、それは進んでいます。しかし、このレートでは、完了するまでに数週間かかります。データセットのコピーを3TBドライブに押し込んでリモートオフィスに発送することを考えています。もっと良い方法はありますか? 5月16日午前4時US PT:問題を修正した可能性のあるもの(とにかく正直に修正されていると仮定): DCに複数の変更を加えましたが、それはずっと前に行われるべきでした。問題は、このネットワークが他の誰かから継承された可能性があるということです。他の誰かから継承された可能性があります。問題が修正された変更を約束することはできません。ここではそれらは特定の順序ではありません: すべてのDCが "ドメインコントローラー" OUに含まれていませんでした。DCが他の場所にあるWindowsドメインを見たことがありません。それらを元の場所に戻しました。以前は、各オフィスがある都市の名前で分離されたOUにありました。(それらを移動したので、対処する必要がある配管工事があるようですが、現時点ではすべて問題ないようです...) AVGアンチウイルスは、すべてのDCおよびDFSR参加サーバーで実行されています。レプリケートフォルダーとステージングフォルダーをアクティブ/オンアクセススキャンから除外しました。これで問題が修正されたとは思わないので、後でこの問題をテストして、その変更を元に戻すとDFSRの複製速度が低下するかどうかを確認します。それは別の日の挑戦です。 dcdiag.exeは、RODCに関するDNSの問題を訴えました。ドメインにRODCがまったくない場合でも、この問題を修正しました。私はこれが何かを修正したとは思いません。 _ldap._tcp.domain.GUID._msdcs.DOMAIN.NET SRVレコードの1つがDCSの1つ(DFSRサーバーの1つではない)で欠落していたので、それを修正しました。これも役に立たなかったと思います。 サーバーを再起動したときの1つとして、DFSRデータベースの不適切なシャットダウン(イベント2212)が発生し、データベースの再構築に数時間かかりました。終了すると、イベント2214が報告され、終了したことがわかります。その後、レプリケーションはまだ非常に低速で実行されていましたが、スタックされていたものは何でも取り外せるようになった可能性があります。 DCの1つは、インターフェイス構成でセカンダリDNSサーバーとして127.0.0.1を持っていませんでした。追加しました。これはDFSRサーバーの1つではなかったので、おそらくそれとは何の関係もありませんでした。 私はTechNetブログをフォローしました: DFSRサーバーでのDFSR推奨レジストリ設定でのレプリケーションパフォーマンスのチューニング。AsyncIoMaxBufferSizeBytesが4194304に設定されていることを除いて、「テスト済みの高パフォーマンス値」の値をすべて使用しました。これは、高値よりも1ノッチ低い値です。これは問題を解決できたかもしれません...または多分そうではありません。あまりにも多くの変数を変更するときにそれを区別することは困難です。 dcdiag.exeはベータ版のRPCサービスとの通信に関する問題について不満を述べましたが、それはすでに上記の変更を行った後です。これが最も起こりそうな問題であるように見えましたが、私がそれを修正するためにしたことは何もありませんでした。VPNは適切に実行されており、ファイアウォールはそれをブロックしていませんでした。上記の項目のいずれかがRPCの問題の原因であり、それを修正した可能性があります。または、単純な偶然の一致であった可能性があります。私はない今、そのエラーを取得し、複製は現在順調に稼働しています。 この話の教訓は、一度に1つずつ変更するか、何が原因でそれが修正されたのか本当に分からないことです。しかし、私は必死で、それを修正するための時間を使い果たしていたので、問題に対して大量の弾丸を発射しました。修正を特定した場合は、ここで報告します。ただし、絞り込みに頼らないでください。 編集5/21/2012: 昨日、リモートサーバーにスペアサーバー(GAMMA)を使って約7時間運転することで、これを解決しました。GAMMAがプライマリローカルサーバーとして機能し、通常のサーバー(ベータ)がレプリケーションに追いつきます。私がそれを配置してから、サーバーはレプリケーション速度の約2倍になります。これはVPN関連の問題である可能性があることを教えてくれますが、ALPHAからGAMMAにすべての新しい更新がレプリケートされているように思われるため、これは非常に迅速で順調です。 編集5/22/2012: …

2
OpenStreetMapデータを効率的にスケールアウトする方法
1年以上の間、OSMデータで満たされた社内PostGISサーバーを実行しています。これは、Mapnikベースのタイル生成とNominatimベースのジオコーディングの両方に使用され、日ごとの複製で更新されます。これはかなりうまくいきます。 ただし、使用量が飛躍的に増加しているので、PostgreSQLサーバーを追加して、信頼性とパフォーマンスを向上させたいと考えています。そして、私はちょっと迷っています。 PostgreSQLはそれ自体ではレプリケーションを処理しないようなので、PgPool-IIなどのミドルウェアを使用して、サーバーの同期を維持することを検討します。しかし、私はそれがこの使用法に必要なものに過ぎないと思います:すべての書き込みが毎日正確に同じ時間に行われる非常に高い読み取りと書き込みの比率。 私の質問は単純です。これらのサーバーの同期を保つにはどうしますか?そして、OpenStreetMap Foundation、MapQuest、Mapbox、またはCloudMadeでこれのために何が行われますか? ありがとう。

3
3GBのジャーナルファイルなしでMongoDB構成サーバーを実行する
本番に分割されたMongoDBインストールでは、3つの構成サーバーが必要です。ドキュメントによると、「config server mongodプロセスはかなり軽量で、他の作業を実行しているマシンで実行できます」。ただし、デフォルトの構成では、それらすべてでジャーナリングが有効になっています。事前割り当てを使用すると、3 GBのディスク容量が必要になります。設定サーバーの実際のデータとトランザクション量はかなり小さいと思いますので、これは少し多すぎるようです。 ジャーナルのディスク使用量をはるかに少なくして、これらの構成サーバーを(安全に)実行する方法はありますか?構成サーバーでジャーナリングは必要ですか?ジャーナルサイズを小さく設定できますか?

4
GlusterFSはウェブサーバーの同期を維持するのに適した選択肢ですか?
私は2つのWebサーバーを持っていますが、途中でサーバーを追加する必要がある可能性があります。現在、lsyncd + csync2を使用してこれらのサーバーを同期させています。すべてのファイルが両方のサーバー上にあるため(ファイルをローカルで開くためにネットワークアクセスは必要ありません)、パフォーマンスは優れていますが、それ以外の場合はそれほどうまくいきません。 この1つの例は、サーバー1上のファイルを削除し、すぐに同じ名前の新しいファイルをサーバー1にアップロードする場合です。その後、ファイルはサーバー2から削除され、サーバー2がサーバー1に削除イベントを送信して「更新サークル」を完了すると、サーバー1に新しくアップロードされたファイルが削除されます。 サーバーを同期させるためのより良い方法があるはずだと私は思わずにはいられません。私はGlusterFSを見てきましたが、すべてのファイルがすべてのサーバーに複製される設定はお勧めできません。ただし、私はこれらのサーバーでDrupalのようなCMSシステムを実行しています。このようなCMSシステムは多くの場合、かなりの数のファイルを開きますが、これらのファイルを取得するにはネットワークトラフィックが多すぎると、リクエストの速度が低下するのではないかと心配しています。 lsyncd + csync2を、すべてのファイルをすべてのノードにレプリケートするように設定されたGlusterFSに置き換えることを検討するのは良い考えですか、それとも悪い考えですか?

2
RODCとRWDCで帯域幅の消費量に違いはありますか?
私の組織では、2008年のRODCを複数の海上プラットフォームに展開しています。アイデアは、陸上ベースのドメインを船に拡張して、セキュリティポリシーをより適切に制御することでした。RODCは、消費する帯域幅が少ないという想定で選択されました。セキュリティ上の懸念もありましたが、これらは二次的なものでした。 海上でのインターネット接続は、非常に高価な衛星リンクによって提供されます。速度は遅いものから存在しないものまでさまざまです。ユーザー、コンピューター、グループ、およびアクセス許可の変更とGPOの更新の管理は、非常に時間がかかります。 私たちはRODCに関してトンネルビジョンを開発しており、書き込み可能なドメインコントローラーを使用する方が良い代替案になると考え始めています。冗長性のために、1隻の船に1つのRWDCと1つのRODCを考えています。小規模なユーザーベースですが、冗長性を確保することが重要です。 これにはもっとたくさんありますが、簡潔にまとめることはできません。RODCとRWDCの帯域幅消費量の違いをテストしたことがあるかどうか知りたいのですが。RODCの1つをRWDCに置き換えると、帯域幅の消費が大幅に増加しますか?RODCをリダイレクトして、RWDCから複製します。これは、1つのドメインコントローラーが岸に戻って接続することを意味します。 物事が今座っているので、通常数分かかることをするのに数時間かかることがあります。RWDCに取り組んでいる船に管理者がいると、生活がはるかに良くなります。RWDCのおしゃべりがパイプを埋めるのではないかと恐れている。 それで、誰かが違いをテストしたことがありますか?

1
ADレプリカDCプロモーションストール
私は最近、一緒に働いている小さなスタートアップのインフラストラクチャの義務を引き継ぎました。私の伝統的な役割は開発でしたので、我慢してください... 私は右足から始めて、Active DirectoryをAzureで稼働させることを望んでいました。MicrosoftのTechNetのガイドに従って、Azure VPNにADフォレストをインストールしました。構造は次のとおりです。 ローカルネットワークを使用したサイト間VPN用に構成されたAzure VPNは、正しく接続されていると表示されます。 サブネット:192.168.5.0/24 HQNET サブネット:192.169.1.0/24サイト間VPNゲートウェイ サブネット:192.169.2.0/24 Auth サブネット:192.169.3.0/24アプリ サブネット:192.169.4.0/24データ サブネット:192.169.6.0/24 Middle Authサブネット、IP 192.169.2.4のA1標準VMにServer 2012 R2があります。ADインストールはうまくいき、新しいフォレストを開始しました。すべてがうまく機能しているように見えました。このVMはUsername1 / Password1で作成され、ADのインストール時にDomain Admin / Enterprise Adminとして自動的に追加されます。 同じ認証サブネット-IP 192.169.2.5内でレプリケーションを行うために、2番目のServer 2012 R2 A1標準VMを起動し、このVMをUsername2 / Password2で作成します。次に、このVMを最初のDCで作成されたドメインに参加させます。ドメインに参加した後、このVMをレプリカDCとして昇格させます。このアクションを実行するための資格情報を要求し、資格情報としてDOMAIN \ Username1:Password1を指定します。 昇格プロセス中に、ADが親AD VMで「NTDS設定オブジェクトの作成」であるステップに到達すると、インストールはこのステップで停止します。この記事によると、Active Directoryのインストールが「NTDS設定オブジェクトの作成」で停止します。これは、ドメインの資格情報がローカルの資格情報と同じであることが原因です。または、インストールにドメイン資格情報を誤って提供しました。 インストールを実行しようとして、何度もVMを削除して再作成しました。VM2にドメイン管理者としてログインし、昇格してみました。また、インストール中に何がハングしても、昇格時にドメイン資格情報を提供するほぼすべての手段(Username1 @ domain:Password1、DOMAIN \ Username1:Password1、domain.com \ Username1:Password1)を試しました。毎回、VM1のフォレストからVM2を削除する手順に注意深く従い、再度昇格を試みました。 足元が足りなかったり、足りない小さな部分が見えないのではないかと思いますが、未経験が光っています。 DC2をレプリカDCに昇格するときに何が欠けていますか?

1
ドメインコントローラーが不適切なシャットダウンの後にUSNロールバックを検出するのはなぜですか?
私は、このWindows Server 2008 R2ドメインコントローラーを、物理的なDellサーバー、モデルPowerEdge R510で実行しています。 このあたりにはいくつかの電気的な問題があるため、残念ながら停電はよくあることです。UPSはありますが、本来の信頼性がなく、サーバーが正常にシャットダウンされない場合があります。 何らかの理由で本当に理解できません。時々、この特定のDCは、クリーンでないシャットダウンの後に表示され、USNロールバックに遭遇し、降格して昇格させる必要があります。 サーバーは物理サーバーであり、スナップショット、クローン作成、および/または復元が実行されたことがないため、これはまったく意味がありません。また、追加のソフトウェアはインストールされていません。DCの機能のみを実行します。具体的には、クローン/リカバリ/ソフトウェアが何であれ存在しません。 ファイルシステムの破損は少なくともある程度は理にかなっていますが、サーバーを以前の状態に戻す方法がないため、USNロールバックは実際には意味がありません。ただし、これは過去2か月間に少なくとも3回発生したため、1回限りのクレイジーなイベントではありませんでした。しかし、私は完全に説明をすることができません。 この問題の理由は何でしょうか?


6
MySQLスレーブを別のスレーブから作成しますが、マスターに向けます
問題 マスター(A)とスレーブ(B)の2つのサーバー間でMySQLレプリケーションをセットアップしています。新しいスレーブをミックスに追加する必要があります(C)。このスレーブがマスターから直接更新を取得するようにしたいのですが、スレーブからのチェーンレプリケーションは必要ありません。ただし、マスターは「ホット」です。通常、Xtrabackupを使用してマスターの完全バックアップを作成しますが、データベースのサイズが約20GBであるため、マスターを10分間ロックします。 可能な解決策 スレーブBで読み取りロック付きのテーブルをフラッシュし、BでSHOW SLAVE STATUSを使用して、binlogと位置を書き留めます。次に、Xtrabackup を使用してデータベースをバックアップし、バックアップをCに送信してスレーブを作成し、レプリケーションをAを指すように設定しました。 質問 長い間Bをロックする必要がないより良い方法はありますか?または、より簡単に自動化できるものはありますか?

5
WindowsのブロックレベルのLUNレプリケーションオプション[終了]
閉まっている。この質問はトピックから外れています。現在、回答を受け付けていません。 この質問を改善してみませんか? サーバー障害のトピックになるように質問を更新します。 7年前休業。 LUNまたはパーティションを物理的に別のサーバーに複製することになると、LinuxにはDRBD(現在はカーネル内にあります)があります。私が理解しているように、同期と非同期の両方のレプリケーションモードがあります。2台のサーバー間に高速ネットワークがある場合、それは非常に困難な場合があります。 Windowsサーバーでも同じことをする必要があります。これを行う非フリーパッケージがあることは知っていますが(推奨事項は適切でしょう)、ここで「予算」と呼ぶものを考えると、より多くのフリーオプションについて詳しく知る必要があります。もしあれば。 ストレージサーバーの大多数がサーバー2008を使用しています。R2で必要なものが得られる場合は、4週間でアップグレードをスケジュールできるように、今すぐ知る必要があります。 問題の核心は、HP EVA 6100(10K RPMディスク)およびEVA 4400(主に、1TB FATAドライブ)デバイスに保存されている多数のLUNを別のものに複製する必要があることです。これで、HPには2つの間の複製を処理する非常に優れたReplication Managerが用意されていますが、もうすぐ寿命が尽きる6100から離れようとしています。そうでないものに複製する必要がありますEVA。 私のパフォーマンスモニタリングによると、レプリケートされるストレージの大部分は非常にバースト的な方法でアクセスされます(ファイルサーバーデータです)。バックアップI / Oは、通常のI / Oを3倍に小さくします。複製される合計量は約7TBで、毎日のファイルの最終的な変更は500GB程度です(これらすべてのOutlook PSTファイルが合計されます)。ブロックレベルの最終的な変化が何であるかはわかりません。 ファイバーチャネルを利用でき、1つのデータセンターにiSCSI分離ネットワークの始まりさえあります。ただし、2つのデータセンター間では(現在)1つの1 GigEパイプに制限されており、今後12か月以内に10 GigEパイプにアップグレードされます。 市販のユーティリティがいくつかありますが、私はそれらについてあまり知りません Double-Takeの可用性ブロックレベルのレプリケーションのようなことをするようですが、完全ではありません。私が探しているものかもしれません。 Veritas Storage Foundationは、この特定の問題に対して深刻なやり過ぎのように見えますが、環境に多くの柔軟性を追加します。 CommVault Simpana異機種混在レプリケーション、WANフレンドリー。 そして、もっとたくさん。 この環境がLinuxとSambaの場合、DRBDはほぼ完璧に適合します。Microsoft側に同等の機能があるかどうかはわかりません。

3
予算に縛られた開発環境をESXiに変換する-安価で可用性を最大化する方法
既に運用サーバーを仮想化するプロセスを実行しましたが、開発環境でも同じことをしたいと考えています。ただし、当社のプロバイダーがすべてのESXホストおよびクラスター構成(SAN、物理スイッチ、ホストプロファイルなど)を処理しました。 ここで、無料のESXiを使用して開発環境を仮想化したいと思います。ハイパーバイザーをインストールするとすぐに「動作」することはわかっていますが、冗長性を適切に設定して「正しく」設定したいと思います。たとえそれが貧乏人の解決策であっても。 だからここに私たちが持っているものがあります: 3台のDell R710(または同様の)サーバー(1台は1.3 TBを搭載し、他の2台は600 GBを搭載)。そのうちの1つに36 GBのRAMを装備しています。他の2つは合計8 GBです。 能力の異なる4台のクラッピアサーバー SCSIコントローラーと600 GBのストレージを備えた2つの小規模オフィスサーバーデスクトップ 私が持っている質問: データはどこに保存すればよいですか?ローカルで大きな1.3 TBのハードドライブ、またはスモールオフィスサーバー(SCSIサーバーなど)のいずれかを使用してFreeNASボックスをセットアップします。 一貫性のあるバックアップがある場合、1つのESXiサーバーに依存しても大丈夫ですか? 安価な、または無料のレプリケーションソリューションはありますか? どのような戦略をお勧めしますか?

1
SQL 2008 R2サードパーティピアツーピアレプリケーション、グローバルサイト配布
さまざまなデータセンターで3つのグローバルに分散したSQL Serverインストールをホストすることを検討しています。サイトAは、サイトBおよびCと同様に、サイトAが特定の地域のWebトラフィックとデータを提供することを目的としています。サイトAデータセンターがダウンした場合、接続が失われた場合など。サイトBまたはC(稼働中に応じて)。また、サイトAのユーザーがサイトCに移動する場合、サイトAにあったデータにアクセスできる必要があります。 私の質問は、このシナリオをサポートできるSQLレプリケーションテクノロジー(SQLレプリケーションまたはサードパーティ)です。各サイトでSQL 2008 R2 Enterpriseを使用しています。各サイトは、Netappファイラーを使用してVMWare上で実行されます。このシナリオでも、分散キャッシュのようなものが役立ちますか? ピアツーピアレプリケーションを調べてテストしましたが、テスト中に競合の問題が発生しました。この問題に遭遇して解決した他のグローバルデータセンターがあると思います。
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.