タグ付けされた質問 「db2」

1
データベース統計およびビルトインログの解析ありまたはなしのレポート
私は一般的な統計的ユーティリティ/プラグイン/アプリケーションを好むが、特定のものもうまくいくかもしれないので自分自身を制限しないでください。 クエリを見ることができる方法を見たい すべてのクエリの統計 。 例:表示、ソート、フィルタリング これまでのすべてのクエリ に行われたすべてのクエリ すべてのデータベースまたは特定のデータベース 特定のテーブルに。 または特定の列に 特定のクエリregex / paramsを使って。行われたクエリの数が多い順にソートします。所要時間に応じて最も長いクエリをソートします。 いくつかの図表はプラスになるでしょう。そのようなことのためのアプリケーションや組み込み機能はありますか? それをするために、あなたはする必要があります すべてのクエリを記録する その後、/を実行します。 それらのログを解析する ある種の分析器を通して。これはカスタムビルドログパーサーアプリケーションを必要とするかもしれません。 現在のサーバーは大容量サーバーで、1秒間に500から3000クエリです。ログは他のHDDに保存されている可能性があります。 質問: そのようなもののために事前に構築されたアプリケーションはありますか? 通常のクエリは遅くなりますか?もしそうなら、どれだけ、大体? ライブクエリを見てロギングを他の場所で行う、またはまったく行わないで他のアプリでライブ統計レポートを作成する方法はありますか? 私はデータベース固有の統計メーカーでログを解析するのではなく、単にログファイルを取得して私自身のパーサーアプリケーションを作成し、それらのログを使って統計とグラフを作成します。クエリの値+実行に要した時間+クエリの日付を使用して、それらの解析済みの状態を別のDBに格納してから、後でレポートを生成することができます。これは良い考えですか? 私はファイルにそれを記録せずにすべてのことを行う「ライブ」の方法に気づいたことはありませんでした。 のための任意のビルド前のアプリ mysql そして postgres?それが私が使っていることです。 そのための戦略上のアドバイスはありますか? 「パフォーマンス分析を詳細に行う方法」を考え始めたところです。
1 mysql  postgresql  db2 

2
DDLでCODEUNIT32(CHAR SET =“ UTF-32”を確立するにはどうすればよいですか?
VARCHAR(120)になりますが、実際には480バイトを格納する列の要求をモデル化しようとしています。 480の長さは、VARCHAR(120)= 120 x 4 = 480バイトとして確立されます。これは、文字列単位の仕様コード単位32によるものです。つまり、1文字ごとに4バイトを消費します。 DDLの構文がわかりません。私の調査では、文字セットをUTF-32に設定する表の作成中にステートメントが必要であることが示されていますが、私は不確かです。これは、DB2中間層(非メインフレーム)用です ここに私が見つけたものがありますが、それが有効であるか、どのようにCOLLATE機能するかはわかりません。 ALTER TABLE table_name MODIFY column_name VARCHAR(255) CHARACTER SET utf8 COLLATE utf8_unicode_ci; 助けていただければ幸いです!
1 sql  db2 
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.