タグ付けされた質問 「import」

データのインポートは、異なるソフトウェアアプリケーション間でのデータセットの自動または半自動入力です。

11
大きな.sqlファイルのインポートの進行状況を監視するにはどうすればよいですか?
foobar.sqlローカルデータベースのテーブルを復元するために7 GB をインポートしています。 $ mysql -h localhost -u root 'my_data' < foobar.sql $ mysql --version /usr/local/mysql/bin/mysql Ver 14.12 Distrib 5.0.96, for apple-darwin9.8.0 (i386) using readline 5.1 進捗状況を監視するにはどうすればよいですか?
204 mysql  mysqldump  import 

1
同じデータベースの.bakファイルと比較して、.bacpacファイルが非常に小さいのはなぜですか?
私は他のサーバーにインポートするために私のSQL Serverの2014 Expressデータベースのバックアップを行うとの間で、ファイルサイズの違いに気づいてきた.bacpacとします.bak。 同じデータベースのファイル.bacpacと比較して、.bakファイルが非常に小さいのはなぜですか? 洞察力をありがとう!

6
MySQLに.sqlファイルをインポートする方法は?
MySQL Workbenchを使用して.sqlファイルをインポートしようとすると、次のエラーが表示されます。 ERROR 1046 (3D000) at line 28: No database selected 最初に.sqlファイルと同じ名前で呼び出される空のデータベースを作成しましたが、機能しません。また、次を使用してmysqlコマンドクライアントで実行しようとしました。 mysqldump -u root database > file.sql しかし、それは私のSQL構文にエラーがあると言います。さらに、file.sqlを設定する必要があるパスがわかりません。


7
Oracleの新規インストールにOracle DMPファイルをインポートします
クライアントから、テストする必要があるOracleデータベースが送信されました。オラクルは使用せず、社内にオラクルの専門知識もありません。 データベースに接続して問題をデバッグできるように、データベースをセットアップする必要があります。 Oracle 9(クライアントが実行しているバージョン)と管理ツールを新規インストールしました。 私の人生では、データをインポートすることはできません。これは複雑ではありません。私は何か間違っているはずです。 私はもう試した: imp 'sys/password AS SYSDBA' file=c:\database.dmp full=yes log=implog.txt そして得た: Connected to: Personal Oracle9i Release 9.2.0.1.0 - Production With the Partitioning, OLAP and Oracle Data Mining options JServer Release 9.2.0.1.0 - Production Export file created by EXPORT:V09.02.00 via conventional path Warning: the objects were exported by …
29 oracle  import 

3
「LOAD DATA INFILE」が通常のINSERTステートメントよりも高速なのはなぜですか?
私は、csvファイルから読み取り、データベースにデータを挿入するステートメントを使用して、1秒あたり60,000の挿入を達成できると述べた記事をLOAD DATA IN FILE読みました。 なぜ通常の挿入と異なるのですか? 編集: 私はただ1つのINSERTステートメントを呼び出すことでラウンドトリップを減らしました: INSERT INTO tblname VALUES (NULL,2,'some text here0'),(NULL,2,'some text here1') ,(NULL,2,'some text here2'),(NULL,2,'some text here3') .....,(NULL,2,'some text here3000'); これはどうですか?
22 mysql  import  bulk 

4
なぜBULK INSERTは危険と見なされますか?
この質問は、データベース管理者のStack Exchangeで回答できるため、Information Security Stack Exchangeから移行されました。 2年前に移行され ました。 一般にサイバーセキュリティチーム(私が扱った複数の組織)がBULK INSERTアプリケーションやデータベースプログラマーに(TSQLなどの)権利を付与することに対して何の不満があるのか​​を理解したいと思いますか?最終的な結果は次のようなことを行うアプリケーションと変わらないため、何かを逃さない限り、「ディスクの乱用を埋める」という言い訳は信じられません。 for (long i = 0; i < LONG_MAX; ++i) executeSQL("INSERT INTO table VALUES(...)"); これINSERTは、基本的な書き込み権限を持つ人が実行できる一般的なDMLコマンドです。 アプリケーションの利点として、BULK INSERTはるかに効率的で高速であり、プログラマーはSQLの外部でファイルを解析する必要がなくなります。 編集:私はもともと情報セキュリティサイトでこの質問をしました-BULK INSERTを使用することに反対しているのはDBAではなく、「情報保証」(略してIA-サイバーセキュリティの人々)が問題を強要しているからです。この質問をあと1日か2日シチューさせますが、バルク操作が実際に制約またはトリガーをバイパスする場合、問題であることがわかります。

2
新しいまたは異なるテーブルスペースへのスキーマのインポート
データの作成元とは異なる単一の新しいテーブルスペースまたは異なるテーブルスペースを使用して、スキーマをOracle 11gR2にインポートする便利な方法はありますか? 例として、OLDDBからBLOG_DATAをエクスポートしました。すべてのユーザーデータはUSERSテーブルスペースに保存されています。 NEWDBで、BLOG_DATAスキーマをインポートしますが、このユーザー専用に作成されたBLOG_DATAテーブルスペースにユーザーオブジェクトを保存します。 BLOG_DATAユーザーを作成し、BLOG_DATAテーブルスペースを作成し、そのユーザーのデフォルトのテーブルスペースとして設定し、適切な無制限のクォータを追加しました。 CREATE TABLESPACE blog_data DATAFILE SIZE 1G; CREATE USER blog_data IDENTIFIED BY secretpassword DEFAULT TABLESPACE blog_data QUOTA UNLIMITED ON blog_data; GRANT connect,resource TO blog_data スキーマは次のようなものでOLDDBからエクスポートされました exp blog_data/secretpassword@OLDDB file=blog_data.dmp 以下のフィルの優れた答えを読んだ後、私は不思議に思いました: データにはデフォルトの表領域(ユーザーがクォータを持っている唯一の表領域)以外に移動する場所がないため、これによりimpはすべてのユーザーオブジェクトをそのデフォルトの表領域に配置するように強制されますか? imp blog_data/secretpassword@NEWDB file=blog_data.dmp これにより、newdbのblog_dataテーブルスペースにblog_dataスキーマ全体が配置されますか?これが機能しない理由や、特定のオブジェクトなどで問題が発生する理由はありますか? 更新: 簡単なテストを行ったところ、これが事実であることがわかりました。Impオブジェクトを元のテーブルスペースに配置できない場合(テーブルスペースが存在しないなど)、そのユーザーのデフォルトのテーブルスペースにオブジェクトを配置します。詳細な説明:http : //www.dolicapax.org/?p=57 それでも、Philが示唆しているようにData Pumpを使用することは、好ましい選択肢であると思われます。

3
ヘッダー付きのCSVファイルからテーブルを作成する
指定したCSVの内容のみに基づいて新しいMySQLテーブルを生成する方法を探しています。私が使用するCSVファイルには、次のプロパティがあります。 「|」区切られた。 最初の行は列名(ヘッダー)を指定し、 "|"も指定します 区切られた。 列名と順序は固定されていません。 列の数は固定されていません。 ファイルのサイズが大きい(1 mil行/ 50列)。 Excelではこれはすべてかなり単純ですが、MySQLではそうではありません(Googleでは運がありません)。私が見ているべきものについて何か提案はありますか?
12 mysql  csv  import  bulk 

1
最小限のダウンタイムで大量のデータを再インポートする最良の方法
週に1回(3つのint / bigint列のみ)のIPルックアップ(読み取り専用参照)データを含む約500,000件のレコードをインポートする必要があります。 データを既存のテーブルとマージすることについて心配したくないので、古いものをクリアして再インポートしたいと思います。 理想的には、データに対して実行されるクエリは引き続き実行されます(これらのクエリの多くは取得されず、インポートの実行中は少し遅く実行することは許容されますが、24時間年中無休で実行する必要があるため、これを実行します)時間外」はオプションではありません)。 これまでに試したこと SSIS:テーブルを切り捨ててインポートするSSISパッケージを作成しました-実行に約30秒かかります(実際には長すぎます)。 一時テーブル:一時テーブルへのインポート、切り捨て、および全体のコピーにも、約30秒かかります。 BCP:一括インポートもかなり遅い(何らかの理由で、SSISよりも遅い(インデックスを維持する必要がない場合でも))-char-> int / bigintトランザクションと関係があると思います:/ ミラーテーブル?したがって、現時点では、ビューを介してテーブルを読み取り、ミラーテーブルにデータをインポートし、このテーブルを指すようにビューを変更することについて疑問に思っています。ちょっとハッキー。 これは一般的な問題のように思われますが、推奨される方法を見つけることができません。 ありがとう

4
異なる文字セットが原因のOracleインポートの問題
Oracle 11のエクスポートをOracle 11 XEにインポートしようとしています。 次のメッセージが表示されます。 XEでのインポートfehlerhaftインポートはWE8MSWIN1252文字セットで行われ、AL16UTF16 NCHAR文字セット インポートサーバーはAL32UTF8文字セットを使用します(可能な文字セット変換) アイデア、このダンプをOracle 11 XEにインポートする方法を教えてください。 編集: テーブルを考える CREATE TABLE BDATA.Artikel( Key VARCHAR2(3) NOT NULL, Name VARCHAR2(60) NOT NULL, Abkuerzung VARCHAR2(5) NOT NULL ); このようなエラーが発生します IMP-00019: row rejected due to ORACLE error 12899 IMP-00003: ORACLE error 12899 encountered ORA-12899: value too large for column "BDATA"."ARTIKEL"."ABKUERZUNG" …
11 oracle  import 

3
InnoDBインポートのパフォーマンス
約1000万行(または7GB)からなる非常に大きなInnoDBテーブルを一括インポートするのに苦労しています(これは、これまでに作業した中で最大のテーブルです)。 Innoのインポート速度を改善する方法を調査しましたが、今のところ、私のセットアップは次のようになっています。 /etc/mysql/my.cnf/ [...] innodb_buffer_pool_size = 7446915072 # ~90% of memory innodb_read_io_threads = 64 innodb_write_io_threads = 64 innodb_io_capacity = 5000 innodb_thread_concurrency=0 innodb_doublewrite = 0 innodb_log_file_size = 1G log-bin = "" innodb_autoinc_lock_mode = 2 innodb_flush_method = O_DIRECT innodb_flush_log_at_trx_commit=2 innodb_buffer_pool_instances=8 import is done via bash script, here is the mysql code: SET …

1
一時テーブルにデータをロードするときに最小限のログを取得します
データロードパフォーマンスガイドを読んでも、最小限のログを取得するためにクラスター化インデックスで定義された空の一時テーブルにTABLOCKテーブルヒントを追加する必要があるかどうかはまだわかりません。 一時テーブルは、SIMPLEリカバリモードで動作するTempDBで作成されるのは明らかなので、最小限のロギングの完璧な候補だと思いましたが、確認するための通路が見つかりません。 一時テーブルは最小限のロギングの候補です。そうであれば、永続テーブルに推奨されるTABLOCKヒントを追加する価値はありますか?

1
SQLサーバーでのインデックス再構築の速度を改善する
大量のデータを空のデータベースにインポートしています。開始する前に、一意でない非クラスター化インデックスをすべて無効にして、インポートのパフォーマンスを向上できるかどうかを確認しました。 ここで、インデックスを再度有効にしたいと思います。これを最適化するために何かできることがあるかどうか疑問に思っています。 再構築する必要がある100を超えるテーブルとほぼ2,000のインデックスがあります。データベースのサイズは200GBです。 私が実行しているスクリプトの重要なセクションは次のとおりです。 declare c_toggle_index cursor FORWARD_ONLY READ_ONLY for select 'alter index ' + QUOTENAME(i.name) + ' on ' + o.name + ' rebuild' from sys.indexes as i Inner Join sys.objects o On o.object_id = i.object_id Where o.is_ms_shipped = 0 And i.index_id >= 1 and i.type > 1 and …

1
インポート時のMySQLテーブルのダンプが既存のレコードを置き換えました
mysqldumpを使用してダンプを取得しました。 mysqldump -u... -p... mydb t1 > mydb_table.sql 次に、同じテーブルを持つがレコードが異なる別のデータベースにダンプをインポートしました。 mysql -u...-p... mydb < mydb_tables.sql インポートデータベースには、primary_key 1から1000までのレコードがあり、エクスポートデータベースには、5000〜10,000のレコードがありました。 しかし、インポート時に既存のレコード、つまり1〜1000が削除されました。 どうやって??なぜ??これがデフォルトの動作である場合、次回ダンプを発生させないためにダンプにどのようなオプションを指定できますか。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.