<output id="qn6qe"></output>

    1. <output id="qn6qe"><tt id="qn6qe"></tt></output>
    2. <strike id="qn6qe"></strike>

      亚洲 日本 欧洲 欧美 视频,日韩中文字幕有码av,一本一道av中文字幕无码,国产线播放免费人成视频播放,人妻少妇偷人无码视频,日夜啪啪一区二区三区,国产尤物精品自在拍视频首页,久热这里只有精品12

      MySQL數據庫InnoDB數據恢復工具使用總結

      本文從實際使用經驗出發,介紹一款開源的MySQL數據庫InnoDB數據恢復工具:innodb-tools,它通過從原始數據文件中提取表的行記錄,實現從丟失的或者被毀壞的MySQL表中恢復數據。例如,當你不小心執行DROP TABLE、TRUNCATE TABLE或者DROP DATABASE之后,可以通過以下方式恢復數據。

      以下內容大部分參考自:Percona Data Recovery Tool for InnoDB,文檔是英文的,而且寫的比較晦澀,這里是個人的實戰經驗總結,供大家參考學習。

      在介紹innodb-tools工具進行數據恢復之前,首先明確以下幾點:

      1、這個工具只能對InnoDB/XtraDB表有效,而無法恢復MyISAM表(注: Percona號稱有一套用于恢復MyISAM表的工具,但是本人未做嘗試)。

      2、這個工具是以保存的MySQL數據文件進行恢復的,而不用MySQL Server運行。

      3、不能保證數據總一定可被恢復。例如,被重寫的數據不能被恢復,這種情況下可能需要針對系統或物理的方式來恢復,不屬于本工具的范疇。

      4、恢復的最好時機是當你發現數據丟失時,盡快備份MySQL數據文件。

      5、使用這個工具需要手動做一些工作,并不是全自動完成的。

      6、恢復過程依賴于你對丟失數據的了解程度,在恢復過程中可能需要在不同版本的數據之間做出選擇。那么如果你越了解自己的數據,恢復的可能性就越大。

      接下來,下面通過一個例子來介紹如何通過這個工具進行恢復。

      1. 前提條件

      首先,需要理解的是innodb-tools工具不是通過連接到在線的database進行數據恢復,而是通過離線拷貝數據的方式進行的。注意:不要在MySQL運行的時候,直接拷貝InnoDB文件,這樣是不安全的,會影響數據恢復過程。

      為了完成數據恢復,必須知道將要被恢復的表結構(列名、數據類型)。最簡單的方式就是SHOW CREATE TABLE,當然后續會介紹幾種可替代的方式。因此,如果有一個MySQL server作為備份,即使數據是很早的甚至表中沒有記錄,可以有助于使用innodb-tools工具進行恢復。不過這個不是必須的。

      2. 簡單例子

      mysql> TRUNCATE TABLE customer;

      3. 構建工具

      為了構建innodb-tools工具,需要依賴于C編譯器、make工具等。

      1、下載解壓innodb-tools工具源碼:

      wget https://launchpad.net/percona-data-recovery-tool-for-innodb/trunk/release-0.5/+download/percona-data-recovery-tool-for-innodb-0.5.tar.gz
      tar -zxvf percona-data-recovery-tool-for-innodb-0.5.tar.gz

      2、進入解壓后根目錄下的mysql-source目錄,運行配置命令(注:不運行make命令):

      cd percona-data-recovery-tool-for-innodb-0.5/mysql-source
      ./configure

      3、完成配置步驟后,回到解壓后的根目錄,運行make命令,編譯生成page_parserconstraints_parser工具

      cd ..
      make

      page_parser工具將根據InnoDB的底層實現原理,解析表的頁和行結構。constraints_parser工具暫時不使用,后續還需要在定義表結構之后,重新編譯生成它。
      如果編譯過程中出現問題,點擊這里。本文使用過程中沒有出現問題,故不再一一列舉。

      4. 提取需要的頁

      InnoDB頁的默認大小是16K,每個頁屬于一個特定表中的一個特定的index。page_parser工具通過讀取數據文件,根據頁頭中的index ID,拷貝每個頁到一個單獨的文件中。

      如果你的MySQL server被配置為innodb_file_per_table=1,那么系統已經幫你實現上述過程。所有需要的頁都在.ibd文件,而且通常你不需要再切分它。然而,如果.ibd文件中可能包含多個index,那么將頁單獨切分開還是有必要的。如果MySQL server沒有配置innodb_file_per_table,那么數據會被保存在一個全局的表命名空間(通常是一個名為ibdata1的文件,本文屬于這種情況),這時候就需要按頁對文件進行切分。

      4.1 切分頁

      運行page_parser工具進行切分:

      • 如果MySQL是5.0之前的版本,InnoDB采取的是REDUNDANT格式,運行以下命令:
      ./page_parser -4 -f /path/to/ibdata1
      • 如果MySQL是5.0版本,InnoDB采取的是COMPACT格式,運行以下命令:
      ./page_parser -5 -f /path/to/ibdata1

      運行后,page_parser工具會創建一個pages-<TIMESTAMP>的目錄,其中TIMESTAMP是UNIX系統時間戳。在這個目錄下,為每個index ID,以頁的index ID創建一個子目錄。例如:

      pages-1330842944/FIL_PAGE_INDEX/0-1/1-00000008.page
      pages-1330842944/FIL_PAGE_INDEX/0-1/6-00000008.page

      4.2 選擇需要的Index ID

      一般來說,我們需要根據表的主鍵(PRIMARY index)進行恢復,主鍵中包含了所有的行。以下是一些可以實現的步驟:

      如果數據庫仍處于運行狀態,并且表沒有被drop掉,那么可以啟動InnoDB Tablespace Monitor,輸出所有表和indexes,index IDs到MySQL server的錯誤日志文件。創建innodb_table_monitor表用于收集innodb存儲引擎表及其索引的存儲方式:

      mysql> CREATE TABLE innodb_table_monitor (id int) ENGINE=InnoDB;

      如果innodb_table_monitor已經存在,drop表然后重新create表。等MySQL錯誤日志輸出后,可以drop掉這張表以停止打印輸出更多的監控。一個輸出的例子如下:

      TABLE: name sakila/customer, id 0 142, columns 13, indexes 4, appr.rows 0
      COLUMNS: customer_id: DATA_INT len 2 prec 0; store_id: DATA_INT len 1 prec 0; first_name: type 12 len 135 prec 0; last_name: type 12 len 135 prec 0; email:
      type 12 len 150 prec 0; address_id: DATA_INT len 2 prec 0; active: DATA_INT len 1 prec 0; create_date: DATA_INT len 8 prec 0; last_update: DATA_INT len 4 pr
      ec 0; DB_ROW_ID: DATA_SYS prtype 256 len 6 prec 0; DB_TRX_ID: DATA_SYS prtype 257 len 6 prec 0; DB_ROLL_PTR: DATA_SYS prtype 258 len 7 prec 0;
      INDEX: name PRIMARY, id 0 286, fields 1/11, type 3
      root page 50, appr.key vals 0, leaf pages 1, size pages 1
      FIELDS: customer_id DB_TRX_ID DB_ROLL_PTR store_id first_name last_name email address_id active create_date last_update
      INDEX: name idx_fk_store_id, id 0 287, fields 1/2, type 0
      root page 56, appr.key vals 0, leaf pages 1, size pages 1
      FIELDS: store_id customer_id
      INDEX: name idx_fk_address_id, id 0 288, fields 1/2, type 0
      root page 63, appr.key vals 0, leaf pages 1, size pages 1
      FIELDS: address_id customer_id
      INDEX: name idx_last_name, id 0 289, fields 1/2, type 0
      root page 1493, appr.key vals 0, leaf pages 1, size pages 1
      FIELDS: last_name customer_id

      這里,我們恢復的是sakila庫下的customer表,從上面可以獲取其主鍵信息:

        INDEX: name PRIMARY, id 0 286, fields 1/11, type 3

      Index ID是0 256,因此我們需要恢復的InnoDB頁位于0-256子目錄下。

      備注:參考文檔原文中之描述了以上這種獲取表的index ID的方法,本文在實際操作中,采取了更簡單的一種方式,即直接恢復page_parser生成的所有InnoDB頁。實踐證明這種方法也是可行的:)

      5. 生成表定義

      步驟4中,我們已經找到了需要的數據,接下來需要找到表結構,創建表定義,將其編譯到constraints_parser中,然后使用這個工具從InnoDB頁中提取表中的行。

      表定義包含了表中的列、列順序、數據類型。如果MySQL server仍處于運行且表未被drop掉,那么簡單實用SHOW CREATE TABLE就可以收集到這些信息。接下來將使用這些表結構信息來創建一個C結構體標識的表定義,然后編譯到constraints_parser工具。C結構體的定義存放在include/table_defs.h中。

      最簡單的方式是create_defs.pl Perl 腳本,連接到MySQL server,讀取SHOW CREATE TABLE的結果,輸出生成的表定義到標準輸出。下面是個例子,其中直接將結果重定向到了include/table_defs.h中:

       

      If possible, the easiest way to create the table definition is with the create_defs.pl Perl script. It connects to the MySQL server and reads SHOW CREATE TABLE output, and prints the generated definition to its standard output. Here is an example:

      $ ./create_defs.pl --host=localhost --user=root --password=123456 --db=sakila --table=customer > include/table_defs.h

      下面是例子中的表結構:

      CREATE TABLE `customer` (
      `customer_id` smallint(5) UNSIGNED NOT NULL AUTO_INCREMENT,
      `store_id` tinyint(3) UNSIGNED NOT NULL,
      `first_name` varchar(45) NOT NULL,
      `last_name` varchar(45) NOT NULL,
      `email` varchar(50) DEFAULT NULL,
      `address_id` smallint(5) UNSIGNED NOT NULL,
      `active` tinyint(1) NOT NULL DEFAULT '1',
      `create_date` datetime NOT NULL,
      `last_update` timestamp NOT NULL DEFAULT CURRENT_TIMESTAMP ON UPDATE CURRENT_TIMESTAMP,
      PRIMARY KEY (`customer_id`),
      KEY `idx_fk_store_id` (`store_id`),
      KEY `idx_fk_address_id` (`address_id`),
      KEY `idx_last_name` (`last_name`),
      CONSTRAINT `fk_customer_address` FOREIGN KEY (`address_id`) REFERENCES `address` (`address_id`) ON UPDATE CASCADE,
      CONSTRAINT `fk_customer_store` FOREIGN KEY (`store_id`) REFERENCES `store` (`store_id`) ON UPDATE CASCADE
      ) ENGINE=InnoDB DEFAULT CHARSET=utf8

      下面是生成的表定義:

      #ifndef table_defs_h
      #define table_defs_h
      // Table definitions
      table_def_t table_definitions[] = {
      {
      name: "customer",
      {
      { /* smallint(5) unsigned */
      name: "customer_id",
      type: FT_UINT,
      fixed_length: 2,
      has_limits: TRUE,
      limits: {
      can_be_null: FALSE,
      uint_min_val: 0,
      uint_max_val: 65535
      },
      can_be_null: FALSE
      },
      { /* Innodb's internally used field */
      name: "DB_TRX_ID",
      type: FT_INTERNAL,
      fixed_length: 6,
      can_be_null: FALSE
      },
      { /* Innodb's internally used field */
      name: "DB_ROLL_PTR",
      type: FT_INTERNAL,
      fixed_length: 7,
      can_be_null: FALSE
      },
      { /* tinyint(3) unsigned */
      name: "store_id",
      type: FT_UINT,
      fixed_length: 1,
      has_limits: TRUE,
      limits: {
      can_be_null: FALSE,
      uint_min_val: 0,
      uint_max_val: 255
      },
      can_be_null: FALSE
      },
      { /* varchar(45) */
      name: "first_name",
      type: FT_CHAR,
      min_length: 0,
      max_length: 45,
      has_limits: TRUE,
      limits: {
      can_be_null: FALSE,
      char_min_len: 0,
      char_max_len: 45,
      char_ascii_only: TRUE
      },
      can_be_null: FALSE
      },
      { /* varchar(45) */
      name: "last_name",
      type: FT_CHAR,
      min_length: 0,
      max_length: 45,
      has_limits: TRUE,
      limits: {
      can_be_null: FALSE,
      char_min_len: 0,
      char_max_len: 45,
      char_ascii_only: TRUE
      },
      can_be_null: FALSE
      },
      { /* varchar(50) */
      name: "email",
      type: FT_CHAR,
      min_length: 0,
      max_length: 50,
      has_limits: TRUE,
      limits: {
      can_be_null: TRUE,
      char_min_len: 0,
      char_max_len: 50,
      char_ascii_only: TRUE
      },
      can_be_null: TRUE
      },
      { /* smallint(5) unsigned */
      name: "address_id",
      type: FT_UINT,
      fixed_length: 2,
      has_limits: TRUE,
      limits: {
      can_be_null: FALSE,
      uint_min_val: 0,
      uint_max_val: 65535
      },
      can_be_null: FALSE
      },
      { /* tinyint(1) */
      name: "active",
      type: FT_INT,
      fixed_length: 1,
      can_be_null: FALSE
      },
      { /* datetime */
      name: "create_date",
      type: FT_DATETIME,
      fixed_length: 8,
      can_be_null: FALSE
      },
      { /* timestamp */
      name: "last_update",
      type: FT_UINT,
      fixed_length: 4,
      can_be_null: FALSE
      },
      { type: FT_NONE }
      }
      },
      };
      #endif

       

      如果需要,可以根據需要編輯修改include/table_defs.h;然后根據include/table_defs.h,重新編譯constraints_parser工具:

      $ make
      gcc -DHAVE_OFFSET64_T -D_FILE_OFFSET_BITS=64 -D_LARGEFILE64_SOURCE=1 -D_LARGEFILE_SOURCE=1 -g -I include -I mysql-source/include -I mysql-source/innobase/include -c tables_dict.c -o lib/tables_dict.o
      gcc -DHAVE_OFFSET64_T -D_FILE_OFFSET_BITS=64 -D_LARGEFILE64_SOURCE=1 -D_LARGEFILE_SOURCE=1 -g -I include -I mysql-source/include -I mysql-source/innobase/include -o constraints_parser constraints_parser.c lib/tables_dict.o lib/print_data.o lib/check_data.o lib/libut.a lib/libmystrings.a
      gcc -DHAVE_OFFSET64_T -D_FILE_OFFSET_BITS=64 -D_LARGEFILE64_SOURCE=1 -D_LARGEFILE_SOURCE=1 -g -I include -I mysql-source/include -I mysql-source/innobase/include -o page_parser page_parser.c lib/tables_dict.o lib/libut.a

       6. 從頁中提取行記錄

      6.1 合并頁到一個文件

      前面已經提到,我們需要恢復的index ID 0 286,包含數據的頁位于pages-1246363747/0-286/ 目錄。

      total 120
      -rw-r--r-- 1 root root 16384 Jun 30 05:09 1254-00001254.page
      -rw-r--r-- 1 root root 16384 Jun 30 05:09 1255-00001255.page
      -rw-r--r-- 1 root root 16384 Jun 30 05:09 1256-00001256.page
      -rw-r--r-- 1 root root 16384 Jun 30 05:09 1257-00001257.page
      -rw-r--r-- 1 root root 16384 Jun 30 05:09 50-00000050.page
      -rw-r--r-- 1 root root 16384 Jun 30 05:09 74-00000050.page

      輸入以下命令進行合并頁:

      $ find pages-1246363747/0-286/ -type f -name '*.page' | sort -n | xargs cat > pages-1246363747/0-286/customer_pages_concatenated

      生成的結果文件:pages-1246363747/0-286/customer_pages_concatenated,將作為constraints_parser工具的輸入。

      6.2 運行constraints_parser工具

      下面到恢復數據最核心的步驟——運行constraints_parser工具以提取行記錄。和page_parser工具一樣,需要通過-5或-4參數指定InnoDB頁格式(COMPACT/REDUNDANT),-f指定輸入文件。

      回到例子中,我們可以這樣運行constraints_parser工具(下面的命令是恢復一個單一的頁,也可以直接恢復經過6.1步驟合并所有頁之后的文件):

      $ ./constraints_parser -5 -f pages-1246363747/0-286/50-00000050.page

      輸出結果中每行包含表名以及表中的各個列。備注:其中可能有正確的行記錄,也可能有不正確的行記錄。官方文檔中這個章節給出了如何調整表定義獲取盡可能多的有效數據,同時過濾掉垃圾行,這里不再詳細描述。

      customer        0       120     ""      ""      ""      32770   0       "0000-00-00 00:12:80"   0
      customer 0 0 "" "" "" 0 0 "9120-22-48 29:44:00" 2
      customer 61953 0 "" "" "" 2816 0 "7952-32-67 11:43:49" 0
      customer 0 0 "" "" "" 0 0 "0000-00-00 00:00:00" 0
      ... snip ...
      customer 0 0 "" "" "" 0 0 "0000-00-00 00:00:00" 16777728
      customer 28262 114 "" "" NULL 25965 117 "4603-91-96 76:21:28" 5111809
      customer 0 82 "" "" "" 22867 77 "2775-94-58 03:19:18" 1397573972
      customer 2 1 "PATRICIA" "JOHNSON" "PATRICIA.JOHNSON@sakilacustomer.org" 6 1 "2006-02-14 22:04:36" 1140008240
      customer 3 1 "LINDA" "WILLIAMS" "LINDA.WILLIAMS@sakilacustomer.org" 7 1 "2006-02-14 22:04:36" 1140008240
      customer 4 2 "BARBARA" "JONES" "BARBARA.JONES@sakilacustomer.org" 8 1 "2006-02-14 22:04:36" 1140008240
      customer 5 1 "ELIZABETH" "BROWN" "ELIZABETH.BROWN@sakilacustomer.org" 9 1 "2006-02-14 22:04:36" 1140008240
      customer 6 2 "JENNIFER" "DAVIS" "JENNIFER.DAVIS@sakilacustomer.org" 10 1 "2006-02-14 22:04:36" 1140008240
      customer 7 1 "MARIA" "MILLER" "MARIA.MILLER@sakilacustomer.org" 11 1 "2006-02-14 22:04:36" 1140008240
      customer 8 2 "SUSAN" "WILSON" "SUSAN.WILSON@sakilacustomer.org" 12 1 "2006-02-14 22:04:36" 1140008240
      customer 9 2 "MARGARET" "MOORE" "MARGARET.MOORE@sakilacustomer.org" 13 1 "2006-02-14 22:04:36" 1140008240
      ... snip ...
      customer 0 0 "" "" "" 0 0 "0000-00-00 00:00:00" 0
      customer 0 0 "" "" "" 0 0 "7679-35-98 86:44:53" 720578985

      7. 導入數據到數據庫中

      最后,為了完成數據恢復,需要將步驟6中constraints_parser工具的輸出結果,使用LOAD DATA INFILE命令導入到數據庫中。命令如下:

      LOAD DATA INFILE '/tmp/customer_data.tsv'
      REPLACE INTO TABLE customer
      FIELDS TERMINATED BY '\t'
      OPTIONALLY ENCLOSED BY '"'
      LINES STARTING BY 'customer\t'
      (customer_id, store_id, first_name, last_name, email,
      address_id, active, create_date, @last_update)
      SET last_update = FROM_UNIXTIME(@last_update); 

      至此,完成了數據的恢復和導入過程。希望大家不會有機會去實踐這篇文章介紹的方法。

      posted on 2012-03-04 22:42  大圓那些事  閱讀(18844)  評論(4)    收藏  舉報

      導航

      主站蜘蛛池模板: 天天干天天日| 在线精品视频一区二区三四| 怡红院一区二区三区在线| 国产成人无码AV片在线观看不卡| 日韩精品亚洲专在线电影| 国精品无码一区二区三区在线蜜臀 | 久久国语对白| 久久精品国产99国产精品严洲 | 亚洲国产美女精品久久久| 久久香蕉欧美精品| 国内精品免费久久久久电影院97 | 熟妇人妻av中文字幕老熟妇| 国产第一页浮力影院入口| 99在线小视频| 日韩剧情片电影网站| 大埔县| 精品久久久久无码| 亚洲成色精品一二三区| 国产精品污www在线观看| 色成人亚洲| 国产激情无码一区二区APP| 余姚市| 日韩免费美熟女中文av| 久久一区二区中文字幕| 国产午夜福利视频第三区| 日韩一区二区在线观看的| 精品国产粉嫩内射白浆内射双马尾| 中文字幕久久人妻熟人妻| 亚洲精品午夜国产VA久久成人| 天堂V亚洲国产V第一次| 久久国产免费观看精品3| 麻豆国产传媒精品视频| 日韩美女亚洲性一区二区| 亚州中文字幕一区二区| 国产精品美女久久久久久麻豆| 亚洲永久精品免费在线看| 99久久国产综合精品女同| 在线无码午夜福利高潮视频| 国产999久久高清免费观看| 国产h视频在线观看| 国产午夜福利一区二区三区|