【實戰】使用 Kettle 工具將 mysql 數據增量導入到 MongoDB 中
最近有一個將 mysql 數據導入到 MongoDB 中的需求,打算使用 Kettle 工具實現。本文章記錄了數據導入從0到1的過程,最終實現了每秒鐘快速導入約 1200 條數據。一起來看吧~
一、Kettle 連接圖

簡單說下該轉換流程,增量導入數據:
1)根據 source 和 db 字段來獲取 MongoDB 集合內 business_time 最大值。
2)設置 mysql 語句
3)對查詢的字段進行改名
4)過濾數據:只往 MongoDB 里面導入 person_id,address,business_time 字段均不為空的數據。
- 符合過濾條件的數據,增加常量,并將其導入到 mongoDB 中。
- 不符合過濾條件的數據,增加常量,將其導入到 Excel 表中記錄。
二、流程組件解析
1、MongoDB input
1)Configure connection

- Host name(s) or IP address(es):網絡名稱或者地址。可以輸入多個主機名或IP地址,用逗號分隔。還可以通過將主機名和端口號與冒號分隔開,為每個主機名指定不同的端口號,并將主機名和端口號的組合與逗號分隔開。例如,要為兩個不同的MongoDB實例包含主機名和端口號,您將輸入localhost 1:27017,localhost 2:27018,并使 Port 字段為空。
- Port:端口號
- Username:用戶名
- Password:密碼
- Authenticate using Kerberos:指示是否使用Kerberos服務來管理身份驗證過程。
- Connection timeout:連接超時時間(毫秒)
- Socket timeout:等待寫操作(以毫秒為單位)的時間
2)Input options

- Database:檢索數據的數據庫的名稱。點擊 “Get DBs” 按鈕以獲取數據庫列表。
- Collection:集合名稱。點擊 “Get collections” 按鈕獲取集合列表。
- Read preference:表示要先讀取哪個節點。
- Tag set specification/#/Tag Set:標簽允許您自定義寫關注和讀取副本的首選項。
3)query
根據 source 和 db 字段來獲取 bussiness_time 的最大值,Kettle 的 MongoDB 查詢語句如下圖所示:

對應的 MongDB 的寫法為:

記得勾選 Query is aggregation pipeline 選項:

4)Fields
取消選中 Output single JSON field ,表示下一組件接收到的結果是一個 Number 類型的單值,否則就是一個 json 對象。

2、表輸入
設置 mysql 數據庫 jdbc 連接后,填好 SQL 語句之后,在下方的“從步驟插入數據”下拉列表中,選中“MongoDB input”。“MongoDB input” 中的變量,在 SQL 語句中用 ? 表示,如下圖所示:

如果導數的時候發生中文亂碼,可以點擊 編輯 ,選擇 數據庫連接 的 選項,添加配置項:characterEncoding utf8,即可解決。如下圖所示:

3、字段選擇
如果查詢出來的列名需要更改,則可以使用“字段選擇”組件,該組件還可以移除某字段,本次應用中,主要使用該組件將字段名進行修改。如下圖所示:

4、過濾選擇
只保留 person_id,address,business_time 字段都不為空的數據:

5、增加常量
很簡單,在“增加常量”組件內設置好要增加常量的類型和值即可。

6、Excel 輸出
添加“Excel 輸出”,設置好文件名,如果有必要的話還可以設置 Excel 字段格式,如下圖所示:

7、MongoDB output
1)Configure connection
如下圖所示,由于一開始就介紹了 MongoDB 的連接方式,所以在這里不在贅述。

2)Output options

- Batch insert size:每次批量插入的條數。
- Truncate collection:執行操作前先清空集合
- Update:更新數據
- Upsert:選擇 Upsert 選項將寫入模式從 insert 更改為 upsert(即:如果找到匹配項則更新,否則插入新記錄)。使用前提是 勾選 Update 選項。
- Muli-update:多次更新,可以更新所有匹配的文檔,而不僅僅是第一個。
3)Mongo document fields
根據 id、source、db 字段插入更新數據,如下圖所示:

更多 MongoDB output 可參考:https://wiki.pentaho.com/display/EAI/MongoDB+Output
三、索引優化
1、mysql
為 mysql 查詢字段添加索引。(略)
2、MongoDB
對 MongoDB 查詢做優化,創建復合索引:
對于 MongoDB input 組件來說,會關聯查詢出 business_time 最大值,所以要創建復合索引,創建復合索引時要注意字段順序,按照查詢順序創建:
db.trajectory_data.createIndex({source: 1, db: 1, business_time: 1})
對于 MongoDB output 組件來說,因為已經設置了 插入或更新 數據的規則,也會涉及到查詢,所以再設置一個復合索引:
db.trajectory_data.createIndex({id: 1, source: 1, db: 1})
四、運行
運行前,需要在集合內插入一條含 business_time 字段的 demo 數據,否則 MongoDB input 會因為查不到數據而報錯:
db.trajectory_data.insert({
id: 0,
source: 'xx數據',
db: "17-db2",
business_time: 0
})
成功插入數據后,執行該轉換:
- 可視化操作
- 命令行操作:${KETTLE_HOME}/pan.sh -file=xxx.ktr
可通過點擊 “執行結果” --> “步驟度量” 來查看各組件運行狀態,如下圖所示:

24 分鐘共導了 172 萬的數據,每秒鐘約導入 1200 條數據。
這樣子,這個轉換基本就算完成了。可以在 linux 上寫一個定時任務去執行這個轉換,每次轉換 mysql 都會將大于 mongoDB 集合中 business_time 字段最大值的數據增量導入到 MongoDB 中。
五、不足
像上述的 Kettle 流程也是有不足的。假如一次性拉取的數據量過大,很有可能導致 Mysql 或 Kettle 內存溢出而報錯。所以上述流程只適合小數據量導入。大數據量導入的話還是建議分批次導入或者分頁導入,大家可以研究一下。

浙公網安備 33010602011771號