摘要:
Spark調優 由于大部分Spark計算都是在內存中完成的,所以Spark程序的瓶頸可能由集群中任意一種資源導致,如:CPU、網絡帶寬、或者內存等。最常見的情況是,數據能裝進內存,而瓶頸是網絡帶寬;當然,有時候我們也需要做一些優化調整來減少內存占用,例如將RDD以序列化格式保存(storing RD 閱讀全文
posted @ 2018-02-28 09:10
shishanyuan
閱讀(1594)
評論(1)
推薦(2)

浙公網安備 33010602011771號