爱问知识人 爱问教育 医院库

hadoop最大可用内存

首页

hadoop最大可用内存


        

提交回答
好评回答
  • 2023-11-08 09:00:08

    hadoop默认namenode内存的大小为1000M,这个值对于数百万的文件来说是足够的,可以保守地设置每百万数据块需要1000MB内存。

    (20024000000MB)/(128MB3)=12500,000。(节点数每个节点的磁盘大小)/ (Block大小备份数)

    然后保守估计需要多少内存:

    12500,000*1000MB(默认内存)/1000,000(百万文件)=12,500MB

    从上面的计算结果看出,将namenode内存的大小设置为12,000MB这个数量级别可以满足。

    D***

    2023-11-08 09:00:08

  • 生活 相关知识

  • 生活
  • 日常生活

相关推荐

正在加载...
最新资料 推荐信息 热门专题 热点推荐
  • 1-20
  • 21-40
  • 41-60
  • 61-80
  • 81-100
  • 101-120
  • 121-140
  • 141-160
  • 161-180
  • 181-200
  • 1-20
  • 21-40
  • 41-60
  • 61-80
  • 81-100
  • 101-120
  • 121-140
  • 141-160
  • 161-180
  • 181-200
  • 1-20
  • 21-40
  • 41-60
  • 61-80
  • 81-100
  • 101-120
  • 121-140
  • 141-160
  • 161-180
  • 181-200
  • 1-20
  • 21-40
  • 41-60
  • 61-80
  • 81-100
  • 101-120
  • 121-140
  • 141-160
  • 161-180
  • 181-200

热点检索

  • 1-20
  • 21-40
  • 41-60
  • 61-80
  • 81-100
  • 101-120
  • 121-140
  • 141-160
  • 161-180
  • 181-200
返回
顶部
帮助 意见
反馈

确定举报此问题

举报原因(必选):