从IT168.com的调查结果来看,目前企业考虑部署或者已经部署Hadoop解决方案都还处于起始阶段,不管是从部署Hadoop的节点规模,还是Hadoop开发人员的配置,以及运行在Hadoop之上的应用数据和数据量来看,其规模都比较小。具体如下所示:
从上图可以看出,目前大多数企业(83%)所部署的Hadoop节点数规模还在20个以下,超过20个节点规模的企业仅为17%。
受限于企业所部署的Hadoop节点规模,其所配置的开发人员也较少,仅有10%的受调查者表示,其所在企业的Hadoop开发人员超过10人。90%的受调查者表示,其所在企业配备的Hadoop开发人员在10人以下,其中仅40%的受调查者表示,其所在企业的Hadoop开发团队规模在7-10人之间。
由于规模和开发团队的影响,其运行在Hadoop上的应用规模也普遍偏小,15%的受调查者表示其所在企业部署在Hadoop上的应用规模超过了20个,其中仅11%的企业应用规模在20-50个之间。
而有85%的受调查者表示,其所在企业部署于Hadoop之上的应用规模在20个以下,30%的企业在Hadoop之上的应用规模为6-10个,33%的企业所部署在Hadoop之上的规模为5个以下,中国企业用户部署Hadoop的规模还较小,正处于起始阶段。
同样,在回答用于Hadoop集群中的数据规模这一问题时,91%的受调查者表示,其所在企业用于Hadoop集群中大数据规模在1TB以下,其中30%的受调查者认为,其用于Hadoop的数据规模为100GB-500GB之间,而35%的企业用于Hadoop的数据规模在100GB以下,这一部分的用户比例是最高的。仅有9%的受调查者表示,其所在企业用于Hadoop集群中的数据规模在1TB以上,其中3%的受调查者称,其企业用于Hadoop的数据规模在5TB以上。