首页 / 数码科技 / 正文

有哪些适合Spark应用场景

Spark不适合的方面有很多,我随便举几个例子:

1.有高实时性要求的流式计算业务,例如实时性要求毫秒级。

2.由于RDD设计上的只读特点,所以Spark对于待分析数据频繁变动的情景很难做(并不是不可以),比如题主例子里的搜索,假设你的数据集在频繁变化(不停增删改),而且又需要结果具有很强的一致性(不一致时间窗口很小),那么就不合适了。

3.普通的RDD不具备索引功能,所以对于一个数据集中精准定位一个数据spark的效率不高,当然这也是有方法可以改善的。

如有侵权请及时联系我们处理,转载请注明出处来自