Principais Alternativas de Spark Mais Bem Avaliadas
Avaliações 52 Spark
Sentimento Geral da Revisão para Spark
Entre para ver o sentimento das avaliações.


Spark é uma ótima ferramenta para trabalhar. Eu a usei para monitorar meus sistemas. Análise coletada por e hospedada no G2.com.
Nada por enquanto. Tentarei trabalhar mais e fornecer um grande retrocesso. Análise coletada por e hospedada no G2.com.

Earlier we were using mapreduce and just shifted to spark. It's in memory processing makes it super fast.It's data frame API and also spark streaming is best part of spark. Análise coletada por e hospedada no G2.com.
There is no such thing to dislike about spark. Análise coletada por e hospedada no G2.com.


Spark ajuda no processamento de Big Data. Com seus cálculos em memória e várias outras otimizações, torna o processamento de Big Data muito mais rápido do que o sistema tradicional de Big Data do Hadoop. Análise coletada por e hospedada no G2.com.
A configuração do Spark é complicada e obter a Configuração Otimizada do Cluster Spark pode ser difícil de acertar. Além disso, devido aos cálculos em memória, podem ocorrer erros de falta de memória. Análise coletada por e hospedada no G2.com.

A melhor coisa sobre isso é que suporta conceitos de partição, bem como de bucketing. E também podemos usar indexação. O melhor uso do Spark SQL para implementar map reduce para buscar os dados, as bibliotecas que ele fornece para o programa map reducer são muito fáceis de usar e escrever a consulta. Um novo aprendiz também pode aprender Spark Core e Spark SQL no início se o desenvolvedor souber o básico de SQL. Análise coletada por e hospedada no G2.com.
O tempo que leva para a execução de uma consulta. Embora possamos usar indexação, ainda leva muito tempo para buscar os resultados no banco de dados, o que não é adequado para um tipo mais avançado de análise de dados ou em uma grande quantidade de dados, não podemos preferir o Spark SQL. Análise coletada por e hospedada no G2.com.

O que eu mais gosto é o seu processamento em memória e suas ricas bibliotecas de API. Podemos codificar em Python, Scala, R, Java e, mais importante, em SQL. Ele segue a avaliação preguiçosa, que só é acionada quando executamos ações. Ele nos permite fazer cache, persistência, particionamento, broadcasting e muito mais, o que otimiza o desempenho. Análise coletada por e hospedada no G2.com.
Nada Spark está no seu melhor. Não vejo desvantagens. Análise coletada por e hospedada no G2.com.