Principais Alternativas de XGBoost Mais Bem Avaliadas
XGBoost has better performance than other boosters or gradient functions. Helps return improved accuracy on regression algorithms. Works well on large datasets. Análise coletada por e hospedada no G2.com.
Takes time to train on complex datasets. Requires cross validation for better results. Análise coletada por e hospedada no G2.com.
12 de 13 Avaliações Totais para XGBoost
Sentimento Geral da Revisão para XGBoost
Entre para ver o sentimento das avaliações.

A melhor coisa sobre o XGBoost é que ele fornece processamento paralelo no desenvolvimento de modelos de aprendizado de máquina; com a ajuda de 4 núcleos e processamento paralelo, eu consegui desenvolver um modelo de aprendizado de máquina em 30 milhões de assinantes em 2 horas. Análise coletada por e hospedada no G2.com.
O que eu não gosto no XGBoost é que ele não lida com os outliers no conjunto de dados durante o desenvolvimento do modelo de aprendizado de máquina. Análise coletada por e hospedada no G2.com.
É o algoritmo autônomo de melhor desempenho (não contando os algoritmos de deep learning, que são um campo completamente diferente) famoso por vencer muitas competições online de aprendizado de máquina. Ele é rápido e tem um desempenho melhor do que algoritmos de bagging porque aprende com os erros dos modelos de árvore anteriores que foram construídos dentro dele. É possível ajustar o XGBoost para várias métricas, então se você quiser um alto recall, pode fazê-lo com a ajuda do GridSearchCV. É muito eficiente em comparação com o famoso algoritmo Random Forest. Análise coletada por e hospedada no G2.com.
Que não faz parte de um pacote maior, como o Anaconda, mas temos que instalá-lo separadamente. Além disso, sua grandeza vem com o custo de overfitting, assim como as redes neurais profundas. Aprende tão bem que, após o ajuste de hiperparâmetros, se ajusta mais do que outros algoritmos. Análise coletada por e hospedada no G2.com.

Eu usei modelos XGBoost para muitos problemas de competição de ML até agora. Toda vez, consegui alcançar um modelo de alta precisão e alto desempenho usando XGBoost. XGBoost é bem conhecido por seu melhor desempenho e gerenciamento eficiente de memória na comunidade de ML. Portanto, recomendo altamente a qualquer pessoa que seja nova na área aprender e usar XGBoost. É imprescindível estar no seu kit de ferramentas de ML. Análise coletada por e hospedada no G2.com.
O conceito subjacente do algoritmo é um pouco difícil de entender a princípio. E o modelo tem um grande número de hiperparâmetros. Portanto, no início, é difícil entender o papel que cada hiperparâmetro desempenha. Mas após alguma leitura da teoria do algoritmo etc., o modelo torna-se fácil de compreender e usar. Análise coletada por e hospedada no G2.com.

- XgBoost é um tipo de biblioteca que você pode instalar na sua máquina. C++, Java, Python com Sci-kit learn e muitos mais.
- Ele faz a construção de árvores em paralelo usando todos os núcleos da CPU.
- A implementação do algoritmo foi projetada para a eficiência do tempo de computação e dos recursos de memória.
- Xgboost garante a velocidade de execução e o desempenho do modelo.
- XGBoost internamente possui parâmetros para validação cruzada, regularização, funções de objetivo definidas pelo usuário, valores ausentes, etc.
- Ajuda a reduzir o overfitting. Análise coletada por e hospedada no G2.com.
Não há muito que eu não goste do Xgboost, mas para mim, às vezes, ajustar os parâmetros é um pouco cansativo. Análise coletada por e hospedada no G2.com.
Have used XGBoost multiple times, and it is a very intuitive library that is easy to pick up quickly for the task I had at hand (fairly straightforward gradient boosting task). I only used the package in R form, but have heard good things from colleagues who much more regularly use gradient boosting for predictive projects; XGBoost seems to be the go-to library for boosting for multiple Data Scientists that I work with. Análise coletada por e hospedada no G2.com.
Nothing comes to mind; it is an efficient and easy to use gradient boosting framework. The support for the R version seems a little less than the Python version, but the R version performed well for my needs (relatively small dataset, no multicore processing or need for intense parallelization. Análise coletada por e hospedada no G2.com.
The application is an easy to use, out-of-the-box software to quickly apply to data prediction problems. It is reliable and fast and portable, making it a versatile tool for machine learning. Análise coletada por e hospedada no G2.com.
There's not much to dislike. It's been pretty popular as a decision tree algorithm and rightly remains a reliable choice for data science applications. Only wished it was developed sooner! Análise coletada por e hospedada no G2.com.
The boost is your program makes a better stronger built it makes it easier to build it makes your computer access and easy to use and build your program Análise coletada por e hospedada no G2.com.
None I like everything about it and help me build faster understand and it’s good for programming Análise coletada por e hospedada no G2.com.
it is helpful in building a model that is very accurate in fitting the training. Análise coletada por e hospedada no G2.com.
it can be difficult to preempt overfitting the training data and generalize for testing. Análise coletada por e hospedada no G2.com.
I liked that it was very user friendly and incorporated data in a nice method. I liked the way it worked and it was easy to learn. Their staff was very good at assisting me throughout the process. Any questions that I had were answered immediately and without hesitation. They were kind and flexible to work with. I would definitely recommend. Análise coletada por e hospedada no G2.com.
There was nothing that I disliked about it. Análise coletada por e hospedada no G2.com.
Runs well in basically every situation, handles missing data well, relatively lightweight. Análise coletada por e hospedada no G2.com.
It's annoying that you need graphviz to easily visualize the tree output. I can't believe it'd be that hard to output it even as a csv or something. Análise coletada por e hospedada no G2.com.