Principais Alternativas de XGBoost Mais Bem Avaliadas

Eu usei modelos XGBoost para muitos problemas de competição de ML até agora. Toda vez, consegui alcançar um modelo de alta precisão e alto desempenho usando XGBoost. XGBoost é bem conhecido por seu melhor desempenho e gerenciamento eficiente de memória na comunidade de ML. Portanto, recomendo altamente a qualquer pessoa que seja nova na área aprender e usar XGBoost. É imprescindível estar no seu kit de ferramentas de ML. Análise coletada por e hospedada no G2.com.
O conceito subjacente do algoritmo é um pouco difícil de entender a princípio. E o modelo tem um grande número de hiperparâmetros. Portanto, no início, é difícil entender o papel que cada hiperparâmetro desempenha. Mas após alguma leitura da teoria do algoritmo etc., o modelo torna-se fácil de compreender e usar. Análise coletada por e hospedada no G2.com.
12 de 13 Avaliações Totais para XGBoost
Sentimento Geral da Revisão para XGBoost
Entre para ver o sentimento das avaliações.

A melhor coisa sobre o XGBoost é que ele fornece processamento paralelo no desenvolvimento de modelos de aprendizado de máquina; com a ajuda de 4 núcleos e processamento paralelo, eu consegui desenvolver um modelo de aprendizado de máquina em 30 milhões de assinantes em 2 horas. Análise coletada por e hospedada no G2.com.
O que eu não gosto no XGBoost é que ele não lida com os outliers no conjunto de dados durante o desenvolvimento do modelo de aprendizado de máquina. Análise coletada por e hospedada no G2.com.
É o algoritmo autônomo de melhor desempenho (não contando os algoritmos de deep learning, que são um campo completamente diferente) famoso por vencer muitas competições online de aprendizado de máquina. Ele é rápido e tem um desempenho melhor do que algoritmos de bagging porque aprende com os erros dos modelos de árvore anteriores que foram construídos dentro dele. É possível ajustar o XGBoost para várias métricas, então se você quiser um alto recall, pode fazê-lo com a ajuda do GridSearchCV. É muito eficiente em comparação com o famoso algoritmo Random Forest. Análise coletada por e hospedada no G2.com.
Que não faz parte de um pacote maior, como o Anaconda, mas temos que instalá-lo separadamente. Além disso, sua grandeza vem com o custo de overfitting, assim como as redes neurais profundas. Aprende tão bem que, após o ajuste de hiperparâmetros, se ajusta mais do que outros algoritmos. Análise coletada por e hospedada no G2.com.

- XgBoost é um tipo de biblioteca que você pode instalar na sua máquina. C++, Java, Python com Sci-kit learn e muitos mais.
- Ele faz a construção de árvores em paralelo usando todos os núcleos da CPU.
- A implementação do algoritmo foi projetada para a eficiência do tempo de computação e dos recursos de memória.
- Xgboost garante a velocidade de execução e o desempenho do modelo.
- XGBoost internamente possui parâmetros para validação cruzada, regularização, funções de objetivo definidas pelo usuário, valores ausentes, etc.
- Ajuda a reduzir o overfitting. Análise coletada por e hospedada no G2.com.
Não há muito que eu não goste do Xgboost, mas para mim, às vezes, ajustar os parâmetros é um pouco cansativo. Análise coletada por e hospedada no G2.com.
Have used XGBoost multiple times, and it is a very intuitive library that is easy to pick up quickly for the task I had at hand (fairly straightforward gradient boosting task). I only used the package in R form, but have heard good things from colleagues who much more regularly use gradient boosting for predictive projects; XGBoost seems to be the go-to library for boosting for multiple Data Scientists that I work with. Análise coletada por e hospedada no G2.com.
Nothing comes to mind; it is an efficient and easy to use gradient boosting framework. The support for the R version seems a little less than the Python version, but the R version performed well for my needs (relatively small dataset, no multicore processing or need for intense parallelization. Análise coletada por e hospedada no G2.com.
The application is an easy to use, out-of-the-box software to quickly apply to data prediction problems. It is reliable and fast and portable, making it a versatile tool for machine learning. Análise coletada por e hospedada no G2.com.
There's not much to dislike. It's been pretty popular as a decision tree algorithm and rightly remains a reliable choice for data science applications. Only wished it was developed sooner! Análise coletada por e hospedada no G2.com.
The boost is your program makes a better stronger built it makes it easier to build it makes your computer access and easy to use and build your program Análise coletada por e hospedada no G2.com.
None I like everything about it and help me build faster understand and it’s good for programming Análise coletada por e hospedada no G2.com.
XGBoost has better performance than other boosters or gradient functions. Helps return improved accuracy on regression algorithms. Works well on large datasets. Análise coletada por e hospedada no G2.com.
Takes time to train on complex datasets. Requires cross validation for better results. Análise coletada por e hospedada no G2.com.
it is helpful in building a model that is very accurate in fitting the training. Análise coletada por e hospedada no G2.com.
it can be difficult to preempt overfitting the training data and generalize for testing. Análise coletada por e hospedada no G2.com.
I liked that it was very user friendly and incorporated data in a nice method. I liked the way it worked and it was easy to learn. Their staff was very good at assisting me throughout the process. Any questions that I had were answered immediately and without hesitation. They were kind and flexible to work with. I would definitely recommend. Análise coletada por e hospedada no G2.com.
There was nothing that I disliked about it. Análise coletada por e hospedada no G2.com.
Runs well in basically every situation, handles missing data well, relatively lightweight. Análise coletada por e hospedada no G2.com.
It's annoying that you need graphviz to easily visualize the tree output. I can't believe it'd be that hard to output it even as a csv or something. Análise coletada por e hospedada no G2.com.