Alternativas de XGBoost Mejor Valoradas
Es el algoritmo independiente de mejor rendimiento (sin contar los algoritmos de aprendizaje profundo, que es un campo completamente diferente) famoso por ganar muchas competiciones de aprendizaje automático en línea. Funciona rápidamente y rinde mejor que los algoritmos de bagging porque aprende de los errores de los modelos de árboles anteriores que se construyeron dentro de él. También es posible ajustar XGBoost para varios métricas, por lo que si deseas un alto recall, puedes hacerlo con la ayuda de GridSearchCV. Es muy eficiente en comparación con el famoso algoritmo de Random Forest. Reseña recopilada por y alojada en G2.com.
Que no es parte de un paquete más grande como Anaconda, sino que tenemos que instalarlo por separado. Además, su grandeza viene con el costo de sobreajuste, al igual que las redes neuronales profundas. Aprende tan bien que después del ajuste de hiperparámetros se sobreajusta más que otros algoritmos. Reseña recopilada por y alojada en G2.com.
12 de 13 Reseñas totales para XGBoost
Sentimiento General de la Reseña para XGBoost
Inicia sesión para ver el sentimiento de la revisión.

Lo mejor de XGBoost es que proporciona procesamiento paralelo en el desarrollo de modelos de aprendizaje automático; con la ayuda de 4 núcleos y procesamiento paralelo, pude desarrollar un modelo de aprendizaje automático en 30 millones de suscriptores en 2 horas. Reseña recopilada por y alojada en G2.com.
Lo que no me gusta de XGBoost es que no maneja los valores atípicos en el conjunto de datos durante el desarrollo del modelo de aprendizaje automático. Reseña recopilada por y alojada en G2.com.

He utilizado modelos XGBoost para muchos problemas de competencia de ML hasta ahora. Cada vez pude lograr un modelo de alta precisión y alto rendimiento mediante el uso de XGBoost. XGBoost es bien conocido por su mejor rendimiento y gestión eficiente de la memoria en la comunidad de ML. Por lo tanto, lo recomiendo mucho a cualquiera que sea nuevo en el campo para aprender y usar XGBoost. Es imprescindible tenerlo en tu conjunto de herramientas de ML. Reseña recopilada por y alojada en G2.com.
El concepto subyacente del algoritmo es algo difícil de entender al principio. Y el modelo tiene un gran número de hiperparámetros. Por lo tanto, al principio, es difícil entender el papel que juega cada hiperparámetro. Pero después de leer un poco sobre la teoría del algoritmo, etc., el modelo se vuelve fácil de comprender y usar. Reseña recopilada por y alojada en G2.com.

- XgBoost es un tipo de biblioteca que puedes instalar en tu máquina. C++, Java, Python con Sci-kit learn y muchos más.
- Realiza la construcción de árboles en paralelo utilizando todos los núcleos de la CPU.
- La implementación del algoritmo fue diseñada para la eficiencia del tiempo de computación y los recursos de memoria.
- Xgboost asegura la velocidad de ejecución y el rendimiento del modelo.
- XGBoost internamente tiene parámetros para validación cruzada, regularización, funciones objetivo definidas por el usuario, valores perdidos, etc.
- Ayuda a reducir el sobreajuste. Reseña recopilada por y alojada en G2.com.
No hay mucho que no me guste del Xgboost, pero para mí a veces ajustar los parámetros es un poco agitado. Reseña recopilada por y alojada en G2.com.
Have used XGBoost multiple times, and it is a very intuitive library that is easy to pick up quickly for the task I had at hand (fairly straightforward gradient boosting task). I only used the package in R form, but have heard good things from colleagues who much more regularly use gradient boosting for predictive projects; XGBoost seems to be the go-to library for boosting for multiple Data Scientists that I work with. Reseña recopilada por y alojada en G2.com.
Nothing comes to mind; it is an efficient and easy to use gradient boosting framework. The support for the R version seems a little less than the Python version, but the R version performed well for my needs (relatively small dataset, no multicore processing or need for intense parallelization. Reseña recopilada por y alojada en G2.com.
The application is an easy to use, out-of-the-box software to quickly apply to data prediction problems. It is reliable and fast and portable, making it a versatile tool for machine learning. Reseña recopilada por y alojada en G2.com.
There's not much to dislike. It's been pretty popular as a decision tree algorithm and rightly remains a reliable choice for data science applications. Only wished it was developed sooner! Reseña recopilada por y alojada en G2.com.
The boost is your program makes a better stronger built it makes it easier to build it makes your computer access and easy to use and build your program Reseña recopilada por y alojada en G2.com.
None I like everything about it and help me build faster understand and it’s good for programming Reseña recopilada por y alojada en G2.com.
XGBoost has better performance than other boosters or gradient functions. Helps return improved accuracy on regression algorithms. Works well on large datasets. Reseña recopilada por y alojada en G2.com.
Takes time to train on complex datasets. Requires cross validation for better results. Reseña recopilada por y alojada en G2.com.
it is helpful in building a model that is very accurate in fitting the training. Reseña recopilada por y alojada en G2.com.
it can be difficult to preempt overfitting the training data and generalize for testing. Reseña recopilada por y alojada en G2.com.
I liked that it was very user friendly and incorporated data in a nice method. I liked the way it worked and it was easy to learn. Their staff was very good at assisting me throughout the process. Any questions that I had were answered immediately and without hesitation. They were kind and flexible to work with. I would definitely recommend. Reseña recopilada por y alojada en G2.com.
There was nothing that I disliked about it. Reseña recopilada por y alojada en G2.com.
Runs well in basically every situation, handles missing data well, relatively lightweight. Reseña recopilada por y alojada en G2.com.
It's annoying that you need graphviz to easily visualize the tree output. I can't believe it'd be that hard to output it even as a csv or something. Reseña recopilada por y alojada en G2.com.