Alternativas de BERT Mejor Valoradas
54 BERT Reseñas

Su capacidad para capturar matices contextuales en el lenguaje es sobresaliente y permite una comprensión del lenguaje natural más precisa y consciente del contexto. Su enfoque bidireccional y el preentrenamiento en conjuntos de datos extensos contribuyen a su versatilidad en una variedad de tareas de PLN, convirtiéndolo en una herramienta poderosa en el campo. Reseña recopilada por y alojada en G2.com.
Su intensidad computacional, que requiere recursos sustanciales para el entrenamiento y la inferencia. Además, tiene dificultades con palabras fuera del vocabulario y podría no manejar las dependencias a largo plazo de manera efectiva. A pesar de estas limitaciones, la investigación y los avances en curso tienen como objetivo abordar y mitigar estos desafíos en futuros modelos. Reseña recopilada por y alojada en G2.com.

He estado usando BERT durante los últimos 3 meses, doy respuestas precisas y directas a mis actividades diarias, y como chatbot, proporciona información completamente relevante como un mentor disponible las 24 horas del día, los 7 días de la semana. Estoy ahorrando mucho tiempo y esfuerzo usando BERT. Reseña recopilada por y alojada en G2.com.
Sobre la interfaz, como producto de Google, debería verse más elegante. La información puede hacerse más humana, ya que hasta ahora también parece generada por máquina. Reseña recopilada por y alojada en G2.com.

Es muy fácil de usar y tiene tantos recursos en línea que cualquiera puede obtener una muy buena comprensión de ello incluso sin ningún conocimiento previo sobre transformadores. Aparte de la facilidad de uso, también está preentrenado y solo necesitamos ajustarlo según nuestra propia tarea. Además, el ajuste fino también es bastante sencillo, así que sí, la experiencia general es realmente agradable. Reseña recopilada por y alojada en G2.com.
Hay solo algunas cosas como que es computacionalmente costoso y, como muchos otros transformadores, es en su mayoría una caja negra cuando intentamos entender por qué dio ciertos resultados.
Además, dado que nos estamos moviendo hacia la era de la IA, la limitación de tokens en BERT en realidad hace que sus capacidades sean muy limitadas. Reseña recopilada por y alojada en G2.com.
- Great for tasks where bidirectional context is required, as opposed to GPT models where the context is unidirectional. Suitable for question-answering, analyzing small paragraphs of words, etc.
- Output is more trustworthy as compared to GPT models.
- Open source
- Easy to fine-tune for domain-specific applications as long as enough data is available. Reseña recopilada por y alojada en G2.com.
- It is extremely computationally expensive to build and deploy, especially to produce a quality output.
- Balancing the context window takes a lot of trial and error.
- With the arrival of GPT models, the lack of long context, i.e., limited context, is more noticeable than ever.
- Not suitable for large documents which require broader context.
- (not limited to BERT) A bit of a black box once implemented.
- Not a good choice for tasks where text has to be generated. Reseña recopilada por y alojada en G2.com.

Está mejor situado para las búsquedas aleatorias que hacemos en un motor de búsqueda y tenemos que pasar por múltiples páginas para construir nuestra comprensión. Pero con el nuevo motor BERT se ha vuelto tan eficiente buscar consultas y preguntas también en términos de buscar otra información textual. Reseña recopilada por y alojada en G2.com.
Algunas veces las respuestas son como una declaración general y no obtenemos exactamente lo que buscamos. Reseña recopilada por y alojada en G2.com.

La forma fácil de desarrollar el proyecto basado en PLN para la clasificación. El ajuste fino del modelo preentrenado para el propio conjunto de datos para entrenar y probar los modelos. Reseña recopilada por y alojada en G2.com.
Es bueno, pero mientras usamos el contenido extenso para problemas de clasificación, consume mucha potencia de cálculo y esto llevará a un mayor costo. Reseña recopilada por y alojada en G2.com.

Un producto de código abierto de Google. Muy fácil de implementar y trabajar con él. Es muy flexible para personalizar para cualquier tarea específica que es muy útil para un desarrollador. Nos ayuda en nuestro trabajo diario con PLN. Reseña recopilada por y alojada en G2.com.
Se necesita mucho tiempo para entrenar el modelo. Por lo tanto, es computacionalmente costoso y se necesitan máquinas de alta gama. También hay un alto consumo de memoria. Reseña recopilada por y alojada en G2.com.

En cuanto a BERT, es el primer modelo que probé para la incrustación basada en el contexto. Lo mejor de BERT es que es simple de entender y el reentrenamiento, ajuste fino y soporte están disponibles. Además, hay de 3 a 4 modelos generalizados en inglés disponibles. Reseña recopilada por y alojada en G2.com.
En comparación con DistilBERT, es pesado en tamaño y voluminoso en naturaleza, ya que lo mismo de BERT puede ser posible con DistilBERT. Reseña recopilada por y alojada en G2.com.
* BERT generates high-quality texts by understanding the context around a word. I found good performance on document retrieval, and Question Answering.
* Finetuning BERT on custom data (or transfer learning) is very simple and gives good results. BERT inference is also faster than GPT.
* BERT has an extensive community and good support. Almost everyone around me has used BERT. Reseña recopilada por y alojada en G2.com.
In my experience with BERT, I think it still needs improvements:
* I found that BERT fine-tuning does not work well with large-scale datasets (e.g PILE)
* Its domain knowledge is constricted. It does not know much about domains such as healthcare, and education.
Hence, BERT can be considered enough for simple tasks, however, for complex tasks (e.g. open-ended generation, language translation etc.), it needs improvement.
I trust it's newer version will accommodate for major fixes. Wish them luck, Reseña recopilada por y alojada en G2.com.

Trabajé en un caso de uso para detectar toxicidad en indicaciones y sus respectivas completaciones. BERT funcionó de manera efectiva, proporcionándonos una precisión muy alta de hasta el 92% para detecciones correctas. Reseña recopilada por y alojada en G2.com.
Puede intentar incluir más clases, excepto las 6: tóxico, severamente tóxico, obsceno, amenaza, insulto y odio a la identidad. Algunas clases recomendadas útiles: sesgo de género, sesgo étnico, etc. Reseña recopilada por y alojada en G2.com.