Best Software for 2025 is now live!
Par Google
Afficher le détail des notes
Enregistrer dans Mes Listes
Non revendiqué
Non revendiqué

Meilleures alternatives à BERT les mieux notées

Avis et détails du produit de BERT

Utilisateur vérifié à Information Technology and Services
UI
Petite entreprise(50 employés ou moins)
Plus d'options
Évaluateur validé
Utilisateur actuel vérifié
Source de l'avis : Invitation G2
Avis incitatif
(Original )Information
Qu'aimez-vous le plus à propos de BERT?

* BERT generates high-quality texts by understanding the context around a word. I found good performance on document retrieval, and Question Answering.

* Finetuning BERT on custom data (or transfer learning) is very simple and gives good results. BERT inference is also faster than GPT.

* BERT has an extensive community and good support. Almost everyone around me has used BERT. Avis collecté par et hébergé sur G2.com.

Que n’aimez-vous pas à propos de BERT?

In my experience with BERT, I think it still needs improvements:

* I found that BERT fine-tuning does not work well with large-scale datasets (e.g PILE)

* Its domain knowledge is constricted. It does not know much about domains such as healthcare, and education.

Hence, BERT can be considered enough for simple tasks, however, for complex tasks (e.g. open-ended generation, language translation etc.), it needs improvement.

I trust it's newer version will accommodate for major fixes. Wish them luck, Avis collecté par et hébergé sur G2.com.

Quels sont les problèmes que BERT résout, et en quoi cela vous est-il bénéfique?

* search engine using BERT : retrieving documents similar to the query document.

* chat bot use case. The utility takes in the "user query" and automatically classifies the business department it should be sent to (i.e. Refund, Feedback, etc)

* sentiment classifier for product reviews Avis collecté par et hébergé sur G2.com.

Présentation de BERT

Qu'est-ce que BERT?

BERT, abréviation de Bidirectional Encoder Representations from Transformers, est un cadre d'apprentissage automatique (ML) pour le traitement du langage naturel. En 2018, Google a développé cet algorithme pour améliorer la compréhension contextuelle de texte non étiqueté à travers un large éventail de tâches en apprenant à prédire le texte qui pourrait venir avant et après (bi-directionnel) un autre texte.

Détails de BERT
Afficher moinsAfficher plus
Description du produit

BERT, abréviation de Bidirectional Encoder Representations from Transformers, est un cadre d'apprentissage automatique (ML) pour le traitement du langage naturel. En 2018, Google a développé cet algorithme pour améliorer la compréhension contextuelle de texte non étiqueté à travers un large éventail de tâches en apprenant à prédire le texte qui pourrait venir avant et après (bi-directionnel) un autre texte.


Détails du vendeur
Vendeur
Google
Année de fondation
1998
Emplacement du siège social
Mountain View, CA
Twitter
@google
32,553,933 abonnés Twitter
Page LinkedIn®
www.linkedin.com
301,875 employés sur LinkedIn®
Propriété
NASDAQ:GOOG
Téléphone
+1 (650) 253-0000
Revenu total (en MM USD)
$182,527
Description

Organize the world’s information and make it universally accessible and useful.

Avis récents sur BERT

Aniket s.
AS
Aniket s.Petite entreprise (50 employés ou moins)
5.0 sur 5
"très utile"
représentation de code médical langage ambigu dans le texte en utilisant le texte environnant pour établir le cont
Utilisateur vérifié
U
Utilisateur vérifiéMarché intermédiaire (51-1000 employés)
5.0 sur 5
"I've used it in my several project so certainly recommend"
Easy to use for any one and very efficient
Rakesh K.
RK
Rakesh K.Marché intermédiaire (51-1000 employés)
4.5 sur 5
"Un utilisateur satisfait de BERT"
Un produit open source de Google. Très facile à mettre en œuvre et à utiliser. Il est très flexible à personnaliser pour des tâches spécifiques, ce...
Badge de sécurité
Ce vendeur n'a pas encore ajouté ses informations de sécurité. Informez-les que vous aimeriez qu'ils les ajoutent.
0 personnes ont demandé des informations de sécurité

Média de BERT

Répondez à quelques questions pour aider la communauté BERT
Avez-vous déjà utilisé BERT auparavant?
Oui

53 sur 54 Avis au total pour BERT

4.4 sur 5
Les prochains éléments sont des filtres et modifieront les résultats affichés une fois sélectionnés.
Rechercher des avis
Mentions populaires
Les prochains éléments sont des boutons radio et trieront les résultats affichés par l'élément sélectionné et mettront à jour les résultats affichés.
Masquer les filtresPlus de filtres
Les prochains éléments sont des filtres et modifieront les résultats affichés une fois sélectionnés.
Les prochains éléments sont des filtres et modifieront les résultats affichés une fois sélectionnés.
53 sur 54 Avis au total pour BERT
4.4 sur 5
53 sur 54 Avis au total pour BERT
4.4 sur 5

BERT Avantages et Inconvénients

Comment sont-ils déterminés ?Information
Les avantages et les inconvénients sont compilés à partir des commentaires et regroupés par thèmes pour fournir un résumé facile à comprendre des avis des utilisateurs.
Avantages
Inconvénients
Les avis G2 sont authentiques et vérifiés.
APOORV G.
AG
Software Engineer
Petite entreprise(50 employés ou moins)
Plus d'options
Évaluateur validé
Source de l'avis : Invitation G2
Avis incitatif
Traduit à l'aide de l'IA
Qu'aimez-vous le plus à propos de BERT?

Sa capacité à capturer les nuances contextuelles dans la langue est exceptionnelle et permet également une compréhension du langage naturel plus précise et sensible au contexte. Son approche bidirectionnelle et son pré-entraînement sur des ensembles de données étendus contribuent à sa polyvalence à travers un spectre de tâches de traitement du langage naturel, en faisant un outil puissant dans le domaine. Avis collecté par et hébergé sur G2.com.

Que n’aimez-vous pas à propos de BERT?

Son intensité computationnelle nécessite des ressources substantielles pour l'entraînement et l'inférence. De plus, il a du mal avec les mots hors vocabulaire et pourrait ne pas gérer les dépendances à long terme aussi efficacement. Malgré ces limitations, la recherche en cours et les avancées visent à aborder et à atténuer ces défis dans les futurs modèles. Avis collecté par et hébergé sur G2.com.

Quels sont les problèmes que BERT résout, et en quoi cela vous est-il bénéfique?

Il aborde les défis de la compréhension du langage naturel en améliorant la compréhension du contexte et en capturant les nuances linguistiques complexes. Cela me profite en améliorant la qualité des réponses que je fournis. L'approche bidirectionnelle de BERT permet une meilleure compréhension du contexte, aidant à une génération de langage plus précise et consciente du contexte. Cette amélioration se traduit par des réponses plus pertinentes et cohérentes, contribuant à une expérience utilisateur plus efficace et satisfaisante lors de nos interactions. Avis collecté par et hébergé sur G2.com.

Bittu M.
BM
Technical Assistant
Petite entreprise(50 employés ou moins)
Plus d'options
Évaluateur validé
Utilisateur actuel vérifié
Source de l'avis : Invitation G2
Avis incitatif
Traduit à l'aide de l'IA
Qu'aimez-vous le plus à propos de BERT?

J'utilise BERT depuis 3 mois maintenant, je donne des réponses précises et directes à mes activités quotidiennes, et en tant que chatbot, il donne des informations complètement pertinentes comme un mentor disponible 24/7. Je recommande vivement cela à tout le monde. J'économise beaucoup de temps et d'efforts en utilisant BERT. Avis collecté par et hébergé sur G2.com.

Que n’aimez-vous pas à propos de BERT?

Concernant l'interface, en tant que produit Google, elle devrait avoir un aspect plus élégant. Les informations peuvent être rendues plus humaines, car jusqu'à présent, elles semblent générées par une machine. Avis collecté par et hébergé sur G2.com.

Quels sont les problèmes que BERT résout, et en quoi cela vous est-il bénéfique?

Bert m'aide à déboguer le code et à générer des idées pour mon projet, il a également écrit quelques codes pour moi, je l'utilise pour mon activité quotidienne. Avis collecté par et hébergé sur G2.com.

Ruchin D.
RD
Senior Research Engineer
Entreprise(> 1000 employés)
Plus d'options
Évaluateur validé
Source de l'avis : Invitation G2
Avis incitatif
Traduit à l'aide de l'IA
Qu'aimez-vous le plus à propos de BERT?

C'est très facile à utiliser et il y a tellement de ressources en ligne autour de cela que n'importe qui peut en avoir une très bonne compréhension même sans aucune connaissance préalable sur les transformateurs. En plus de la facilité d'utilisation, il est également préentraîné et nous avons juste besoin de l'affiner selon notre propre tâche. L'affinement est également assez simple donc oui, l'expérience globale est vraiment agréable. Avis collecté par et hébergé sur G2.com.

Que n’aimez-vous pas à propos de BERT?

Il n'y a que quelques choses comme le fait qu'il soit coûteux en termes de calcul et, comme beaucoup d'autres transformateurs, c'est principalement une boîte noire lorsque nous essayons de comprendre pourquoi il a donné certains résultats.

De plus, puisque nous entrons dans l'ère de l'IA, la limitation de tokens dans BERT rend en fait ses capacités très limitées. Avis collecté par et hébergé sur G2.com.

Quels sont les problèmes que BERT résout, et en quoi cela vous est-il bénéfique?

Nous obtenons un modèle pré-entraîné que je dois simplement ajuster à mon propre énoncé de problème et c'est vraiment un sauveur dans ce sens. Avis collecté par et hébergé sur G2.com.

Utilisateur vérifié à Internet
UI
Petite entreprise(50 employés ou moins)
Plus d'options
Évaluateur validé
Source de l'avis : Invitation G2
Avis incitatif
Qu'aimez-vous le plus à propos de BERT?

- Great for tasks where bidirectional context is required, as opposed to GPT models where the context is unidirectional. Suitable for question-answering, analyzing small paragraphs of words, etc.

- Output is more trustworthy as compared to GPT models.

- Open source

- Easy to fine-tune for domain-specific applications as long as enough data is available. Avis collecté par et hébergé sur G2.com.

Que n’aimez-vous pas à propos de BERT?

- It is extremely computationally expensive to build and deploy, especially to produce a quality output.

- Balancing the context window takes a lot of trial and error.

- With the arrival of GPT models, the lack of long context, i.e., limited context, is more noticeable than ever.

- Not suitable for large documents which require broader context.

- (not limited to BERT) A bit of a black box once implemented.

- Not a good choice for tasks where text has to be generated. Avis collecté par et hébergé sur G2.com.

Quels sont les problèmes que BERT résout, et en quoi cela vous est-il bénéfique?

I've used it for 2 purposes:

1. Figuring out which short passage best answers a question given a bunch of such passages.

2. Analysing a small chunk of passage to recognize which subject a user is talking in a very specific domain (required fine tuning). Avis collecté par et hébergé sur G2.com.

Abhishek K.
AK
Engineer II
Petite entreprise(50 employés ou moins)
Plus d'options
Évaluateur validé
Source de l'avis : Invitation G2
Avis incitatif
Traduit à l'aide de l'IA
Qu'aimez-vous le plus à propos de BERT?

Il est le mieux situé pour les recherches aléatoires que nous effectuons sur un moteur de recherche et devons parcourir plusieurs pages pour construire notre compréhension. Mais avec le nouveau moteur BERT, il est devenu si efficace de rechercher des requêtes et des questions également en termes de recherche d'autres informations textuelles. Avis collecté par et hébergé sur G2.com.

Que n’aimez-vous pas à propos de BERT?

Parfois, les réponses ressemblent à une déclaration générale et nous n'obtenons pas exactement ce que nous cherchons. Avis collecté par et hébergé sur G2.com.

Quels sont les problèmes que BERT résout, et en quoi cela vous est-il bénéfique?

J'ai essayé d'utiliser un moteur similaire dans l'un de mes projets avec LLM, donc j'ai pris l'aide du moteur Bert pour comprendre comment optimiser le PEFT et LoRA. Avis collecté par et hébergé sur G2.com.

Zayed R.
ZR
Programmer Analyst
Entreprise(> 1000 employés)
Plus d'options
Évaluateur validé
Source de l'avis : Invitation G2
Avis incitatif
Traduit à l'aide de l'IA
Qu'aimez-vous le plus à propos de BERT?

La manière facile de développer le projet basé sur le NLP pour la classification. Le réglage fin du modèle pré-entraîné pour le propre jeu de données pour l'entraînement et le test des modèles. Avis collecté par et hébergé sur G2.com.

Que n’aimez-vous pas à propos de BERT?

C'est bien, mais pendant que nous utilisons le contenu volumineux pour des problèmes de classification, cela consomme beaucoup de puissance de calcul et cela entraînera plus de coûts. Avis collecté par et hébergé sur G2.com.

Quels sont les problèmes que BERT résout, et en quoi cela vous est-il bénéfique?

BERT est utilisé pour résoudre le problème de classification du courrier et d'extraction d'entités à l'aide du modèle pré-entraîné pour affiner davantage le modèle. qui est le mieux adapté à notre ensemble de données pour comprendre le courrier des clients, ce qui aiderait à automatiser les réponses. Avis collecté par et hébergé sur G2.com.

Rakesh K.
RK
BLS, Skill Development
Marché intermédiaire(51-1000 employés)
Plus d'options
Évaluateur validé
Source de l'avis : Invitation G2
Avis incitatif
Traduit à l'aide de l'IA
Qu'aimez-vous le plus à propos de BERT?

Un produit open source de Google. Très facile à mettre en œuvre et à utiliser. Il est très flexible à personnaliser pour des tâches spécifiques, ce qui est très utile pour un développeur. Il nous aide dans nos travaux quotidiens avec le NLP. Avis collecté par et hébergé sur G2.com.

Que n’aimez-vous pas à propos de BERT?

Cela prend beaucoup de temps pour entraîner le modèle. Par conséquent, coûteux en termes de calcul et nécessite des machines haut de gamme. Il y a aussi une consommation élevée de mémoire. Avis collecté par et hébergé sur G2.com.

Quels sont les problèmes que BERT résout, et en quoi cela vous est-il bénéfique?

Nous utilisons BERT pour nos diverses tâches de traitement du langage naturel. Il répond aux requêtes de nos clients et envoie également des courriels personnalisés périodiques. Avis collecté par et hébergé sur G2.com.

SHUBHAM G.
SG
Data Scientist
Entreprise(> 1000 employés)
Plus d'options
Évaluateur validé
Source de l'avis : Invitation G2
Avis incitatif
Traduit à l'aide de l'IA
Qu'aimez-vous le plus à propos de BERT?

Concernant BERT, c'est le premier modèle que j'ai essayé pour l'intégration basée sur le contexte. La meilleure chose à propos de BERT est qu'il est simple à comprendre et le support à son sujet est disponible. De plus, il existe 3 à 4 modèles anglais généralisés disponibles. Avis collecté par et hébergé sur G2.com.

Que n’aimez-vous pas à propos de BERT?

Par rapport à DistilBERT, il est lourd en taille et encombrant par nature, car la même chose de BERT peut être possible avec DistilBERT. Avis collecté par et hébergé sur G2.com.

Quels sont les problèmes que BERT résout, et en quoi cela vous est-il bénéfique?

nous avons mis en œuvre un modèle NER personnalisé qui nous aide à identifier les informations personnelles dans le CV. Avis collecté par et hébergé sur G2.com.

Ojasi K.
OK
AI Engineering Analyst
Entreprise(> 1000 employés)
Plus d'options
Évaluateur validé
Source de l'avis : Invitation G2
Avis incitatif
Traduit à l'aide de l'IA
Qu'aimez-vous le plus à propos de BERT?

Travaillé sur un cas d'utilisation pour détecter la toxicité dans les invites et leurs complétions respectives. BERT a fonctionné efficacement en nous fournissant une très haute précision allant jusqu'à 92 % pour les détections correctes. Avis collecté par et hébergé sur G2.com.

Que n’aimez-vous pas à propos de BERT?

Peut inclure plus de classes à l'exception des 6 : toxique, sévèrement toxique, obscène, menace, insulte et haine identitaire. Quelques classes recommandées utiles : biais de genre, biais ethnique, etc. Avis collecté par et hébergé sur G2.com.

Quels sont les problèmes que BERT résout, et en quoi cela vous est-il bénéfique?

Nous avons essayé de reconnaître les invites toxiques et leurs complétions respectives en utilisant BERT. Étions capables de le faire avec une précision allant jusqu'à 92 %. Avis collecté par et hébergé sur G2.com.

YP
Software Testing Expert
Information Technology and Services
Marché intermédiaire(51-1000 employés)
Plus d'options
Évaluateur validé
Source de l'avis : Invitation G2
Avis incitatif
Traduit à l'aide de l'IA
Qu'aimez-vous le plus à propos de BERT?

Nous utilisons BERT pour des campagnes de marketing personnalisées afin de répondre aux préoccupations ou questions des clients concernant les biens et services, ce qui améliore le service client. Pour envoyer des courriels aux clients avec un contenu pertinent à leurs intérêts ou pour cibler les clients avec des publicités pour des produits susceptibles de les intéresser. Avis collecté par et hébergé sur G2.com.

Que n’aimez-vous pas à propos de BERT?

Je ne pense pas qu'il y ait des inconvénients, mais certainement au début, j'ai rencontré des problèmes comme le fait que BERT est un modèle boîte noire, ce qui rend difficile de toujours comprendre comment il génère ses prédictions. Le coût de calcul était élevé pour le déploiement et l'entraînement, par conséquent, il pourrait être difficile de comprendre pourquoi BERT fait certaines prédictions. Des biais peuvent exister car le grand ensemble de données est utilisé pour entraîner BERT. Avis collecté par et hébergé sur G2.com.

Quels sont les problèmes que BERT résout, et en quoi cela vous est-il bénéfique?

Depuis que nous avons commencé à utiliser BERT, cela réduit notre charge de travail du chatbot de service client et des spams par e-mail grâce à l'automatisation des tâches impliquant la compréhension et la réponse au langage naturel. Il y a une augmentation de notre service client car il fournit des réponses plus précises et utiles. S'il y a une transaction frauduleuse, il la détecte en comprenant le contexte des transactions. Avis collecté par et hébergé sur G2.com.