Best Software for 2025 is now live!
Par Google
Afficher le détail des notes
Enregistrer dans Mes Listes
Non revendiqué
Non revendiqué

Meilleures alternatives à BERT les mieux notées

Avis sur 54 BERT

4.4 sur 5
Les prochains éléments sont des filtres et modifieront les résultats affichés une fois sélectionnés.
Rechercher des avis
Mentions populaires
Les prochains éléments sont des boutons radio et trieront les résultats affichés par l'élément sélectionné et mettront à jour les résultats affichés.
Masquer les filtresPlus de filtres
Les prochains éléments sont des filtres et modifieront les résultats affichés une fois sélectionnés.
Les prochains éléments sont des filtres et modifieront les résultats affichés une fois sélectionnés.
Avis sur 54 BERT
4.4 sur 5
Avis sur 54 BERT
4.4 sur 5

BERT Avantages et Inconvénients

Comment sont-ils déterminés ?Information
Les avantages et les inconvénients sont compilés à partir des commentaires et regroupés par thèmes pour fournir un résumé facile à comprendre des avis des utilisateurs.
Avantages
Inconvénients
Les avis G2 sont authentiques et vérifiés.
YP
Software Testing Expert
Information Technology and Services
Marché intermédiaire(51-1000 employés)
Plus d'options
Évaluateur validé
Source de l'avis : Invitation G2
Avis incitatif
Traduit à l'aide de l'IA
Qu'aimez-vous le plus à propos de BERT?

Nous utilisons BERT pour des campagnes de marketing personnalisées afin de répondre aux préoccupations ou questions des clients concernant les biens et services, ce qui améliore le service client. Pour envoyer des courriels aux clients avec un contenu pertinent à leurs intérêts ou pour cibler les clients avec des publicités pour des produits susceptibles de les intéresser. Avis collecté par et hébergé sur G2.com.

Que n’aimez-vous pas à propos de BERT?

Je ne pense pas qu'il y ait des inconvénients, mais certainement au début, j'ai rencontré des problèmes comme le fait que BERT est un modèle boîte noire, ce qui rend difficile de toujours comprendre comment il génère ses prédictions. Le coût de calcul était élevé pour le déploiement et l'entraînement, par conséquent, il pourrait être difficile de comprendre pourquoi BERT fait certaines prédictions. Des biais peuvent exister car le grand ensemble de données est utilisé pour entraîner BERT. Avis collecté par et hébergé sur G2.com.

Saptarshi B.
SB
Data Scientist
Entreprise(> 1000 employés)
Plus d'options
Évaluateur validé
Source de l'avis : Invitation G2
Avis incitatif
Traduit à l'aide de l'IA
Qu'aimez-vous le plus à propos de BERT?

Très facile à mettre en œuvre et peut être intégré à tout type de tâche en aval. L'implémentation de Huggingface contient beaucoup de support et est très bien documentée. Un certain nombre de fonctionnalités peuvent également être introduites dans le réseau avec un design architectural intelligent. Avis collecté par et hébergé sur G2.com.

Que n’aimez-vous pas à propos de BERT?

Parfois, il devient très difficile de comprendre le résultat de BERT et il perd son interprétabilité. Avis collecté par et hébergé sur G2.com.

PR
Senior Software Developer
Information Technology and Services
Marché intermédiaire(51-1000 employés)
Plus d'options
Évaluateur validé
Source de l'avis : Invitation G2
Avis incitatif
Traduit à l'aide de l'IA
Qu'aimez-vous le plus à propos de BERT?

Nous utilisons BERT pour notre utilisation en interne, c'est une source ouverte par Google qui vient avec de grandes fonctionnalités et permet à un développeur de construire et d'adapter le modèle à ses besoins spécifiques. Conçu pour comprendre le contexte d'un mot dans une phrase par modélisation bidirectionnelle. Il a amélioré notre tâche de PNL comme le questionnement, l'analyse de sentiment. Son modèle pré-entraîné est adaptable et utile pour une variété d'applications car il peut être affiné sur une tâche particulière avec seulement de modestes quantités de données spécifiques à la tâche. Avis collecté par et hébergé sur G2.com.

Que n’aimez-vous pas à propos de BERT?

Sa complexité peut nécessiter une puissance de calcul significative, limitant l'accessibilité pour certains projets plus petits. De plus, il excelle à comprendre les relations de travail, mais il a parfois du mal avec des documents plus longs où un contexte plus large est nécessaire. Avis collecté par et hébergé sur G2.com.

SS
Senior Content Editor
Information Technology and Services
Marché intermédiaire(51-1000 employés)
Plus d'options
Évaluateur validé
Source de l'avis : Invitation G2
Avis incitatif
Traduit à l'aide de l'IA
Qu'aimez-vous le plus à propos de BERT?

BERT me semble être un modèle de PNL très puissant et adaptable. J'apprécie sa capacité à apprendre une représentation plus complexe du sens en tenant compte à la fois du contexte gauche et droit d'un mot. Sa flexibilité et sa capacité à se personnaliser pour des tâches particulières me séduisent. Avis collecté par et hébergé sur G2.com.

Que n’aimez-vous pas à propos de BERT?

Il nécessite beaucoup de puissance de calcul pour s'entraîner et utiliser, ce qui était initialement un défi pour nous de l'utiliser. Il est entraîné sur une feuille de données textuelles de taille considérable qui pourrait être biaisée. La précision des prédictions peut être sensible aux biais dans les données d'entraînement pour des tâches comme l'inférence en langage naturel et la réponse aux questions. Avis collecté par et hébergé sur G2.com.

Sandeep G.
SG
AI Developer
Marché intermédiaire(51-1000 employés)
Plus d'options
Évaluateur validé
Source de l'avis : Invitation G2
Avis incitatif
Traduit à l'aide de l'IA
Qu'aimez-vous le plus à propos de BERT?

BERT est un modèle de transformation, il a une architecture d'encodage. J'ai travaillé sur différentes architectures de modèle de transformateur, mais l'architecture BERT a bien performé par rapport aux autres architectures. Il est facile à entraîner avec des données personnalisées et il est facile à comprendre. Avis collecté par et hébergé sur G2.com.

Que n’aimez-vous pas à propos de BERT?

Le modèle BERT est coûteux en termes de calcul et la taille du modèle est très grande. Il a fallu beaucoup de temps pour l'inférence et l'entraînement sur une machine CPU. Avis collecté par et hébergé sur G2.com.

NG
Software Developer
Information Technology and Services
Petite entreprise(50 employés ou moins)
Plus d'options
Évaluateur validé
Source de l'avis : Invitation G2
Avis incitatif
Traduit à l'aide de l'IA
Qu'aimez-vous le plus à propos de BERT?

C'est open source. Fonctionne avec des langues comme l'hindi, l'espagnol, l'arabe, le portugais, l'allemand, etc. Utilisé dans le moteur de recherche Google pour le meilleur résultat. Il lit les phrases dans les deux sens. Identifie très bien la relation entre les mots. Basé sur le langage Python qui est très facile. Avis collecté par et hébergé sur G2.com.

Que n’aimez-vous pas à propos de BERT?

plus de besoin de mémoire. ne se met pas à jour / n'améliore pas très fréquemment. Avis collecté par et hébergé sur G2.com.

apurv t.
AT
Associate Planning and Scheduling
Petite entreprise(50 employés ou moins)
Plus d'options
Évaluateur validé
Source de l'avis : Invitation G2
Avis incitatif
Traduit à l'aide de l'IA
Qu'aimez-vous le plus à propos de BERT?

C'est un LLM open source. Déjà entraîné sur un large corpus de mots. Avis collecté par et hébergé sur G2.com.

Que n’aimez-vous pas à propos de BERT?

Il faut du temps pour entraîner le modèle. Il est formé sur des données générales, donc si vous l'utilisez pour un but spécifique, vous pourriez avoir besoin d'utiliser un autre LLM. Avis collecté par et hébergé sur G2.com.

Abhay S.
AS
Talent Solutions Specialist
Petite entreprise(50 employés ou moins)
Plus d'options
Évaluateur validé
Source de l'avis : Invitation G2
Avis incitatif
Traduit à l'aide de l'IA
Qu'aimez-vous le plus à propos de BERT?

BERT est bon pour comprendre le sens des phrases, qu'elles soient complexes, faciles ou ambiguës. Il a une variété de cas d'utilisation comme les questions-réponses, la compréhension du sentiment de la phrase (positif, négatif ou neutre). Il est open source, donc nous pouvons l'utiliser pour notre propre application et améliorer nos offres. Avis collecté par et hébergé sur G2.com.

Que n’aimez-vous pas à propos de BERT?

BERT a parfois eu tort sur l'interprétation des langues régionales ou du mélange de plusieurs langues dans une phrase. Ses prédictions ont été fausses de nombreuses fois, ce qui peut être amélioré pour la messagerie générale. Avis collecté par et hébergé sur G2.com.

SM
Marché intermédiaire(51-1000 employés)
Plus d'options
Évaluateur validé
Source de l'avis : Invitation G2
Avis incitatif
Traduit à l'aide de l'IA
Qu'aimez-vous le plus à propos de BERT?

Cet outil comprend mon intention de recherche dans presque toutes les langues que j'utilise car il est bien formé dans plus de 100 langues. De plus, il m'aide avec mes requêtes plus longues et plus conversationnelles en comprenant mieux le contexte des mots ou des phrases. Avis collecté par et hébergé sur G2.com.

Que n’aimez-vous pas à propos de BERT?

Je trouve que cet outil échoue à utiliser ses connaissances ou son bon sens, car il fonctionne simplement sur des modèles de données textuelles. Il est difficile de déployer de grands modèles BERT. Cet outil mémorise les données sensibles des données d'entraînement, c'est pourquoi il soulève des préoccupations en matière de confidentialité. Avis collecté par et hébergé sur G2.com.

Modalavalasa S.
MS
Assistant System Engineer
Petite entreprise(50 employés ou moins)
Plus d'options
Évaluateur validé
Source de l'avis : Invitation G2
Avis incitatif
Traduit à l'aide de l'IA
Qu'aimez-vous le plus à propos de BERT?

BERT (Représentations de l'encodeur bidirectionnel du transformateur) a atteint des performances de pointe sur un certain nombre de tâches de compréhension du langage naturel telles que la classification de texte, le résumé et la traduction automatique, etc. Il a été pré-entraîné simultanément sur deux tâches, ce qui est incroyable. Comme il est open source, cela m'a beaucoup aidé à réaliser mes projets. Avis collecté par et hébergé sur G2.com.

Que n’aimez-vous pas à propos de BERT?

Il a besoin d'amélioration car il donne basé uniquement sur les mots entraînés. Il nécessite des ressources informatiques élevées et un ajustement fin sur des données étiquetées. Le support client doit être amélioré pour augmenter l'utilisation de BERT. Avis collecté par et hébergé sur G2.com.