Meilleures alternatives à BERT les mieux notées
Avis sur 54 BERT
Nous utilisons BERT pour des campagnes de marketing personnalisées afin de répondre aux préoccupations ou questions des clients concernant les biens et services, ce qui améliore le service client. Pour envoyer des courriels aux clients avec un contenu pertinent à leurs intérêts ou pour cibler les clients avec des publicités pour des produits susceptibles de les intéresser. Avis collecté par et hébergé sur G2.com.
Je ne pense pas qu'il y ait des inconvénients, mais certainement au début, j'ai rencontré des problèmes comme le fait que BERT est un modèle boîte noire, ce qui rend difficile de toujours comprendre comment il génère ses prédictions. Le coût de calcul était élevé pour le déploiement et l'entraînement, par conséquent, il pourrait être difficile de comprendre pourquoi BERT fait certaines prédictions. Des biais peuvent exister car le grand ensemble de données est utilisé pour entraîner BERT. Avis collecté par et hébergé sur G2.com.

Très facile à mettre en œuvre et peut être intégré à tout type de tâche en aval. L'implémentation de Huggingface contient beaucoup de support et est très bien documentée. Un certain nombre de fonctionnalités peuvent également être introduites dans le réseau avec un design architectural intelligent. Avis collecté par et hébergé sur G2.com.
Parfois, il devient très difficile de comprendre le résultat de BERT et il perd son interprétabilité. Avis collecté par et hébergé sur G2.com.
Nous utilisons BERT pour notre utilisation en interne, c'est une source ouverte par Google qui vient avec de grandes fonctionnalités et permet à un développeur de construire et d'adapter le modèle à ses besoins spécifiques. Conçu pour comprendre le contexte d'un mot dans une phrase par modélisation bidirectionnelle. Il a amélioré notre tâche de PNL comme le questionnement, l'analyse de sentiment. Son modèle pré-entraîné est adaptable et utile pour une variété d'applications car il peut être affiné sur une tâche particulière avec seulement de modestes quantités de données spécifiques à la tâche. Avis collecté par et hébergé sur G2.com.
Sa complexité peut nécessiter une puissance de calcul significative, limitant l'accessibilité pour certains projets plus petits. De plus, il excelle à comprendre les relations de travail, mais il a parfois du mal avec des documents plus longs où un contexte plus large est nécessaire. Avis collecté par et hébergé sur G2.com.
BERT me semble être un modèle de PNL très puissant et adaptable. J'apprécie sa capacité à apprendre une représentation plus complexe du sens en tenant compte à la fois du contexte gauche et droit d'un mot. Sa flexibilité et sa capacité à se personnaliser pour des tâches particulières me séduisent. Avis collecté par et hébergé sur G2.com.
Il nécessite beaucoup de puissance de calcul pour s'entraîner et utiliser, ce qui était initialement un défi pour nous de l'utiliser. Il est entraîné sur une feuille de données textuelles de taille considérable qui pourrait être biaisée. La précision des prédictions peut être sensible aux biais dans les données d'entraînement pour des tâches comme l'inférence en langage naturel et la réponse aux questions. Avis collecté par et hébergé sur G2.com.

BERT est un modèle de transformation, il a une architecture d'encodage. J'ai travaillé sur différentes architectures de modèle de transformateur, mais l'architecture BERT a bien performé par rapport aux autres architectures. Il est facile à entraîner avec des données personnalisées et il est facile à comprendre. Avis collecté par et hébergé sur G2.com.
Le modèle BERT est coûteux en termes de calcul et la taille du modèle est très grande. Il a fallu beaucoup de temps pour l'inférence et l'entraînement sur une machine CPU. Avis collecté par et hébergé sur G2.com.
C'est open source. Fonctionne avec des langues comme l'hindi, l'espagnol, l'arabe, le portugais, l'allemand, etc. Utilisé dans le moteur de recherche Google pour le meilleur résultat. Il lit les phrases dans les deux sens. Identifie très bien la relation entre les mots. Basé sur le langage Python qui est très facile. Avis collecté par et hébergé sur G2.com.
plus de besoin de mémoire. ne se met pas à jour / n'améliore pas très fréquemment. Avis collecté par et hébergé sur G2.com.

C'est un LLM open source. Déjà entraîné sur un large corpus de mots. Avis collecté par et hébergé sur G2.com.
Il faut du temps pour entraîner le modèle. Il est formé sur des données générales, donc si vous l'utilisez pour un but spécifique, vous pourriez avoir besoin d'utiliser un autre LLM. Avis collecté par et hébergé sur G2.com.

BERT est bon pour comprendre le sens des phrases, qu'elles soient complexes, faciles ou ambiguës. Il a une variété de cas d'utilisation comme les questions-réponses, la compréhension du sentiment de la phrase (positif, négatif ou neutre). Il est open source, donc nous pouvons l'utiliser pour notre propre application et améliorer nos offres. Avis collecté par et hébergé sur G2.com.
BERT a parfois eu tort sur l'interprétation des langues régionales ou du mélange de plusieurs langues dans une phrase. Ses prédictions ont été fausses de nombreuses fois, ce qui peut être amélioré pour la messagerie générale. Avis collecté par et hébergé sur G2.com.
Cet outil comprend mon intention de recherche dans presque toutes les langues que j'utilise car il est bien formé dans plus de 100 langues. De plus, il m'aide avec mes requêtes plus longues et plus conversationnelles en comprenant mieux le contexte des mots ou des phrases. Avis collecté par et hébergé sur G2.com.
Je trouve que cet outil échoue à utiliser ses connaissances ou son bon sens, car il fonctionne simplement sur des modèles de données textuelles. Il est difficile de déployer de grands modèles BERT. Cet outil mémorise les données sensibles des données d'entraînement, c'est pourquoi il soulève des préoccupations en matière de confidentialité. Avis collecté par et hébergé sur G2.com.

BERT (Représentations de l'encodeur bidirectionnel du transformateur) a atteint des performances de pointe sur un certain nombre de tâches de compréhension du langage naturel telles que la classification de texte, le résumé et la traduction automatique, etc. Il a été pré-entraîné simultanément sur deux tâches, ce qui est incroyable. Comme il est open source, cela m'a beaucoup aidé à réaliser mes projets. Avis collecté par et hébergé sur G2.com.
Il a besoin d'amélioration car il donne basé uniquement sur les mots entraînés. Il nécessite des ressources informatiques élevées et un ajustement fin sur des données étiquetées. Le support client doit être amélioré pour augmenter l'utilisation de BERT. Avis collecté par et hébergé sur G2.com.