Von Google
Zu Meinen Listen hinzufügen
Nicht beansprucht
Nicht beansprucht

Top-bewertete BERT Alternativen

54 BERT Bewertungen

4.4 von 5
Die nächsten Elemente sind Filter und werden die angezeigten Ergebnisse ändern, sobald sie ausgewählt werden.
Bewertungen durchsuchen
Beliebte Erwähnungen
Die nächsten Elemente sind Radioelemente und sortieren die angezeigten Ergebnisse nach dem ausgewählten Element und aktualisieren die angezeigten Ergebnisse.
Filter ausblendenWeitere Filter
Die nächsten Elemente sind Filter und werden die angezeigten Ergebnisse ändern, sobald sie ausgewählt werden.
Die nächsten Elemente sind Filter und werden die angezeigten Ergebnisse ändern, sobald sie ausgewählt werden.
54 BERT Bewertungen
4.4 von 5
54 BERT Bewertungen
4.4 von 5

BERT Vor- und Nachteile

Wie wird diese bestimmt?Informationen
Vor- und Nachteile werden aus dem Feedback der Bewertungen zusammengestellt und in Themen gruppiert, um eine leicht verständliche Zusammenfassung der Benutzerbewertungen zu bieten.
Vorteile
Contra
G2-Bewertungen sind authentisch und verifiziert.
YP
Software Testing Expert
Information Technology and Services
Unternehmen mittlerer Größe(51-1000 Mitarbeiter)
Weitere Optionen
Bestätigter Bewerter
Bewertungsquelle: G2-Einladung
Anreizbasierte Bewertung
Übersetzt mit KI
Was gefällt dir am besten BERT?

Wir verwenden BERT für personalisierte Marketingkampagnen, um die Anliegen oder Fragen der Kunden zu Waren und Dienstleistungen zu adressieren, was den Kundenservice verbessert. Um Kunden E-Mails mit Inhalten zu senden, die für ihre Interessen relevant sind, oder um Kunden mit Anzeigen für Produkte anzusprechen, an denen sie wahrscheinlich interessiert sind. Bewertung gesammelt von und auf G2.com gehostet.

Was gefällt Ihnen nicht? BERT?

Ich denke nicht, dass es Nachteile gibt, aber sicherlich bin ich am Anfang auf Probleme gestoßen, wie die Tatsache, dass BERT ein Blackbox-Modell ist, was es schwierig macht, immer zu verstehen, wie es seine Vorhersagen generiert. Die Kosten für das Rechnen waren sowohl für die Bereitstellung als auch für das Training hoch, daher könnte es schwierig sein zu verstehen, warum BERT bestimmte Vorhersagen trifft. Vorurteile können vorhanden sein, da der große Datensatz verwendet wird, um BERT zu trainieren. Bewertung gesammelt von und auf G2.com gehostet.

Saptarshi B.
SB
Data Scientist
Unternehmen(> 1000 Mitarbeiter)
Weitere Optionen
Bestätigter Bewerter
Bewertungsquelle: G2-Einladung
Anreizbasierte Bewertung
Übersetzt mit KI
Was gefällt dir am besten BERT?

Sehr einfach zu implementieren und kann mit jeder Art von nachgelagerten Aufgaben integriert werden. Die Huggingface-Implementierung enthält viel Unterstützung und ist sehr gut dokumentiert. Eine Vielzahl von Funktionen kann auch mit intelligentem architektonischem Design in das Netzwerk eingespeist werden. Bewertung gesammelt von und auf G2.com gehostet.

Was gefällt Ihnen nicht? BERT?

Manchmal wird es sehr schwierig, die Ausgabe von BERT zu verstehen, und es verliert die Interpretierbarkeit. Bewertung gesammelt von und auf G2.com gehostet.

PR
Senior Software Developer
Information Technology and Services
Unternehmen mittlerer Größe(51-1000 Mitarbeiter)
Weitere Optionen
Bestätigter Bewerter
Bewertungsquelle: G2-Einladung
Anreizbasierte Bewertung
Übersetzt mit KI
Was gefällt dir am besten BERT?

Wir verwenden BERT für unseren internen Gebrauch, es ist eine Open-Source-Entwicklung von Google, die mit großartigen Funktionen ausgestattet ist und es uns als Entwicklern ermöglicht, das Modell an ihre spezifischen Bedürfnisse anzupassen. Entwickelt, um den Kontext eines Wortes in einem Satz durch bidirektionales Modellieren zu verstehen. Es verbesserte unsere NLP-Aufgaben wie Fragestellung, Sentiment-Analyse. Sein vortrainiertes Modell ist anpassungsfähig und nützlich für eine Vielzahl von Anwendungen, da es mit nur geringen Mengen an aufgabenspezifischen Daten auf eine bestimmte Aufgabe feinabgestimmt werden kann. Bewertung gesammelt von und auf G2.com gehostet.

Was gefällt Ihnen nicht? BERT?

Seine Komplexität kann erhebliche Rechenleistung erfordern, was die Zugänglichkeit für einige kleinere Projekte einschränkt. Darüber hinaus ist es hervorragend im Verständnis von Arbeitsbeziehungen, hat jedoch manchmal Schwierigkeiten mit längeren Dokumenten, bei denen ein breiterer Kontext erforderlich ist. Bewertung gesammelt von und auf G2.com gehostet.

SS
Senior Content Editor
Information Technology and Services
Unternehmen mittlerer Größe(51-1000 Mitarbeiter)
Weitere Optionen
Bestätigter Bewerter
Bewertungsquelle: G2-Einladung
Anreizbasierte Bewertung
Übersetzt mit KI
Was gefällt dir am besten BERT?

BERT erscheint mir als sehr leistungsfähiges und anpassungsfähiges NLP-Modell. Ich schätze, wie es eine komplexere Repräsentation von Bedeutung lernen kann, indem es sowohl den linken als auch den rechten Kontext eines Wortes berücksichtigt. Seine Flexibilität und die Fähigkeit, für bestimmte Aufgaben angepasst zu werden, sind für mich beide ansprechend. Bewertung gesammelt von und auf G2.com gehostet.

Was gefällt Ihnen nicht? BERT?

Es erfordert viel Rechenleistung, um es zu trainieren und zu verwenden, was anfangs eine Herausforderung für uns war, es zu nutzen. Es wird auf einem umfangreichen Textdatensatz trainiert, der möglicherweise voreingenommen ist. Die Genauigkeit der Vorhersagen kann empfindlich auf die Voreingenommenheit in den Trainingsdaten für Aufgaben wie natürliche Sprachinferenz und Beantwortung von Fragen reagieren. Bewertung gesammelt von und auf G2.com gehostet.

Sandeep G.
SG
AI Developer
Unternehmen mittlerer Größe(51-1000 Mitarbeiter)
Weitere Optionen
Bestätigter Bewerter
Bewertungsquelle: G2-Einladung
Anreizbasierte Bewertung
Übersetzt mit KI
Was gefällt dir am besten BERT?

BERT ist ein Transformermodell, es hat eine Kodierungsarchitektur. Ich habe mit verschiedenen Architekturen von Transformermodellen gearbeitet, aber die BERT-Architektur hat im Vergleich zu anderen Architekturen gut abgeschnitten. Es ist einfach, mit benutzerdefinierten Daten zu trainieren, und es ist leicht zu verstehen. Bewertung gesammelt von und auf G2.com gehostet.

Was gefällt Ihnen nicht? BERT?

BERT-Modell rechnerisch kostspielig und Modellgröße ist sehr groß. Es dauerte viel Zeit für Inferenz und Training auf einer CPU-Maschine. Bewertung gesammelt von und auf G2.com gehostet.

NG
Software Developer
Information Technology and Services
Kleinunternehmen(50 oder weniger Mitarbeiter)
Weitere Optionen
Bestätigter Bewerter
Bewertungsquelle: G2-Einladung
Anreizbasierte Bewertung
Übersetzt mit KI
Was gefällt dir am besten BERT?

Es ist Open Source. Funktioniert mit Sprachen wie Hindi, Spanisch, Arabisch, Portugiesisch, Deutsch usw. Wird in der Google-Suchmaschine für das beste Ergebnis verwendet. Es liest Sätze von beiden Enden. Erkennt die Beziehung zwischen Wörtern sehr gut. Basierend auf der Programmiersprache Python, die sehr einfach ist. Bewertung gesammelt von und auf G2.com gehostet.

Was gefällt Ihnen nicht? BERT?

mehr Speicheranforderung. wird nicht sehr häufig aktualisiert / verbessert. Bewertung gesammelt von und auf G2.com gehostet.

apurv t.
AT
Associate Planning and Scheduling
Kleinunternehmen(50 oder weniger Mitarbeiter)
Weitere Optionen
Bestätigter Bewerter
Bewertungsquelle: G2-Einladung
Anreizbasierte Bewertung
Übersetzt mit KI
Was gefällt dir am besten BERT?

Es ist ein Open-Source-LLM. Bereits auf einem großen Korpus von Wörtern trainiert. Bewertung gesammelt von und auf G2.com gehostet.

Was gefällt Ihnen nicht? BERT?

Es braucht Zeit, um das Modell zu trainieren. Es ist auf allgemeine Daten trainiert, daher müssen Sie möglicherweise ein anderes LLM verwenden, wenn Sie es für einen bestimmten Zweck verwenden. Bewertung gesammelt von und auf G2.com gehostet.

Abhay S.
AS
Talent Solutions Specialist
Kleinunternehmen(50 oder weniger Mitarbeiter)
Weitere Optionen
Bestätigter Bewerter
Bewertungsquelle: G2-Einladung
Anreizbasierte Bewertung
Übersetzt mit KI
Was gefällt dir am besten BERT?

BERT ist gut darin, die Bedeutung von Sätzen zu verstehen, sei es komplex, einfach oder mehrdeutig. Es hat eine Vielzahl von Anwendungsfällen wie Frage und Antwort, das Verstehen der Stimmung des Satzes (positiv, negativ oder neutral). Es ist Open Source, sodass wir es für unsere eigene Anwendung nutzen und unsere Angebote verbessern können. Bewertung gesammelt von und auf G2.com gehostet.

Was gefällt Ihnen nicht? BERT?

BERT war manchmal falsch bei der Interpretation von Regionalsprachen oder der Mischung mehrerer Sprachen in einem Satz. Seine Vorhersagen waren viele Male falsch, was für allgemeines Texten verbessert werden kann. Bewertung gesammelt von und auf G2.com gehostet.

SM
Unternehmen mittlerer Größe(51-1000 Mitarbeiter)
Weitere Optionen
Bestätigter Bewerter
Bewertungsquelle: G2-Einladung
Anreizbasierte Bewertung
Übersetzt mit KI
Was gefällt dir am besten BERT?

Dieses Tool versteht meine Suchabsicht in fast jeder Sprache, die ich verwende, da es in über 100 Sprachen gut trainiert ist. Außerdem hilft es mir bei meinen längeren und konversationelleren Anfragen, indem es Wörter oder den Kontext von Phrasen besser versteht. Bewertung gesammelt von und auf G2.com gehostet.

Was gefällt Ihnen nicht? BERT?

Ich finde, dass dieses Werkzeug beim Einsatz seines Wissens oder gesunden Menschenverstands versagt, da es nur auf Mustern von Textdaten arbeitet. Es ist schwierig, große BERT-Modelle einzusetzen. Dieses Werkzeug speichert sensible Daten der Trainingsdaten, weshalb es Bedenken hinsichtlich der Privatsphäre aufwirft. Bewertung gesammelt von und auf G2.com gehostet.

Modalavalasa S.
MS
Assistant System Engineer
Kleinunternehmen(50 oder weniger Mitarbeiter)
Weitere Optionen
Bestätigter Bewerter
Bewertungsquelle: G2-Einladung
Anreizbasierte Bewertung
Übersetzt mit KI
Was gefällt dir am besten BERT?

BERT (Bidirektionale Encoder-Darstellungen von Transformatoren) erzielte Spitzenleistungen bei einer Reihe von Aufgaben des Sprachverständnisses wie Textklassifikation, Zusammenfassung und maschinelle Übersetzung usw. Es wurde gleichzeitig auf zwei Aufgaben vortrainiert, was erstaunlich ist. Da es Open Source ist, hat es mir sehr geholfen, meine Projekte zu machen. Bewertung gesammelt von und auf G2.com gehostet.

Was gefällt Ihnen nicht? BERT?

Es erfordert hohe Rechenressourcen und Feinabstimmung auf gekennzeichneten Daten. Kundensupport muss verbessert werden, um die Nutzung von BERT zu erhöhen. Bewertung gesammelt von und auf G2.com gehostet.