Best Software for 2025 is now live!
Von Google
Zu Meinen Listen hinzufügen
Nicht beansprucht
Nicht beansprucht

Top-bewertete BERT Alternativen

BERT Bewertungen & Produktdetails

BERT Übersicht

Was ist BERT?

BERT, kurz für Bidirectional Encoder Representations from Transformers, ist ein maschinelles Lernframework für die Verarbeitung natürlicher Sprache. Im Jahr 2018 entwickelte Google diesen Algorithmus, um das kontextuelle Verständnis von unbeschriftetem Text über eine breite Palette von Aufgaben zu verbessern, indem es lernt, Text vorherzusagen, der vor und nach (bidirektional) anderem Text stehen könnte.

BERT Details
Diskussionen
BERT Community
Weniger anzeigenMehr anzeigen
Produktbeschreibung

BERT, kurz für Bidirectional Encoder Representations from Transformers, ist ein maschinelles Lernframework für die Verarbeitung natürlicher Sprache. Im Jahr 2018 entwickelte Google diesen Algorithmus, um das kontextuelle Verständnis von unbeschriftetem Text über eine breite Palette von Aufgaben zu verbessern, indem es lernt, Text vorherzusagen, der vor und nach (bidirektional) anderem Text stehen könnte.


Verkäuferdetails
Verkäufer
Google
Gründungsjahr
1998
Hauptsitz
Mountain View, CA
Twitter
@google
32,520,271 Twitter-Follower
LinkedIn®-Seite
www.linkedin.com
301,875 Mitarbeiter*innen auf LinkedIn®
Eigentum
NASDAQ:GOOG
Telefon
+1 (650) 253-0000
Gesamterlös (USD Mio)
$182,527
Beschreibung

Organize the world’s information and make it universally accessible and useful.

Aktuelle BERT Bewertungen

Aniket s.
AS
Aniket s.Kleinunternehmen (50 oder weniger Mitarbeiter)
5.0 von 5
"sehr hilfreich"
Medizinische Kodierungsdarstellung mehrdeutige Sprache im Text durch Verwendung des umgebenden Textes zur Etablierung des Kontexts.
Verifizierter Benutzer
B
Verifizierter BenutzerUnternehmen mittlerer Größe (51-1000 Mitarbeiter)
5.0 von 5
"I've used it in my several project so certainly recommend"
Easy to use for any one and very efficient
Rakesh K.
RK
Rakesh K.Unternehmen mittlerer Größe (51-1000 Mitarbeiter)
4.5 von 5
"Ein zufriedener BERT-Nutzer"
Ein Open-Source-Produkt von Google. Sehr einfach zu implementieren und damit zu arbeiten. Es ist sehr flexibel, um es für spezifische Aufgaben anzu...
Sicherheitsabzeichen
Dieser Verkäufer hat seine Sicherheitsinformationen noch nicht hinzugefügt. Lassen Sie ihn wissen, dass Sie möchten, dass er sie hinzufügt.
0 Personen haben Sicherheitsinformationen angefordert

BERT Medien

Beantworten Sie einige Fragen, um der BERT-Community zu helfen
Haben sie BERT schon einmal verwendet?
Ja

54 BERT Bewertungen

4.4 von 5
Die nächsten Elemente sind Filter und werden die angezeigten Ergebnisse ändern, sobald sie ausgewählt werden.
Bewertungen durchsuchen
Beliebte Erwähnungen
Die nächsten Elemente sind Radioelemente und sortieren die angezeigten Ergebnisse nach dem ausgewählten Element und aktualisieren die angezeigten Ergebnisse.
Filter ausblendenWeitere Filter
Die nächsten Elemente sind Filter und werden die angezeigten Ergebnisse ändern, sobald sie ausgewählt werden.
Die nächsten Elemente sind Filter und werden die angezeigten Ergebnisse ändern, sobald sie ausgewählt werden.
54 BERT Bewertungen
4.4 von 5
54 BERT Bewertungen
4.4 von 5

BERT Vor- und Nachteile

Wie wird diese bestimmt?Informationen
Vor- und Nachteile werden aus dem Feedback der Bewertungen zusammengestellt und in Themen gruppiert, um eine leicht verständliche Zusammenfassung der Benutzerbewertungen zu bieten.
Vorteile
Contra
G2-Bewertungen sind authentisch und verifiziert.
APOORV G.
AG
Software Engineer
Kleinunternehmen(50 oder weniger Mitarbeiter)
Weitere Optionen
Bestätigter Bewerter
Bewertungsquelle: G2-Einladung
Anreizbasierte Bewertung
Übersetzt mit KI
Was gefällt dir am besten BERT?

Seine Fähigkeit, kontextuelle Nuancen in der Sprache zu erfassen, ist herausragend und ermöglicht auch ein genaueres und kontextbewusstes Verständnis natürlicher Sprache. Sein bidirektionaler Ansatz und das Vortraining auf umfangreichen Datensätzen tragen zu seiner Vielseitigkeit in einem Spektrum von NLP-Aufgaben bei, was es zu einem leistungsstarken Werkzeug in diesem Bereich macht. Bewertung gesammelt von und auf G2.com gehostet.

Was gefällt Ihnen nicht? BERT?

Seine rechnerische Intensität erfordert erhebliche Ressourcen für das Training und die Inferenz. Außerdem hat es Schwierigkeiten mit Wörtern, die nicht im Vokabular enthalten sind, und könnte langfristige Abhängigkeiten nicht so effektiv handhaben. Trotz dieser Einschränkungen zielen laufende Forschung und Fortschritte darauf ab, diese Herausforderungen in zukünftigen Modellen anzugehen und zu mildern. Bewertung gesammelt von und auf G2.com gehostet.

Was ist ein Problem? BERT Solving und wie profitieren Sie davon?

Es spricht Herausforderungen im Bereich des Sprachverständnisses an, indem es das Kontextverständnis verbessert und komplexe Sprachnuancen erfasst. Dies kommt mir zugute, indem es die Qualität der Antworten, die ich gebe, verbessert. Der bidirektionale Ansatz von BERT ermöglicht ein besseres Verständnis des Kontexts und unterstützt eine genauere und kontextbewusste Sprachgenerierung. Diese Verbesserung führt zu relevanteren und kohärenteren Antworten und trägt zu einer effektiveren und zufriedenstellenderen Benutzererfahrung während unserer Interaktionen bei. Bewertung gesammelt von und auf G2.com gehostet.

Bittu M.
BM
Technical Assistant
Kleinunternehmen(50 oder weniger Mitarbeiter)
Weitere Optionen
Bestätigter Bewerter
Verifizierter aktueller Benutzer
Bewertungsquelle: G2-Einladung
Anreizbasierte Bewertung
Übersetzt mit KI
Was gefällt dir am besten BERT?

Ich benutze BERT seit den letzten 3 Monaten, ich gebe präzise und punktgenaue Antworten auf meine täglichen Aktivitäten, und als Chatbot gibt es vollständig relevante Informationen wie ein Mentor, der 24/7 verfügbar ist. Ich spare viel Zeit und Mühe mit BERT. Bewertung gesammelt von und auf G2.com gehostet.

Was gefällt Ihnen nicht? BERT?

Über die Benutzeroberfläche: Als Google-Produkt sollte sie eleganter aussehen. Die Informationen können menschlicher gestaltet werden, da sie bisher auch maschinell erzeugt wirken. Bewertung gesammelt von und auf G2.com gehostet.

Was ist ein Problem? BERT Solving und wie profitieren Sie davon?

Bert hilft mir, den Code zu debuggen und Ideen für mein Projekt zu entwickeln, auch hat es ein paar Codes für mich geschrieben, ich nutze es für meine tägliche Aktivität. Bewertung gesammelt von und auf G2.com gehostet.

Ruchin D.
RD
Senior Research Engineer
Unternehmen(> 1000 Mitarbeiter)
Weitere Optionen
Bestätigter Bewerter
Bewertungsquelle: G2-Einladung
Anreizbasierte Bewertung
Übersetzt mit KI
Was gefällt dir am besten BERT?

Es ist sehr einfach zu verwenden und es gibt online so viele Ressourcen dazu, dass jeder ein sehr gutes Verständnis dafür bekommen kann, selbst ohne Hintergrundwissen über Transformer. Abgesehen von der Benutzerfreundlichkeit ist es auch vortrainiert und wir müssen es nur an unsere eigene Aufgabe anpassen. Auch das Feintuning ist ziemlich unkompliziert, also ja, insgesamt ist die Erfahrung wirklich angenehm. Bewertung gesammelt von und auf G2.com gehostet.

Was gefällt Ihnen nicht? BERT?

Es gibt nur wenige Dinge wie die Tatsache, dass es rechnerisch kostspielig ist, und wie viele andere Transformer ist es größtenteils eine Blackbox, wenn wir versuchen zu verstehen, warum es bestimmte Ergebnisse geliefert hat.

Da wir in das Zeitalter der KI eintreten, macht die Token-Beschränkung in BERT seine Fähigkeiten tatsächlich sehr begrenzt. Bewertung gesammelt von und auf G2.com gehostet.

Was ist ein Problem? BERT Solving und wie profitieren Sie davon?

Wir erhalten ein vortrainiertes Modell, das ich nur auf mein eigenes Problem abstimmen muss, und in diesem Sinne ist es wirklich ein Lebensretter. Bewertung gesammelt von und auf G2.com gehostet.

Verifizierter Benutzer in Internet
BI
Kleinunternehmen(50 oder weniger Mitarbeiter)
Weitere Optionen
Bestätigter Bewerter
Bewertungsquelle: G2-Einladung
Anreizbasierte Bewertung
Was gefällt dir am besten BERT?

- Great for tasks where bidirectional context is required, as opposed to GPT models where the context is unidirectional. Suitable for question-answering, analyzing small paragraphs of words, etc.

- Output is more trustworthy as compared to GPT models.

- Open source

- Easy to fine-tune for domain-specific applications as long as enough data is available. Bewertung gesammelt von und auf G2.com gehostet.

Was gefällt Ihnen nicht? BERT?

- It is extremely computationally expensive to build and deploy, especially to produce a quality output.

- Balancing the context window takes a lot of trial and error.

- With the arrival of GPT models, the lack of long context, i.e., limited context, is more noticeable than ever.

- Not suitable for large documents which require broader context.

- (not limited to BERT) A bit of a black box once implemented.

- Not a good choice for tasks where text has to be generated. Bewertung gesammelt von und auf G2.com gehostet.

Was ist ein Problem? BERT Solving und wie profitieren Sie davon?

I've used it for 2 purposes:

1. Figuring out which short passage best answers a question given a bunch of such passages.

2. Analysing a small chunk of passage to recognize which subject a user is talking in a very specific domain (required fine tuning). Bewertung gesammelt von und auf G2.com gehostet.

Abhishek K.
AK
Engineer II
Kleinunternehmen(50 oder weniger Mitarbeiter)
Weitere Optionen
Bestätigter Bewerter
Bewertungsquelle: G2-Einladung
Anreizbasierte Bewertung
Übersetzt mit KI
Was gefällt dir am besten BERT?

Es ist am besten geeignet für die zufälligen Suchanfragen, die wir in einer Suchmaschine durchführen und durch mehrere Seiten gehen müssen, um unser Verständnis aufzubauen. Aber mit der neuen BERT-Engine ist es so effizient geworden, nach Anfragen und Fragen zu suchen, auch im Hinblick auf das Suchen nach anderen Textinformationen. Bewertung gesammelt von und auf G2.com gehostet.

Was gefällt Ihnen nicht? BERT?

Manchmal sind die Antworten wie eine allgemeine Aussage und wir bekommen nicht genau das, wonach wir suchen. Bewertung gesammelt von und auf G2.com gehostet.

Was ist ein Problem? BERT Solving und wie profitieren Sie davon?

Ich habe versucht, einen ähnlichen Motor in einem meiner Projekte mit LLM zu verwenden, also habe ich die Hilfe der Bert-Engine in Anspruch genommen, um zu verstehen, wie man das PEFT und LoRA optimiert. Bewertung gesammelt von und auf G2.com gehostet.

Zayed R.
ZR
Programmer Analyst
Unternehmen(> 1000 Mitarbeiter)
Weitere Optionen
Bestätigter Bewerter
Bewertungsquelle: G2-Einladung
Anreizbasierte Bewertung
Übersetzt mit KI
Was gefällt dir am besten BERT?

Der einfache Weg, das NLP-basierte Projekt für die Klassifikation zu entwickeln. Das Feintuning des vortrainierten Modells für den eigenen Datensatz zum Trainieren und Testen der Modelle. Bewertung gesammelt von und auf G2.com gehostet.

Was gefällt Ihnen nicht? BERT?

Es ist gut, aber während wir den großen Inhalt für Klassifizierungsprobleme verwenden, verbraucht es viel Rechenleistung und das wird zu höheren Kosten führen. Bewertung gesammelt von und auf G2.com gehostet.

Was ist ein Problem? BERT Solving und wie profitieren Sie davon?

BERT wird verwendet, um das Problem der Mailklassifizierung und Entitätsextraktion mit Hilfe des vortrainierten Modells zu lösen, um das Modell weiter zu verfeinern. das am besten zu unserem Datensatz passt, um die Kundenmails zu verstehen, was bei der Automatisierung der Antworten helfen würde. Bewertung gesammelt von und auf G2.com gehostet.

Rakesh K.
RK
BLS, Skill Development
Unternehmen mittlerer Größe(51-1000 Mitarbeiter)
Weitere Optionen
Bestätigter Bewerter
Bewertungsquelle: G2-Einladung
Anreizbasierte Bewertung
Übersetzt mit KI
Was gefällt dir am besten BERT?

Ein Open-Source-Produkt von Google. Sehr einfach zu implementieren und damit zu arbeiten. Es ist sehr flexibel, um es für spezifische Aufgaben anzupassen, was für einen Entwickler sehr hilfreich ist. Es hilft uns bei unserer täglichen Arbeit mit NLP. Bewertung gesammelt von und auf G2.com gehostet.

Was gefällt Ihnen nicht? BERT?

Es dauert viel Zeit, das Modell zu trainieren. Daher rechnerisch kostspielig und erfordert Hochleistungsmaschinen. Auch der Speicherverbrauch ist hoch. Bewertung gesammelt von und auf G2.com gehostet.

Was ist ein Problem? BERT Solving und wie profitieren Sie davon?

Wir verwenden BERT für unsere verschiedenen NLP-Aufgaben. Es beantwortet die Anfragen unserer Kunden und sendet auch regelmäßig angepasste E-Mails. Bewertung gesammelt von und auf G2.com gehostet.

SHUBHAM G.
SG
Data Scientist
Unternehmen(> 1000 Mitarbeiter)
Weitere Optionen
Bestätigter Bewerter
Bewertungsquelle: G2-Einladung
Anreizbasierte Bewertung
Übersetzt mit KI
Was gefällt dir am besten BERT?

Bezüglich BERT, es ist das erste Modell, das ich für kontextbasierte Einbettung ausprobiert habe. Das Beste an BERT ist, dass es einfach zu verstehen ist und Unterstützung dafür verfügbar ist. Außerdem sind 3 bis 4 generalisierte englische Modelle verfügbar. Bewertung gesammelt von und auf G2.com gehostet.

Was gefällt Ihnen nicht? BERT?

Im Vergleich zu DistilBERT ist es groß und sperrig, da dieselbe Funktionalität von BERT mit DistilBERT möglich ist. Bewertung gesammelt von und auf G2.com gehostet.

Was ist ein Problem? BERT Solving und wie profitieren Sie davon?

Wir haben ein benutzerdefiniertes NER-Modell mit BERT implementiert, das uns hilft, persönliche Informationen in Lebensläufen zu identifizieren. Bewertung gesammelt von und auf G2.com gehostet.

Verifizierter Benutzer in Information Technology and Services
BI
Kleinunternehmen(50 oder weniger Mitarbeiter)
Weitere Optionen
Bestätigter Bewerter
Verifizierter aktueller Benutzer
Bewertungsquelle: G2-Einladung
Anreizbasierte Bewertung
(Ursprünglich )Informationen
Was gefällt dir am besten BERT?

* BERT generates high-quality texts by understanding the context around a word. I found good performance on document retrieval, and Question Answering.

* Finetuning BERT on custom data (or transfer learning) is very simple and gives good results. BERT inference is also faster than GPT.

* BERT has an extensive community and good support. Almost everyone around me has used BERT. Bewertung gesammelt von und auf G2.com gehostet.

Was gefällt Ihnen nicht? BERT?

In my experience with BERT, I think it still needs improvements:

* I found that BERT fine-tuning does not work well with large-scale datasets (e.g PILE)

* Its domain knowledge is constricted. It does not know much about domains such as healthcare, and education.

Hence, BERT can be considered enough for simple tasks, however, for complex tasks (e.g. open-ended generation, language translation etc.), it needs improvement.

I trust it's newer version will accommodate for major fixes. Wish them luck, Bewertung gesammelt von und auf G2.com gehostet.

Was ist ein Problem? BERT Solving und wie profitieren Sie davon?

* search engine using BERT : retrieving documents similar to the query document.

* chat bot use case. The utility takes in the "user query" and automatically classifies the business department it should be sent to (i.e. Refund, Feedback, etc)

* sentiment classifier for product reviews Bewertung gesammelt von und auf G2.com gehostet.

Ojasi K.
OK
AI Engineering Analyst
Unternehmen(> 1000 Mitarbeiter)
Weitere Optionen
Bestätigter Bewerter
Bewertungsquelle: G2-Einladung
Anreizbasierte Bewertung
Übersetzt mit KI
Was gefällt dir am besten BERT?

An einem Anwendungsfall zur Erkennung von Toxizität in Eingabeaufforderungen und deren jeweiligen Abschlüssen gearbeitet. BERT funktionierte effektiv und lieferte uns eine sehr hohe Genauigkeit von bis zu 92 % für korrekte Erkennungen. Bewertung gesammelt von und auf G2.com gehostet.

Was gefällt Ihnen nicht? BERT?

Kann versuchen, mehr Klassen außer den 6: toxisch, schwer toxisch, obszön, Bedrohung, Beleidigung und Identitätshass einzubeziehen. Einige nützliche empfohlene Klassen: Geschlechterbias, Ethnizitätsbias usw. Bewertung gesammelt von und auf G2.com gehostet.

Was ist ein Problem? BERT Solving und wie profitieren Sie davon?

Wir versuchten, die toxischen Eingaben und deren jeweilige Vervollständigungen mit BERT zu erkennen. Konnten dies mit bis zu 92% Genauigkeit tun. Bewertung gesammelt von und auf G2.com gehostet.