Top-bewertete BERT Alternativen
54 BERT Bewertungen

Seine Fähigkeit, kontextuelle Nuancen in der Sprache zu erfassen, ist herausragend und ermöglicht auch ein genaueres und kontextbewusstes Verständnis natürlicher Sprache. Sein bidirektionaler Ansatz und das Vortraining auf umfangreichen Datensätzen tragen zu seiner Vielseitigkeit in einem Spektrum von NLP-Aufgaben bei, was es zu einem leistungsstarken Werkzeug in diesem Bereich macht. Bewertung gesammelt von und auf G2.com gehostet.
Seine rechnerische Intensität erfordert erhebliche Ressourcen für das Training und die Inferenz. Außerdem hat es Schwierigkeiten mit Wörtern, die nicht im Vokabular enthalten sind, und könnte langfristige Abhängigkeiten nicht so effektiv handhaben. Trotz dieser Einschränkungen zielen laufende Forschung und Fortschritte darauf ab, diese Herausforderungen in zukünftigen Modellen anzugehen und zu mildern. Bewertung gesammelt von und auf G2.com gehostet.

Ich benutze BERT seit den letzten 3 Monaten, ich gebe präzise und punktgenaue Antworten auf meine täglichen Aktivitäten, und als Chatbot gibt es vollständig relevante Informationen wie ein Mentor, der 24/7 verfügbar ist. Ich spare viel Zeit und Mühe mit BERT. Bewertung gesammelt von und auf G2.com gehostet.
Über die Benutzeroberfläche: Als Google-Produkt sollte sie eleganter aussehen. Die Informationen können menschlicher gestaltet werden, da sie bisher auch maschinell erzeugt wirken. Bewertung gesammelt von und auf G2.com gehostet.

Es ist sehr einfach zu verwenden und es gibt online so viele Ressourcen dazu, dass jeder ein sehr gutes Verständnis dafür bekommen kann, selbst ohne Hintergrundwissen über Transformer. Abgesehen von der Benutzerfreundlichkeit ist es auch vortrainiert und wir müssen es nur an unsere eigene Aufgabe anpassen. Auch das Feintuning ist ziemlich unkompliziert, also ja, insgesamt ist die Erfahrung wirklich angenehm. Bewertung gesammelt von und auf G2.com gehostet.
Es gibt nur wenige Dinge wie die Tatsache, dass es rechnerisch kostspielig ist, und wie viele andere Transformer ist es größtenteils eine Blackbox, wenn wir versuchen zu verstehen, warum es bestimmte Ergebnisse geliefert hat.
Da wir in das Zeitalter der KI eintreten, macht die Token-Beschränkung in BERT seine Fähigkeiten tatsächlich sehr begrenzt. Bewertung gesammelt von und auf G2.com gehostet.
- Great for tasks where bidirectional context is required, as opposed to GPT models where the context is unidirectional. Suitable for question-answering, analyzing small paragraphs of words, etc.
- Output is more trustworthy as compared to GPT models.
- Open source
- Easy to fine-tune for domain-specific applications as long as enough data is available. Bewertung gesammelt von und auf G2.com gehostet.
- It is extremely computationally expensive to build and deploy, especially to produce a quality output.
- Balancing the context window takes a lot of trial and error.
- With the arrival of GPT models, the lack of long context, i.e., limited context, is more noticeable than ever.
- Not suitable for large documents which require broader context.
- (not limited to BERT) A bit of a black box once implemented.
- Not a good choice for tasks where text has to be generated. Bewertung gesammelt von und auf G2.com gehostet.

Es ist am besten geeignet für die zufälligen Suchanfragen, die wir in einer Suchmaschine durchführen und durch mehrere Seiten gehen müssen, um unser Verständnis aufzubauen. Aber mit der neuen BERT-Engine ist es so effizient geworden, nach Anfragen und Fragen zu suchen, auch im Hinblick auf das Suchen nach anderen Textinformationen. Bewertung gesammelt von und auf G2.com gehostet.
Manchmal sind die Antworten wie eine allgemeine Aussage und wir bekommen nicht genau das, wonach wir suchen. Bewertung gesammelt von und auf G2.com gehostet.

Der einfache Weg, das NLP-basierte Projekt für die Klassifikation zu entwickeln. Das Feintuning des vortrainierten Modells für den eigenen Datensatz zum Trainieren und Testen der Modelle. Bewertung gesammelt von und auf G2.com gehostet.
Es ist gut, aber während wir den großen Inhalt für Klassifizierungsprobleme verwenden, verbraucht es viel Rechenleistung und das wird zu höheren Kosten führen. Bewertung gesammelt von und auf G2.com gehostet.

Ein Open-Source-Produkt von Google. Sehr einfach zu implementieren und damit zu arbeiten. Es ist sehr flexibel, um es für spezifische Aufgaben anzupassen, was für einen Entwickler sehr hilfreich ist. Es hilft uns bei unserer täglichen Arbeit mit NLP. Bewertung gesammelt von und auf G2.com gehostet.
Es dauert viel Zeit, das Modell zu trainieren. Daher rechnerisch kostspielig und erfordert Hochleistungsmaschinen. Auch der Speicherverbrauch ist hoch. Bewertung gesammelt von und auf G2.com gehostet.

Bezüglich BERT, es ist das erste Modell, das ich für kontextbasierte Einbettung ausprobiert habe. Das Beste an BERT ist, dass es einfach zu verstehen ist und Unterstützung dafür verfügbar ist. Außerdem sind 3 bis 4 generalisierte englische Modelle verfügbar. Bewertung gesammelt von und auf G2.com gehostet.
Im Vergleich zu DistilBERT ist es groß und sperrig, da dieselbe Funktionalität von BERT mit DistilBERT möglich ist. Bewertung gesammelt von und auf G2.com gehostet.
* BERT generates high-quality texts by understanding the context around a word. I found good performance on document retrieval, and Question Answering.
* Finetuning BERT on custom data (or transfer learning) is very simple and gives good results. BERT inference is also faster than GPT.
* BERT has an extensive community and good support. Almost everyone around me has used BERT. Bewertung gesammelt von und auf G2.com gehostet.
In my experience with BERT, I think it still needs improvements:
* I found that BERT fine-tuning does not work well with large-scale datasets (e.g PILE)
* Its domain knowledge is constricted. It does not know much about domains such as healthcare, and education.
Hence, BERT can be considered enough for simple tasks, however, for complex tasks (e.g. open-ended generation, language translation etc.), it needs improvement.
I trust it's newer version will accommodate for major fixes. Wish them luck, Bewertung gesammelt von und auf G2.com gehostet.

An einem Anwendungsfall zur Erkennung von Toxizität in Eingabeaufforderungen und deren jeweiligen Abschlüssen gearbeitet. BERT funktionierte effektiv und lieferte uns eine sehr hohe Genauigkeit von bis zu 92 % für korrekte Erkennungen. Bewertung gesammelt von und auf G2.com gehostet.
Kann versuchen, mehr Klassen außer den 6: toxisch, schwer toxisch, obszön, Bedrohung, Beleidigung und Identitätshass einzubeziehen. Einige nützliche empfohlene Klassen: Geschlechterbias, Ethnizitätsbias usw. Bewertung gesammelt von und auf G2.com gehostet.