Principais Alternativas de BERT Mais Bem Avaliadas
Avaliações 54 BERT

Sua capacidade de capturar nuances contextuais na linguagem é excepcional e permite uma compreensão mais precisa e sensível ao contexto da linguagem natural também. Sua abordagem bidirecional e pré-treinamento em extensos conjuntos de dados contribuem para sua versatilidade em uma gama de tarefas de PLN, tornando-o uma ferramenta poderosa no campo. Análise coletada por e hospedada no G2.com.
Sua intensidade computacional, exigindo recursos substanciais para treinamento e inferência. Além disso, tem dificuldade com palavras fora do vocabulário e pode não lidar com dependências de longo alcance de forma tão eficaz. Apesar dessas limitações, pesquisas e avanços contínuos visam abordar e mitigar esses desafios em modelos futuros. Análise coletada por e hospedada no G2.com.

Tenho usado o BERT nos últimos 3 meses, dou respostas precisas e diretas às minhas atividades diárias, e como um chatbot, ele fornece informações completamente relevantes como um mentor disponível 24/7. Recomendo muito isso a todos. Estou economizando muito tempo e esforço usando o BERT. Análise coletada por e hospedada no G2.com.
Sobre a interface, como um produto do Google, deveria parecer mais elegante. A informação pode ser feita de forma mais humana, pois até agora também parece gerada por máquina. Análise coletada por e hospedada no G2.com.

É muito fácil de usar e tem tantos recursos disponíveis online que qualquer pessoa pode ter uma boa compreensão dele mesmo sem nenhum conhecimento prévio sobre transformadores. Além da facilidade de uso, ele também é pré-treinado e só precisamos ajustá-lo conforme nossa própria tarefa. Além disso, o ajuste fino é bastante simples, então sim, a experiência geral é realmente agradável. Análise coletada por e hospedada no G2.com.
Existem apenas algumas coisas, como ser computacionalmente caro e, como muitos outros transformadores, é principalmente uma caixa preta quando tentamos entender por que ele forneceu certos resultados.
Além disso, como estamos entrando na era da IA, a limitação de tokens no BERT realmente torna suas capacidades muito limitadas. Análise coletada por e hospedada no G2.com.
- Great for tasks where bidirectional context is required, as opposed to GPT models where the context is unidirectional. Suitable for question-answering, analyzing small paragraphs of words, etc.
- Output is more trustworthy as compared to GPT models.
- Open source
- Easy to fine-tune for domain-specific applications as long as enough data is available. Análise coletada por e hospedada no G2.com.
- It is extremely computationally expensive to build and deploy, especially to produce a quality output.
- Balancing the context window takes a lot of trial and error.
- With the arrival of GPT models, the lack of long context, i.e., limited context, is more noticeable than ever.
- Not suitable for large documents which require broader context.
- (not limited to BERT) A bit of a black box once implemented.
- Not a good choice for tasks where text has to be generated. Análise coletada por e hospedada no G2.com.

Está melhor situado para as buscas aleatórias que fazemos em um motor de busca e temos que passar por várias páginas para construir nosso entendimento. Mas com o novo motor BERT, tornou-se tão eficiente procurar por consultas e perguntas também em termos de buscar outras informações textuais. Análise coletada por e hospedada no G2.com.
Algumas vezes as respostas são como uma declaração geral e não conseguimos exatamente o que estamos procurando. Análise coletada por e hospedada no G2.com.

A maneira fácil de desenvolver o projeto baseado em PLN para a classificação. O ajuste fino do modelo pré-treinado para o próprio conjunto de dados para treinamento e teste dos modelos. Análise coletada por e hospedada no G2.com.
É bom, mas enquanto usamos o grande conteúdo para problemas de classificação, ele consome muita potência de computação e isso levará a mais custos. Análise coletada por e hospedada no G2.com.

Um produto de código aberto do Google. Muito fácil de implementar e trabalhar. É muito flexível para personalizar para qualquer tarefa específica que é muito útil para um desenvolvedor. Nos ajuda em nossos trabalhos diários com PLN. Análise coletada por e hospedada no G2.com.
Leva muito tempo para treinar o modelo. Portanto, computacionalmente caro e precisa de máquinas de ponta. Também há um alto consumo de memória. Análise coletada por e hospedada no G2.com.

Em relação ao BERT, é o primeiro modelo que experimentei para incorporação baseada em contexto. A melhor coisa sobre o BERT é que é simples de entender e o re-treinamento, ajuste fino e suporte estão disponíveis. Além disso, há de 3 a 4 modelos generalizados em inglês disponíveis. Análise coletada por e hospedada no G2.com.
Em comparação com o distillbert, ele é pesado em tamanho e volumoso por natureza, já que a mesma coisa do BERT pode ser possível com o distillbert. Análise coletada por e hospedada no G2.com.
* BERT generates high-quality texts by understanding the context around a word. I found good performance on document retrieval, and Question Answering.
* Finetuning BERT on custom data (or transfer learning) is very simple and gives good results. BERT inference is also faster than GPT.
* BERT has an extensive community and good support. Almost everyone around me has used BERT. Análise coletada por e hospedada no G2.com.
In my experience with BERT, I think it still needs improvements:
* I found that BERT fine-tuning does not work well with large-scale datasets (e.g PILE)
* Its domain knowledge is constricted. It does not know much about domains such as healthcare, and education.
Hence, BERT can be considered enough for simple tasks, however, for complex tasks (e.g. open-ended generation, language translation etc.), it needs improvement.
I trust it's newer version will accommodate for major fixes. Wish them luck, Análise coletada por e hospedada no G2.com.

Trabalhou em um caso de uso para detectar toxicidade em prompts e suas respectivas conclusões. BERT funcionou de forma eficaz, proporcionando-nos uma precisão muito alta de até 92% para detecções corretas. Análise coletada por e hospedada no G2.com.
Pode incluir mais classes, exceto as 6: tóxico, severamente tóxico, obsceno, ameaça, insulto e ódio à identidade. Algumas classes recomendadas úteis: viés de gênero, viés étnico, etc. Análise coletada por e hospedada no G2.com.