Best Software for 2025 is now live!
Por Google
Mostrar detalhamento de classificação
Salvar em Minhas Listas
Não Reivindicado
Não Reivindicado

Principais Alternativas de BERT Mais Bem Avaliadas

Avaliações e Detalhes do Produto de BERT

Usuário Verificado em Information Technology and Services
UI
Pequena Empresa(50 ou menos emp.)
Mais Opções
Avaliador validado
Usuário atual verificado
Fonte da Revisão: Convite da G2
Revisão Incentivada
(Original )Informação
O que você mais gosta BERT?

* BERT generates high-quality texts by understanding the context around a word. I found good performance on document retrieval, and Question Answering.

* Finetuning BERT on custom data (or transfer learning) is very simple and gives good results. BERT inference is also faster than GPT.

* BERT has an extensive community and good support. Almost everyone around me has used BERT. Análise coletada por e hospedada no G2.com.

O que você não gosta BERT?

In my experience with BERT, I think it still needs improvements:

* I found that BERT fine-tuning does not work well with large-scale datasets (e.g PILE)

* Its domain knowledge is constricted. It does not know much about domains such as healthcare, and education.

Hence, BERT can be considered enough for simple tasks, however, for complex tasks (e.g. open-ended generation, language translation etc.), it needs improvement.

I trust it's newer version will accommodate for major fixes. Wish them luck, Análise coletada por e hospedada no G2.com.

Que problemas é BERT E como isso está te beneficiando?

* search engine using BERT : retrieving documents similar to the query document.

* chat bot use case. The utility takes in the "user query" and automatically classifies the business department it should be sent to (i.e. Refund, Feedback, etc)

* sentiment classifier for product reviews Análise coletada por e hospedada no G2.com.

Visão geral de BERT

O que é BERT?

BERT, abreviação de Representações de Codificador Bidirecional de Transformadores, é uma estrutura de aprendizado de máquina (ML) para processamento de linguagem natural. Em 2018, o Google desenvolveu este algoritmo para melhorar a compreensão contextual de texto não rotulado em uma ampla gama de tarefas, aprendendo a prever texto que pode vir antes e depois (bidirecional) de outro texto.

Detalhes BERT
Discussões
Comunidade BERT
Mostrar menosMostrar mais
Descrição do Produto

BERT, abreviação de Representações de Codificador Bidirecional de Transformadores, é uma estrutura de aprendizado de máquina (ML) para processamento de linguagem natural. Em 2018, o Google desenvolveu este algoritmo para melhorar a compreensão contextual de texto não rotulado em uma ampla gama de tarefas, aprendendo a prever texto que pode vir antes e depois (bidirecional) de outro texto.


Detalhes do Vendedor
Vendedor
Google
Ano de Fundação
1998
Localização da Sede
Mountain View, CA
Twitter
@google
32,520,271 seguidores no Twitter
Página do LinkedIn®
www.linkedin.com
301,875 funcionários no LinkedIn®
Propriedade
NASDAQ:GOOG
Telefone
+1 (650) 253-0000
Receita Total (USD mm)
$182,527
Descrição

Organize the world’s information and make it universally accessible and useful.

Avaliações Recentes de BERT

Aniket s.
AS
Aniket s.Pequena Empresa (50 ou menos emp.)
5.0 de 5
"muito útil"
representação de código médico linguagem ambígua no texto usando texto circundante para estabelecer cont
Usuário Verificado
U
Usuário VerificadoMédio Porte (51-1000 emp.)
5.0 de 5
"I've used it in my several project so certainly recommend"
Easy to use for any one and very efficient
Rakesh K.
RK
Rakesh K.Médio Porte (51-1000 emp.)
4.5 de 5
"Um Usuário Satisfeito do BERT"
Um produto de código aberto do Google. Muito fácil de implementar e trabalhar. É muito flexível para personalizar para qualquer tarefa específica q...
Distintivo de Segurança
Este vendedor ainda não adicionou suas informações de segurança. Avise-os que você gostaria que eles adicionassem.
0 pessoas solicitaram informações de segurança

Mídia BERT

Responda a algumas perguntas para ajudar a comunidade BERT
Já usou BERT antes?
Sim

53 de 54 Avaliações Totais para BERT

4.4 de 5
Os próximos elementos são filtros e irão alterar os resultados exibidos assim que forem selecionados.
Pesquisar avaliações
Menções Populares
Os próximos elementos são elementos de rádio e classificam os resultados exibidos pelo item selecionado e irão atualizar os resultados exibidos.
Ocultar FiltrosMais Filtros
Os próximos elementos são filtros e irão alterar os resultados exibidos assim que forem selecionados.
Os próximos elementos são filtros e irão alterar os resultados exibidos assim que forem selecionados.
53 de 54 Avaliações Totais para BERT
4.4 de 5
53 de 54 Avaliações Totais para BERT
4.4 de 5

Prós e Contras de BERT

Como são determinadas?Informação
Prós e contras são compilados a partir do feedback das avaliações e agrupados em temas para fornecer um resumo fácil de entender das avaliações dos usuários.
Prós
Contras
As avaliações da G2 são autênticas e verificadas.
APOORV G.
AG
Software Engineer
Pequena Empresa(50 ou menos emp.)
Mais Opções
Avaliador validado
Fonte da Revisão: Convite da G2
Revisão Incentivada
Traduzido Usando IA
O que você mais gosta BERT?

Sua capacidade de capturar nuances contextuais na linguagem é excepcional e permite uma compreensão mais precisa e sensível ao contexto da linguagem natural também. Sua abordagem bidirecional e pré-treinamento em extensos conjuntos de dados contribuem para sua versatilidade em uma gama de tarefas de PLN, tornando-o uma ferramenta poderosa no campo. Análise coletada por e hospedada no G2.com.

O que você não gosta BERT?

Sua intensidade computacional, exigindo recursos substanciais para treinamento e inferência. Além disso, tem dificuldade com palavras fora do vocabulário e pode não lidar com dependências de longo alcance de forma tão eficaz. Apesar dessas limitações, pesquisas e avanços contínuos visam abordar e mitigar esses desafios em modelos futuros. Análise coletada por e hospedada no G2.com.

Que problemas é BERT E como isso está te beneficiando?

Ele aborda desafios na compreensão da linguagem natural ao melhorar a compreensão do contexto e capturar nuances intrincadas da linguagem. Isso me beneficia ao aprimorar a qualidade das respostas que forneço. A abordagem bidirecional do BERT permite uma melhor compreensão do contexto, auxiliando na geração de linguagem mais precisa e consciente do contexto. Essa melhoria resulta em respostas mais relevantes e coerentes, contribuindo para uma experiência de usuário mais eficaz e satisfatória durante nossas interações. Análise coletada por e hospedada no G2.com.

Bittu M.
BM
Technical Assistant
Pequena Empresa(50 ou menos emp.)
Mais Opções
Avaliador validado
Usuário atual verificado
Fonte da Revisão: Convite da G2
Revisão Incentivada
Traduzido Usando IA
O que você mais gosta BERT?

Tenho usado o BERT nos últimos 3 meses, dou respostas precisas e diretas às minhas atividades diárias, e como um chatbot, ele fornece informações completamente relevantes como um mentor disponível 24/7. Recomendo muito isso a todos. Estou economizando muito tempo e esforço usando o BERT. Análise coletada por e hospedada no G2.com.

O que você não gosta BERT?

Sobre a interface, como um produto do Google, deveria parecer mais elegante. A informação pode ser feita de forma mais humana, pois até agora também parece gerada por máquina. Análise coletada por e hospedada no G2.com.

Que problemas é BERT E como isso está te beneficiando?

Bert me ajuda a depurar o código e gera ideias para o meu projeto, também escreveu alguns códigos para mim, eu o uso para minha atividade diária. Análise coletada por e hospedada no G2.com.

Ruchin D.
RD
Senior Research Engineer
Empresa(> 1000 emp.)
Mais Opções
Avaliador validado
Fonte da Revisão: Convite da G2
Revisão Incentivada
Traduzido Usando IA
O que você mais gosta BERT?

É muito fácil de usar e tem tantos recursos disponíveis online que qualquer pessoa pode ter uma boa compreensão dele mesmo sem nenhum conhecimento prévio sobre transformadores. Além da facilidade de uso, ele também é pré-treinado e só precisamos ajustá-lo conforme nossa própria tarefa. Além disso, o ajuste fino é bastante simples, então sim, a experiência geral é realmente agradável. Análise coletada por e hospedada no G2.com.

O que você não gosta BERT?

Existem apenas algumas coisas, como ser computacionalmente caro e, como muitos outros transformadores, é principalmente uma caixa preta quando tentamos entender por que ele forneceu certos resultados.

Além disso, como estamos entrando na era da IA, a limitação de tokens no BERT realmente torna suas capacidades muito limitadas. Análise coletada por e hospedada no G2.com.

Que problemas é BERT E como isso está te beneficiando?

Nós temos um modelo pré-treinado que eu só preciso ajustar ao meu próprio problema e é realmente um salva-vidas nesse sentido. Análise coletada por e hospedada no G2.com.

Usuário Verificado em Internet
UI
Pequena Empresa(50 ou menos emp.)
Mais Opções
Avaliador validado
Fonte da Revisão: Convite da G2
Revisão Incentivada
O que você mais gosta BERT?

- Great for tasks where bidirectional context is required, as opposed to GPT models where the context is unidirectional. Suitable for question-answering, analyzing small paragraphs of words, etc.

- Output is more trustworthy as compared to GPT models.

- Open source

- Easy to fine-tune for domain-specific applications as long as enough data is available. Análise coletada por e hospedada no G2.com.

O que você não gosta BERT?

- It is extremely computationally expensive to build and deploy, especially to produce a quality output.

- Balancing the context window takes a lot of trial and error.

- With the arrival of GPT models, the lack of long context, i.e., limited context, is more noticeable than ever.

- Not suitable for large documents which require broader context.

- (not limited to BERT) A bit of a black box once implemented.

- Not a good choice for tasks where text has to be generated. Análise coletada por e hospedada no G2.com.

Que problemas é BERT E como isso está te beneficiando?

I've used it for 2 purposes:

1. Figuring out which short passage best answers a question given a bunch of such passages.

2. Analysing a small chunk of passage to recognize which subject a user is talking in a very specific domain (required fine tuning). Análise coletada por e hospedada no G2.com.

Abhishek K.
AK
Engineer II
Pequena Empresa(50 ou menos emp.)
Mais Opções
Avaliador validado
Fonte da Revisão: Convite da G2
Revisão Incentivada
Traduzido Usando IA
O que você mais gosta BERT?

Está melhor situado para as buscas aleatórias que fazemos em um motor de busca e temos que passar por várias páginas para construir nosso entendimento. Mas com o novo motor BERT, tornou-se tão eficiente procurar por consultas e perguntas também em termos de buscar outras informações textuais. Análise coletada por e hospedada no G2.com.

O que você não gosta BERT?

Algumas vezes as respostas são como uma declaração geral e não conseguimos exatamente o que estamos procurando. Análise coletada por e hospedada no G2.com.

Que problemas é BERT E como isso está te beneficiando?

Eu tentei usar um motor semelhante em um dos meus projetos com LLM, então usei o motor Bert para entender como otimizar o PEFT e o LoRA. Análise coletada por e hospedada no G2.com.

Zayed R.
ZR
Programmer Analyst
Empresa(> 1000 emp.)
Mais Opções
Avaliador validado
Fonte da Revisão: Convite da G2
Revisão Incentivada
Traduzido Usando IA
O que você mais gosta BERT?

A maneira fácil de desenvolver o projeto baseado em PLN para a classificação. O ajuste fino do modelo pré-treinado para o próprio conjunto de dados para treinamento e teste dos modelos. Análise coletada por e hospedada no G2.com.

O que você não gosta BERT?

É bom, mas enquanto usamos o grande conteúdo para problemas de classificação, ele consome muita potência de computação e isso levará a mais custos. Análise coletada por e hospedada no G2.com.

Que problemas é BERT E como isso está te beneficiando?

BERT é usado para resolver o problema de classificação de e-mails e extração de entidades com a ajuda do modelo pré-treinado para ajustar ainda mais o modelo. que é o mais adequado para nosso conjunto de dados para entender o e-mail do cliente, o que ajudaria a automatizar as respostas. Análise coletada por e hospedada no G2.com.

Rakesh K.
RK
BLS, Skill Development
Médio Porte(51-1000 emp.)
Mais Opções
Avaliador validado
Fonte da Revisão: Convite da G2
Revisão Incentivada
Traduzido Usando IA
O que você mais gosta BERT?

Um produto de código aberto do Google. Muito fácil de implementar e trabalhar. É muito flexível para personalizar para qualquer tarefa específica que é muito útil para um desenvolvedor. Nos ajuda em nossos trabalhos diários com PLN. Análise coletada por e hospedada no G2.com.

O que você não gosta BERT?

Leva muito tempo para treinar o modelo. Portanto, computacionalmente caro e precisa de máquinas de ponta. Também há um alto consumo de memória. Análise coletada por e hospedada no G2.com.

Que problemas é BERT E como isso está te beneficiando?

Usamos o BERT para nossas várias tarefas de PLN. Ele responde às consultas de nossos clientes e também envia e-mails personalizados periodicamente. Análise coletada por e hospedada no G2.com.

SHUBHAM G.
SG
Data Scientist
Empresa(> 1000 emp.)
Mais Opções
Avaliador validado
Fonte da Revisão: Convite da G2
Revisão Incentivada
Traduzido Usando IA
O que você mais gosta BERT?

Em relação ao BERT, é o primeiro modelo que experimentei para incorporação baseada em contexto. A melhor coisa sobre o BERT é que é simples de entender e o re-treinamento, ajuste fino e suporte estão disponíveis. Além disso, há de 3 a 4 modelos generalizados em inglês disponíveis. Análise coletada por e hospedada no G2.com.

O que você não gosta BERT?

Em comparação com o distillbert, ele é pesado em tamanho e volumoso por natureza, já que a mesma coisa do BERT pode ser possível com o distillbert. Análise coletada por e hospedada no G2.com.

Que problemas é BERT E como isso está te beneficiando?

usando o BERT, implementamos um modelo NER personalizado que nos beneficia ao identificar informações pessoais em currículos. Análise coletada por e hospedada no G2.com.

Ojasi K.
OK
AI Engineering Analyst
Empresa(> 1000 emp.)
Mais Opções
Avaliador validado
Fonte da Revisão: Convite da G2
Revisão Incentivada
Traduzido Usando IA
O que você mais gosta BERT?

Trabalhou em um caso de uso para detectar toxicidade em prompts e suas respectivas conclusões. BERT funcionou de forma eficaz, proporcionando-nos uma precisão muito alta de até 92% para detecções corretas. Análise coletada por e hospedada no G2.com.

O que você não gosta BERT?

Pode incluir mais classes, exceto as 6: tóxico, severamente tóxico, obsceno, ameaça, insulto e ódio à identidade. Algumas classes recomendadas úteis: viés de gênero, viés étnico, etc. Análise coletada por e hospedada no G2.com.

Que problemas é BERT E como isso está te beneficiando?

Nós tentamos reconhecer os prompts tóxicos e suas respectivas conclusões usando o BERT. Conseguimos fazer isso com até 92% de precisão. Análise coletada por e hospedada no G2.com.

YP
Software Testing Expert
Information Technology and Services
Médio Porte(51-1000 emp.)
Mais Opções
Avaliador validado
Fonte da Revisão: Convite da G2
Revisão Incentivada
Traduzido Usando IA
O que você mais gosta BERT?

Estamos usando o BERT para campanhas de marketing personalizadas para abordar as preocupações ou perguntas dos clientes sobre bens e serviços, o que melhora o atendimento ao cliente. Para enviar e-mails aos clientes com conteúdo pertinente aos seus interesses ou para direcionar anúncios de produtos nos quais eles provavelmente estão interessados. Análise coletada por e hospedada no G2.com.

O que você não gosta BERT?

Eu não acho que haja desvantagens nisso, mas certamente no início encontrei problemas como o fato de que o BERT é um modelo de caixa-preta, o que torna difícil entender sempre como ele gera suas previsões. O custo de computação era alto tanto para implantação quanto para treinamento, como resultado, pode ser difícil entender por que o BERT faz certas previsões. Podem haver vieses, pois o grande conjunto de dados é usado para treinar o BERT. Análise coletada por e hospedada no G2.com.

Que problemas é BERT E como isso está te beneficiando?

Desde que começamos a usar o BERT, ele reduz nossa carga de trabalho do chatbot de atendimento ao cliente e spams de e-mail, automatizando tarefas que envolvem a compreensão e resposta à linguagem natural. Há um aumento no nosso atendimento ao cliente, pois ele fornece respostas mais precisas e úteis. Se houver alguma transação fraudulenta, ele a detecta entendendo o contexto das transações. Análise coletada por e hospedada no G2.com.