Best Software for 2025 is now live!
Por Google
Mostrar desglose de calificaciones
Guardar en Mis Listas
No reclamado
No reclamado

Alternativas de BERT Mejor Valoradas

Reseñas y detalles del producto de BERT

Descripción general de BERT

¿Qué es BERT?

BERT, abreviatura de Representaciones de Codificadores Bidireccionales de Transformadores, es un marco de aprendizaje automático (ML) para el procesamiento del lenguaje natural. En 2018, Google desarrolló este algoritmo para mejorar la comprensión contextual de texto no etiquetado en una amplia gama de tareas al aprender a predecir texto que podría venir antes y después (bidireccional) de otro texto.

Detalles BERT
Discusiones
Comunidad BERT
Mostrar menosMostrar más
Descripción del Producto

BERT, abreviatura de Representaciones de Codificadores Bidireccionales de Transformadores, es un marco de aprendizaje automático (ML) para el procesamiento del lenguaje natural. En 2018, Google desarrolló este algoritmo para mejorar la comprensión contextual de texto no etiquetado en una amplia gama de tareas al aprender a predecir texto que podría venir antes y después (bidireccional) de otro texto.


Detalles del vendedor
Vendedor
Google
Año de fundación
1998
Ubicación de la sede
Mountain View, CA
Twitter
@google
32,553,933 seguidores en Twitter
Página de LinkedIn®
www.linkedin.com
301,875 empleados en LinkedIn®
Propiedad
NASDAQ:GOOG
Teléfono
+1 (650) 253-0000
Ingresos totales (MM USD)
$182,527
Descripción

Organize the world’s information and make it universally accessible and useful.

Reseñas Recientes de BERT

Aniket s.
AS
Aniket s.Pequeña Empresa (50 o menos empleados)
5.0 de 5
"muy útil"
representación de código médico lenguaje ambiguo en el texto utilizando el texto circundante para establecer cont
Usuario verificado
U
Usuario verificadoMediana Empresa (51-1000 empleados)
5.0 de 5
"I've used it in my several project so certainly recommend"
Easy to use for any one and very efficient
Rakesh K.
RK
Rakesh K.Mediana Empresa (51-1000 empleados)
4.5 de 5
"Un usuario satisfecho de BERT"
Un producto de código abierto de Google. Muy fácil de implementar y trabajar con él. Es muy flexible para personalizar para cualquier tarea específ...
Insignia de seguridad
Este vendedor aún no ha añadido su información de seguridad. Hazles saber que te gustaría que la añadieran.
0 personas solicitaron información de seguridad

Contenido Multimedia de BERT

Responde algunas preguntas para ayudar a la comunidad de BERT
¿Has utilizado BERT antes?

54 BERT Reseñas

4.4 de 5
Los siguientes elementos son filtros y cambiarán los resultados mostrados una vez que sean seleccionados.
Buscar reseñas
Menciones populares
Los siguientes elementos son elementos de radio y ordenarán los resultados mostrados por el elemento seleccionado y actualizarán los resultados mostrados.
Ocultar filtrosMás filtros
Los siguientes elementos son filtros y cambiarán los resultados mostrados una vez que sean seleccionados.
Los siguientes elementos son filtros y cambiarán los resultados mostrados una vez que sean seleccionados.
54 BERT Reseñas
4.4 de 5
54 BERT Reseñas
4.4 de 5

Pros y Contras de BERT

¿Cómo se determinan estas?Información
Los Pros y Contras se recopilan a partir de comentarios de reseñas y se agrupan en temas para proporcionar un resumen fácil de entender de las reseñas de los usuarios.
Pros
Contras
Las reseñas de G2 son auténticas y verificadas.
Manvendra J.
MJ
Computer & Network Security
Mediana Empresa(51-1000 empleados)
Más opciones
Revisor validado
Usuario actual verificado
Fuente de la revisión: Invitación de G2
Revisión incentivada
Traducido Usando IA
¿Qué es lo que más te gusta de BERT?

La mejor parte de Bert es su capacidad para generar incrustaciones de palabras relevantes y también comprender el contexto de la palabra antes de la generación de las incrustaciones. Reseña recopilada por y alojada en G2.com.

¿Qué es lo que no te gusta de BERT?

El inconveniente que he sentido al usar Bert es el límite en los tokens que se alimentan al generador; también su incapacidad para generar embeddings para entradas de diferentes longitudes. Reseña recopilada por y alojada en G2.com.

¿Qué problemas hay BERT ¿Y cómo te beneficia eso?

1. Comprender lenguajes complejos y contexto.

2. Generar incrustaciones para n-gramas.

3. Me he beneficiado de BERT al usar su capacidad para modelar documentos legales. Reseña recopilada por y alojada en G2.com.

Usuario verificado en Computer & Network Security
UC
Pequeña Empresa(50 o menos empleados)
Más opciones
Revisor validado
Fuente de la revisión: Invitación de G2
Revisión incentivada
¿Qué es lo que más te gusta de BERT?

We utilize BERT for personalized sales strategies, aiming to address customer inquiries and concerns about products and services, thereby enhancing our customer service quality. This enables us to send tailored emails to customers with content relevant to their preferences and effectively target them with sales offers for products that align with their potential interests Reseña recopilada por y alojada en G2.com.

¿Qué es lo que no te gusta de BERT?

ChatGPT

I initially didn't perceive any drawbacks, but I did encounter some challenges at the outset. One significant issue was the inherent opacity of BERT, making it challenging to fully grasp the rationale behind its predictions.

Both the deployment and training phases incurred substantial computational costs, rendering it challenging to gain insights into the specific reasoning behind BERT's predictions.

Additionally, biases may exist in the model's output, owing to the utilization of extensive datasets during BERT's training. Reseña recopilada por y alojada en G2.com.

¿Qué problemas hay BERT ¿Y cómo te beneficia eso?

Ever since we integrated BERT into our operations, we've witnessed a remarkable reduction in the burden placed on our customer service chatbot and the occurrence of email spam. BERT has effectively streamlined tasks that require comprehending and responding to natural language, automating these processes.

Additionally, our customer service has witnessed a significant uptick in efficiency, thanks to BERT's ability to furnish more precise and valuable responses to customer inquiries.

Moreover, BERT plays a pivotal role in our fraud detection efforts. By comprehending the contextual nuances of transactions, it's adept at identifying any suspicious or fraudulent activities, providing us with a robust safeguard against such threats. Reseña recopilada por y alojada en G2.com.

Abhishek K.
AK
Senior Data Scientist
Mediana Empresa(51-1000 empleados)
Más opciones
Revisor validado
Fuente de la revisión: Invitación de G2
Revisión incentivada
Traducido Usando IA
¿Qué es lo que más te gusta de BERT?

Bert es uno de los mejores modelos de lenguaje grande. He utilizado hasta ahora resuelve muchos casos de uso desafiantes en mi trabajo. Reseña recopilada por y alojada en G2.com.

¿Qué es lo que no te gusta de BERT?

la precisión de las respuestas a las preguntas debería mejorarse Reseña recopilada por y alojada en G2.com.

¿Qué problemas hay BERT ¿Y cómo te beneficia eso?

Casos de uso empresarial y problemas desafiantes de LLM Reseña recopilada por y alojada en G2.com.

Daniel  M.
DM
UX Researcher
Consumer Goods
Mediana Empresa(51-1000 empleados)
Más opciones
Revisor validado
Fuente de la revisión: Invitación de G2
Revisión incentivada
Traducido Usando IA
¿Qué es lo que más te gusta de BERT?

Creo que la parte más importante de esta herramienta es que es confiable. Trabajé con ChatGPT por un tiempo y me encantó, pero se caía mucho. BERT hasta ahora ha sido una buena herramienta cuando mis otras no funcionan. Reseña recopilada por y alojada en G2.com.

¿Qué es lo que no te gusta de BERT?

Creo que esta herramienta puede sentirse un poco más natural, lo que quiero decir con esto es que las respuestas todavía se sienten un poco "robóticas", pero si esto puede cambiar, creo que la herramienta tiene potencial. Reseña recopilada por y alojada en G2.com.

¿Qué problemas hay BERT ¿Y cómo te beneficia eso?

Está ayudándome a comunicarme mejor en la empresa y con usuarios externos. Como hablante no nativo, me preocupo menos al responder a las personas o al crear documentos para compartir. Reseña recopilada por y alojada en G2.com.

Pramatosh R.
PR
Associate
Empresa(> 1000 empleados)
Más opciones
Revisor validado
Fuente de la revisión: Invitación de G2
Revisión incentivada
Traducido Usando IA
¿Qué es lo que más te gusta de BERT?

El uso versátil con alta precisión en el rendimiento Reseña recopilada por y alojada en G2.com.

¿Qué es lo que no te gusta de BERT?

El modelo a veces se ajusta demasiado en el entrenamiento personalizado y los pasos para la regularización son un poco complejos. Reseña recopilada por y alojada en G2.com.

¿Qué problemas hay BERT ¿Y cómo te beneficia eso?

Modelo de NER para extracción de datos o modelo de clasificación para clasificación de texto. Reseña recopilada por y alojada en G2.com.

SHUBHAM KUMAR D.
SD
Graduate Research Fellow
Pequeña Empresa(50 o menos empleados)
Más opciones
Revisor validado
Fuente de la revisión: Invitación de G2
Revisión incentivada
Traducido Usando IA
¿Qué es lo que más te gusta de BERT?

Resumir, comprender texto, sentimiento o significado de un texto. Fácil de usar. Reseña recopilada por y alojada en G2.com.

¿Qué es lo que no te gusta de BERT?

La precisión puede aumentarse, debería intentar igualar a su competencia. Reseña recopilada por y alojada en G2.com.

¿Qué problemas hay BERT ¿Y cómo te beneficia eso?

El análisis de sentimientos me ayuda a proporcionar mejores resultados a nuestros clientes. Reseña recopilada por y alojada en G2.com.

Usuario verificado en Information Technology and Services
UI
Pequeña Empresa(50 o menos empleados)
Más opciones
Revisor validado
Fuente de la revisión: Invitación de G2
Revisión incentivada
¿Qué es lo que más te gusta de BERT?

BERT(Bidirectional Encoder Representations from Transformer) is basically a transformer model trained to work on NLP tasks such as sentiment analysis, text classification, Text summarization. It is trained on large dataset of arond 2500M words and hence its output is more accurate than other pre trained Hugging Face models. It can also handle polysemy means words with multiple meanings and homonymy means words that have same sounds but have different meanings which are two difficult problems with NLP tasks and I find it best configure and detect that words during my project duration. Reseña recopilada por y alojada en G2.com.

¿Qué es lo que no te gusta de BERT?

It needs used of high computational resources and it is trained on words only, so commonsense knowledge is lacking in it.Also it is biased on the training data which means sometimes efficient models may effect in production. Reseña recopilada por y alojada en G2.com.

¿Qué problemas hay BERT ¿Y cómo te beneficia eso?

I have solved my NLP tasks for Sentiment analysis on 10000 dataset of car product sentiment which was having multiple dual meaning words and it was resolved by its bidirectional context feature which resulted in a exceptional results Reseña recopilada por y alojada en G2.com.

Narayanan M.
NM
Lead AI Engineer - L4
Mediana Empresa(51-1000 empleados)
Más opciones
Revisor validado
Fuente de la revisión: Invitación de G2
Revisión incentivada
Traducido Usando IA
¿Qué es lo que más te gusta de BERT?

La base de BERT en Transformers es una arquitectura revolucionaria. Facilita las interacciones dinámicas. Reseña recopilada por y alojada en G2.com.

¿Qué es lo que no te gusta de BERT?

No tengo nada que no me guste de Bert. Reseña recopilada por y alojada en G2.com.

¿Qué problemas hay BERT ¿Y cómo te beneficia eso?

Integración de Bert en chatbots Reseña recopilada por y alojada en G2.com.

Akshit N.
AN
Software Engineer
Mediana Empresa(51-1000 empleados)
Más opciones
Revisor validado
Fuente de la revisión: Invitación de G2
Revisión incentivada
Traducido Usando IA
¿Qué es lo que más te gusta de BERT?

Bert da la respuesta rápida en comparación con otras herramientas de IA, sus requisitos de memoria son bajos en Bert y la precisión es alta y buena también. Y la mejor parte es que es gratis. Reseña recopilada por y alojada en G2.com.

¿Qué es lo que no te gusta de BERT?

Me enfrenté a un problema en Bert y es que su capacidad para manejar respuestas largas es débil, a veces el servidor es lento. Aparte de eso, es una herramienta bastante buena que está mejorando día a día. Reseña recopilada por y alojada en G2.com.

¿Qué problemas hay BERT ¿Y cómo te beneficia eso?

En cuanto al rendimiento, Bert está mejorando si se le dan entradas largas, debería poder manejarlas perfectamente, esto será muy útil para todos. Reseña recopilada por y alojada en G2.com.

Usuario verificado en Wholesale
UW
Mediana Empresa(51-1000 empleados)
Más opciones
Revisor validado
Fuente de la revisión: Invitación de G2
Revisión incentivada
¿Qué es lo que más te gusta de BERT?

Easy to use for any one and very efficient Reseña recopilada por y alojada en G2.com.

¿Qué es lo que no te gusta de BERT?

Time taken to train the model and sometime generalization. Reseña recopilada por y alojada en G2.com.

¿Qué problemas hay BERT ¿Y cómo te beneficia eso?

I was trying to solve a problem where we have to read twitter content and give the emotion behind that. Reseña recopilada por y alojada en G2.com.