Best Software for 2025 is now live!
Por Google
Mostrar desglose de calificaciones
Guardar en Mis Listas
No reclamado
No reclamado

Alternativas de BERT Mejor Valoradas

Reseñas y detalles del producto de BERT

Descripción general de BERT

¿Qué es BERT?

BERT, abreviatura de Representaciones de Codificadores Bidireccionales de Transformadores, es un marco de aprendizaje automático (ML) para el procesamiento del lenguaje natural. En 2018, Google desarrolló este algoritmo para mejorar la comprensión contextual de texto no etiquetado en una amplia gama de tareas al aprender a predecir texto que podría venir antes y después (bidireccional) de otro texto.

Detalles BERT
Discusiones
Comunidad BERT
Mostrar menosMostrar más
Descripción del Producto

BERT, abreviatura de Representaciones de Codificadores Bidireccionales de Transformadores, es un marco de aprendizaje automático (ML) para el procesamiento del lenguaje natural. En 2018, Google desarrolló este algoritmo para mejorar la comprensión contextual de texto no etiquetado en una amplia gama de tareas al aprender a predecir texto que podría venir antes y después (bidireccional) de otro texto.


Detalles del vendedor
Vendedor
Google
Año de fundación
1998
Ubicación de la sede
Mountain View, CA
Twitter
@google
32,520,271 seguidores en Twitter
Página de LinkedIn®
www.linkedin.com
301,875 empleados en LinkedIn®
Propiedad
NASDAQ:GOOG
Teléfono
+1 (650) 253-0000
Ingresos totales (MM USD)
$182,527
Descripción

Organize the world’s information and make it universally accessible and useful.

Reseñas Recientes de BERT

Aniket s.
AS
Aniket s.Pequeña Empresa (50 o menos empleados)
5.0 de 5
"muy útil"
representación de código médico lenguaje ambiguo en el texto utilizando el texto circundante para establecer cont
Usuario verificado
U
Usuario verificadoMediana Empresa (51-1000 empleados)
5.0 de 5
"I've used it in my several project so certainly recommend"
Easy to use for any one and very efficient
Rakesh K.
RK
Rakesh K.Mediana Empresa (51-1000 empleados)
4.5 de 5
"Un usuario satisfecho de BERT"
Un producto de código abierto de Google. Muy fácil de implementar y trabajar con él. Es muy flexible para personalizar para cualquier tarea específ...
Insignia de seguridad
Este vendedor aún no ha añadido su información de seguridad. Hazles saber que te gustaría que la añadieran.
0 personas solicitaron información de seguridad

Contenido Multimedia de BERT

Responde algunas preguntas para ayudar a la comunidad de BERT
¿Has utilizado BERT antes?

54 BERT Reseñas

4.4 de 5
Los siguientes elementos son filtros y cambiarán los resultados mostrados una vez que sean seleccionados.
Buscar reseñas
Menciones populares
Los siguientes elementos son elementos de radio y ordenarán los resultados mostrados por el elemento seleccionado y actualizarán los resultados mostrados.
Ocultar filtrosMás filtros
Los siguientes elementos son filtros y cambiarán los resultados mostrados una vez que sean seleccionados.
Los siguientes elementos son filtros y cambiarán los resultados mostrados una vez que sean seleccionados.
54 BERT Reseñas
4.4 de 5
54 BERT Reseñas
4.4 de 5

Pros y Contras de BERT

¿Cómo se determinan estas?Información
Los Pros y Contras se recopilan a partir de comentarios de reseñas y se agrupan en temas para proporcionar un resumen fácil de entender de las reseñas de los usuarios.
Pros
Contras
Las reseñas de G2 son auténticas y verificadas.
APOORV G.
AG
Software Engineer
Pequeña Empresa(50 o menos empleados)
Más opciones
Revisor validado
Fuente de la revisión: Invitación de G2
Revisión incentivada
Traducido Usando IA
¿Qué es lo que más te gusta de BERT?

Su capacidad para capturar matices contextuales en el lenguaje es sobresaliente y permite una comprensión del lenguaje natural más precisa y consciente del contexto. Su enfoque bidireccional y el preentrenamiento en conjuntos de datos extensos contribuyen a su versatilidad en una variedad de tareas de PLN, convirtiéndolo en una herramienta poderosa en el campo. Reseña recopilada por y alojada en G2.com.

¿Qué es lo que no te gusta de BERT?

Su intensidad computacional, que requiere recursos sustanciales para el entrenamiento y la inferencia. Además, tiene dificultades con palabras fuera del vocabulario y podría no manejar las dependencias a largo plazo de manera efectiva. A pesar de estas limitaciones, la investigación y los avances en curso tienen como objetivo abordar y mitigar estos desafíos en futuros modelos. Reseña recopilada por y alojada en G2.com.

¿Qué problemas hay BERT ¿Y cómo te beneficia eso?

Aborda desafíos en la comprensión del lenguaje natural al mejorar la comprensión del contexto y capturar matices intrincados del lenguaje. Esto me beneficia al mejorar la calidad de las respuestas que proporciono. El enfoque bidireccional de BERT permite una mejor comprensión del contexto, ayudando en una generación de lenguaje más precisa y consciente del contexto. Esta mejora resulta en respuestas más relevantes y coherentes, contribuyendo a una experiencia de usuario más efectiva y satisfactoria durante nuestras interacciones. Reseña recopilada por y alojada en G2.com.

Bittu M.
BM
Technical Assistant
Pequeña Empresa(50 o menos empleados)
Más opciones
Revisor validado
Usuario actual verificado
Fuente de la revisión: Invitación de G2
Revisión incentivada
Traducido Usando IA
¿Qué es lo que más te gusta de BERT?

He estado usando BERT durante los últimos 3 meses, doy respuestas precisas y directas a mis actividades diarias, y como chatbot, proporciona información completamente relevante como un mentor disponible las 24 horas del día, los 7 días de la semana. Estoy ahorrando mucho tiempo y esfuerzo usando BERT. Reseña recopilada por y alojada en G2.com.

¿Qué es lo que no te gusta de BERT?

Sobre la interfaz, como producto de Google, debería verse más elegante. La información puede hacerse más humana, ya que hasta ahora también parece generada por máquina. Reseña recopilada por y alojada en G2.com.

¿Qué problemas hay BERT ¿Y cómo te beneficia eso?

Bert me ayuda a depurar el código y generar ideas para mi proyecto, también escribió algo de código para mí, lo uso para mi actividad diaria. Reseña recopilada por y alojada en G2.com.

Ruchin D.
RD
Senior Research Engineer
Empresa(> 1000 empleados)
Más opciones
Revisor validado
Fuente de la revisión: Invitación de G2
Revisión incentivada
Traducido Usando IA
¿Qué es lo que más te gusta de BERT?

Es muy fácil de usar y tiene tantos recursos en línea que cualquiera puede obtener una muy buena comprensión de ello incluso sin ningún conocimiento previo sobre transformadores. Aparte de la facilidad de uso, también está preentrenado y solo necesitamos ajustarlo según nuestra propia tarea. Además, el ajuste fino también es bastante sencillo, así que sí, la experiencia general es realmente agradable. Reseña recopilada por y alojada en G2.com.

¿Qué es lo que no te gusta de BERT?

Hay solo algunas cosas como que es computacionalmente costoso y, como muchos otros transformadores, es en su mayoría una caja negra cuando intentamos entender por qué dio ciertos resultados.

Además, dado que nos estamos moviendo hacia la era de la IA, la limitación de tokens en BERT en realidad hace que sus capacidades sean muy limitadas. Reseña recopilada por y alojada en G2.com.

¿Qué problemas hay BERT ¿Y cómo te beneficia eso?

Obtenemos un modelo preentrenado que solo tengo que ajustar a mi propio enunciado del problema y, en ese sentido, realmente es un salvavidas. Reseña recopilada por y alojada en G2.com.

Usuario verificado en Internet
UI
Pequeña Empresa(50 o menos empleados)
Más opciones
Revisor validado
Fuente de la revisión: Invitación de G2
Revisión incentivada
¿Qué es lo que más te gusta de BERT?

- Great for tasks where bidirectional context is required, as opposed to GPT models where the context is unidirectional. Suitable for question-answering, analyzing small paragraphs of words, etc.

- Output is more trustworthy as compared to GPT models.

- Open source

- Easy to fine-tune for domain-specific applications as long as enough data is available. Reseña recopilada por y alojada en G2.com.

¿Qué es lo que no te gusta de BERT?

- It is extremely computationally expensive to build and deploy, especially to produce a quality output.

- Balancing the context window takes a lot of trial and error.

- With the arrival of GPT models, the lack of long context, i.e., limited context, is more noticeable than ever.

- Not suitable for large documents which require broader context.

- (not limited to BERT) A bit of a black box once implemented.

- Not a good choice for tasks where text has to be generated. Reseña recopilada por y alojada en G2.com.

¿Qué problemas hay BERT ¿Y cómo te beneficia eso?

I've used it for 2 purposes:

1. Figuring out which short passage best answers a question given a bunch of such passages.

2. Analysing a small chunk of passage to recognize which subject a user is talking in a very specific domain (required fine tuning). Reseña recopilada por y alojada en G2.com.

Abhishek K.
AK
Engineer II
Pequeña Empresa(50 o menos empleados)
Más opciones
Revisor validado
Fuente de la revisión: Invitación de G2
Revisión incentivada
Traducido Usando IA
¿Qué es lo que más te gusta de BERT?

Está mejor situado para las búsquedas aleatorias que hacemos en un motor de búsqueda y tenemos que pasar por múltiples páginas para construir nuestra comprensión. Pero con el nuevo motor BERT se ha vuelto tan eficiente buscar consultas y preguntas también en términos de buscar otra información textual. Reseña recopilada por y alojada en G2.com.

¿Qué es lo que no te gusta de BERT?

Algunas veces las respuestas son como una declaración general y no obtenemos exactamente lo que buscamos. Reseña recopilada por y alojada en G2.com.

¿Qué problemas hay BERT ¿Y cómo te beneficia eso?

He intentado usar un motor similar en uno de mis proyectos con LLM, así que utilicé la ayuda del motor Bert para entender cómo optimizar el PEFT y LoRA. Reseña recopilada por y alojada en G2.com.

Zayed R.
ZR
Programmer Analyst
Empresa(> 1000 empleados)
Más opciones
Revisor validado
Fuente de la revisión: Invitación de G2
Revisión incentivada
Traducido Usando IA
¿Qué es lo que más te gusta de BERT?

La forma fácil de desarrollar el proyecto basado en PLN para la clasificación. El ajuste fino del modelo preentrenado para el propio conjunto de datos para entrenar y probar los modelos. Reseña recopilada por y alojada en G2.com.

¿Qué es lo que no te gusta de BERT?

Es bueno, pero mientras usamos el contenido extenso para problemas de clasificación, consume mucha potencia de cálculo y esto llevará a un mayor costo. Reseña recopilada por y alojada en G2.com.

¿Qué problemas hay BERT ¿Y cómo te beneficia eso?

BERT se utiliza para resolver el problema de la clasificación de correos y la extracción de entidades con la ayuda del modelo preentrenado para ajustar aún más el modelo. que es el mejor ajuste para nuestro conjunto de datos para comprender el correo del cliente, lo que ayudaría a automatizar las respuestas. Reseña recopilada por y alojada en G2.com.

Rakesh K.
RK
BLS, Skill Development
Mediana Empresa(51-1000 empleados)
Más opciones
Revisor validado
Fuente de la revisión: Invitación de G2
Revisión incentivada
Traducido Usando IA
¿Qué es lo que más te gusta de BERT?

Un producto de código abierto de Google. Muy fácil de implementar y trabajar con él. Es muy flexible para personalizar para cualquier tarea específica que es muy útil para un desarrollador. Nos ayuda en nuestro trabajo diario con PLN. Reseña recopilada por y alojada en G2.com.

¿Qué es lo que no te gusta de BERT?

Se necesita mucho tiempo para entrenar el modelo. Por lo tanto, es computacionalmente costoso y se necesitan máquinas de alta gama. También hay un alto consumo de memoria. Reseña recopilada por y alojada en G2.com.

¿Qué problemas hay BERT ¿Y cómo te beneficia eso?

Usamos BERT para nuestras diversas tareas de PLN. Responde a las consultas de nuestros clientes y también envía correos electrónicos personalizados periódicamente. Reseña recopilada por y alojada en G2.com.

SHUBHAM G.
SG
Data Scientist
Empresa(> 1000 empleados)
Más opciones
Revisor validado
Fuente de la revisión: Invitación de G2
Revisión incentivada
Traducido Usando IA
¿Qué es lo que más te gusta de BERT?

En cuanto a BERT, es el primer modelo que probé para la incrustación basada en el contexto. Lo mejor de BERT es que es simple de entender y el reentrenamiento, ajuste fino y soporte están disponibles. Además, hay de 3 a 4 modelos generalizados en inglés disponibles. Reseña recopilada por y alojada en G2.com.

¿Qué es lo que no te gusta de BERT?

En comparación con DistilBERT, es pesado en tamaño y voluminoso en naturaleza, ya que lo mismo de BERT puede ser posible con DistilBERT. Reseña recopilada por y alojada en G2.com.

¿Qué problemas hay BERT ¿Y cómo te beneficia eso?

usando BERT implementamos un modelo NER personalizado que nos beneficia para identificar información personal en el currículum. Reseña recopilada por y alojada en G2.com.

Usuario verificado en Information Technology and Services
UI
Pequeña Empresa(50 o menos empleados)
Más opciones
Revisor validado
Usuario actual verificado
Fuente de la revisión: Invitación de G2
Revisión incentivada
(Original )Información
¿Qué es lo que más te gusta de BERT?

* BERT generates high-quality texts by understanding the context around a word. I found good performance on document retrieval, and Question Answering.

* Finetuning BERT on custom data (or transfer learning) is very simple and gives good results. BERT inference is also faster than GPT.

* BERT has an extensive community and good support. Almost everyone around me has used BERT. Reseña recopilada por y alojada en G2.com.

¿Qué es lo que no te gusta de BERT?

In my experience with BERT, I think it still needs improvements:

* I found that BERT fine-tuning does not work well with large-scale datasets (e.g PILE)

* Its domain knowledge is constricted. It does not know much about domains such as healthcare, and education.

Hence, BERT can be considered enough for simple tasks, however, for complex tasks (e.g. open-ended generation, language translation etc.), it needs improvement.

I trust it's newer version will accommodate for major fixes. Wish them luck, Reseña recopilada por y alojada en G2.com.

¿Qué problemas hay BERT ¿Y cómo te beneficia eso?

* search engine using BERT : retrieving documents similar to the query document.

* chat bot use case. The utility takes in the "user query" and automatically classifies the business department it should be sent to (i.e. Refund, Feedback, etc)

* sentiment classifier for product reviews Reseña recopilada por y alojada en G2.com.

Ojasi K.
OK
AI Engineering Analyst
Empresa(> 1000 empleados)
Más opciones
Revisor validado
Fuente de la revisión: Invitación de G2
Revisión incentivada
Traducido Usando IA
¿Qué es lo que más te gusta de BERT?

Trabajé en un caso de uso para detectar toxicidad en indicaciones y sus respectivas completaciones. BERT funcionó de manera efectiva, proporcionándonos una precisión muy alta de hasta el 92% para detecciones correctas. Reseña recopilada por y alojada en G2.com.

¿Qué es lo que no te gusta de BERT?

Puede intentar incluir más clases, excepto las 6: tóxico, severamente tóxico, obsceno, amenaza, insulto y odio a la identidad. Algunas clases recomendadas útiles: sesgo de género, sesgo étnico, etc. Reseña recopilada por y alojada en G2.com.

¿Qué problemas hay BERT ¿Y cómo te beneficia eso?

Intentamos reconocer las indicaciones tóxicas y sus respectivas completaciones utilizando BERT. Pudimos hacerlo con hasta un 92% de precisión. Reseña recopilada por y alojada en G2.com.