Características de Google Cloud BigQuery
Herramienta estadística (3)
Scripting
Soporta una variedad de entornos de scripting
Minería de datos
Extrae datos de bases de datos y prepara datos para su análisis
Algoritmos
Aplica algoritmos estadísticos a los datos seleccionados
Análisis de datos (2)
Análisis
Analiza datos estructurados y no estructurados
Interacción de datos
Interactúa con los datos para prepararlos para visualizaciones y modelos
Toma de decisiones (4)
Modelado
Ofrece capacidades de modelado
Visualizaciones de datos
Crea visualizaciones de datos o gráficos
Generación de informes
Genera informes de rendimiento de datos
Unificación de datos
Unifica la información en una plataforma singular
Operaciones de marketing (6)
Seguimiento del ROI
Ayuda a los especialistas en marketing a medir el retorno de la inversión (ROI) mediante el análisis de la efectividad de la campaña frente a los costos.
Recopilación de datos
Recopila datos sobre la efectividad, el impacto y el alcance de las campañas de marketing
Información del cliente
Recopila e informa sobre datos relacionados con los viajes, las preferencias y el historial de los clientes
Acceso multiusuario
Permite a varios usuarios acceder a una visión general unificada y transparente de análisis, paneles y resultados de campañas
Gestión de gastos
Incluye funciones para presupuestar, pronosticar y administrar inversiones de marketing
Etiqueta Blanca
Ofrece un servicio de etiquetado blanco para agencias o revendedores para personalizar la marca de la plataforma
Actividad de la campaña (6)
Información de la campaña
Analiza campañas de marketing históricas y actuales para informar la estrategia futura
Informes y paneles
Crea informes y paneles para analizar los resultados de las campañas
Pegajosidad de la campaña
Identifica qué campañas de marketing se resolvieron en oportunidades abiertas o cerradas
Seguimiento multicanal
Recopila datos de rendimiento de campañas de marketing a través de múltiples canales
Optimización de marca
Brinda oportunidades para que las marcas y las empresas arreglen o modifiquen campañas existentes o futuras a través de comentarios
Análisis predictivo
Utiliza inteligencia artificial (IA) para predecir los resultados de la campaña y sugerir acciones para la optimización
base de datos (3)
Recopilación de datos en tiempo real
Recopila, almacena y organiza datos masivos y no estructurados en tiempo real
Distribución de datos
Facilita la difusión de big data recopilados a través de clústeres de computación paralela
Lago de datos
Crea un repositorio para recopilar y almacenar datos sin procesar de sensores, dispositivos, máquinas, archivos, etc.
Integraciones (2)
Integración con Hadoop
Alinea los flujos de trabajo de procesamiento y distribución sobre Apache Hadoop
Integración con Spark
Alinea los flujos de trabajo de procesamiento y distribución sobre Apache Hadoop
Plataforma (3)
Escalado de máquinas
Facilita la solución para ejecutarse y escalar a un gran número de máquinas y sistemas
Preparación de datos
Selecciona los datos recopilados para soluciones de análisis de big data para analizar, manipular y modelar
Integración con Spark
Alinea los flujos de trabajo de procesamiento y distribución sobre Apache Hadoop
Tratamiento (2)
Procesamiento en la nube
Traslada la recopilación y el procesamiento de big data a la nube
Procesamiento de cargas de trabajo
Procesa cargas de trabajo de datos por lotes, en tiempo real y de streaming en sistemas singulares, multiinquilino o en la nube
Transformación de datos (2)
Análisis en tiempo real
Facilita el análisis de datos de gran volumen y en tiempo real.
Consulta de datos
Permite al usuario consultar datos a través de lenguajes de consulta como SQL.
Conectividad (4)
Integración con Hadoop
Alinea los flujos de trabajo de procesamiento y distribución sobre Apache Hadoop
Integración con Spark
Alinea los flujos de trabajo de procesamiento y distribución sobre Apache Spark
Análisis de múltiples fuentes
Integra datos de múltiples bases de datos externas.
Lago de datos
Facilita la difusión de big data recopilados a través de clústeres de computación paralela.
Operaciones (5)
Visualización de datos
Procesa datos y representa interpretaciones en una variedad de formatos gráficos.
Flujo de trabajo de datos
Encadena funciones y conjuntos de datos específicos para automatizar las iteraciones de análisis.
Descubrimiento gobernado
Aísla ciertos conjuntos de datos y facilita la gestión del acceso a los datos.
Análisis integrados
Permite que la herramienta de big data ejecute y registre datos dentro de aplicaciones externas.
Cuadernos
Usar blocs de notas para tareas como crear paneles con consultas y visualizaciones predefinidas y programadas
Gestión (2)
Informes
Vea los datos del proceso ETL a través de informes y visualizaciones como tablas y gráficos.
Auditoría
Registre los datos históricos de ETL para la auditoría y las posibles necesidades de corrección de datos.
Funcionalidad (5)
Extracción
Extraiga datos de las fuentes designadas, como bases de datos relacionales, archivos JSON y archivos XML.
Transformación
Limpie y vuelva a formatear los datos extraídos al formato de destino necesario.
Carga
Cargue los datos reformateados en la base de datos de destino, el almacén de datos u otra ubicación de almacenamiento.
Automatización
Organice los procesos ETL para que ocurran automáticamente en el horario necesario (por ejemplo, diario, semanal, mensual).
Escalabilidad
Capaz de escalar la potencia de procesamiento hacia arriba o hacia abajo en función del volumen ETL.
Gestión de datos (6)
Integración de datos
Consolida, limpia y normaliza datos de múltiples fuentes dispares.
Compresión de datos
Ayuda a ahorrar capacidad de almacenamiento y mejora el rendimiento de las consultas.
Calidad de los datos
Elimina la inconsistencia y las duplicaciones de datos, lo que garantiza la integridad de los datos.
Análisis de datos integrado
Funciones de análisis basadas en SQL como series temporales, coincidencia de patrones, análisis geoespacial, etc.
Aprendizaje automático en la base de datos
Proporciona capacidades integradas como algoritmos de aprendizaje automático, funciones de preparación de datos, evaluación y gestión de modelos, etc.
Análisis de Data Lake
Permite la consulta de datos a través de formatos de datos como parquet, ORC, JSON, etc. y analizar tipos de datos complejos en HDFS
Integración (3)
Integración AI/ML
Se integra con flujos de trabajo de ciencia de datos, aprendizaje automático y capacidades de inteligencia artificial (IA).
Integración de herramientas de BI
Se integra con herramientas de BI para transformar los datos en información procesable.
Integración de Data Lake
Proporciona velocidad en el procesamiento de datos y captura de datos no estructurados, semiestructurados y de transmisión.
Despliegue (2)
On-Premise
Proporciona opciones de implementación local.
Nube
Proporciona opciones de implementación en la nube (nube privada o pública, nube híbrida).
Rendimiento (2)
Escalabilidad
Gestiona grandes volúmenes de datos, de escala superior o inferior según la demanda.
Caché integrada
Almacena rápidamente los datos de uso frecuente en la memoria del sistema.
Seguridad (6)
Gobierno de datos
Políticas, procedimientos y estándares para administrar y acceder a los datos.
Seguridad de los datos
Restringe el acceso a los datos a nivel de celda, enmascara u oculta partes de las celdas y cifra los datos en reposo y en movimiento
Autorización basada en roles
Proporciona roles de sistema predefinidos, privilegios y roles definidos por el usuario a los usuarios.
Autenticación
Permite la integración con mecanismos de seguridad externos como Kerberos, autenticación LDAP, etc.
Registros de auditoría
Proporciona un registro de auditoría para realizar un seguimiento del acceso y las operaciones realizadas en las bases de datos para el cumplimiento normativo.
Encriptación
Proporciona capacidad de cifrado para todos los datos en reposo mediante claves de cifrado.
Almacenamiento (2)
Modelo de datos
Almacena tablas de datos como columnas.
Tipos de datos
Admite múltiples tipos de datos como listas, conjuntos, hashes (similares al mapa), conjuntos ordenados, etc.
Disponibilidad (3)
Uso compartido automático
Implementa la partición horizontal automática de datos que permite almacenar datos en más de un nodo para escalar horizontalmente.
Recuperación automática
Restaura una base de datos a un estado correcto (coherente) en caso de error.
Replicación de datos
Copie datos a través de múltiples servidores a través de la arquitectura de replicación maestro-esclavo, peer-to-peer, etc.
Apoyo (2)
Multimodelo
Proporciona compatibilidad para almacenar, indizar y consultar datos en más de un formato.
Sistemas operativos
Disponible en múltiples sistemas operativos como Linux, Windows, MacOS, etc.
Computación centralizada (1)
Computación centralizada
Ofrece una ubicación centralizada y neutral para que las partes realicen análisis de datos.
Computación localizada (1)
Computación localizada
Ofrece computación localizada, donde los datos permanecen donde residen y son llamados por API para realizar análisis.
IA generativa (4)
Generación de texto
Permite a los usuarios generar texto basado en un mensaje de texto.
Resumen de texto
Condensa documentos largos o texto en un breve resumen.
Generación de texto
Permite a los usuarios generar texto basado en un mensaje de texto.
Resumen de texto
Condensa documentos largos o texto en un breve resumen.
AI Agente - Análisis de Marketing (3)
Ejecución Autónoma de Tareas
Capacidad para realizar tareas complejas sin intervención humana constante
Integración entre sistemas
Funciona en múltiples sistemas de software o bases de datos
Asistencia proactiva
Anticipa necesidades y ofrece sugerencias sin que se lo pidan.




