Google Cloud BigQuery Funktionen
Statistisches Tool (3)
Skripterstellung
Unterstützt eine Vielzahl von Skriptumgebungen
Data-Mining
Extrahiert Daten aus Datenbanken und bereitet Daten für die Analyse vor
Algorithmen
Wendet statistische Algorithmen auf ausgewählte Daten an
Datenanalyse (2)
Analyse
Analysiert sowohl strukturierte als auch unstrukturierte Daten
Daten-Interaktion
Interagiert mit Daten, um sie für Visualisierungen und Modelle vorzubereiten
Entscheidungsfindung (4)
Modellierung
Bietet Modellierungsfunktionen
Daten-Visualisierungen
Erstellt Datenvisualisierungen oder Diagramme
Report Generation
Generiert Berichte über die Datenleistung
Datenvereinheitlichung
Vereinheitlicht Informationen auf einer einzigen Plattform
Marketing-Operationen (6)
ROI-Verfolgung
Hilft Marketern, den Return on Investment (ROI) zu messen, indem sie die Effektivität der Kampagne im Vergleich zu den Kosten analysieren
Datenerhebung
Sammelt Daten über die Effektivität, Wirkung und Reichweite von Marketingkampagnen
Kunden-Insights
Sammelt und berichtet über Daten in Bezug auf Customer Journeys, Präferenzen und Historie
Multi-User-Zugriff
Ermöglicht mehreren Benutzern den Zugriff auf einen einheitlichen, transparenten Überblick über Analysen, Dashboards und Kampagnenergebnisse
Ausgaben-Management
Enthält Funktionen für Budgetierung, Prognose und Verwaltung von Marketinginvestitionen
Weißes Etikett
Bietet einen White-Labeling-Service für Agenturen oder Wiederverkäufer, um das Branding der Plattform anzupassen
Kampagnen-Aktivität (6)
Kampagnen-Insights
Analysiert historische und aktuelle Marketingkampagnen, um die zukünftige Strategie zu informieren
Berichte und Dashboards
Erstellt Berichte und Dashboards zur Analyse der Ergebnisse von Kampagnen
Stickiness der Kampagne
Identifiziert, welche Marketingkampagnen in offenen oder geschlossenen Verkaufschancen aufgelöst wurden
Multichannel-Sendungsverfolgung
Sammelt Leistungsdaten von Marketingkampagnen über mehrere Kanäle hinweg
Markenoptimierung
Bietet Marken und Unternehmen die Möglichkeit, bestehende oder zukünftige Kampagnen durch Feedback zu korrigieren oder zu ändern
Prädiktive Analytik
Nutzt künstliche Intelligenz (KI), um Kampagnenergebnisse vorherzusagen und Maßnahmen zur Optimierung vorzuschlagen
Datenbank (3)
Datenerfassung in Echtzeit
Sammelt, speichert und organisiert riesige, unstrukturierte Daten in Echtzeit
Datenverteilung
Erleichtert die Verbreitung der gesammelten Big Data in parallelen Rechenclustern
Data Lake
Erstellt ein Repository zum Sammeln und Speichern von Rohdaten von Sensoren, Geräten, Maschinen, Dateien usw.
Integrationen (2)
Hadoop-Integration
Richtet Verarbeitungs- und Verteilungs-Workflows auf Apache Hadoop aus
Spark-Integration
Richtet Verarbeitungs- und Verteilungs-Workflows auf Apache Hadoop aus
Plattform (3)
Maschinelle Skalierung
Erleichtert die Ausführung und Skalierung der Lösung auf einer großen Anzahl von Maschinen und Systemen
Datenaufbereitung
Kuratiert gesammelte Daten für Big-Data-Analyselösungen, um sie zu analysieren, zu manipulieren und zu modellieren
Spark-Integration
Richtet Verarbeitungs- und Verteilungs-Workflows auf Apache Hadoop aus
Verarbeitung (2)
Cloud-Verarbeitung
Verlagerung der Big-Data-Erfassung und -Verarbeitung in die Cloud
Workload-Verarbeitung
Verarbeitet Batch-, Echtzeit- und Streaming-Daten-Workloads in einzelnen, mandantenfähigen oder Cloud-Systemen
Datentransformation (2)
Echtzeit-Analysen
Erleichtert die Analyse großer Datenmengen in Echtzeit.
Datenabfrage
Ermöglicht es dem Benutzer, Daten über Abfragesprachen wie SQL abzufragen.
Verbindung (4)
Hadoop-Integration
Richtet Verarbeitungs- und Verteilungs-Workflows auf Apache Hadoop aus
Spark-Integration
Richtet Verarbeitungs- und Verteilungsworkflows auf Apache Spark aus
Multi-Source-Analyse
Integriert Daten aus mehreren externen Datenbanken.
Data Lake
Erleichtert die Verbreitung der gesammelten Big Data in parallelen Computing-Clustern.
Transaktionen (5)
Datenvisualisierung
Verarbeitet Daten und stellt Interpretationen in einer Vielzahl von grafischen Formaten dar.
Daten-Workflow
Reiht bestimmte Funktionen und Datasets aneinander, um Analyseiterationen zu automatisieren.
Geregelte Ermittlung
Isoliert bestimmte Datensätze und erleichtert die Verwaltung des Datenzugriffs.
Eingebettete Analytik
Ermöglicht das Big-Data-Tool das Ausführen und Aufzeichnen von Daten in externen Anwendungen.
Notizbücher
Verwenden von Notebooks für Aufgaben wie das Erstellen von Dashboards mit vordefinierten, geplanten Abfragen und Visualisierungen
Management (2)
Reporting
Zeigen Sie ETL-Prozessdaten über Berichte und Visualisierungen wie Diagramme und Grafiken an.
Rechnungsprüfung
Zeichnen Sie ETL-Verlaufsdaten für Audits und potenzielle Datenkorrekturen auf.
Funktionalität (5)
Extraktion
Extrahieren Sie Daten aus den angegebenen Quellen wie relationalen Datenbanken, JSON-Dateien und XML-Dateien.
Transformation
Bereinigen Sie extrahierte Daten und formatieren Sie sie neu in das gewünschte Zielformat.
Laden
Laden Sie neu formatierte Daten in die Zieldatenbank, das Data Warehouse oder einen anderen Speicherort.
Automatisierung
Ordnen Sie ETL-Prozesse so an, dass sie automatisch nach dem erforderlichen Zeitplan ablaufen (z. B. täglich, wöchentlich, monatlich).
Skalierbarkeit
Kann die Rechenleistung basierend auf dem ETL-Volumen nach oben oder unten skalieren.
Datenmanagement (6)
Datenintegration
Konsolidiert, bereinigt und normalisiert Daten aus mehreren unterschiedlichen Quellen.
Datenkompression
Hilft bei der Einsparung von Speicherkapazität und verbessert die Abfrageleistung.
Datenqualität
Eliminiert Dateninkonsistenzen und Duplikate und gewährleistet die Datenintegrität.
Integrierte Datenanalyse
SQL-basierte Analysefunktionen wie Zeitreihen, Musterabgleich, Geodatenanalyse usw.
Maschinelles Lernen in der Datenbank
Bietet integrierte Funktionen wie Algorithmen für maschinelles Lernen, Datenaufbereitungsfunktionen, Modellauswertung und -verwaltung usw.
Data Lake Analytics
Ermöglicht die Datenabfrage über Datenformate wie Parquet, ORC, JSON usw. und die Analyse komplexer Datentypen auf HDFS
Integration (3)
KI/ML-Integration
Lässt sich in Data-Science-Workflows, maschinelles Lernen und künstliche Intelligenz (KI) integrieren.
Integration von BI-Tools
Lässt sich in BI-Tools integrieren, um Daten in umsetzbare Erkenntnisse umzuwandeln.
Data-Lake-Integration
Bietet Geschwindigkeit bei der Datenverarbeitung und Erfassung von unstrukturierten, halbstrukturierten und Streaming-Daten.
Einsatz (2)
On-Premise
Bietet On-Premise-Bereitstellungsoptionen.
Cloud
Bietet Cloud-Bereitstellungsoptionen (Private oder Public Cloud, Hybrid Cloud).
Leistung (2)
Skalierbarkeit
Verwaltet riesige Datenmengen, die je nach Bedarf hoch- oder herunterskaliert werden können.
Integrierter Cache
Speichert häufig verwendete Daten schnell im Systemspeicher.
Sicherheit (6)
Daten-Governance
Richtlinien, Verfahren und Standards für die Verwaltung und den Zugriff auf Daten.
Datensicherheit
Schränkt den Datenzugriff auf Zellebene ein, maskiert oder verbirgt Teile von Zellen und verschlüsselt Daten im Ruhezustand und während der Übertragung
Rollenbasierte Autorisierung
Stellt vordefinierte Systemrollen, Berechtigungen und benutzerdefinierte Rollen für Benutzer bereit.
Authentifizierung
Ermöglicht die Integration mit externen Sicherheitsmechanismen wie Kerberos, LDAP-Authentifizierung usw.
Überwachungsprotokolle
Stellt ein Überwachungsprotokoll bereit, um den Zugriff und die Vorgänge zu verfolgen, die für Datenbanken ausgeführt werden, um die Einhaltung gesetzlicher Vorschriften zu gewährleisten.
Verschlüsselung
Bietet Verschlüsselungsfunktionen für alle ruhenden Daten mithilfe von Verschlüsselungsschlüsseln.
Lagerung (2)
Datenmodell
Speichert Datentabellen als Spalten.
Datentypen
Unterstützt mehrere Datentypen wie Listen, Sets, Hashes (ähnlich wie Map), sortierte Sets usw.
Verfügbarkeit (3)
Automatisches Sharding
Implementiert eine automatische horizontale Datenpartitionierung, die das Speichern von Daten auf mehr als einem Knoten ermöglicht, um horizontal hochzuskalieren.
Automatische Wiederherstellung
Stellt im Falle eines Fehlers einen korrekten (konsistenten) Zustand einer Datenbank wieder her.
Daten-Replikation
Kopieren Sie Daten über mehrere Server über Master-Slave, Peer-to-Peer-Replikationsarchitektur usw.
Unterstützen (2)
Multi-Modell
Bietet Unterstützung für das Speichern, Indizieren und Abfragen von Daten in mehr als einem Format.
Betriebssysteme
Verfügbar auf mehreren Betriebssystemen wie Linux, Windows, MacOS usw.
Zentralisierte Berechnung (1)
Zentralisierte Berechnung
Bietet einen zentralen, neutralen Ort für Parteien, um Datenanalysen durchzuführen.
Lokalisierte Berechnung (1)
Lokalisierte Berechnung
Bietet lokalisierte Berechnungen, bei denen die Daten dort verbleiben, wo sie sich befinden, und von der API aufgerufen werden, um Analysen durchzuführen.
Generative KI (4)
Textgenerierung
Ermöglicht Benutzern das Generieren von Text basierend auf einer Texteingabeaufforderung.
Textzusammenfassung
Fasst lange Dokumente oder Texte zu einer kurzen Zusammenfassung zusammen.
Textgenerierung
Ermöglicht Benutzern das Generieren von Text basierend auf einer Texteingabeaufforderung.
Textzusammenfassung
Fasst lange Dokumente oder Texte zu einer kurzen Zusammenfassung zusammen.
Agentic KI - Marketinganalyse (3)
Autonome Aufgabenausführung
Fähigkeit, komplexe Aufgaben ohne ständige menschliche Eingabe auszuführen
Systemübergreifende Integration
Funktioniert über mehrere Softwaresysteme oder Datenbanken hinweg
Proaktive Unterstützung
Antizipiert Bedürfnisse und bietet Vorschläge ohne Aufforderung an.





