Innovate 2023 logo

Ataccama Innovate 2023

The Future of Data Quality

Flexible Datenintegration

Integrieren Sie Daten aus einer Vielzahl von Quellen, verbessern Sie die Datenqualität und liefern Sie dem Benutzer zuverlässige Daten in einer Vielzahl von Darstellungsformen.

Read more
 Datenquellen
 IDE
 Übersicht der Datenquellen

Einfaches Erstellen, Testen und Bereitstellen von Datenintegrationspipelines

Easily create, test, and deploy data integration pipelines

Machen Sie es auf Ihre Art

Einfach anpassbares ETL

Ob Sie eine vordefinierte Datenpipeline implementieren möchten, ohne die Daten zu sehen, interaktiv mit den Daten arbeiten oder Daten direkt im Data Lake transformieren möchten – alles wird unterstützt.

 

Sparen Sie Zeit bei der Vorbereitung von Transformationspipelines

Daten aus beliebigen Quellen integrieren

Sparen Sie Entwicklungszeit durch die Bereitstellung wiederverwendbarer Konfigurationen und die Verteilung von Workloads auf lokale, Big-Data- und Cloud-Umgebungen. Integrieren Sie anschließend die Verarbeitungsergebnisse in einen Datenspeicher Ihrer Wahl.

 

Für Datenqualität ist gesorgt

Integrierte Datenqualitätsfunktionen

Validieren Sie Daten und verbessern Sie die Datenqualität bei der Integration. Verwenden Sie Hunderte von vorgefertigten Transformationen und DQ-Funktionen oder erstellen Sie einfach Ihre eigenen und verwenden Sie diese wieder.

 
Orchestration

Orchestrierung

Planen Sie Workflows und konfigurieren Sie Auslöser, um Pipelines zu starten und in eine Warteschlange zu stellen.

Metadata-driven

Metadatengesteuert

Verwenden Sie im Datenkatalog gespeicherte Metadaten zum effizienten Aufbau von Datenintegrationspipelines.

 
 
 

Eine leistungsstarke Anwendung für Dateningenieure

BA single interface to ensure data management and governance
Ressourcen verwalten
 
Verwalten Sie alle Projekte, Verknüpfungen und Metadaten von einem Ort aus
 
Transformationsbibliothek
 
Wählen Sie aus Hunderten von verfügbaren Transformationen und Funktionen
 
Leinwand zum Erstellen von Pipelines
 
Konfigurieren Sie die Transformationslogik per Point-and-Click und Ataccama-Ausdrücke
 
Probleme testen und beheben
 
Erkennen Sie Konfigurationsprobleme und die Leistung Ihrer Datenpipeline
 

Außergewöhnliche Möglichkeiten der Datenintegration

Datentransformation

Führen Sie Daten aus mehreren Quellen zusammen oder filtern, gruppieren und aggregieren Sie diese. Schreiben Sie anschließend Ihre Ergebnisse in Dateien, Datenbanken oder jedes andere unterstützte System, einschließlich unseres Datenkatalogs.

Keine Programmierung
Interaktive Transformationen
Wiederverwendbare Komponenten

Webdienste

Veröffentlichen Sie jede Pipeline als Webdienst und verwenden Sie sie von Ihren eigenen Anwendungen aus, um Daten zu transformieren oder anzureichern.

APIs
SOAP
REST

Datenmaskierung

Maskieren Sie Ihre Daten konsistent, erstellen Sie Daten für Testumgebungen und übertragen Sie anonymisierte Daten in die Cloud. Unser intelligentes Modul bewahrt Datenqualität und Eigenschaften.

Deduplizierung

Identifizieren Sie doppelte Datensätze, die dieselbe reale Entität repräsentieren (Kunden, Patienten, Produkte, Standorte oder andere) mit deterministischen und fuzzy Abgleichsregeln oder KI-basierten Algorithmen bei der Datenintegration.

Standardisierung & Bereinigung von Daten

Sie können je nach Bedarf Ihre Daten standardisieren, bereinigen, validieren, anreichen und abgleichen. Wechseln Sie ganz einfach von der Konfiguration hin zum Testing und dem Einsatz in Ihrem Unternehmen. Integrieren Sie die Qualität Ihrer Daten in bestehende ETL- und CI/CD-Pipelines.

Datenaufbereitung

Verknüpfen und transformieren Sie Ihre Daten ganz einfach mit Ataccama ONE und bringen Sie sie für Ihr Projekt in kürzester Zeit in Form. Dank der nativen Integration mit dem Datenkatalog können Sie ganz einfach die richtigen Daten finden und importieren.

Keine Programmierung
Interaktive Transformationen

Externe Datenanreicherung & Validierung

Verwenden Sie Plug-in-Module für die Anbindung an branchenübliche Datenanreicherungs- & Validierungsdienste von Drittanbietern.

Loqate
Dun & Bradstreet
Uniserv
Bureau van Dijk

Rufen Sie jede externe API auf oder scrapen Sie Webseiten.

Orchestrierung

Verwalten Sie die Ausführung und Terminierung von Jobs. Verfolgen Sie Leistung und Ergebnisse über eine Administrationskonsole.

Entwickelt für alle, die mit Daten arbeiten

Ataccama ONE wurde für schnelle analytische, stark regulierte Governance- und technische Datenteams gleichermaßen entwickelt.

Dateneigner
Einfaches Verknüpfen mit einer Vielzahl von Datenquellen und Katalogisieren Ihrer Daten
Testen von Datenintegrationspipelines mit unterschiedlichen Daten ohne zusätzliche Konfiguration
Flexibel benutzerdefinierte Datentransformationen erstellen
Unternehmensnutzer
Die richtigen Daten finden
Inhalts und Qualität der Daten verstehen
Daten für weitere Analysen exportieren
Daten transformieren und vorbereiten

Jeder, der mit Daten zu tun hat, kann seinen Job besser und schneller erledigen, wenn er den Unternehmensdaten vertrauen kann, während er einen Blick darauf hat, wie sie verwendet werden.

Zuverlässiges & skalierbares Modul

V

Vertikale Skalierung

Ataccama ONE profitiert von den erhöhten Ressourcen einzelner Server-Knoten (CPU-Kerne und RAM für In-Memory-Verarbeitung).

D

Entkoppelte Konfiguration

Konfigurieren Sie Datenintegrationspipelines unabhängig von Datenquelle und Ausführungsumgebung.

H

Horizontale Skalierung

Verarbeiten Sie mit Hadoop-, Spark- und Kubernetes-Clustern beliebige Datenmengen innerhalb eines vorgegebenen Zeitrahmens für die Datenverarbeitung.

Integrationstypen

Batch: strukturiert, halbstrukturiert, Textdateien, XML und komplexe Formate

Online: SOAP und REST APIs

Messaging (JMS)

Streaming

Verteilte Prozesse: Databricks, Amazon EMR, Cloudera, and Hortonworks

Datenquellen

Relationale und NoSQL-Datenbanken

Dateitypen: Avro, Parquet, ORC, TXT, JSON, CSV, Excel

Cloud-Datenquellen: Azure, Google Cloud, Amazon S3, und andere mit S3 kompatiblen Speicher

Adapter für Industriestandard-Nachrichtenformate

AWS Glue Data Catalog, Hive, HBase

Streaming-Integration mit Apache Kafka

Erleben Sie unsere Datenintegration in Aktion.

Demo vereinbaren
 Erleben Sie unsere Datenintegration in Aktion.  Erleben Sie unsere Datenintegration in Aktion.

Wählen Sie einfach einen Zeitraum.
Schnell und einfach.

Discover the Ataccama
ONE Platform

Ataccama ONE is a full stack data management platform.
See what else you can do.