Traitement du Big Data et intégration des données

Puissantes fonctionnalités d'intégration et de transformation des données

Ataccama ONE Big Data vise des performances élevées et une grande évolutivité. Elle intègre des fonctionnalités qui répondent à de nombreux besoins de transformation des données. Utilisez Ataccama ONE pour explorer et comprendre rapidement les données de votre Data Lake, traiter rapidement d'énormes volumes de données et effectuer une analyse approfondie de la qualité des données avant d'effectuer les transformations nécessaires.

Cas d'utilisation

Traitement des données

Effectuez tout type de transformation, d'agrégation ou de modification tout en déplaçant les données d'une source à l'autre, fusionnez des sources ou préparez les données pour d'autres analyses. Réduisez le temps de préparation des données et améliorez l'efficacité de la détection tout en profitant de la souplesse du Big Data à la demande.

Prétraitement des données pour les administrateurs de données et les Data Scientists
et les utilisateurs métier

Ataccama ONE inclut un certain nombre de composants prédéfinis de préparation et d'accès aux données, une interface enrichie pour les administrateurs en charge des données, ainsi qu'un système d'orchestration des composants d'intégration. Bénéficiez de l'analyse des données et du profilage sémantique avancé conçus pour les utilisateurs métier

Profilage des Data Lakes, intégration et catalogue de données

Profilez, préparez, traitez et intégrez le Big Data dans votre Data Lake Intégrez facilement les sources de données traditionnelles avec Hadoop ou un Data Lake afin d'effectuer la migration en toute transparence des données, détectez de nouvelles ressources et partagez vos résultats dans un catalogue de données.

Autres cas d'utilisation

Analyse de texte et Machine Learning

Les cas d'utilisation comprennent l'extraction des entités, l'analyse des données et la classification ; toutes ces opérations sont prises en charge nativement dans Hadoop. L'intégration avec Spark 2 MLlib permet d'appliquer les modèles de Machine Learning et d'analyse de texte à vos ensembles de données (classification, organisation en clusters, régression, etc.).

Enrichissement des données avec des sources externes

Exploitez des sources de données externes pour extraire des enregistrements. Utilisez des dictionnaires de noms, d’organisations et de titres pour vérifier et valider les données en entrée Améliorez cette fonctionnalité grâce à des variables personnalisées.

Intégration en temps réel et en streaming

Ataccama ONE répond à la demande croissante de traitement de la qualité des données en temps réel, ce qui permet aux utilisateurs d'intégrer les machine data et prend en charge l'IoT et le streaming Spark (Amazon Kinesis, Apache Flume).

Qualité des données

Utilisez Ataccama ONE comme plateforme de gestion centrale de la qualité des données. Intégrez et gérez des données depuis toutes les sources dans une même plateforme.


Vous recherchez un autre cas d'utilisation ?
Contactez-nous

Fonctionnalités

Migration en toute transparence

La migration s'effectue entre l'environnement local et celui du Big Data, car il est possible d'exécuter des configurations existantes sur n'importe quel environnement, sans avoir à apporter de modifications ou de recompilation.

Compatible avec les Data Lakes

Intégrez, transformez et enrichissez vos données grâce à des sources externes, avec prise en charge des stockages HDFS, Azure Data Lake Storage, Amazon S3 et d'autres stockages d'objets compatibles S3. Les formats AWS Glue Data Catalog, Hive, HBase, Kafka, Avro, Parquet, ORC, TXT, CSV et Excel sont également pris en charge.

Prise en charge de l'Elastic Computing/du traitement du Big Data à la demande

Profilez, traitez et nettoyez vos données dans des clusters provisionnés automatiquement grâce à la prise en charge d'Azure HDInsight, d'Amazon EMR, de Google Dataproc, de Databricks, de Cloudera, d'Hortonworks et de MapR. Le système utilise les moteurs MapReduce, Spark et Spark 2.

Prise en charge native de Hadoop MapReduce et d'Apache Spark

Tous les calculs et les traitements sont exécutés directement dans un cluster, sans qu'il soit nécessaire de supprimer des données de Hadoop. En fonction des caractéristiques du cluster, la solution est convertie automatiquement en une série de tâches MapReduce ou elle utilise Spark directement. Ataccama ONE prend en charge toutes les principales distributions Hadoop.

Autres fonctionnalités

Profilage unique

Bénéficiez de l'analyse rapide des données et du profilage sémantique avancé.

Prise en charge de l'IoT et du streaming Spark

Comprend l'intégration du streaming avec Apache Kafka, Apache NiFi et Amazon Kinesis.

Fonctionnalité coeur avancée

Un ensemble d'algorithmes (pouvant unifier la hiérarchie par des clés d'identification, quelles que soient les structures de données internes) peut effectuer une mise en correspondance approximative pendant l'unification des enregistrements.

Fonctionnalités enrichies d'intégration et de préparation des données

Pour les gestionnaires et les Data Scientists Profilez, évaluez, transformez et regroupez des ensembles de données dans un Data Lake et dans le Cloud.


Vous ne trouvez pas ce que vous cherchez ?
Faites-nous en part

Témoignages de clients

Découvrez des cas d'études correspondant à votre marché

Lire maintenant

Explorer la plateforme

Let us show you what Ataccama can do for you

Leave us a message and we’ll contact you to arrange a personalized demo.

(optional)
(optional)
En soumettant, vous acceptez la politique de confidentialité d'Ataccama.

Nous utilisons des cookies sur notre site Web pour améliorer votre expérience Web. En utilisant notre site Web, vous acceptez l’utilisation de cookies. Pour mieux comprendre comment nous utilisons les cookies ou comment modifier vos préférences et les paramètres du navigateur, veuillez consulter notre Politique de confidentialité.

Fermer
Nous Contacter