Le formulaire a été soumis avec succès.
Vous trouverez de plus amples informations dans votre boîte aux lettres.
Sélection de la langue
En utilisant le flux de données Apache Kafka, Innowise a fourni un pipeline de données fluide pour une prise de décision et une analyse éclairées.
Notre client est une multinationale spécialisée dans la fabrication d'une gamme variée de véhicules particuliers et commerciaux, de motocyclettes, de moteurs et de turbomachines.
Les informations détaillées sur le client ne peuvent être divulguées en vertu des dispositions de la NDA.
Le constructeur automobile, une entité mondiale possédant des succursales et des centres de distribution sur tous les continents, a été confronté à un problème de taille Gestion des données dilemme. Les différentes unités de l'entreprise fonctionnaient de manière indépendante, ce qui entraînait des inefficacités et un manque de visibilité sur les opérations, les ventes, la gestion de projet, etc.
La multiplicité des sources de données entraînait une duplication des efforts, une qualité incohérente des données et une ponction importante sur les ressources, les équipes réparties sur différents sites s'efforçant de réconcilier les informations. Cette fragmentation a entravé la capacité du fabricant à prendre rapidement et efficacement des décisions stratégiques éclairées.
En outre, le client avait du mal à accéder aux données en temps réel nécessaires à la prise de décisions stratégiques. Les retards dans le partage et le traitement des données ont fait rater des opportunités et des réponses tardives aux demandes du marché, alors que les tendances du marché et les préférences des consommateurs évoluent rapidement.
Le client recherchait une solution complète pour unifier des sources de données disparates en un système cohérent et garantir l'évolutivité pour s'adapter aux futures expansions de l'entreprise.
Innowise a proposé une approche transformatrice centrée sur l'intégration d'Apache Kafka pour relever les défis du client. En d'autres termes, nous avons transformé les flux d'informations existants du client en flux de données Kafka afin de garantir un flux de données ininterrompu, des analyses en temps réel et des visualisations complètes.
Notre tâche initiale consistait à créer une architecture pour décharger les informations des sources de données et les transmettre à Apache Kafka. Tout d'abord, nous avons construit un connecteur pour Codebeamer, une plateforme complète de gestion de projet que le client utilisait pour le développement de logiciels et la collaboration. Nous avons choisi Apache Kafka en raison de sa capacité exceptionnelle à gérer des flux de données à grande échelle, à haut débit et en temps réel, de manière tolérante aux pannes, évolutive et distribuée.
Dans un premier temps, les spécialistes d'Innowise ont analysé en détail la documentation de l'API de Codebeamer afin d'identifier les méthodes les plus efficaces pour extraire les données du projet, y compris les éléments de travail, les ensembles de modifications et les activités des utilisateurs. Nous avons également examiné le mécanisme d'authentification, les limites des demandes de données et les formats de retour de l'API.
Sur la base de l'analyse de l'API, nous avons conçu l'architecture du connecteur en mettant l'accent sur la modularité, l'évolutivité et la tolérance aux pannes. Nos ingénieurs logiciels ont utilisé Java pour coder le connecteur, qui était responsable de la liaison avec l'API de Codebeamer, de la récupération des données et de leur écriture dans un sujet Kafka. Nous avons mis en œuvre un convertisseur pour transformer les données du format Codebeamer en un format compatible avec Kafka. Cela comprenait le mappage de divers champs de données aux paires clé-valeur de Kafka et la gestion des variations de schéma. Enfin, notre équipe de projet a géré une configuration robuste, permettant aux utilisateurs de spécifier dynamiquement les identifiants API, les intervalles d'interrogation et les sujets Kafka cibles.
Dans un premier temps, le connecteur a interrogé l'API de Codebeamer pour récupérer les données nouvelles et mises à jour à des intervalles configurables. Ensuite, il a transformé les données dans un format compatible avec Kafka, en veillant à ce que chaque élément d'information soit représenté comme un événement discret. Nous avons utilisé les capacités de traitement par lots pour gérer efficacement de grands volumes de données sans surcharger l'API de Codebeamer ou le cluster Kafka.
Nous avons également développé un connecteur Kafka personnalisé pour une source de données FTP, un composant essentiel pour la consolidation de divers fichiers et formats, notamment JSON, XML et CSV. Le connecteur s'est interfacé avec le serveur FTP et a surveillé efficacement les fichiers nouveaux et mis à jour, en les extrayant et en les transportant dans l'écosystème Kafka.
Nous avons mis en œuvre un mécanisme robuste de surveillance des fichiers pour détecter l'ajout de nouveaux fichiers ou la modification de fichiers existants. Nous avons intégré une logique d'analyse intelligente capable de reconnaître automatiquement et de traiter correctement chaque type de fichier afin de gérer la diversité des formats de fichiers (JSON, XML, CSV). Cela a été crucial pour transformer les données structurées et semi-structurées contenues dans ces fichiers en un format uniforme adapté à la diffusion en continu via Kafka.
Back-end
Machine virtuelle Java 17, Kotlin, Spring
CI/CD
CI/CD sur site
Notre équipe de projet a suivi un parcours bien structuré, avec des livrables à la fin de chaque étape pour garantir l'alignement sur les objectifs du client. Notre approche était fondée sur le cadre Scrum, facilitant la flexibilité, l'amélioration continue et l'engagement solide du client tout au long du projet.
Dans un premier temps, nos analystes commerciaux ont organisé des ateliers avec le client afin de comprendre son paysage de données, d'identifier les principales sources de données et de définir le champ d'application de l'intégration Kafka. Sur la base de ces informations, ils ont élaboré un plan de projet complet et une liste d'exigences pour les connecteurs Kafka.
Après avoir recueilli les besoins, nos développeurs ont conçu l'architecture des connecteurs Kafka. À leur tour, les développeurs ont conçu l'architecture des connecteurs Kafka, ingénieurs QA a effectué des contrôles approfondis, notamment des tests d'unité, d'intégration et de performance, afin de garantir la fiabilité et l'efficacité des connecteurs.
Enfin, nous avons déployé les connecteurs dans l'environnement du client, en organisant des sessions de formation pour l'équipe du client sur la gestion et l'utilisation des nouvelles solutions de flux de données.
Tout au long du projet, la communication avec le client a été une priorité absolue. Nous avons utilisé Slack pour la communication quotidienne et Zoom pour les vérifications hebdomadaires et les revues de sprint. Le suivi des tâches et la gestion du projet ont été gérés par Jira, permettant une visibilité transparente de l'avancement du projet et une responsabilisation de tous les membres de l'équipe.
À l'heure actuelle, notre équipe de projet procède à des ajustements mineurs en fonction des besoins. Par ailleurs, le client envisage de nous solliciter pour d'autres projets de flux de données à l'avenir.
1
Responsable de produit
1
Architecte de solutions
1
Responsable technique
2
Développeurs Back-End
Innowise a développé un système de connecteurs qui agrège les informations provenant des sources de données du client et les transforme en flux de données Apache Kafka. En intégrant des sources de données disparates dans un pipeline de données Apache unifié et en temps réel, nous avons relevé les défis fondamentaux de la fragmentation, de l'évolutivité et de l'intégration des données. Le constructeur automobile bénéficie désormais d'une réduction des silos de données, d'une prise de décision éclairée et d'analyses transparentes qui favorisent la croissance de l'entreprise.
Notre solution de streaming de données basée sur Kafka est conçue pour évoluer afin que le client puisse se développer rapidement et ajouter de nouvelles sources de données sans compromettre les performances.
36%
augmentation de la précision de la prise de décision
44%
amélioration de l'accessibilité des données
Après avoir reçu et traité votre demande, nous reviendrons vers vous pour détailler les besoins de votre projet et signer un accord de non-divulgation pour assurer la confidentialité des informations.
Après avoir examiné les exigences, nos analystes et nos développeurs élaborent une proposition de projet avec l'étendue des travaux, le nombre de membre de l'équipe, les délais et les coûts des coûts.
Nous organisons une réunion avec vous pour discuter de l'offre et parvenir à un accord.
Nous signons un contrat et commençons à travailler sur votre projet le plus rapidement possible.
2007-2024 Innowise. Tous droits réservés.
Politique de confidentialité. Politique en matière de cookies.
Innowise Sp. z o.o Ul. Rondo Ignacego Daszyńskiego, 2B-22P, 00-843 Varsovie, Pologne
En vous inscrivant, vous acceptez notre Politique de confidentialitéy compris l'utilisation de cookies et le transfert de vos informations personnelles.
Merci !
Votre message a été envoyé.
Nous traiterons votre demande et vous recontacterons dès que possible.
Merci !
Votre message a été envoyé.
Nous traiterons votre demande et vous recontacterons dès que possible.