Skjemaet har blitt sendt inn.
Mer informasjon finner du i postkassen din.
Ved hjelp av Apache Kafka-datastrømming sørget Innowise for en smidig datapipeline for informert beslutningstaking og analyse.
Vår kunde er et multinasjonalt konsern som spesialiserer seg på produksjon av et bredt spekter av person- og nyttekjøretøyer, motorsykler, motorer og turbomaskiner.
Detaljert informasjon om kunden kan ikke utleveres i henhold til bestemmelsene i NDA.
Bilprodusenten, en global enhet med filialer og forhandlersentre på tvers av kontinenter, sto overfor en betydelig datahåndtering dilemma. Ulike enheter i selskapet opererte uavhengig av hverandre, noe som resulterte i ineffektivitet og manglende innsikt i drift, salg, prosjektledelse med mer.
Flere datakilder førte til dobbeltarbeid, inkonsekvent datakvalitet og et betydelig ressurstap da team på ulike steder slet med å avstemme informasjon. Denne fragmenteringen hindret produsenten i å ta informerte, strategiske beslutninger raskt og effektivt.
I tillegg slet kunden med å få tilgang til sanntidsdata som var nødvendig for å kunne ta strategiske beslutninger. Forsinkelser i datadeling og -behandling førte til at man gikk glipp av muligheter og reagerte for sent på markedets krav, ettersom markedstrender og forbrukerpreferanser utvikler seg raskt.
Kunden var på utkikk etter en omfattende løsning for å samle ulike datakilder i et sammenhengende system og sikre skalerbarhet for å tilpasse seg fremtidige utvidelser av virksomheten.
Innowise tilbød en transformativ tilnærming sentrert rundt integrering av Apache Kafka for å løse kundens utfordringer. Enkelt sagt gjorde vi kundens eksisterende informasjonsflyt om til Kafka-datastrømmer for å sikre uavbrutt dataflyt, sanntidsanalyser og omfattende visualiseringer.
Vår første oppgave var å lage en arkitektur for å avlaste informasjon fra datakilder og overføre den til Apache Kafka. Først bygget vi en kobling til Codebeamer, en omfattende prosjektstyringsplattform som kunden brukte til programvareutvikling og samarbeid. Vi valgte Apache Kafka på grunn av dets eksepsjonelle evne til å håndtere datastrømmer i stor skala, med høy gjennomstrømning og i sanntid på en feiltolerant, skalerbar og distribuert måte.
Innowises spesialister analyserte innledningsvis Codebeamers API-dokumentasjon grundig for å identifisere de mest effektive metodene for å hente ut prosjektdata, inkludert arbeidselementer, endringssett og brukeraktiviteter. Vi undersøkte også autentiseringsmekanismen, grensene for dataforespørsler og API-ens returformater.
Basert på API-analysen designet vi connector-arkitekturen med fokus på modularitet, skalerbarhet og feiltoleranse. Programvareingeniørene våre brukte Java til å kode konnektoren, som var ansvarlig for å koble til Codebeamers API, hente data og skrive dem til et Kafka-emne. Vi implementerte en konverter for å transformere dataene fra Codebeamers format til et Kafka-kompatibelt format. Dette inkluderte mapping av ulike datafelter til Kafkas nøkkelverdipar og håndtering av skjemavariasjoner. Til slutt håndterte prosjektteamet vårt robust konfigurasjon, slik at brukerne dynamisk kunne spesifisere API-legitimasjon, pollingintervaller og Kafka-emner.
I første trinn pollet koblingen Codebeamers API for å hente nye og oppdaterte data med konfigurerbare intervaller. Deretter transformerte den dataene til et Kafka-kompatibelt format, slik at hver enkelt del av informasjonen ble representert som en diskret hendelse. Vi benyttet oss av batchbehandling for å håndtere store datamengder på en effektiv måte uten å overbelaste Codebeamers API eller Kafka-klyngen.
Vi utviklet også en tilpasset Kafka-kobling for en FTP-datakilde, en kritisk komponent for konsolidering av ulike filer og formater, inkludert JSON, XML og CSV. Koblingen ble koblet til FTP-serveren og overvåket effektivt etter nye og oppdaterte filer, og hentet dem ut og transporterte dem inn i Kafka-økosystemet.
Vi implementerte en robust filovervåkningsmekanisme for å oppdage når nye filer legges til eller eksisterende filer endres. Vi innlemmet intelligent parsing-logikk som automatisk kunne gjenkjenne og behandle hver filtype på riktig måte for å håndtere mangfoldet av filformater (JSON, XML, CSV). Dette var avgjørende for å omdanne de strukturerte og halvstrukturerte dataene i disse filene til et enhetlig format som egner seg for strømming gjennom Kafka.
Backend
Virtuell Java-maskin 17, Kotlin, Spring
CI/CD
CI/CD on-premise
Prosjektteamet vårt fulgte et velstrukturert prosjektforløp, med leveranser på slutten av hvert trinn for å sikre at kundens mål ble nådd. Tilnærmingen vår var forankret i Scrum-rammeverket, noe som la til rette for fleksibilitet, kontinuerlige forbedringer og et solid kundengasjement gjennom hele prosjektet.
Til å begynne med gjennomførte forretningsanalytikerne våre workshops med kunden for å forstå datalandskapet, identifisere viktige datakilder og definere omfanget av Kafka-integrasjonen. Basert på denne informasjonen utarbeidet de en omfattende prosjektplan og en liste over krav til Kafka-kontaktene.
Etter å ha samlet inn kravene, designet utviklerne våre arkitekturen for Kafka-kontaktene. I tur og orden, QA-ingeniører utført omfattende kontroller, inkludert enhets-, integrasjons- og ytelsestester, for å sikre at kontaktene er pålitelige og effektive.
Til slutt distribuerte vi konnektorene i kundens miljø, og ga opplæring i håndtering og bruk av de nye datastrømmingsløsningene til kundens team.
Gjennom hele prosjektet hadde kommunikasjon med kunden høyeste prioritet. Vi brukte Slack for daglig kommunikasjon og Zoom for ukentlige innsjekkinger og sprintgjennomganger. Oppgavesporing og prosjektstyring ble administrert gjennom Jira, slik at alle teammedlemmene fikk innsyn i prosjektets fremdrift og ansvarlighet.
For øyeblikket gjør prosjektteamet vårt mindre justeringer etter behov. Kunden har dessuten planer om å kontakte oss for flere datastrømmingsprosjekter i fremtiden.
1
Produkteier
1
Løsningsarkitekt
1
Teknisk ledelse
2
Back-end-utviklere
Innowise utviklet et system med konnektorer som samler informasjon fra kundens datakilder og omdanner den til Apache Kafka-datastrømmer. Ved å integrere ulike datakilder i en enhetlig Apache-datapipeline med sanntidsstrømming, løste vi de viktigste utfordringene knyttet til datafragmentering, skalerbarhet og integrering. Bilprodusenten drar nå nytte av reduserte datasiloer, informert beslutningstaking og transparente analyser som fremmer forretningsvekst.
Vår Kafka-baserte løsning for datastrømming er skalerbar, slik at kunden kan vokse raskt og legge til nye datakilder uten at det går på bekostning av ytelsen.
36%
økt nøyaktighet i beslutningstaking
44%
økt datatilgjengelighet
Etter at vi har mottatt og behandlet forespørselen din, vil vi komme tilbake til deg innen kort tid for å beskrive prosjektbehovene dine og undertegne en taushetserklæring for å sikre informasjonens konfidensialitet.
Etter å ha undersøkt kravene, utarbeider våre analytikere og utviklere en prosjektforslag med arbeidsomfang, teamstørrelse, tid og kostnader estimater.
Vi arrangerer et møte med deg for å diskutere tilbudet og komme til en avtale.
Vi signerer en kontrakt og begynner å jobbe med prosjektet ditt så raskt som mulig.
© 2007-2024 Innowise. Alle rettigheter forbeholdt.
Personvernerklæring. Retningslinjer for informasjonskapsler.
Innowise Sp. z o.o Ul. Rondo Ignacego Daszyńskiego, 2B-22P, 00-843 Warszawa, Polen
Ved å registrere deg godtar du vår Retningslinjer for personvern, inkludert bruk av informasjonskapsler og overføring av dine personopplysninger.
Takk skal du ha!
Meldingen din er sendt.
Vi behandler forespørselen din og kontakter deg så snart som mulig.
Takk skal du ha!
Meldingen din er sendt.
Vi behandler forespørselen din og kontakter deg så snart som mulig.