Chatbot til dataanalytisk udvikling: 67% forbedring i latenstid

Ved hjælp af de eksisterende store sprogmodeller (LLM) har vi udviklet en analytisk platform, der ligner ChatGPT, og som kan analysere virksomhedens interne data og generere svar på spørgsmål baseret på disse oplysninger.

Kunde

Industri
Region
STORBRITANNIEN
Kunde siden
2023

Vores kunde, en nystartet virksomhed, havde en vision om et produkt, der var designet til salg til deres største kunder i detailsektoren.

Detaljerede oplysninger om klienten kan ikke videregives i henhold til vilkårene i NDA'en.

Udfordring

Behovet for en analytisk platform, der giver øjeblikkelig adgang til interne dokumenter og leverer datadrevet indsigt

Det primære smertepunkt: Interne dokumenter, herunder medarbejderoptegnelser, markedsføringsdata og salgsoplysninger, er ikke tilgængelige. Med tusindvis af filer i formater som PDF, CSV, Parquet, TXT og DOCX er det tidskrævende og fejlbehæftet at finde og analysere specifikke oplysninger.

Sekundære udfordringer: Når en virksomhed vokser, øges mængden af dokumenter og information, hvilket yderligere forstærker udfordringerne med datatilgængelighed og -analyse. Uden et ordentligt dokumentanalysesystem bliver disse problemer mere og mere tydelige med tiden.

I erkendelse af disse udfordringer kontaktede vores kunde Innowise for at få en chatbot til dataanalyse med det mål at tilbyde den til deres største kunder.

Løsning

Chatbot-dataanalysesoftwaren er skræddersyet til at håndtere interne data

Innowise har udviklet chatbotten software til dataanalyse ved hjælp af de eksisterende store sprogmodeller. Chatsystemet fungerer på samme måde som tilgængelige bots, men er skræddersyet til at håndtere interne data. Udviklingen omfattede opbygning af et komplet system til integration af LLM med relations- og dokumentdatabaserne, herunder interne klientdatalagringsløsninger og tilvejebringelse af problemfri interaktion mellem platformen og brugerne.

Udvinding af information

Dokumentanalyse- og behandlingsfunktionerne gør det muligt at udtrække relevante oplysninger fra interne virksomhedsdokumenter såsom politikker, instruktioner, vejledninger, driftsdata og tekniske specifikationer. Det gør det muligt for brugeren hurtigt at få præcise og opdaterede svar på sine spørgsmål uden at skulle søge og analysere data manuelt.

RAG AI-forbedret ydeevne

Vi øgede chatbottens ydeevne ved at gennemføre daglige manuelle tests og forbedre chatbotten ved hjælp af retrieval-augmented generation (RAG) AI. Denne tilgang kombinerer informationssøgning med generering af naturligt sprog, hvilket gør svarene mere informative og relevante. Vi introducerede også et feedbacksystem til at analysere brugernes præferencer, hvilket forbedrede RAG yderligere og øgede brugernes tillid til chatbotten.

Hurtig svartid

Ved at implementere caching, optimering af forespørgsler og parallel behandling har vi forbedret hastigheden og effektiviteten af brugernes interaktion med chatbotten betydeligt. Brugerne kan modtage svar hurtigere takket være de ofte efterspurgte oplysninger, der er gemt i cachen. Derudover bruger vi parallel behandling til at fordele arbejdsbyrden, så systemet kan håndtere flere anmodninger på én gang. Det gør chatbotten mere responsiv, selv i spidsbelastningsperioder.

Udtræk af data fra Data Mart

Vi har oprettet et datalager til behandling af strukturerede relationsdata. Denne chatbot-funktion omfatter anmodninger om at hente oplysninger fra Data Mart. Ved at give direkte adgang til Data Mart gennem chatbotten kan brugerne nemt få de oplysninger, de har brug for, uden at konsultere andre kilder. Denne forenklede adgang betyder, at beslutningstagere har opdateret indsigt lige ved hånden, hvilket gør det lettere at reagere smidigt på markedsændringer og strategiske muligheder.

AI-drevet system til genfinding af dokumenter

Vi forbedrede dokumenthåndtering og genfinding ved at integrere Azure Data Lake Gen 2 til indlæsning af dokumenter, segmentering af dokumenter i bidder og brug af Azure OpenAI til at generere indlejringer. Disse indlejringer gemmes i Azure AI Search til effektiv analyse og hentning. Brugerforespørgsler behandles gennem Azure OpenAI Search, der sammenligner forespørgselsindlejringer med lagrede dokumentindlejringer for at levere relevante svar med det samme.

Forskellige muligheder for præsentation af information

Oplysningerne præsenteres i form af diagrammer skabt med Plotly, tabeller stylet med Material UI og direkte tekstindhold. Denne blanding gør indholdet mere engagerende og hjælper med at kommunikere detaljerne på en måde, der er let at forstå og handle på.

Stemmeforespørgselslogik med tekst-til-tale-oversættelse

Vores team integrerede stemmeforespørgselsfunktionalitet sammen med tekstbaserede interaktioner i chatbotten til dataanalyse. Brugerne kan nu ubesværet interagere med boten via stemmekommandoer med den ekstra mulighed for at oversætte talt tekst til skriftlig form.

Teknologier

Axios, Material UI, Plotly, React, React Context, react-markdown, TypeScript

Azure AI Search, Azure App Service, Azure Data Factory, Azure Data Lake Gen2, Azure Databricks, Azure Functions, Azure OpenAI, Bicep, Cosmos DB, Spark

Biblioteker

Axios, Material UI, Matplotlib, NumPy, Pandas, Plotly, PySpark, React Context, react-markdown, Streamlit, TypeScript

Proces

Først foretog vi en detaljeret analyse af forretningskravene og udarbejdede en omfattende plan for softwaren på baggrund heraf.

Dernæst skabte vi en visuel repræsentation af chatbotten, som omfattede wireframes, prototyper og mockups, baseret på de oplysninger, vi indsamlede. Designfasen fokuserede på at skabe en brugervenlig grænseflade, der ville give kunderne nem navigation og adgang til chatbottens funktioner.

Udviklingen omfattede oprettelse af et system i fuld skala til at integrere LLM med både relations- og dokumentdatabaser, herunder interne klientdatalagringsløsninger. Vi sørgede for en smidig interaktion mellem platformen og brugerne ved at anvende naturlig sprogbehandling (NLP) til straks at udtrække nøgleoplysninger og integrere retrieval-augmented generation (RAG) AI til kontekstuelt relevante svar. 

Vi optimerede ydeevnen gennem caching, forbedret forespørgselseffektivitet og parallel behandling, samtidig med at vi gav direkte adgang til strukturerede data fra Data Mart. 

Endelig har vi indarbejdet stemmeforespørgsler og tekst-til-tale-funktioner for at øge tilgængeligheden og imødekomme forskellige brugerbehov.

Hold

1

Front-end udvikler

1

Backend-udvikler

1

Dataforsker

1

Data Engineer

1

Data Engineer / DevOps

Resultater

En 67% forbedring af ventetiden for forespørgsler og databehandling

Vores team har udviklet en skræddersyet analyseplatform, som vores kunder derefter personligt har evalueret gennem praktisk afprøvning. Det har resulteret i flere bemærkelsesværdige resultater:

  • Operationel smidighed og hurtigere, informeret beslutningstagning: Implementering af et distribueret storage- og computersystem med Azure Databricks, ADLS Gen2 og Spark-funktioner har styrket løsningen med hurtigere databehandling og skalerbarhed til håndtering af store datasæt.
  • En 67% forbedring af ventetiden for forespørgsler og databehandling: Opretholdelse af lav latenstid betyder hurtigere svartider for forespørgsler og databehandling, hvilket fører til forbedret pålidelighed og platformens ydeevne.
  • Teamet øgede produktiviteten: Teams har fået et stort effektivitetsløft med hurtig filadgang og -styring. Med bedre samarbejde og mindre administrativt arbejde kan teammedlemmerne fokusere mere på deres kerneopgaver og skubbe projekterne fremad med større hastighed.

 

Denne avancerede chatbot-platform leverer en enestående ydeevne og forbedrer brugeroplevelsen ved hurtigt at udtrække vigtige oplysninger fra interne dokumenter ved hjælp af NLP. Integreret med RAG AI for kontekstuelt relevante svar optimerer den svartiden gennem caching, forespørgselseffektivitet og parallel behandling, samtidig med at den giver direkte adgang til strukturerede data fra Data Mart. Stemmeforespørgsler og tekst-til-tale-funktioner øger tilgængeligheden og imødekommer forskellige brugerbehov. 

Vores kunde begyndte at tilbyde løsningen til sine kunder, og den vandt hurtigt indpas med imponerende salgstal. Løsningens effektivitet og brugervenlighed har ført til høj tilfredshed blandt deres kunder, hvilket yderligere styrker dens succes på markedet.

Projektets varighed
  • Oktober 2023 - februar 2024

67%

Hurtigere forespørgsler og databehandling

34%

Forøgelse af teamets præstationer

    Kontakt os

    Book et opkald eller udfyld formularen nedenfor, så vender vi tilbage til dig, når vi har behandlet din anmodning.

    Send os en talebesked
    Vedhæft dokumenter
    Upload fil

    Du kan vedhæfte 1 fil på op til 2 MB. Gyldige filformater: pdf, jpg, jpeg, png.

    Ved at klikke på Send accepterer du, at Innowise behandler dine personlige data i henhold til vores Politik for beskyttelse af personlige oplysninger for at give dig relevante oplysninger. Ved at indsende dit telefonnummer accepterer du, at vi kan kontakte dig via taleopkald, sms og beskedapps. Opkalds-, besked- og datatakster kan være gældende.

    Du kan også sende os din anmodning
    til contact@innowise.com

    Hvad sker der nu?

    1

    Når vi har modtaget og behandlet din anmodning, vender vi tilbage til dig for at beskrive dine projektbehov og underskriver en NDA for at sikre fortrolighed.

    2

    Når vi har undersøgt dine ønsker, behov og forventninger, udarbejder vores team et projektforslag med forslag med arbejdets omfang, teamstørrelse, tids- og omkostningsoverslag.

    3

    Vi arrangerer et møde med dig for at diskutere tilbuddet og få detaljerne på plads.

    4

    Til sidst underskriver vi en kontrakt og begynder at arbejde på dit projekt med det samme.

    pil