Veuillez laisser vos coordonnées, nous vous enverrons notre aperçu par e-mail.
Je consens à ce que mes données personnelles soient traitées afin d'envoyer du matériel de marketing personnalisé conformément à la directive sur la protection des données. Politique de confidentialité. En confirmant la soumission, vous acceptez de recevoir du matériel de marketing
Merci !

Le formulaire a été soumis avec succès.
Vous trouverez de plus amples informations dans votre boîte aux lettres.

Innowise est une société internationale de développement de logiciels à cycle complet fondée en 2007. Nous sommes une équipe de plus de 1600+ professionnels de l'informatique développant des logiciels pour d'autres professionnels dans le monde entier.
À propos de nous
Innowise est une société internationale de développement de logiciels à cycle complet fondée en 2007. Nous sommes une équipe de plus de 1600+ professionnels de l'informatique développant des logiciels pour d'autres professionnels dans le monde entier.

Chatbot pour le développement de l'analyse de données : Amélioration de la latence de 67%

En utilisant les grands modèles de langage (LLM) existants, nous avons développé une plateforme analytique similaire à ChatGPT qui peut analyser les données internes de l'entreprise et générer des réponses aux questions sur la base de ces informations.

Client

Industrie
eCommerce
Région
UK
Client depuis
2023

Notre client, une startup émergente, avait une vision pour un produit destiné à la vente à ses principaux clients dans le secteur de la vente au détail.

Les informations détaillées concernant le client ne peuvent être divulguées en vertu des termes de l'accord de confidentialité.

Défi

Le besoin d'une plateforme analytique offrant un accès instantané aux documents internes et fournissant des informations fondées sur des données.

Point de douleur principal : Les documents internes, y compris les dossiers des employés, les données marketing et les informations sur les ventes manquent d'accessibilité. Avec des milliers de fichiers aux formats PDF, CSV, Parquet, TXT et DOCX, la localisation et l'analyse d'informations spécifiques prennent du temps et sont sources d'erreurs.

Défis secondaires : Au fur et à mesure qu'une entreprise se développe, le volume de documents et d'informations augmente, ce qui accentue encore les défis liés à l'accessibilité et à l'analyse des données. Sans un système d'analyse documentaire approprié, ces problèmes deviennent de plus en plus évidents au fil du temps.

Conscient de ces défis, notre client a contacté Innowise pour obtenir un chatbot pour l'analyse des données, dans le but de le proposer à ses principaux clients.

Solution

Le logiciel d'analyse de données du chatbot conçu pour traiter les données internes

Innowise a développé le chatbot logiciel d'analyse de données en utilisant les grands modèles linguistiques existants. Le système de chat fonctionne de la même manière que les bots disponibles, mais il est conçu pour traiter les données internes. Le développement a impliqué la construction d'un système complet d'intégration de LLM avec les bases de données relationnelles et documentaires, y compris les solutions de stockage des données des clients internes et la fourniture d'une interaction fluide entre la plateforme et les utilisateurs.

Extraction d'informations

Les capacités d'analyse et de traitement des documents permettent d'extraire les informations pertinentes des documents internes de l'entreprise tels que les politiques, les instructions, les guides, les données opérationnelles et les spécifications techniques. L'utilisateur peut ainsi obtenir rapidement des réponses précises et actualisées à ses questions sans avoir à rechercher et à analyser manuellement les données.

Performance améliorée par l'IA de RAG

Nous avons amélioré les performances du chatbot en menant les actions suivantes tests manuels quotidiens et en affinant le chatbot à l'aide de l'IA RAG (retrieval-augmented generation). Cette approche combine la recherche d'informations et la génération de langage naturel, ce qui rend les réponses plus informatives et plus pertinentes. Nous avons également introduit un système de retour d'information pour analyser les préférences des utilisateurs, ce qui a permis d'améliorer la RAG et d'accroître la confiance des utilisateurs dans le chatbot.

Temps de réponse rapide

En mettant en œuvre la mise en cache, l'optimisation des requêtes et le traitement parallèle, nous avons considérablement amélioré la vitesse et l'efficacité des interactions entre les utilisateurs et le chatbot. Les utilisateurs peuvent recevoir des réponses plus rapidement, grâce aux informations fréquemment demandées qui sont stockées dans le cache. En outre, nous utilisons le traitement parallèle pour répartir la charge de travail, ce qui permet au système de traiter plusieurs demandes à la fois. Le chatbot est ainsi plus réactif, même pendant les périodes de pointe.

Extraction des données du Data Mart

Nous avons créé un référentiel de données pour traiter des données relationnelles structurées. Cette fonctionnalité du chatbot comprend des demandes de récupération d'informations à partir du Data Mart. En fournissant un accès direct au Data Mart par l'intermédiaire du chatbot, les utilisateurs peuvent obtenir facilement les informations dont ils ont besoin sans avoir à consulter d'autres sources. Grâce à cet accès simplifié, les décideurs disposent d'informations actualisées à portée de main, ce qui leur permet de réagir avec souplesse aux changements du marché et aux opportunités stratégiques.

Système de recherche documentaire alimenté par l'IA

Nous avons affiné la gestion et la recherche de documents en intégrant Azure Data Lake Gen 2 pour l'ingestion de documents, la segmentation des documents en morceaux et l'utilisation de Azure OpenAI pour générer des embeddings. Ces encastrements sont stockés dans Azure AI Search pour une analyse et une recherche efficaces. Les requêtes des utilisateurs sont traitées par Azure OpenAI Search, en comparant les encastrements des requêtes avec les encastrements des documents stockés, afin de fournir instantanément des réponses pertinentes.

Diverses options de présentation de l'information

Les informations sont présentées sous la forme de graphiques créés avec Plotly, de tableaux stylisés avec Material UI et de textes simples. Ce mélange rend le contenu plus attrayant et aide à communiquer les détails d'une manière facile à comprendre et à mettre en œuvre.

Logique d'interrogation vocale avec traduction texte-parole

Notre équipe a intégré la fonctionnalité de requête vocale aux interactions textuelles dans le chatbot pour l'analyse de données. Les utilisateurs peuvent désormais interagir sans effort avec le chatbot par le biais de commandes vocales, avec la possibilité supplémentaire de traduire le texte parlé en texte écrit.

Technologies

Front-end

Axios, Material UI, Plotly, React, React Context, react-markdown, TypeScript

Back-end

Azure AI Search, Azure App Service, Azure Data Factory, Azure Data Lake Gen2, Azure Databricks, Azure Functions, Azure OpenAI, Bicep, Cosmos DB, Spark

Bibliothèques

Axios, Material UI, Matplotlib, NumPy, Pandas, Plotly, PySpark, React Context, react-markdown, Streamlit, TypeScript

Processus

Tout d'abord, nous avons procédé à une analyse détaillée des besoins de l'entreprise et élaboré un plan complet pour le logiciel sur cette base.

Ensuite, nous avons créé une représentation visuelle du chatbot, comprenant des wireframes, des prototypes et des maquettes, sur la base des informations que nous avons recueillies. La phase de conception s'est concentrée sur la création d'une interface conviviale qui permettrait aux clients de naviguer facilement et d'accéder aux fonctionnalités du chatbot.

Le développement a couvert la création d'un système à grande échelle pour intégrer LLM avec des bases de données relationnelles et documentaires, y compris des solutions de stockage de données pour les clients internes. Nous avons assuré une interaction fluide entre la plateforme et les utilisateurs en utilisant le traitement du langage naturel (NLP) pour extraire immédiatement les informations clés et en intégrant l'IA de génération augmentée de recherche (RAG) pour des réponses contextuelles pertinentes. 

Nous avons optimisé les performances grâce à la mise en cache, à l'amélioration de l'efficacité des requêtes et au traitement parallèle, tout en fournissant un accès direct aux données structurées du Data Mart. 

Enfin, nous avons intégré des fonctions d'interrogation vocale et de synthèse vocale afin d'améliorer l'accessibilité et de répondre aux divers besoins des utilisateurs.

Équipe

1

Développeur Front-End

1

Développeur Back-End

1

Scientifique des données

1

Ingénieur en données

1

Ingénieur de données / DevOps

Résultats

Amélioration de 67% du temps de latence pour les requêtes et le traitement des données

Notre équipe a développé une plateforme analytique sur mesure, que nos clients ont ensuite évaluée personnellement par le biais de tests pratiques. Cela a permis d'obtenir plusieurs résultats notables :

  • Agilité opérationnelle et prise de décision plus rapide et mieux informée : Le déploiement d'un système de stockage et de calcul distribué avec des Databricks Azure, ADLS Gen2 et des capacités Spark a renforcé la solution avec un traitement des données plus rapide et une évolutivité permettant de traiter des ensembles de données importants.
  • Une amélioration de 67% de la latence pour les requêtes et le traitement des données : Le maintien d'une faible latence se traduit par des temps de réponse plus rapides pour les requêtes et le traitement des données, ce qui améliore la fiabilité et les performances de la plate-forme.
  • Augmentation de la productivité de l'équipe : L'accès et la gestion rapides des fichiers ont permis aux équipes de gagner en efficacité. Avec une meilleure collaboration et moins de travail administratif, les membres de l'équipe peuvent se concentrer davantage sur leurs tâches principales et faire avancer les projets plus rapidement.

 

Cette plateforme de chatbot avancée offre des performances exceptionnelles et améliore l'expérience utilisateur en extrayant rapidement des informations clés à partir de documents internes à l'aide du NLP. Intégrée à RAG AI pour des réponses contextuelles pertinentes, elle optimise le temps de réponse grâce à la mise en cache, à l'efficacité des requêtes et au traitement parallèle, tout en offrant un accès direct aux données structurées du Data Mart. Les fonctions d'interrogation vocale et de synthèse vocale améliorent l'accessibilité et répondent aux divers besoins des utilisateurs. 

Notre client a commencé à proposer la solution à ses clients et celle-ci a rapidement gagné du terrain avec des chiffres de vente impressionnants. L'efficacité et la facilité d'utilisation de la solution ont conduit à des taux de satisfaction élevés parmi leurs clients, ce qui a renforcé son succès sur le marché.

Durée du projet
  • Octobre 2023 - février 2024

67%

une interrogation et un traitement des données plus rapides

34%

l'augmentation de la performance des équipes

Contactez nous!

Réserver un appel ou remplissez le formulaire ci-dessous et nous vous contacterons dès que nous aurons traité votre demande.

    S’il vous plaît, ajouter les détails du projet, la durée, la pile technologique, IT spécialistes nécessaires et d'autres informations pertinentes
    S’il vous plaît, ajouter les détails du projet, la durée, la pile technologique, IT spécialistes
    nécessaires et d'autres informations pertinentes
    Joindre des documents supplémentaires au besoin
    Charger file

    Vous pouvez joindre jusqu'à 1 fichier de 2MB au total. Fichiers valides : pdf, jpg, jpeg, png

    Nous vous informons que lorsque vous cliquez sur le bouton Envoyer, Innowise traitera vos données personnelles conformément à notre Politique de confidentialité dans le but de vous fournir des informations appropriées.

    Que se passe-t-il ensuite?

    1

    Après avoir reçu et traité votre demande, nous reviendrons vers vous pour détailler les besoins de votre projet et signer un accord de non-divulgation pour assurer la confidentialité des informations.

    2

    Après avoir examiné les exigences, nos analystes et nos développeurs élaborent une proposition de projet avec l'étendue des travaux, le nombre de membre de l'équipe, les délais et les coûts des coûts.

    3

    Nous organisons une réunion avec vous pour discuter de l'offre et parvenir à un accord.

    4

    Nous signons un contrat et commençons à travailler sur votre projet le plus rapidement possible.

    Merci !

    Votre message a été envoyé.
    Nous traiterons votre demande et vous recontacterons dès que possible.

    Merci !

    Votre message a été envoyé.
    Nous traiterons votre demande et vous recontacterons dès que possible.

    flèche