Trouver

De l’analyse des données avancée à l’analyse augmentée

D’après le bureau d’étude de marché Research & Market, le marché mondial des big data et de l’analyse commerciale représentait plus de 294 milliards de dollars en 2022 et ce chiffre pourrait doubler d’ici 2028. L’analyse des données connaît donc un succès exponentiel en vue d’améliorer et d’accélérer les processus décisionnels. Le machine learning et l’IA stimuleront davantage encore cette tendance. (Frans Godden)

Les entreprises collectent des quantités considérables de données sur leurs processus et leurs clients. L’analyse des données consiste à décortiquer cette masse d’informations pour en dégager des modèles, des tendances et des observations qui viendront étayer une meilleure prise de décisions. Une étude de McKinsey a ainsi démontré que la probabilité d’augmenter son bénéfice et son chiffre d’affaires est deux fois plus grande dans les organisations qui recourent à l’analyse des clients. Il n’est donc pas surprenant que le Bureau of Labor Statistics des États-Unis table sur une hausse de 23 % de la demande d’analystes de données au cours des dix prochaines années, dépassant largement la moyenne de 5 % pour toutes les autres branches du secteur.

L’analyste des données se voit donc confier une mission essentielle en tant que collecteur d’informations, qui ordonne et interprète, et qui résout les problèmes. Pour ce faire, il consulte un large éventail de sources, il vérifie l’exactitude des données, il leur applique des méthodes statistiques et il utilise enfin des outils de visualisation pour qu’à l’aide de schémas et de graphiques, les résultats se présentent clairement aussi pour les non-initiés. Son rôle est très complexe et très important car ses conclusions et ses recommandations peuvent façonner le moteur d’une organisation.

Ces dernières années, de nombreuses sociétés ont donc repris l’analyse des données dans leur offre : Tableau, Microsoft, Oracle et SAP, pour n’en citer que quelques-unes. SAS, qui vient de clôturer sa conférence annuelle, figure parmi les plus grandes entreprises logicielles non cotées dans le monde et, selon plusieurs analystes, elle est leader du marché en analyse avancée. En 2019, elle annonçait son intention d’investir 1 milliard de dollars dans l’IA et elle a ajouté 1 milliard supplémentaire en 2023.

Complémentaire

L’analyse traditionnelle n’aurait-elle donc plus sa place ? « Non, pas du tout », répond Mathias Coopmans, qui dirige l’équipe EMEA Enterprise Architecture chez SAS. « En 2016, nous avons lancé SAS Viya, une plateforme d’intelligence artificielle, de machine learning, d’analyse et de gestion des données, avec des cas d’usage impossibles à résoudre avec l’analyse traditionnelle. Aujourd’hui, nous constatons que de telles techniques traditionnelles restent demandées, notamment dans le secteur pharmaceutique, et que l’IA n’est pas encore en mesure de répondre à toutes les questions. »

Selon Mathias Coopmans, il faut plutôt voir dans l’IA un instrument complémentaire pour augmenter la productivité, afin d’obtenir des résultats plus rapidement. Un outil d’IA comme ChatGPT est surtout utile en marge de l’expertise humaine, car les analystes de données doivent évaluer d’un œil critique les suggestions faites par ChatGPT afin de vérifier l’exactitude de l’analyse. « Bien que l’IA et le machine learning gagnent sans cesse en importance dans l’analyse des données, il n’apparaît pas qu’ils remplaceront entièrement l’analyse humaine », dit Mathias Coopmans. « L’IA peut contribuer au traitement des données, mais nous aurons toujours besoin d’analystes pour les interpréter et prendre des décisions sur la base de ces résultats. Les analystes surpasseront toujours l’IA en matière de créativité et d’esprit critique. »

Poser la bonne question

Forrester distingue déjà l’émergence d’une nouvelle fonction au sein de l’entreprise : le CAIO, ou Chief AI Officer, qui exposera la stratégie en matière d’IA. Plus de 10 % des sociétés auraient déjà recruté un tel CAIO, chargé avec le CDO (Chief Data Officer) de maximaliser le rendement de l’IA. Pour y parvenir, selon Forrester, les travailleurs doivent également être formés à poser les bonnes questions afin d’obtenir les résultats les plus pertinents et les plus cohérents. De mauvaises questions ne génèrent que des réponses stupides. Il n’y a là rien de nouveau sous le soleil car ce principe s’appliquait déjà sans l’IA. Mais le problème est que la plupart des collaborateurs ignorent comment ils doivent formuler la question parfaite. Ils devront donc être formés à cet effet.

Dans son rapport ‘Predictions 2024: Data and Analytics’, Forrester pointe encore un autre phénomène : l’explosion des données non structurées dont le volume doublera encore cette année. L’idée qu’aujourd’hui, une entreprise maîtrise tout parfaitement est donc une illusion, mais celles qui investissent maintenant dans des pipelines non structurés pourraient bien prendre une longueur d’avance parce qu’elles seront capables de s’adresser à une clientèle beaucoup plus étendue grâce à l’analyse des données.

Données synthétiques

« Il reste toutefois un gros éléphant dans la pièce », dit Mathias Coopmans : « L’IA générative et les grands modèles de langage. Et non, la R&D chez SAS ne cherche pas à développer des modèles d’IA générative. De grands acteurs sur le marché sont en mesure de le faire beaucoup mieux. En revanche, nous sommes en train de développer un copilote dans le cadre de notre collaboration avec Microsoft pour voir comment aborder les problèmes des entreprises à l’aide de l’IA générative. Et il existe un second volet dans l’IA générative : les données synthétiques. Ce ne sont pas des grands modèles de langage, il s’agit d’une tout autre technologie, plutôt une branche latérale de l’IA générative, mais avec laquelle beaucoup de sociétés veulent travailler parce qu’il existe de bonnes applications en la matière. »

Comme leur nom l’indique, les données synthétiques sont des données générées artificiellement lorsque de vraies informations ne suffisent pas ou ne sont pas disponibles. Elles sont utilisées, par exemple, dans des tests de validation ou pour entraîner l’IA. Elles sont soit entièrement synthétiques, sans aucun lien avec des données véritables, soit partiellement synthétiques et mêlées à des informations authentiques, mais sans données sensibles. « Pourquoi utiliser des données synthétiques ? Avant tout, pour la protection de la vie privée », explique Mathias Coopmans. « En effet, il existe de très nombreuses règles sur ce qu’il est permis de divulguer ou non, mais ce problème ne se pose pas avec des données synthétiques puisque ce sont des données générées. Elles ne contiennent ni nom ni adresse, mais bien des informations permettant d’élaborer un modèle pour reconnaître un comportement : ce qu’est un fraudeur type ou un fidèle client, par exemple. »

Oui, mais…

Selon Gartner, les données synthétiques seront plus importantes que les données authentiques en 2030. Les organisations peuvent utiliser des données synthétiques pour tester un nouveau système lorsqu’elles ne disposent pas d’informations en direct ou pour compléter de petits ensembles de données existantes. La variante synthétique sert aussi lorsque des données ne peuvent pas être partagées pour des raisons de protection de la vie privée.

Les données synthétiques ont toutefois aussi leurs limites. Leur qualité est généralement très dépendante de la qualité du modèle avec lequel elles ont été générées. Des contrôles supplémentaires sont toujours nécessaires. Il s’agit notamment de les comparer à de véritables données humaines pour vérifier si les résultats sont fiables ou si le système n’est pas en train d’halluciner. Ceci explique pourquoi certains ne font pas confiance aux données synthétiques, qui sont aussi souvent considérées comme de moindre qualité. « Il existe néanmoins des plans pour les proposer en tant que service », dit Mathias Coopmans. « Je vous donne mes véritables données dans une sorte d’environnement ultra-crypté et vous me renvoyez des données synthétiques, anonymisées, que je peux alors utiliser dans mes outils sans porter atteinte à la vie privé ou autre problème. »

Analyse augmentée

D’après Gartner, un autre domaine connaît un succès grandissant : l’analyse augmentée, une catégorie de l’analyse qui utilise l’IA et le machine learning pour permettre à davantage de personnes de travailler avec des outils d’analyse via le traitement du langage naturel. « En quelques mots, selon Gartner, elle introduit l’IA dans la BI traditionnelle », explique Mathias Coopmans. « Il s’agit d’une technique que SAS utilise depuis longtemps déjà pour traduire une analyse qui aboutit à un tas de chiffres en un résultat que les gens peuvent comprendre. Par exemple, si l’analyse dit que la probabilité de rotation de mes clients est de 63 %, où cela me situe-t-il, ce taux est-il élevé ou faible ? Mais si cette analyse dit : si vous n’entreprenez rien dans les deux prochaines semaines, vous perdrez votre client, le message est limpide. »

L’analyse augmentée automatise notamment la préparation des données, les conclusions et les explications. Elle entend rendre l’analyse des données, non seulement plus accessible pour les non-initiés, mais aussi plus efficace pour les professionnels. Les tâches chronophages sont ainsi automatisées afin que l’utilisateur final puisse se concentrer sur les données qui présentent une vraie valeur. Elle donne alors plus vite une image complète et plus large, dans un contexte mieux défini. 

Retour
Partner Content
Partner Content
Infothèque
Nouveau Règlement général sur les installations électriques

Nouveau Règlement général sur les installations électriques - Notes de la Direction générale de l’Energie et fiche thématiques

Règlement général sur les installations électriques (RGIE)

Règlement général sur les installations électriques (RGIE) - Livres 1, 2 et 3
 

Nouveau site internet du Comité Général de Gestion

Nouveau site internet du Comité Général de Gestion pour le statut social des travailleurs indépendants (CGG)