Le Big Data et l’analytique sont des sujets très discutés dans les actualités commerciales et informatiques depuis un certain temps. Cette capacité émergente d’exploration et d’analyse de vastes quantités de données pour reconnaître des modèles, des corrélations et des tendances n’a jamais été possible auparavant. Les flux simultanés d’amélioration de l’évolutivité, de la vitesse et de l’accessibilité financière du matériel, ainsi que les progrès des capacités logicielles en matière de traitement du langage naturel et d’intelligence artificielle, se sont conjugués pour rendre cela possible. Le stockage relativement bon marché permet de collecter et de conserver d’énormes quantités de données provenant d’un nombre impressionnant de sources, y compris la quasi-totalité des programmes ou applications des smartphones et des appareils informatiques. Imaginer des applications pratiques et utiles pour cette capacité est l’un des rares facteurs limitant le déploiement florissant de cette technologie.
Toutes les entreprises conservent des documents transactionnels et des documents destinés aux clients dans des référentiels de contenu non structuré. Ces documents contiennent généralement des instantanés historiques et un contexte commercial unique pour une grande partie de ce qui se passe dans l’entreprise. Bon nombre de ces éléments de données commerciales pertinents ne sont réunis qu’à un seul endroit, à savoir dans les communications conformes à la réglementation destinées à vos clients. C’est pourquoi ces documents sont souvent appelés la « source unique de la vérité » et c’est pourquoi ces documents peuvent être une source de données si importante pour vos initiatives de Big Data et d’analyse.
Jusqu’à présent, les données structurées ont été la cible et la source principales du Big Data et des moteurs d’analyse et des cas d’utilisation dont nous avons entendu parler. Si l’on considère que 90 % des données potentielles sont non structurées et souvent « enfermées » – loin des yeux et de l’esprit – dans des référentiels de contenu départementaux et d’entreprise, il devient évident qu’il s’agit d’un vaste réservoir inexploité de données potentielles à explorer.
Les référentiels de contenu qui hébergent ces données non structurées sont notoirement propriétaires, cloisonnés et opaques. Il est difficile de savoir ce qu’elles contiennent et, même si vous le savez, il est difficile de les extraire et de les réutiliser. La conservation d’une grande partie des données archivées dans ces référentiels est imposée par diverses réglementations et politiques d’entreprise. De nombreuses entreprises les considèrent comme des maux nécessaires et coûteux qui n’ajoutent que peu ou pas de valeur ou d’avantage concurrentiel – en tout cas pas suffisamment pour compenser leurs coûts.
Et s’il existait un moyen de découvrir le contenu de ces archives, de l’extraire, de le reformater et de le mettre en scène pour l’introduire dans une application d’analyse de données massives (Big Data Analytics) ? Et s’il existait des cas d’utilisation convaincants pour l’exploration et l’analyse de ces données afin d’identifier des modèles, des corrélations et des tendances, ou pour satisfaire aux exigences de conformité réglementaire ? Cela bouleverserait la proposition de valeur de ces archives en transformant une riche source de données, considérée comme un mal nécessaire et coûteux, en une source de valeur et d’informations pour l’entreprise.
Un exemple concret de cette situation s’est produit lorsqu’une grande banque a dû fournir une preuve légale de sa conformité aux réglementations bancaires en fournissant une analyse complète de ses 10 dernières années de relevés de cartes de crédit de ses clients. Elle avait besoin d’une solution automatisée pour identifier, extraire et réaffecter les informations nécessaires pour répondre à ses obligations réglementaires. CrawfordTech a développé et déployé un logiciel spécialement conçu pour trouver et récupérer les relevés archivés au format AFP, puis pour identifier et extraire toutes les données nécessaires, en les convertissant en XML.
Une fois extraits, les relevés ont été transmis à un système d’audit analytique afin que les données puissent être analysées pour détecter d’éventuelles surcharges et surpaiements. Le déploiement de cette solution a permis à la banque de corriger de manière proactive les erreurs qu’elle a pu commettre et de fournir des preuves de conformité aux régulateurs, ce qui a permis d’accroître la satisfaction des clients et d’éviter des amendes potentiellement coûteuses.
L’imagination est le facteur limitant de l’exploitation de ces données historiques archivées uniques pour des applications innovantes, à mesure que l’analyse des Big Data devient plus répandue, voire omniprésente.
Chez Crawford Technologies, nous comprenons les archives de contenu, les formats de documents et de données, et nous offrons de nombreux outils habilitants et innovants pour gérer, étendre et extraire une plus grande valeur de votre investissement dans la gestion de contenu d’entreprise.












