Accepter les données similaires : comment les entreprises apprennent à tirer profit du Big Data

En analysant le Big Data, les entreprises apprennent à découvrir des schémas cachés, améliorant ainsi leurs performances commerciales. La direction est à la mode, mais tout le monde ne peut pas bénéficier du big data en raison du manque de culture de travail avec eux

« Plus le nom d'une personne est courant, plus elle est susceptible de payer à temps. Plus votre maison a d'étages, plus vous êtes statistiquement un meilleur emprunteur. Le signe du zodiaque n'a presque aucun effet sur la probabilité d'un remboursement, mais le psychotype le fait de manière significative », explique Stanislav Duzhinsky, analyste chez Home Credit Bank, à propos de schémas inattendus dans le comportement des emprunteurs. Il ne s'engage pas à expliquer nombre de ces schémas – ils ont été révélés par l'intelligence artificielle, qui a traité des milliers de profils de clients.

C'est la puissance de l'analytique du Big Data : en analysant une énorme quantité de données non structurées, le programme peut découvrir de nombreuses corrélations que l'analyste humain le plus sage ne connaît même pas. Toute entreprise dispose d'une énorme quantité de données non structurées (big data) - sur les employés, les clients, les partenaires, les concurrents, qui peuvent être utilisées à des fins commerciales : améliorer l'effet des promotions, augmenter les ventes, réduire le roulement du personnel, etc.

Les premiers à travailler avec les mégadonnées ont été les grandes entreprises de technologie et de télécommunications, les institutions financières et le commerce de détail, commente Rafail Miftakhov, directeur du Deloitte Technology Integration Group, CIS. Aujourd'hui, de nombreuses industries s'intéressent à de telles solutions. Qu'ont réalisé les entreprises ? Et l'analyse des mégadonnées mène-t-elle toujours à des conclusions valables ?

Pas une charge facile

Les banques utilisent des algorithmes de mégadonnées principalement pour améliorer l'expérience client et optimiser les coûts, ainsi que pour gérer les risques et lutter contre la fraude. "Ces dernières années, une véritable révolution a eu lieu dans le domaine de l'analyse des mégadonnées", déclare Duzhinsky. "L'utilisation de l'apprentissage automatique nous permet de prédire la probabilité de défaut de paiement avec beaucoup plus de précision - l'impayé dans notre banque n'est que de 3,9 %." A titre de comparaison, au 1er janvier 2019, la part des prêts ayant des impayés de plus de 90 jours sur les crédits délivrés aux particuliers était, selon la Banque Centrale, de 5%.

Même les organisations de microfinance sont intriguées par l'étude des mégadonnées. "Fournir des services financiers sans analyser les mégadonnées aujourd'hui, c'est comme faire des calculs sans chiffres", déclare Andrey Ponomarev, PDG de Webbankir, une plateforme de prêt en ligne. "Nous émettons de l'argent en ligne sans voir ni le client ni son passeport, et contrairement au prêt traditionnel, nous devons non seulement évaluer la solvabilité d'une personne, mais aussi identifier sa personnalité."

Désormais, la base de données de l'entreprise stocke des informations sur plus de 500 800 clients. Chaque nouvelle application est analysée avec ces données dans environ 19 paramètres. Le programme prend en compte non seulement le sexe, l'âge, l'état civil et les antécédents de crédit, mais également l'appareil à partir duquel une personne est entrée sur la plateforme, son comportement sur le site. Par exemple, il peut être alarmant qu'un emprunteur potentiel n'ait pas utilisé de calculateur de prêt ou ne se soit pas renseigné sur les conditions d'un prêt. "À l'exception de quelques facteurs d'arrêt - disons que nous n'accordons pas de prêts aux personnes de moins de 95 ans - aucun de ces paramètres en soi n'est une raison de refuser ou d'accepter d'émettre un prêt", explique Ponomarev. C'est la combinaison de facteurs qui importe. Dans XNUMX% des cas, la décision est prise automatiquement, sans la participation de spécialistes du service souscription.

Aujourd'hui, fournir des services financiers sans analyser le Big Data revient à faire des calculs sans chiffres.

L'analyse des mégadonnées nous permet de dériver des modèles intéressants, partage Ponomarev. Par exemple, les utilisateurs d'iPhone se sont avérés être des emprunteurs plus disciplinés que les propriétaires d'appareils Android - les premiers reçoivent l'approbation des applications 1,7 fois plus souvent. "Le fait que le personnel militaire ne rembourse pas ses prêts près d'un quart moins souvent que l'emprunteur moyen n'a pas été une surprise", a déclaré Ponomarev. "Mais les étudiants ne sont généralement pas censés être obligés, mais en attendant, les cas de défaut de crédit sont 10% moins fréquents que la moyenne de la base."

L'étude des mégadonnées permet également le scoring pour les assureurs. Créé en 2016, IDX est engagé dans l'identification à distance et la vérification en ligne des documents. Ces services sont demandés par les assureurs de fret qui s'intéressent le moins possible à la perte de marchandises. Avant d'assurer le transport de marchandises, l'assureur, avec l'accord du chauffeur, vérifie la fiabilité, explique Jan Sloka, directeur commercial d'IDX. En collaboration avec un partenaire - la société de Saint-Pétersbourg "Risk Control" - IDX a développé un service qui vous permet de vérifier l'identité du conducteur, les données et les droits du passeport, la participation à des incidents liés à la perte de cargaison, etc. Après analyse la base de données des chauffeurs, l'entreprise a identifié un « groupe à risque » : le plus souvent, le fret est perdu chez les chauffeurs âgés de 30 à 40 ans ayant une longue expérience de conduite, qui ont souvent changé d'emploi récemment. Il s'est également avéré que la cargaison est le plus souvent volée par des conducteurs de voitures dont la durée de vie dépasse huit ans.

À la recherche de

Les détaillants ont une tâche différente : identifier les clients qui sont prêts à effectuer un achat et déterminer les moyens les plus efficaces de les amener sur le site ou en magasin. Pour cela, les programmes analysent le profil des clients, les données de leur compte personnel, l'historique des achats, les requêtes de recherche et l'utilisation des points bonus, le contenu des paniers électroniques qu'ils ont commencé à remplir et abandonnés. L'analyse des données permet de segmenter l'ensemble de la base de données et d'identifier des groupes d'acheteurs potentiels susceptibles d'être intéressés par une offre particulière, explique Kirill Ivanov, directeur du data office du groupe M.Video-Eldorado.

Par exemple, le programme identifie des groupes de clients, dont chacun aime différents outils de marketing - un prêt sans intérêt, une remise en argent ou un code promotionnel de réduction. Ces acheteurs reçoivent une newsletter par e-mail avec la promotion correspondante. La probabilité qu'une personne, ayant ouvert la lettre, se rende sur le site Web de l'entreprise, dans ce cas augmente considérablement, note Ivanov.

L'analyse des données vous permet également d'augmenter les ventes de produits et d'accessoires connexes. Le système, qui a traité l'historique des commandes d'autres clients, donne à l'acheteur des recommandations sur ce qu'il faut acheter avec le produit sélectionné. Les tests de cette méthode de travail, selon Ivanov, ont montré une augmentation du nombre de commandes avec accessoires de 12% et une augmentation du chiffre d'affaires des accessoires de 15%.

Les détaillants ne sont pas les seuls à s'efforcer d'améliorer la qualité du service et d'augmenter les ventes. L'été dernier, MegaFon a lancé un service d'offre "intelligente" basé sur le traitement des données de millions d'abonnés. Après avoir étudié leur comportement, l'intelligence artificielle a appris à former des offres personnalisées pour chaque client dans les tarifs. Par exemple, si le programme note qu'une personne regarde activement une vidéo sur son appareil, le service lui proposera d'augmenter la quantité de trafic mobile. En tenant compte des préférences des utilisateurs, la société offre aux abonnés un trafic illimité pour leurs loisirs préférés sur Internet - par exemple, utiliser des messageries instantanées ou écouter de la musique sur des services de streaming, discuter sur les réseaux sociaux ou regarder des émissions de télévision.

"Nous analysons le comportement des abonnés et comprenons comment leurs intérêts évoluent", explique Vitaly Shcherbakov, directeur de l'analyse des mégadonnées chez MegaFon. "Par exemple, cette année, le trafic AliExpress a été multiplié par 1,5 par rapport à l'année dernière, et en général, le nombre de visites dans les magasins de vêtements en ligne augmente : 1,2 à 2 fois, selon la ressource spécifique."

Un autre exemple du travail d'un opérateur avec des mégadonnées est la plateforme MegaFon Poisk pour la recherche d'enfants et d'adultes disparus. Le système analyse quelles personnes pourraient se trouver à proximité du lieu de la personne disparue et leur envoie des informations avec une photo et des signes de la personne disparue. L'opérateur a développé et testé le système en collaboration avec le ministère de l'Intérieur et l'organisation Lisa Alert: dans les deux minutes suivant l'orientation vers la personne disparue, plus de 2 XNUMX abonnés reçoivent, ce qui augmente considérablement les chances d'obtenir un résultat de recherche réussi.

N'allez pas au PUB

L'analyse des mégadonnées a également trouvé une application dans l'industrie. Ici, il vous permet de prévoir la demande et de planifier les ventes. Ainsi, dans le groupe d'entreprises Cherkizovo, il y a trois ans, une solution basée sur SAP BW a été mise en place, qui vous permet de stocker et de traiter toutes les informations de vente : prix, assortiment, volumes de produits, promotions, canaux de distribution, explique Vladislav Belyaev, CIO du groupe ” Cherkizovo. L'analyse des 2 To d'informations accumulées a non seulement permis de former efficacement l'assortiment et d'optimiser le portefeuille de produits, mais a également facilité le travail des employés. Par exemple, la préparation d'un rapport quotidien sur les ventes nécessiterait une journée de travail de la part de nombreux analystes – deux pour chaque segment de produit. Maintenant, ce rapport est préparé par le robot, ne passant que 30 minutes sur tous les segments.

"Dans l'industrie, le big data fonctionne efficacement en conjonction avec l'Internet des objets", déclare Stanislav Meshkov, PDG d'Umbrella IT. "Sur la base de l'analyse des données des capteurs dont l'équipement est équipé, il est possible d'identifier les écarts dans son fonctionnement et de prévenir les pannes, et de prédire les performances."

À Severstal, avec l'aide de mégadonnées, ils essaient également de résoudre des tâches plutôt non triviales, par exemple, réduire les taux de blessures. En 2019, l'entreprise a alloué environ 1,1 milliard de roubles à des mesures visant à améliorer la sécurité au travail. Severstal prévoit de réduire le taux de blessures de 2025% par 50 (par rapport à 2017). « Si un supérieur hiérarchique — contremaître, chef de chantier, chef d'atelier — constate qu'un salarié effectue certaines opérations de façon non sécuritaire (ne se tient pas aux mains courantes lors de la montée des escaliers du site industriel ou ne porte pas tous les équipements de protection individuelle), il écrit une note spéciale pour lui – PAB (de « audit de sécurité comportementale ») », explique Boris Voskresensky, responsable du département d'analyse des données de l'entreprise.

Après avoir analysé les données sur le nombre de PAB dans l'une des divisions, les spécialistes de l'entreprise ont constaté que les règles de sécurité étaient le plus souvent enfreintes par ceux qui avaient déjà eu plusieurs remarques auparavant, ainsi que par ceux qui étaient en arrêt maladie ou en vacances peu avant. L'incident. Les infractions au cours de la première semaine après le retour de vacances ou d'un congé de maladie étaient deux fois plus élevées que dans la période suivante : 1 contre 0,55 %. Mais travailler de nuit, en fin de compte, n'affecte pas les statistiques des PAB.

Déconnecté de la réalité

La création d'algorithmes pour le traitement des mégadonnées n'est pas la partie la plus difficile du travail, disent les représentants de l'entreprise. Il est beaucoup plus difficile de comprendre comment ces technologies peuvent être appliquées dans le contexte de chaque entreprise spécifique. C'est là que se situe le talon d'Achille des analystes des entreprises et même des prestataires externes qui, semble-t-il, ont accumulé une expertise dans le domaine du big data.

« J'ai souvent rencontré des analystes du Big Data qui étaient d'excellents mathématiciens, mais qui n'avaient pas la compréhension nécessaire des processus métier », explique Sergey Kotik, directeur du développement chez GoodsForecast. Il se souvient qu'il y a deux ans, son entreprise a eu l'occasion de participer à un concours de prévision de la demande pour une chaîne de magasins fédérale. Une région pilote a été choisie, pour tous les biens et magasins dont les participants ont fait des prévisions. Les prévisions ont ensuite été comparées aux ventes réelles. La première place a été prise par l'un des géants russes de l'Internet, connu pour son expertise en apprentissage automatique et en analyse de données : dans ses prévisions, il a montré un écart minime par rapport aux ventes réelles.

Mais lorsque le réseau a commencé à étudier ses prévisions plus en détail, il s'est avéré que d'un point de vue commercial, elles sont absolument inacceptables. La société a introduit un modèle qui a produit des plans de vente avec un euphémisme systématique. Le programme a compris comment minimiser la probabilité d'erreurs dans les prévisions : il est plus sûr de sous-estimer les ventes, car l'erreur maximale peut être de 100 % (il n'y a pas de ventes négatives), mais dans le sens de la surestimation, elle peut être arbitrairement grande, Kotik explique. En d'autres termes, l'entreprise a présenté un modèle mathématique idéal qui, dans des conditions réelles, conduirait à des magasins à moitié vides et à d'énormes pertes dues aux sous-ventes. En conséquence, une autre entreprise a remporté le concours, dont les calculs ont pu être mis en pratique.

"Peut-être" au lieu de big data

Les technologies de mégadonnées sont pertinentes pour de nombreuses industries, mais leur mise en œuvre active ne se produit pas partout, note Meshkov. Par exemple, dans le domaine de la santé, il y a un problème de stockage des données : beaucoup d'informations ont été accumulées et elles sont régulièrement mises à jour, mais la plupart de ces données n'ont pas encore été numérisées. Il existe également de nombreuses données dans les agences gouvernementales, mais elles ne sont pas combinées dans un cluster commun. Le développement d'une plate-forme d'information unifiée du Système national de gestion des données (NCMS) vise à résoudre ce problème, explique l'expert.

Cependant, notre pays est loin d'être le seul pays où, dans la plupart des organisations, les décisions importantes sont prises sur la base de l'intuition, et non de l'analyse de données volumineuses. En avril de l'année dernière, Deloitte a mené une enquête auprès de plus d'un millier de dirigeants de grandes entreprises américaines (avec un effectif de 500 personnes ou plus) et a constaté que 63 % des personnes interrogées connaissent les technologies du big data, mais ne disposent pas de toutes les infrastructures pour les utiliser. Parallèlement, parmi les 37 % d'entreprises ayant un haut niveau de maturité analytique, près de la moitié ont largement dépassé leurs objectifs commerciaux au cours des 12 derniers mois.

L'étude a révélé qu'en plus de la difficulté de mettre en œuvre de nouvelles solutions techniques, un problème important dans les entreprises est le manque de culture de travail avec les données. Il ne faut pas s'attendre à de bons résultats si la responsabilité des décisions prises sur la base de données volumineuses est attribuée uniquement aux analystes de l'entreprise, et non à l'ensemble de l'entreprise dans son ensemble. "Maintenant, les entreprises recherchent des cas d'utilisation intéressants pour le Big Data", déclare Miftakhov. "Dans le même temps, la mise en œuvre de certains scénarios nécessite des investissements dans des systèmes de collecte, de traitement et de contrôle de la qualité de données supplémentaires qui n'ont pas été analysées auparavant." Hélas, « l'analytique n'est pas encore un sport d'équipe », admettent les auteurs de l'étude.

Soyez sympa! Laissez un commentaire