Compétences… what’s next

Posted by Gilbert Azoulay on octobre 9th, 2018 under News  •  No Comments

Voilà un bon résumé des compétences attendues dans les années à venir. Modestement, le terme annoncé est 2022. Un bon résumé de ce qui sera attendu de nos jeunes diplômés mais également des collaborateurs dans les organisations. Cela confirme bien entendu ce que nous présentions sur l’importance les soft-skills et leur maîtrise nécessaire. Alors que l’intelligence émotionnelle est une « compétence » désormais nécessaire, la dimension « lecture, écriture, calcul » est clairement menacée. Comprendre : cela ne suffira plus. Dénicher, chercher, se projeter sont désormais des compétences qui feront la différence.

Un document à prendre avec du recul mais qui nous interroge sur les profils de postes, le recrutement et la performance de nos organisations.

Numérique : les 3 défis que la France doit relever en 2019

Posted by Gilbert Azoulay on octobre 1st, 2018 under News  •  No Comments

Nicolas J. Lecocq, expert du digital et du secteur IT, vient de publier une tribune autour des défis du digital en 2019. Défis à relever pour ne pas prendre de retard par rapport aux plus gros acteurs du domaine (États-Unis et Asie). En voici les principaux extraits.

1) La mutation des ressources humaines
La Quatrième révolution industrielle, autrement dit la révolution numérique, transforme la façon de travailler en profondeur en gommant les frontières entre les sphères physiques et virtuelles. Les innovations se succèdent à une vitesse exponentielle et tous les secteurs d’activités sont bouleversés.
L’enjeu principal est d’appréhender ce changement de façon globale. Dans les entreprises, le grand challenge n’est pas la technologie mais l’organisation ! Il est urgent de comprendre que le modèle économique doit être revu en profondeur. Les acteurs de l’économie en Europe ont trop souvent tendance à créer une division digitale sans forcément penser que c’est l’ensemble du modèle qui doit être revu pour permettre la réussite de cette révolution. Le focus doit également se faire sur le client et non pas sur le produit ou service, sans quoi cela va inévitablement résulter en un échec. Prenons un exemple. Avant, pour développer un site web, il suffisait de faire appel à un chef de projet et à un développeur qui vous livraient un outil fini et prêt à fonctionner. Désormais, la tendance est à une collaboration sur un mode itératif : on part d’un outil imparfait, comportant des erreurs, puis on corrige les bugs tout
en améliorant le produit pour satisfaire les clients.

Ainsi, pour que les entreprises françaises puissent être des acteurs crédibles du monde numérique, elles devront changer leur façon de fonctionner ! Pour ne pas prendre de retard face aux Etats-Unis et à l’Asie, il faut introduire de l’agilité et faire travailler les équipes de façon transversale. Cette transformation sera plus difficile à mettre en place dans les entreprises très hiérarchisées, mais elle est pourtant fondamentale.

2) Le SCRUM, le nouveau secteur qui recrute
La conséquence logique de la mutation organisationnelle des entreprises est la nécessité d’anticiper à tous les niveaux ses nouveaux besoins en compétences. En période de crise économique et de chômage, le SCRUM (la gestion de projets et notamment le développement de logiciels) apparaît dorénavant comme le secteur qui recrute. Dans les années à venir, la recherche de profils qualifiés va être de plus en plus importante car il s’agit d’un facteur clé de compétitivité pour toutes les structures. A titre d’exemple, il faut savoir que dès 2011 l’Observatoire des projets stratégiques a montré que le taux de réussite des projets de développement logiciel atteignait 42% avec les méthodes AGILE contre 14% avec les modèles
classiques (source).

La France a de réels atouts pour réussir cette transition. Aucun pays ne dispose d’une recette miracle, il y a de bonnes choses et de moins bonnes partout. Notre environnement culturel et politique se caractérise par un frein au changement très fort mais cet obstacle peut être surmonté. La France dispose d’une grande créativité, d’une indépendance et d’un esprit d’entreprise qui lui permettent de trouver ses propres solutions. A nous d’agir maintenant pour ne pas être dépassés demain ! Le PO (Product Owner) qui a une place particulière de passerelle vers le business et les clients, est également un secteur qui recrute. Malheureusement cette position est difficile à pourvoir dans la mesure où cela demande des compétences AGILE mais aussi une bonne connaissance de ses interlocuteurs et de leurs métiers et cela
représente parfois un vrai casse-tête.

3) La nécessaire prise en compte des failles de sécurité
En 2019, la sécurité va représenter un des défis majeurs des entreprises. Elles ne peuvent plus se contenter de lancer toujours plus de projets digitaux (sites web, applications, logiciels…) sans intégrer les risques et les éventuelles failles. Aux balbutiements d’Internet, la sécurisation était relativement
simple puisqu’il suffisait de protéger l’unique accès physique donnant un accès au web. Désormais, la situation est radicalement différente : l’information est visible partout et les données sont stockées dans des datacenters disséminés partout dans le monde. Les risques se sont donc multipliés mais les entreprises ne prennent que rarement le temps d’analyser ces enjeux pour apporter une réponse
satisfaisante. Les dirigeants ont souvent l’impression que leur responsabilité est plus floue et
qu’elle est partagée avec les géants du web diffusant ou stockant les informations. Mais la réalité est radicalement différente ! Il existe d’ailleurs en Europe une certaine défiance vis-à-vis des acteurs majeurs des plateformes digitales majoritairement américaines. C’est pourquoi la sécurité est d’autant plus importante, ses acteurs peuvent avoir accès aux données personnelles. Malheureusement les initiatives européennes concurrentielle sont marginales et peu pérennes.
Pour faire simple, il est possible de faire une comparaison avec la colocation. Avant, vous étiez l’unique locataire, voire le propriétaire, donc vous étiez le seul à connaître la valeur de vos biens et à connaître les risques. Maintenant, vous êtes en colocation ! S’il n’y a pas une remise en question en amont, il peut y avoir de grosses failles de sécurité : personne n’aura la responsabilité de verrouiller la porte, un colocataire peut laisser entrer des personnes que vous ne connaissez pas…

Infos :
LinkedIn : https://www.linkedin.com/in/nlecocq/
Nicolas J. Lecocq : nlecocq@gmail.com

Compliqué de reformer le web

Posted by Gilbert Azoulay on septembre 19th, 2018 under News  •  No Comments

A l’heure où le Parlement européen a voté la proposition sur la directive sur la réforme du droit d’auteur soumise par Bruxelles, en vue des négociations à venir pour conclure un accord final avec les États membres de l’Union, nous ne pouvons que nous réjouir de cette initiative qui vise à protéger les auteurs ou éditeurs de presse pillés ou plutôt rackettés par les géants du web. Ne nous y trompons pas : sans réactions de ce genre de la parte de l’Europe, seule organisation à pouvoir agir, nous aurions laissé un monstre à plusieurs têtes grandir. Je ne sais pas si nous pouvons encore nous réjouir tant le pouvoir des GAFAN est grand, mais l’idée de dire NON à un moment rassure … ou au moins fait du bien.

Résultat de recherche d'images pour "GAFA"

Soyons clairs et simples : sans réglementation minimum, ce sont les gros opérateurs du web qui remportent la mise sur notre dos. Évoquer la liberté pour critiquer ce texte est « idiot » puisque ne pas encadrer ces opérateurs… c’est justement réduire notre liberté de penser, d’acheter, de produire et même de partager, puisqu’on le sait bien : leurs algorithmes orientent nos actions. N’en déplaise à Lionel Maurel qui, dans une tribune surréaliste dans Libération, prône une liberté digitale qui ne sert en réalité que les opérateurs bien installés et multimilliardaires. Reconnaissons à nos confrères une grande ouverture d’esprit en publiant l’interview de Jean Marie Cavada, l’euro député, ou la réponse qu’avait faite David El Sayegh, secrétaire général de la Sacem.

Ils avancent comme argument la gratuité, la liberté et la liberté d’expression, mais c’est très cynique de dire que nous serions des censeurs en défendant nos droits, Emily Loizeau, France Info

Donc, soyons heureux de cette situation et profitons-en pour rappeler que nous avons également des acteurs pour organiser une façon de surfer. Face à Google qui ne laisse rien ou le moteur chinois qui restreint tout, nous disposons d’un moteur français – européen devrais-je dire  : Qwant. Un moteur performant qui propose des fonctionnalités intéressantes et éthiques. Profitons en pour changer nos habitudes en utilisant par exemple ce moteur de recherche à l’ouverture de notre ordinateur.

 

Résultat de recherche d'images pour "la loi"

En même temps, je reconnais que le temps d’Internet est compliqué à gérer face à la durée de rédaction des lois. A peine le vote achevé, le monde de la recherche était en émoi. Ainsi on peut lire dans l’agence de presse spécialisée News Tank HER : « Si les débats se sont principalement concentrés sur les différences entre les éditeurs de presse et les plateformes comme Google, pour la recherche, le principal enjeu était l’encadrement du TDM (Text and data mining), soit la fouille automatisée des données et des textes. Concrètement, le texte voté par les députés autorise les organismes et laboratoires travaillant sur le patrimoine historique à utiliser le TDM dans leurs travaux.  Les organismes de recherche pouvaient déjà, de manière très restreinte, utiliser le TDM dans la proposition initiale de directive de la Commission européenne présentée en 2016″.
« Mais cette autorisation des eurodéputés préconise des limitations dans le temps, dans l’utilisation des données et leur reproduction ; elle est ainsi jugée trop restrictive par le monde de la recherche. En outre, selon le texte voté, les États pourront aussi imposer des restrictions supplémentaires au TDM, avec pour effet de limiter l’exécution des travaux de recherche, ces derniers devenant trop onéreux à cause des droits d’auteur à reverser aux éditeurs de revues scientifiques ».

Résultat de recherche d'images pour "parlement européen"

L’EUA (European University Association) regrette que les eurodéputés n’aient pas « enrichi les positions trop limitées de la Commission européenne pour le Text and data mining ». « Cela crée un système qui peut être très inégalitaire entre les universités », déclare également Lidia Borrell-Damian, directrice pour la recherche et l’innovation de l’EUA, à News Tank. En outre, selon le texte voté, les États pourront aussi imposer des restrictions supplémentaires au TDM, avec pour effet de limiter l’exécution des travaux de recherche, ces derniers devenant trop onéreux à cause des droits d’auteur à reverser aux éditeurs de revues scientifiques.

Alors bien sûr, le texte n’est pas parfait et des zones d’ombres demeurent. Elles demeurent parce que la technologie va vite et que les usages sont rarement connus et anticipés. Du reste l’exercice serait quasi impossible.

Soyons donc vigilants, défendons nos intérêts à chaque instant pour préserver un contre pouvoir au bloc américain et à la Chine qui eux ne se posent qu’une seule question : qu’est ce qui est bon nous ?

Faisons comme eux : pensons à nous !

 

 

Un regard sur la sécurité

Posted by Gilbert Azoulay on septembre 10th, 2018 under News  •  No Comments

Bonjour à tous. C’est la rentrée et Les Lundis Tice reprennent leur production avec des contributions d’experts, des entretiens, des analyses. Tout ce que vous voulez savoir sur le digital sera – je l’espère – dans ce blog. Voici donc pour commencer l’année un regard proposé par Richard Conway, EMEA Strategy Manager chez LogMeIn, sur la Sécurité informatique et plus précisément « Comment armer son entreprise en 3 étapes clefs ».

Ces deux dernières années, nous avons assisté à des cyberattaques faisant un grand nombre de victimes. D’Uber qui a été la proie d’un piratage affectant 57 millions de personnes dans le monde, au désormais célèbre malware à rançon WannaCry qui a touché plus de 300 000 ordinateurs dans plus de 150 pays, les exemples ne manquent pas et inquiètent les responsables en entreprise mais également les dirigeants politiques. Le recours à une sécurité de pointe est plus que nécessaire, et pourtant, bien des sociétés ne savent pas comment s’armer efficacement pour lutter contre ces attaques qui font beaucoup de dégâts. Les menaces et les répercussions promettent à l’avenir d’être si spectaculaires, que plusieurs États membres de l’Union européenne, dont la France, ont décidé à travers la Commission européenne la mise en place d’un paquet cybersécurité. Portant le nom d’Acte européen pour la cybersécurité, il viserait à renforcer la résilience de l’Union européenne dans le domaine de la sûreté informatique. Faisant écho au RGPD entré en vigueur il y a quelques semaines, cet Acte fixerait des règles pour les entreprises. Encore débattu au Parlement européen, l’objectif de cet Acte vise à mettre la lumière sur le fait que beaucoup trop d’entreprises ne soulèvent pas vraiment l’impact que peut avoir une politique de sécurité numérique même minime pour les préserver d’attaques malignes.

Bien des entreprises continuent d’ignorer l’évolution des menaces et s’en remettent à la bienveillance de leurs employés pour éviter au maximum d’être attaqués, sans pour autant leur donner les bons moyens et outils pour le faire. L’une des portes d’entrée utilisées par les pirates informatiques concerne les mots de passe vulnérables des utilisateurs qui permettent d’accéder aux réseaux et de les infiltrer. D’ailleurs, 59% des internautes[1] avouent utiliser le même mot de passe pour tous leurs comptes, qu’ils soient privés ou professionnels. L’éducation des salariés aux règles simples de cybersécurité et de santé numérique est un point très important qui ne doit pas être mis de côté. Si des équipes performantes doivent aussi être là pour assurer la bonne sécurité des systèmes des entreprises, il existe des leviers à mettre en place par ces mêmes sociétés. Avant d’enclencher une refonte complète de la sécurité de son entreprise, voici 3 étapes clés à considérer.

Une culture de la surveillance à 360 degrés

L’erreur humaine est souvent la première cause soulignée pour expliquer et blâmer une atteinte à la sécurité. L’humain est un élément important de cette chaine, mais l’adoption d’une vision à 360 degrés implique la reconnaissance du rôle à la fois humain et technologique.

Le rôle des équipes informatiques est aussi d’identifier le changement des comportements au travail. La frontière entre vie privée et vie professionnelle devient de plus en plus floue. Avec la multiplication des pratiques comme le BYOD[2], ou encore le fait que les salariés consultent à la fois leurs comptes professionnels et personnels sur les mêmes appareils au travail intensifie le risque de danger pour l’entreprise. Si un employé clique sur un lien contenant un logiciel malveillant, l’ensemble du réseau de l’entreprise peut alors se trouver en danger. La brèche subie par Yahoo en 2017 est un exemple qui remet en contexte la force de nuisance des cybermenaces. Avec 3 milliards de mots de passe volés, c’est tout autant de points d’entrée qui peuvent être utilisés pour que les attaquants accèdent aux données d’une entreprise. Ces chiffres stupéfiants démontrent l’ampleur du problème et le besoin de trouver des remèdes efficaces.

Une technologie adaptée aux besoins de chaque entreprise

Bien que la technologie se soit très vite développée ces dernières années, bien des sociétés sont restées sur le carreau quant à la mise en place d’outils adéquats pour se protéger efficacement. Certaines pratiques, qui devraient faire bondir, sont encore monnaie courante. Par exemple, il n’est pas rare de voir certaines personnes garder des détails de cartes de crédit et de mots de passe référencés dans des documents Excel. Partagés avec plusieurs salariés par email et par chats, ces habitudes sont la garantie d’augmenter le niveau de menace en entreprise. C’est ici que les services informatiques doivent absolument évaluer les pratiques internes de la société, et lister les outils existants pour se protéger. Alors, un vrai plan d’action de sécurité pourra être envisagé.

Chaque entreprise étant différente, il n’est pas besoin d’adopter des niveaux de sécurité militaire pour une PME familiale, ce qui sera sûrement le contraire pour une société qui compte des centaines de salariés. Néanmoins, il existe bien des niveaux de sécurités dits de base pour tous, peu importe la taille des effectifs. Des outils de stockage de mots de passe et de partage existent et donne la possibilité de se connecter sans avoir à mémoriser plusieurs identifiants, voire d’utiliser toujours le même, par peur de l’oublier. Ce genre d’outils peut s’avérer très utile s’il on a besoin d’accéder à une variété d’outils de travail. A cela s’ajoute la mise en place d’authentification multifactorielle (authentification forte) qui devrait être appliquée à tous les comptes. Quant aux mesures d’urgence, cette procédure devrait être fortement considérée par toutes les entreprises, pour s’assurer qu’un employé qui quitte l’entreprise, n’ait plus accès aux données sensibles de la société.

La priorité absolue reste la formation et l’éducation

La prise de contrôle de la sécurité de l’entreprise doit également aller au-delà de la technologie. Les équipes informatiques devraient prendre le temps de régulièrement former leurs employés aux meilleures pratiques. Toutes les bases de la sécurité devraient être couvertes, y compris l’importance des mots de passe complexes et uniques, les risques entourant le fait d’apporter son propre appareil sur son lieu de travail et l’accès aux différents comptes sur les réseaux Wi-Fi publics. Idéalement, une politique de sécurité claire et concise devrait être élaborée – plus les conseils sont complexes et moins ils seront faciles à assimiler. La sécurité informatique en entreprise devrait avant tout être inclusive et l’utilisation d’un langage adapté à chacun une règle à suivre.

Plus les employés comprennent la nécessité de rester en sécurité, plus ils sont susceptibles d’adopter des pratiques et des technologies nouvelles. Tout cela a évidemment pour objectif, de préserver leurs données et celles de l’entreprise.

 [1] D’après une étude réalisée en mai 2018 du cabinet américain Lab 42.

 [1] « Bring Your Own Device » (Apportez vos appareils personnels). Pratique consistant à utiliser ses équipements personnels dans une contexte professionnel.

Blockchain quel avenir ?

Posted by Gilbert Azoulay on juillet 20th, 2018 under Non classé  •  No Comments

Dans une tribune intitulée « Blockchain : Retour vers le futur d’une technologie pleine d’avenir », Clément Francomme, Ceo-Fondateur d’Utocat revient sur cette technologie sur laquelle il fonde des ambitions importantes. Selon lui, « la blockchain qui a fêté ses dix ans nous offre l’occasion de jeter un coup d’œil dans le rétroviseur et de faire un point sur ses différentes avancées. L’occasion également de mesurer son degré d’adoption ». Car selon lui, « la blockchain ne fait effectivement pas (encore) l’unanimité ».

Résultat de recherche d'images pour "Clément FRANCOMME"

Conçue en 2008 pour héberger les transactions électroniques du Bitcoin, la blockchain a depuis réalisé un sacré bout de chemin. Notamment ces trois dernières années durant lesquelles presque tous les secteurs du marché y ont vu l’opportunité d’y traiter d’autres types de transactions (fichiers, droits d’auteurs, contrats, etc.) et de revoir par la même occasion les interactions avec les différents intermédiaires, chargés habituellement de s’en assurer. Prenons l’exemple d’Arcade City, concurrent direct d’Uber, qui a transposé les transactions entre conducteurs et passagers dans la blockchain. Affranchis des 20% de commission facturés par Uber, les chauffeurs acceptent d’adopter la devise de la startup américaine à savoir proposer aux passagers de payer le prix qu’ils estiment juste. La Blockchain favorise ainsi l’émergence de nouveaux acteurs sur des marchés parfois vieillissants qui, libérés des intermédiaires, voient leur champ des possibles se démultiplier et permet à de jeunes entrepreneurs d’offrir à moindre coût des services innovants. Mais tout le monde ne perçoit pas le potentiel de la technologie au même niveau.

Ni pour, ni contre, bien au contraire !

Les plus grands détracteurs soulèvent un nombre d’applications concrètes bien trop faible pour justifier un tel enthousiasme et surtout parler de révolution. « Après 10 ans d’existence, aucun grand acteur ne peut en effet se targuer de l’avoir adopté à 100% » peut-on lire de certains internautes. Et pour cause, dans le cadre d’un système de paiement, par exemple, cela s’expliquerait de la façon suivante : comparé au réseau Visa qui peut gérer 7 000 transactions par seconde, celui du bitcoin ne peut en faire que 7 et consomme beaucoup plus en énergie. Il y a en effet une belle marge de progression. En ce sens, des travaux de recherche basés sur l’utilisation de canaux de paiement entre individus baptisés, « lightning network », sont en cours afin de désengorger le volume de transaction géré par la blockchain Bitcoin. N’oublions pas qu’aux prémices d’internet créé en 1992, le réseau aura mis 10 bonnes années pour être présent comme il l’est aujourd’hui et a démarré sur le marché avec des modems étaient dotés d’une bande passante de … 14,4 « kilos » octets, plus de 1.000 à 10.000 fois moins rapide qu’aujourd’hui donc selon les installations.

Autre inquiétude, la blockchain permettrait de ne plus dépendre d’une organisation supérieure telle qu’un gouvernement. Un inconvénient si l’on considère la sécurité conférée par cette autorité en termes de contrôle. Reste que la blockchain n’a pas vocation à remplacer le rôle des intermédiaires légaux mais à permettre de se passer d’organisations supérieures pour tout ce qui nécessite le transfert de données et ne requérant plus qu’un humain s’en charge et en ai le monopole si le réseau peut s’en charger de manière plus sécuritaire et immédiate. Concernant la traçabilité, la blockchain marquerait un changement notoire car ce qui y est inscrit ne peut être modifié et est valable pour l’éternité ! Et, dans cette configuration, ce n’est plus une seule autorité qui a le contrôle mais l’ensemble des personnes qui participent au réseau. C’est le cas avec Everledger qui garantit la provenance des diamants au joaillier en indexant chaque diamant au sein de la blockchain.

Résultat de recherche d'images pour "blockchain"

Des opportunités en exploitation et en grand nombre à ce jour

Smart contracts, paiements entre particuliers, horodatage, stockage en ligne hyper sécurisé et décentralisé, micropaiements, transferts d’argents ou d’actifs, la blockchain représente, à bien des égards, un lot d’opportunités phénoménale et une source de démocratisation de beaucoup de services et de confiance partagée. Elle permettrait de faire travailler des inconnus entre eux et de faire également collaborer des acteurs qui ne se parlent pas habituellement. Côté transfert d’argent, le marché international connaît un problème important avec des commissions pouvant aller jusqu’à 10% de la somme prélevée par les plateformes de change. La blockchain peut répondre à ce problème avec des frais de fonctionnement beaucoup moins important (quelques centimes) et un temps de traitement raccourci de par la désintermédiation.

Quant aux transferts d’actifs, les jetons (tokens) émis par la blockchain peuvent recevoir une métadonnée contenant des titres financiers comme des actions ce qui fluidifie et simplifie le marché financier notamment en garantissant la possession d’un titre par le biais de la preuve numérique. Le Gouvernement s’est d’ailleurs récemment intéressé à cette question au travers d’une consultation initiée en décembre dernier dans le cadre de la loi Sapin 2.

Les possibilités de la blockchain n’en sont encore qu’à leur début mais elle incarne aujourd’hui un potentiel collectif. La participation commune à un modèle public permet à la technologie de bénéficier du meilleur tout en ayant accès à l’ensemble des connaissances actuelles.

 

 

A propos d’Utocat

Créée en 2014, Utocat est un éditeur de logiciel lillois spécialisé dans la connexion à la blockchain. Utocat a rejoint le programme EuraTechnologies en 2015 et bouclé en septembre 2016 une levée de fonds de 500.000 € qu’elle consacre à l’amélioration de l’excellence opérationnelle et de l’expérience utilisateur grâce aux nouvelles technologies.

Informations : http://www.utocat.com/

De l’influence de l’IA

Posted by Gilbert Azoulay on juillet 2nd, 2018 under Non classé  •  No Comments

David Remaud, Directeur Marketing DHATIM, revient sur l’impact de l’Intelligence artificielle sur les métiers et l’organisation. Au moment où nous tout le monde annonce le pire et le meilleure voici un point de vue intéressant.

Résultat de recherche d'images pour "intelligence artificielle"

Big Data et Intelligence Artificielle (IA) opèrent un changement dans nos manières de travailler et donnent naissance au collaborateur augmenté. Ce dernier, soutenu dans l’exécution de tâches complexes ou répétitives, peut alors acquérir de nouvelles compétences et/ou développer des services porteurs de valeur ajoutée. Oui, mais à condition que cette évolution induise une prise de conscience à la fois individuelle et collective, afin d’accompagner cette transformation dans toute la chaîne de valeur.

Une question de confiance avant tout

L’expérience d’apprentissage que vivent aujourd’hui certains collaborateurs avec l’arrivée de l’IA dans leur travail quotidien peut être rapprochée de celle rencontrée lors de l’apparition du tout premier smartphone. Aussi peut-on se demander quel impact elle aura sur leur vie professionnelle.

Le collaborateur doit-il craindre d’être un jour remplacé par une machine ? Pur fantasme, en réalité, puisqu’à ce stade et pour encore de nombreuses années, l’IA n’est pas techniquement en mesure d’effectuer la totalité du travail des cols blancs. D’ailleurs, les employés, s’ils perçoivent parfaitement la valeur de ces outils dans l’exécution de tâches pénibles, comme la saisie automatique de milliers de lignes Excel, sont aussi parfaitement conscients de leurs limites.

En revanche, ce qui peut freiner leur adoption, c’est que ces machines qui apprennent de manière intuitive fonctionnent à la manière d’une boîte noire. Si elles reproduisent parfaitement un processus pour atteindre le résultat attendu, elles sont cependant dans l’incapacité de l’expliquer. Dans ces conditions, comment leur faire confiance ? D’où la nécessité pour les collaborateurs d’apprendre à travailler avec ces nouveaux outils.

Une évolution incontournable

Cet apprentissage est d’autant plus important, que l’impact de ces outils apprenants sera différent d’un métier à l’autre. Certaines fonctions administratives, comme les gestionnaires de paie, les chargés de la conformité des données ou encore les employés de banque, par exemple, évoluent dans des environnements de plus en plus normalisés et contraignants. Un rythme qui s’intensifie, ainsi que des process qui se complexifient rendent difficile l’exercice quotidien de leurs métiers. Se pose donc une réelle question, doublée d’une très forte attente de leur part d’être augmentés pour continuer à fonctionner.

Cette réalité s’observe également dans les fonctions comptables ou de consulting, où la donnée joue désormais un rôle prépondérant. La compétition, toujours plus rude entre les cabinets, conduit à un besoin d’augmenter la productivité de manière significative. L’automatisation du traitement des dossiers est l’une des réponses, avec pour conséquence évidente de diminuer son coût. Mais que faire alors des collaborateurs à qui l’on retire une partie des tâches qui leur étaient dévolues ?

De nouvelles fonctions apparaissent

Le marché du travail, encore très segmenté par métiers, va devoir très vite se réorganiser avec l’arrivée de ses nouvelles technologies. En effet, l’intelligence artificielle et la robotisation vont non seulement permettre une évolution des tâches et compétences mais également laisser apparaître de nouvelles professions les « cols neufs », une nouvelle catégorie de travailleurs capables de gérer des situations auparavant dévolues aux professions intellectuelles, comme l’indique la dernière étude McKinsey. Certaines entreprises l’ont déjà compris et ont mis en place une organisation dite « agiles », où les employés sont réunis en équipes autonomes et flexibles. Mais attention tous les employés ne sont pas « digital addict » c’est pourquoi il est important de développer les compétences correspondant aux besoins des employeurs et packager des outils simples à utiliser.

Une transformation métier, mais pas seulement…

La solution s’impose d’elle-même : les métiers doivent évoluer, se transformer. Seulement, cela nécessite pour l’entreprise de revoir dans certains cas son modèle économique. En effet, dans le cas des cabinets comptables par exemple, l’amélioration de sa productivité va entraîner une diminution du coût de la prestation pour ses clients et, donc, une perte de revenu pour elle. Il va donc lui falloir contrebalancer ce phénomène.

Tout l’enjeu consiste à travailler sur la donnée pour en extraire de la valeur. Celle-ci doit permettre aux collaborateurs de mieux accompagner leurs clients, de les aider à bien se positionner sur leurs marchés, d’anticiper des problèmes de trésorerie, de développer de nouveaux services…

Les entreprises doivent bien avoir conscience de cette chaîne de conséquences lorsqu’elles prennent la décision d’augmenter leurs salariés, afin de réduire la pénibilité de leur travail et d’améliorer leur productivité. Cela ne peut se faire sans la mise en place d’un accompagnement au changement solide, prenant en compte l’ensemble des aspects éthiques, sociaux et technologiques.

CDO : Chief Data Officer !

Posted by Gilbert Azoulay on juin 18th, 2018 under Non classé  •  No Comments

Avec La transformation digitale, les entreprises ont dû s’adapter et trouver de nouvelles ressources pour gérer un Big Data toujours plus important mais crucial pour leurs activités.  De nouveaux métiers émergent comme le Chief Data Officer. Encore peu nombreux, DataGalaxy, (plateforme de cartographie des données) a réalisé une enquête auprès d’eux pour tenter de comprendre qui sont ces CDO, leurs cursus, leurs missions, les freins à leur développement, etc.  Mais aussi : que pensent-ils de l’arrivée de l’Intelligence artificielle dans leur travail ?

Résultat de recherche d'images pour "data"

CDO : des cursus variés et sur-diplômés

Les CDO ne viennent pas tous de filières informatiques ou scientifiques.

– 50 % ont suivi des études dans les filières de commerce/marketing ou management/gestion.

– 31 % ont fait une école d’ingénieurs (11,5 % généraliste et 19,2 % informatique)

Près de 85% des CDO ont un Bac+4 et plus. S’ils sont une majorité (42 %) à percevoir un salaire inférieur à 50 000 €, et presque autant (40 %) dans une fourchette allant de 50 000 à 100 000 €.

Plus de 42 % d’entre eux travaillent dans entreprises de plus de 1000 personnes mais ils sont quand même près de 31% dans des entreprises de moins de 250 employés.

Une fonction nouvelle, un recrutement interne, une expertise projet.

Près de 54% des CDO ont été nommés depuis moins d’1 an et 30% depuis 2 à 3 ans.

Le recrutement se fait majoritairement à l’interne (à 54%).

La proportion entre ceux venant des DSI et des directions métier est parfaitement égale à 26,9 % pour chacune. On peut en déduire que les entreprises recherchent des profils avec une expertise projet, une vision transverse, une capacité de pilotage. D’ailleurs on constate que le 2ème de vivier de recrutement est la SSII (11,5%). La maîtrise de la data est de plus en plus primordiale pour les entreprises expliquant le fait que 50 % des CDO sont rattachés à la Direction Générale.

Résultat de recherche d'images pour "chief data officer"

Les missions d’un CDO : qualité et fiabilité de la data avant tout

Comme dans tous les postes émergents et très récents, les missions ne sont pas figées et peuvent varier d’un CDO à l’autre. Mais il ressort clairement que le CDO est garant de la qualité et de la fiabilité de la data, de ses usages et de la stratégie de sa collecte.

Nous avons demandé aux CDO d’estimer l’importance de leurs missions au quotidien. Pour chacune d’elles nous avons proposé une échelle allant de 1 à 5 (1 étant la moins importante et 5 la plus importante). En cumulant les 2 plus hautes valeurs, il en ressort le top 6 ci-dessous :

–       81 % : assurer la qualité et la fiabilité des données

–       76 % : piloter l’usage de la donnée au quotidien

–       62 % : organiser la stratégie de collecte des données

–       60 % : assurer la conformité réglementaire liée aux données

–       58 % : assurer et organiser l’accès aux données

–       54 % : cartographier la donnée

Objectifs des missions des CDO : gouvernance des données et culture data en priorité

L’animation et la stratégie de gouvernance des données sont primordiales pour les CDO. Le classement par ordre d’importance des objectifs de CDO est le suivant :

–       Animer la gouvernance et la culture data : 79 %

–       Déployer une stratégie de gouvernance des données : 72 %

–       Accompagner la transformation digitale de l’entreprise : 71 %

–       Trouver de nouveaux usages aux données de l’entreprise : 63 %

–       Redonner confiance aux utilisateurs internes dans les données de l’entreprise : 59 %

Quels sont les freins des CDO dans l’accomplissement de leurs misions ?

Le principal frein est lié à un manque de culture data et une résistance au changement ainsi qu’à une méconnaissance du potentiel de la data.

On constate également que les CDO souhaiteraient être plus soutenus par leur hiérarchie. L’absence de moyens pour investir dans les outils n’est ressentie que par 19% des répondants.

Top 3 des freins :

–       Le manque de culture data dans l’entreprise et la résistance au changement : 68%

–       Une connaissance insuffisante des utilisateurs internes du potentiel des nouveaux usages liés à la donnée : 63 %

–       Le manque de soutien de la hiérarchie : 59 %

Les CDO et l’Intelligence Artificielle : pour quels usages ?

L’IA est bien accueillie par les CDO qui sont près de 54 % à estimer qu’elle facilitera beaucoup leur travail. L’IA va effectivement devenir incontournable avec un peu plus d’1/4 qui l’utilise déjà moyennement à fortement et 75% qui envisagent de l’utiliser prochainement.

L’IA : plébiscitée pour les analyses et la personnalisation

L’IA est plébiscitée dans le cadre des analyses prédictives. Sur une échelle de 1 à 5 dans leur utilisation ou intentions d’utiliser l’IA, le cumul des 2 plus fortes valeurs donnent les résultats suivants :

–          Analyses prédictives : 65 %

–          Personnalisation des offres et parcours clients : 46 %

–          Analyse de la qualité des données : 31 %

–          Automatisation de la gestion de la relation client : 31 %

Numérique, les idées reçues

Posted by Gilbert Azoulay on juin 4th, 2018 under News  •  No Comments

Les quatre idées reçues qui freinent la révolution numérique, Par Perry Krug, Principal Architect chez Couchbase.

La plupart des entreprises accordent désormais la priorité aux projets de transition numérique : une étude récente de Forrester laisse entendre que 85 % d’entre elles investiront cette année dans ce domaine. Toutefois, bien que cette transition soit très prometteuse, elle n’est pas toujours simple. En effet, la confusion et la désinformation qui entourent les projets numériques risquent de faire obstacle à la révolution numérique qui s’amorce.

Les entreprises incapables de se tourner vers le numérique de façon efficace se retrouvent à la traîne face à la concurrence. Dans une étude réalisée en 2017, les DSI britanniques accordent aux retardataires une durée de vie légèrement supérieure à cinq ans, avant de cesser leurs activités ou d’être absorbés par la concurrence, victimes de la dégradation du service client, d’une clientèle en baisse, de la chute de leurs recettes et de la diminution de leurs ressources. La disparition récente de Toys “R” Us et de Maplin sont de parfaits exemples de grandes marques ayant payé le prix fort de leur manque d’évolutivité.

En matière de prévention de la fracture numérique, grandes et petites entreprises doivent en tirer une leçon : aucune entreprise ne saurait échapper à la révolution numérique. En guise de démonstration, réfutons quatre idées reçues courantes sur la transition numérique :

Idée reçue n° 1 : « Le numérique exige des investissements considérables. »

IDC estime que les entreprises consacreront plus de 2 000 milliards de dollars à la transition numérique en 2019. A priori, les petites entreprises ne peuvent rivaliser avec une telle capacité financière, mais l’argent n’est pas toujours synonyme de succès. En effet, les DSI interrogés admettent que 84 % de leurs projets de transition numérique ont été annulés, retardés ou revus à la baisse. Il est clair qu’investir aveuglément dans la révolution numérique ne suffit pas : les entreprises doivent se concentrer sur leur façon de dépenser, pas seulement sur les montants. L’innovation numérique s’est largement démocratisée au cours de la dernière décennie. La généralisation des formules d’abonnement et des technologies en Cloud permettent même aux microentreprises de se doter des outils adéquats. En matière d’outils et de technologies, les petits investissements sont parfois très rentables.

Idée reçue n° 2 : « Nous ne disposons pas des ressources nécessaires pour entreprendre une transition numérique. »

D’après ce sondage réalisé en 2017 auprès de responsables informatiques, le manque de ressources, y compris de personnel qualifié pour mettre en œuvre et gérer le processus, constitue le principal obstacle à la réussite de la transition numérique. Cela étant, les entreprises qui déclarent disposer de « ressources limitées » sont généralement assez flexibles : elles subissent moins que les groupes internationaux les contraintes inhérentes à des procédures internes et à de grandes infrastructures technologiques existantes. Ceci leur permet de réagir plus rapidement face aux transformations du marché, de déployer de nouvelles technologies plus facilement ou de remplacer les anciennes.

Idée reçue n° 3 : « Notre clientèle s’accommode de la situation et ne s’intéresse pas au numérique. »

C’était peut-être le cas auparavant, mais plus aujourd’hui ! Les consommateurs actuels s’attendent à recevoir le même service personnalisé et permanent de la part de toutes les entreprises avec lesquelles ils traitent. Qu’il s’agisse de vendre aux consommateurs, à une petite ou à une grande entreprise, la montée en puissance des géants d’Internet et l’évolution du marketing numérique ont habitué les utilisateurs finaux à un dialogue multicanal, c’est-à-dire à la possibilité d’interagir avec leurs fournisseurs comme bon leur semble.

Si un client ne peut interagir avec vous comme il l’entend, il est fort probable qu’il ira tout simplement voir ailleurs : que vous soyez en concurrence avec des entreprises internationales, nationales ou locales, l’engagement du client est un élément clé pour se distinguer de la concurrence, et le numérique, un facteur de distinction considérable.

Idée reçue n° 4 : « Nous n’aurons jamais assez de clients pour justifier un passage au numérique. »

N’oubliez pas que la majorité des plus grandes entreprises du secteur numérique ont été fondées il y a 10 à 15 ans. Celles-ci ont connu une montée en flèche du volume des interactions avec leurs clients dans un laps de temps relativement court. Naturellement, la plupart des entreprises ne connaîtront pas le succès fulgurant de Pokémon GO, mais il est toujours utile de se pencher sur deux éléments clés de la transition numérique : l’évolutivité et la fiabilité. Les entreprises doivent pouvoir évoluer rapidement pour faire face à toute hausse imprévue de la demande. Il importe également de s’assurer que l’entreprise peut continuer à fonctionner sans heurts dans d’autres circonstances, par exemple si les salariés doivent soudainement travailler à distance, si les locaux sont victimes d’un sinistre ou si les fichiers de l’entreprise sont infectés par un logiciel rançonneur.

En conclusion

Dans le cadre de la transition numérique, de nombreuses entreprises doivent adopter une nouvelle approche : envisager la technologie comme un catalyseur, et non comme une simple entrée du tableau des dépenses. Quelle que soit la taille de l’entreprise, il n’a jamais été aussi facile de tirer parti de la technologie, afin de susciter chez les salariés et les utilisateurs finaux ce sentiment de transparence indispensable à la réussite de toute transition numérique. Petites et grandes entreprises sont particulièrement bien placées pour bouleverser leur marché en accomplissant leur révolution numérique : il leur suffit de demeurer à l’écoute de leur clientèle et de proposer le meilleur service possible, via des plateformes numériques adaptées.

Infos : www.couchbase.com

 

Vous avez dit « IA sceptique »?

Posted by Gilbert Azoulay on mai 28th, 2018 under Interview  •  No Comments

J’ai eu le plaisir d’animer un débat sur l’IA dans le sup lors des assises du CSIER qui se tiennent cette semaine. Ont participé à cette table ronde Younès BENNANI (Vice-Président Transformation Numérique Université Paris 13 Sorbonne Paris Cité), Nadia JACOBY (Association VP-NUM) et Yann BERGHEAUD (Responsable du Pôle d’Accompagnement à la Pédagogie Numérique de la Direction du Numérique de l’université Lyon 3 Jean-Moulin, VP de l’Association nationale des services Tice et audiovisuels. Du chemin reste à parcourir en ce qui concerne les usages de l’intelligence artificielle par la communauté universitaire. Durant cette conférence nous avons d’ailleurs effectué un sondage en live en demandant qui a recours à l’IA dans l’assistance. Trois mains se sont levés pour nous raconter leur expérience.  J’ai été plus loin avec Yann Bergheaud qui a accepté de répondre à mes questions, notamment sur les limites de l’IA dans le supérieur.

Les limites de l’IA ?

L’information des usagers ciblés par l’IA doit être complète et ne pas se limiter de CGU (conditions générales d’utilisation). Il faut connaître les solutions techniques et les datas utilisées. A l’avenir le grand défi sera donc d’informer la masse sur la technologie utilisée. Sauf que l’IA se base sur un algorithme compliqué dont la valeur ajoutée réside justement dans sa complexité. C’est un point à éclaircir face à des personnes sceptiques. Le rapport de Cédric Villani préconise d’ailleurs la création d’un comité d’éthique. Pour ma part, je ne suis pas sur que ce soit la bonne solution. Cela doit passer essentiellement par la formation et l’information. Je rappelle que le RGPD prévoit que l’on permette à un étudiant soumis à un dispositif d’IA de s’y opposer.

Manque de compétences dans les universités ?

Ce qui nous manque dans les universités ce sont essentiellement les profils métiers : ingénieurs cogniticiens, datas scientist pour les modèles prédictifs, intégrateurs… Sans ces profils nous ne pourrons pas développer l’IA dans nos établissements. D’autant que nous sommes incapables de nous aligner en termes de rémunération. Il faut en prendre conscience.

On en est où à Lyon 3 ?

Nous avons misé sur le big datas, pour disposer de cartographies d’usages de la plate-forme pédagogiques et des services de l’universités . On fait de l’analyse et pas de prédictif. Mais cette première brique nous amènera bientôt vers l’IA sous réserve d’une stratégie nationale ou locale. On pourrait imaginer que les établissements locaux se regroupent pour avoir une politique commune.

Peut-on être « IA sceptique » aujourd’hui ?

Le scepticisme accompagne toutes les innovations. On ne pas prendre une innovation en se focalisant exclusivement sur les aspects positifs. Un certain recul est nécessaire pour éviter le risque de détournement contre l’humain. Dans l’éducation, il ne faudrait pas que l’IA impose des dispositifs de sélection, de discrimination ou une information tronquée. Nous devons y aller mais je ne sais pas encore comment réagiront les enseignants, les étudiants ou les personnels ? Quels seront les efforts à déployer en matière de formation ? Quelle technologie choisir au moment où elle change à grande vitesse ? Ce sont des questions centrales qui aboutissent en réalité à remettre au centre l’enseignement.

 

 

 

En Mode Projet

Posted by Gilbert Azoulay on mai 14th, 2018 under Non classé  •  No Comments

A quelques jours du colloque organisé par le CSIER (Comité des services informatiques de l’enseignement supérieur et de la recherche), son Président affiche les ambitions de cette organisation et revient  sur les défis auxquels sont confrontées les universités. Le numérique n’est à l’évidence pas une affaire d’argent mais bien de conduite du changement. L’organisation classique en silos a fait son temps, et c’est en mode projet que tout doit être désormais pensé. Une évidence à l’heure où la transformation digitale impose cette nouvelle approche. Une approche qui évitera des ratés, des dépenses inutiles et un retard irrattrapable sur le plan de la pédagogie. Le DSI à l’ancienne n’est plus un profil d’avenir. C’est bien un animateur du numérique qui devra être en place dans les établissements pour que tout le monde travaille ensemble à l’avenir.

CSIESR 2.0

Priorités. Il faut est de parvenir à construire une approche projet numérique dans l’ensemble des universités françaises. Nous ne pouvons plus réfléchir en silos et en structuration hiérarchiques rigides et peu agiles, avec d’un côté la technique, de l’autre les usages. « Le poste de DSI va évoluer pour laisser la place à des directions du numérique qui rassemble toutes les compétences, afin de ne pas travailler chacun dans son coin« , indique Yves Condemine, le Président du CSIER, par ailleurs VP de Lyon 3. « Le numérique doit être organisé en grands pôles de compétences complémentaires, sans recouvrement, mais s’ajustant parfaitement : infrastructures matérielles, systèmes d’information logiciels, support matériel aux utilisateurs, accompagnement à la pédagogie numérique, audiovisuel, avec des chefs de projet transverses animant des structures projets éphémères (de quelques semaines à quelques années pour les grands projets) et primant sur les hiérarchies administratives classiques« .

Gestion intégrée. Même si tous les acteurs agissent dans le bon sens, une trop grande hétérogénéité demeure . Et ce même si tout le monde ressent le besoin d’évoluer vers un nouveau mode de gestion plus intégré. Le COMUE sont une opportunité pour construire un nouveau modèle. La hiérarchie doit dans ce cadre nettement évoluer. Il faudrait par exemple pour chaque sujet clé des chefs de projet transverses animant les projets éphémères, en capacité de décider, au-delà des hiérarchies administratives classiques. Au niveau des universités, il est ainsi fondamental de réduire la profondeur hiérarchique our aller vite, être agile, réactif, répondre au mieux aux attentes de nos usagers, anticiper la transformation numérique, monter rapidement les réponses aux appels à projets et appels à manifestation d’intérêt…

Anticipation. La transformation numérique de nos organisation n’est pas une affaire exclusivement de gros sous, mais plutôt de posture. Ainsi anticiper, c’est se donner la capacité de ne plus subir celle-ci mais d’en être un acteur.  Les universités doivent être à l’écoute des innovations, de l’actualité des start-up, des bonnes pratiques, etc. Si l’on prend l’exemple de l’intelligence artificielle : a nous d’envisager dès à présent les scenarii et pas de se précipiter les yeux fermés. Quels en seront les apports dans nos usages au sein de l’écosystème ESR ? Nous devons répondre à cette question dans la mesure du possible.

Colloque du CSIERLes assises de l’association se tiendront du 22 au 25/05/2018 à Opio (Alpes-Maritimes). Thèmes abordés cette année :

  • Système d’information, architecture et Urbanisation, référentiels
  • Sécurité des Systèmes d’Information
  • Organisation de la DSI et Gestion des ressources humaines
  • Méthodes agiles et devops
  • Transformation digitale