Cependant, force est de constater qu’en dépit des progrès réalisés en termes de couverture fonctionnelle des métiers, le système reste souvent, pour les décideurs, les gestionnaires et les étudiants, une source de frustration, avec un sentiment bien ancré que toutes les promesses n’ont pas été tenues et qu’un chemin significatif reste à parcourir :
• la dématérialisation des processus reste souvent fragmentée, avec pour conséquence de faire peser une charge importante sur les gestionnaires, qui doivent compenser par des stratégies de contournement les failles du système et les cas particuliers.
• pour étendre la couverture fonctionnelle, le système d’information tend à se complexifier, avec pour conséquence de n’avoir qu’une poignée de spécialistes en capacité d’en avoir une vision d’ensemble et ajoutant à la difficulté de conduire les changements d’usages.
• dans un contexte de mouvement global de consolidation et de regroupement des établissements, les outils du SI n’ont bien souvent pas été en capacité d’épouser pleinement la diversité des modes de gestion propres à chaque entité organisationnelle, qu’elle soit établissement, faculté, école, ou tout autre forme de composante.
On peut dès lors raisonnablement s’interroger sur le futur des systèmes d’information en université, microcosme très spécifique qui échappe pour partie aux lois du marché grâce à une culture bien ancrée de mutualisation à travers des dispositif variés, du plus institutionnel au plus spontané, qui en font toute la richesse. De quoi sera fait l’avenir, quels seront les challenges à relever, les injonctions contradictoires à résoudre ?
On peut en effet dès aujourd’hui identifier plusieurs lignes de tensions et paradoxes structurels auxquels les systèmes d’information sont exposés :
• Silotage métier vs transversalité fonctionnelle
• Convergence vs Agilité
• Performance vs Souveraineté
• Internalisation vs Externalisation
L’un des points de faiblesse du SI universitaire tient au fait qu’il s’est construit de manière incrémentale en épousant les silos métier. Si ce phénomène est assez naturel, au sens où il permet de plus facilement conduire les projets correspondants, il pose à terme problème pour aboutir à un SI cohérent et interopérable à l’échelle de l’établissement. Le meilleur exemple pour illustrer ce propos est sans doute le cas de la formation continue, qui a progressivement pris une part croissante dans l’activité de l’université et joue maintenant un rôle crucial dans ses équilibres budgétaires.
Or cette activité, qui n’a pas été initialement prise en compte dans le champ SI de la scolarité, a donné lieu à la construction de systèmes spécifiques, pour partie redondants avec ceux déjà existants pour les étudiants en formation initiale. Plusieurs solutions peuvent permettre de combler ce défaut : développer l’interopérabilité de systèmes dans le sens d’architectures orientées service, travailler à la bonne gouvernance des données ou encore s’appliquer à réaliser des exercices prospectifs pour anticiper les transformations de fond de l’université et permettre une évolution par le haut de l’écosystème applicatif. Cela passe aussi par un meilleur ancrage des pratiques de gestion de projet au sein des universités, qui doivent permettre en premier lieu de pouvoir réellement aborder les sujets de transformation dans une approche multipartite, et ainsi réduire les effets de silos.
Comme indiqué plus haut, l’une des tendances de fond qui a marqué le secteur universitaire ces dernières années est le mouvement de consolidation qui a conduit les établissements à fédérer des entités toujours plus composites autour d’une administration centrale.
Or, certaines de ces entités peuvent parfois parfaitement s’intégrer dans un modèle de fonctionnement commun mais peuvent également parfois disposer de systèmes d’information très aboutis, taillés sur mesure et plus performants que celui de l’administration centrale. Accepter une telle cote mal taillée peut alors être difficile pour les équipes. Pour autant, il faut avoir également conscience que maintenir en parallèle plusieurs systèmes fonctionnellement redondants représente un coût et un risque opérationnel énorme pour les universités.
Face à ce problème, il n’existe pas de solution miracle, il faut pouvoir sortir par le haut : les systèmes centraux doivent évoluer pour offrir davantage de souplesse et d’interopérabilité avec les systèmes locaux, notamment en devenant plus modulaires. Cela permet de sortir de la politique du tout ou rien et d’induire une convergence progressive dans un modèle commun réellement adapté aux besoins. Par exemple, il doit être possible d’imaginer des configurations où des composantes disposent de leur propre système opérationnel qui alimentent des systèmes communs de pilotage s’alignant sur des formats de données standards.
La dégradation récente des relations entre l’Europe et les Etats-Unis a remis sur le devant de la scène un problème inégalement adressé : celui de la souveraineté numérique des services publics. L’Europe, comme le reste du monde, reste fortement dépendante des grands éditeurs et fournisseurs de services américains pour faire tourner ses systèmes. Les Etats-Unis peuvent ainsi, en théorie, paralyser les institutions européennes en enjoignant les grands acteurs de la tech à le faire. Ils peuvent également, en vertu du Patriot Act, accéder à toutes les données qui seraient gérées par ces systèmes.
Ce constat a redonné de la voix aux partisans de l’informatique libre dans l’université, avec notamment en ligne de mire Microsoft et Zoom. Ce choix, s’il est légitime et déjà ancré de longue date dans la politique numérique de certains établissements, a certainement un coût : celui de la performance. Le succès de Microsoft et Zoom n’est pas que le fruit de politiques commerciales prédatrices : il tient aussi aux moyens considérables investis dans leurs produits pour les rendre attractifs, performants et interopérables. On peut ainsi citer l’exemple de Big Blue Button, équivalent libre de Zoom, qui a eu beaucoup de mal à se faire une place pendant la crise COVID du fait de quelques défauts qui l’ont définitivement condamné aux yeux de nombreux utilisateurs.
Soyons clair : il n’est probablement pas possible de « renverser la table », ni même d’être certain que les choix allant dans le sens de la souveraineté ne se révèlent pas à terme aliénants. Il est néanmoins possible, sinon souhaitable, d’intégrer la notion de souveraineté au cœur de la politique numérique de chaque établissement et d’engranger progressivement des victoires, en choisissant bien ses combats et en les menant collectivement au bon niveau. Ce choix, pour être un succès, nécessite avant tout un portage politique fort à tous les niveaux institutionnels (y compris étatique), un engagement substantiel dans les dispositifs de mutualisation pour faire vivre des projets souverains et des décisions fortes pour maintenir ou développer les compétences requises.
Cette dualité fondamentale de stratégie économique reste plus que jamais d’actualité dans l’ESR. Aujourd’hui, l’informatique en nuage (Cloud Computing) est devenue un quasi-synonyme de l’externalisation de services numériques. Or, les universités françaises ont été longtemps très réticentes à faire appel à ce type de service, faisant prévaloir la logique comptable et patrimoniale d’investissement comme étant préférable à du budget de fonctionnement. Cependant, les éditeurs font pour beaucoup évoluer leurs modèles vers du SaaS (y compris l’AMUE) et la question environnementale (entre autres) rend de plus en plus délicat pour les universités de gérer en propre leurs infrastructures, fussent-elles regroupées au sein de datacenters régionaux. De la même manière, de plus en plus d’universités font appel à des SOC (Security Operation Center) qui leur permettent de faire superviser leurs systèmes en temps réel par des sociétés spécialisées en cybersécurité.
On observe ainsi un mouvement qui semble inéluctable de spécialisation conduisant à repenser le rôle de la DSI, qui évolue d’une position exclusive d’opérateur technique vers un rôle hybride entre opérateur technique et gestionnaire de contrats de services. Cette évolution n’est pas sans effet sur les équipes internes, qui voient leurs métiers se transformer en profondeur, passant de celui de musicien à celui de chef d’orchestre. Cette transformation structurelle doit être prise en compte dans le développement des compétences internes et doit induire de nouvelles approches dans la gestion des services numérique : l’approche SLA (Service Level Agreement) peut ainsi constituer un outil d’arbitrage intéressant, en s’interrogeant en premier lieu sur la capacité d’un établissement à délivrer un certain niveau de qualité de service plutôt que de raisonner en termes de capacité technique « théorique ». A terme, l’intérêt d’un établissement serait probablement de conserver en interne les activités à caractère différenciant et d’externaliser les activités plus génériques.
Enfin, comment rédiger un article en octobre 2025 sans parler d’IA ? Bien entendu, l’IA va complètement transformer l’approche au numérique. Outre tout ce qui a pu être dit sur ses apports dans l’enseignement, la gestion et la recherche, une révolution discrète tient également dans la capacité qu’elle offre à un être humain d’interagir avec une machine en langage naturel. Peut-être le début d’une belle amitié entre le SI et ses utilisateurs…