<?xml version="1.0" encoding="utf-8"?>
<rss xmlns:atom="http://www.w3.org/2005/Atom" xmlns:webfeeds="http://webfeeds.org/rss/1.0" version="2.0">
  <channel>
    <atom:link href="http://pubsubhubbub.appspot.com/" rel="hub"/>
    <atom:link href="https://f43.me/jdn-lactu-tech.xml" rel="self" type="application/rss+xml"/>
    <title>JDN : l&amp;#039;actu tech</title>
    <description>Web &amp;amp; Tech : Derniers contenus</description>
    <link>http://www.journaldunet.com</link>
    <webfeeds:icon>https://s2.googleusercontent.com/s2/favicons?alt=feed&amp;domain=www.journaldunet.com</webfeeds:icon>
    <webfeeds:logo>https://hts-consulting.com/wp-content/uploads/2015/08/logo-jdn-300x300.png</webfeeds:logo>
    <webfeeds:accentColor>CE0609</webfeeds:accentColor>
    <generator>f43.me</generator>
    <lastBuildDate>Fri, 13 Mar 2026 05:36:50 +0100</lastBuildDate>
    <item>
      <title><![CDATA[L'IA rend vos KPI IT obsolètes]]></title>
      <description><![CDATA[<p class="app_entry_lead">L'intelligence artificielle bouleverse les entreprises : elle accélère les processus, automatise les tâches et redistribue les responsabilités.</p><aside>
<label for="slider-article" class="nl-box--subscribe-with-toggle jBindingSliderArticle">Je m'abonne aux Infos à ne pas rater</label>
</aside><p>Pourtant, les organisations continuent d'évaluer leur département IT avec les mêmes indicateurs qu'avant : uptime, nombre de tickets, Mean time to repair (MTTR), volume de déploiements…</p><p>Cette grille de lecture maintient l’IT dans un rôle d’exécution technique, alors même que son périmètre s’est profondément élargi. À l’ère de l’IA, la performance IT ne se limite plus à la livraison de fonctionnalités ou à la disponibilité des systèmes. Elle se mesure aussi à sa capacité à contribuer concrètement à la création de valeur business et à l’expérience utilisateur, en soutien direct des équipes métiers.</p><p>Ces <a href="https://www.journaldunet.fr/business/dictionnaire-du-marketing/1198189-kpi-key-performance-indicator-marketing-definition-exemples-okr/" title="Indicateur de performance">KPI</a> restent bien entendu utiles pour la stabilité opérationnelle, mais ils ne mesurent plus ce qui compte vraiment à l’ère de l’IA : la capacité à transformer l'entreprise et créer de la valeur. L'heure est venue de les repenser</p><h2>Les limites d'une vision purement opérationnelle</h2><p>Les KPI traditionnels donnent l'impression d'une performance maîtrisée, mais ils n'en capturent que la surface. Beaucoup d'entreprises affichent aujourd'hui des taux de disponibilité élevés, ainsi qu'un MTTR en baisse régulière. Pourtant, ces résultats flatteurs dissimulent souvent une réalité plus fragile. Certaines organisations respectent leurs engagements de disponibilité tout en laissant tourner plus de 40 % de leurs serveurs sur des versions non supportées¹. Elles apparaissent solides dans les chiffres, mais vulnérables dans les faits.</p><p>Ce contraste révèle un problème plus profond : les indicateurs qui ont structuré des années de gouvernance IT se concentrent sur la performance technique immédiate sans jamais évaluer ni la solidité réelle de l'infrastructure, ni la capacité à innover ou transformer l'entreprise.</p><h2>Quand la valeur devient le nouveau langage</h2><p>L'intelligence artificielle accélère, corrige et automatise. Dans certaines équipes, ne part croissante des interactions simples peut être résolue automatiquement sans intervention humaine. Pourtant, ces gains considérables n'apparaissent souvent que comme une baisse du volume de tickets, sans traduire la valeur réellement créée : temps libéré pour des tâches à plus forte valeur ajoutée, amélioration de l'expérience utilisateur, réduction des délais de réponse.</p><p>De la même manière, des modèles d'IA capables d'atteindre des niveaux de précision élevés permettent d’agir plus vite et avec plus de fiabilité, mais ces progrès restent invisibles dans des tableaux de bord construits autour de métriques héritées d'une époque manuelle.</p><p>La transformation se joue désormais dans la fluidité, la vitesse, la qualité de l'expérience utilisateur, la réduction des risques, l'adoption des outils, la capacité à livrer plus vite, à ajuster plus souvent. Ce sont ces dimensions (valeur créée, vitesse de transformation, appropriation par les métiers notamment) qui définissent la performance réelle d'une organisation moderne. Tant qu'elles ne sont pas mesurées, elles ne sont pas pilotées.</p><h2>Réinventer les métriques… et la gouvernance !</h2><p>Changer les indicateurs ne consiste pas seulement à enrichir un tableau de bord : c'est redéfinir la place de l'IT dans l'entreprise. Tant que les organisations continueront de piloter leurs équipes techniques comme des centres de coûts, elles continueront de leur demander des preuves d'exécution. Elles valoriseront la conformité au détriment de la transformation. Elles regarderont le fonctionnement plutôt que le mouvement.</p><p>À l'inverse, lorsqu'une entreprise choisit de mesurer la valeur générée par ses projets technologiques, l'accélération permise par l'automatisation, la maturité digitale atteinte, la réduction des risques obtenue ou l'adoption réelle des outils par les équipes métiers, elle repositionne immédiatement l'IT comme un levier stratégique. </p><p>Cette évolution nécessite un double mouvement : conserver les indicateurs opérationnels qui garantissent la stabilité, tout en ajoutant des métriques qui mesurent l'impact stratégique. Le MTTR reste pertinent pour suivre la réactivité face aux incidents. Mais il doit être complété par des indicateurs comme le pourcentage de processus automatisés, le ROI des projets d'innovation, le temps de mise sur le marché des nouvelles solutions, ou encore l'alignement entre les initiatives IT et les objectifs métiers.</p><p>L'IA impose un changement profond : elle oblige les organisations à passer d'une logique de maintenance à une logique de transformation. Les indicateurs doivent désormais refléter ce déplacement. Ils doivent montrer non seulement que les systèmes fonctionnent, mais qu'ils créent de la valeur, qu'ils accélèrent l'innovation, qu'ils réduisent les risques et qu'ils permettent à l'entreprise de s'adapter plus rapidement à son environnement.</p><p>En rendant lisible sa contribution à la valeur business et à la valeur utilisateur, l'équipe IT démontre qu’elle s'inscrit pleinement dans la dynamique de l'entreprise et affirme son rôle d'équipe support connectée aux métiers et au business.</p>]]></description>
      <link>https://www.journaldunet.com/solutions/dsi/1548593-l-ia-rend-vos-kpi-it-obsoletes/</link>
      <guid>https://www.journaldunet.com/solutions/dsi/1548593-l-ia-rend-vos-kpi-it-obsoletes/</guid>
      <pubDate>Mon, 09 Mar 2026 17:38:00 +0100</pubDate>
    </item>
    <item>
      <title><![CDATA[Automatisation industrielle : pourquoi accumuler les " meilleurs systèmes " complique tout]]></title>
      <description><![CDATA[<p class="app_entry_lead">L'accumulation de systèmes hétérogènes crée une complexité qui pèse sur les coûts et la productivité. En présence de systèmes fournisseurs multiples, il est crucial d'évaluer avec soin la rentabilité</p><aside>
<label for="slider-article" class="nl-box--subscribe-with-toggle jBindingSliderArticle">Je m'abonne aux Infos à ne pas rater</label>
</aside><p>Scène familière dans une usine : le technicien fait face à trois panneaux de commande distincts. Trois interfaces, trois modes de fonctionnement, trois langages. Pour chaque fonction, l’entreprise a sélectionné « ce qui se fait de meilleur ». Sur le papier, la démarche est rationnelle mais, en pratique, l’accumulation de systèmes hétérogènes crée une complexité qui pèse sur les coûts et la productivité. En présence de systèmes fournisseurs multiples, il est crucial d’évaluer avec soin la rentabilité des investissements.</p><h2>La formation : un poste caché, mais considérable</h2><p>En réalité, les coûts d’achat visibles ne représentent qu’une fraction du coût réel : formation, certifications, multiplication des interfaces, incompatibilités lors des diagnostics, perte de temps opérationnel…Par exemple, dans une usine de taille moyenne, le technicien nouvellement recruté pourra mettre plusieurs mois à se former sur différentes plateformes. Formation initiale, formation logicielle avancée, spécialisation sur chaque environnement…le processus se chiffre alors en plusieurs dizaines de milliers d’euros par personne. Si vous multipliez ce coût par les équipes de maintenance, la complexité technologique se transforme en véritable centre de dépenses structurel.</p><h2>Inventaire, pièces et organisation : la complexité logistique</h2><p>Avez-vous déjà essayé d’inventorier les pièces détachées de cinq systèmes différents ? Chaque plateforme requiert ses propres composants propriétaires, provenant de fournisseurs indépendants ayant chacun ses délais de livraison. Dans beaucoup d’usines, les rayonnages croulent sous des piles de composants inutiles ou obsolètes. A l’inverse, la pièce nécessaire lors d’un arrêt de production nocturne fait immanquablement défaut. Reconnaissons que la gestion logistique et financière des pièces détachées pour des systèmes distincts est délicate, voire cauchemardesque.</p><h2>La success story de la consolidation</h2><p>En bénéficiant d’une architecture unifiée qui utilise les mêmes produits de base dans l’ensemble du site, avec des produits communs stockés comme pièces de remplacement, l’ingénieur et le technicien de maintenance sont en capacité d’évaluer, d’identifier et de réparer ou remplacer rapidement l’élément en cause. Problème résolu.</p><h2>Fragmentation ou cyberrésilience </h2><p>Chaque plateforme d’automatisation possède ses propres mises à jour, ses propres correctifs et ses propres vulnérabilités. Dans un paysage réglementaire européen désormais structuré par la législation sur la cyberrésilience, qui s’appliquera pleinement en décembre 2027, la multiplication des environnements techniques augmente la surface d’attaque. La réduction du nombre de systèmes s’accompagne d’une politique de sécurité cohérente, de mises à jour centralisées et moins de points d’entrées potentielles pour les hackers. Avec à la clé, moins de complexité.</p><h2>Fusions-acquisitions, un facteur souvent sous-estimé</h2><p>Lors d’une fusion-acquisition, la diversité des plateformes d’automatisation devient un facteur de risque. Les équipes de <a href="https://www.journaldunet.fr/business/dictionnaire-economique-et-financier/1199285-due-diligence-definition/" title="Due diligence">Due Diligence</a> évaluent désormais la compatibilité des architectures d’automatisation, car celle-ci impacte directement les délais et les coûts d’intégration. L’incompatibilité des systèmes rallonge fréquemment l’intégration de douze à dix-huit mois. Difficile, dès lors, de justifier l’évaporation des gains attendus au seul motif que les environnements techniques parlent différents langages. On comprend ainsi combien la plateforme technique homogène facilite le transfert de connaissances, la standardisation des bonnes pratiques et l’alignement des opérations. Les acquéreurs les plus prudents y veillent.</p><h2>Des bénéfices sectoriels concrets</h2><p>Cette question de la consolidation des plateformes est largement corrélée aux secteurs concernés. Quelques exemples :</p><ul><li>Pharmacie et sciences de la vie – la plateforme unique facilite les validations, le respect des normes, le contrôle des modifications et réduit les coûts de maintenance. La conformité réglementaire optimise la gestion de la productivité via des enregistrements électroniques standardisés, un audit centralisé et une application simplifiée des exigences européennes et internationales.</li>
<li>Automobile – des instructions standardisées profitent aux démarches Lean ( collecte et analyse des données, gestion intégrée de la qualité et des fournisseurs…). S’y ajoutent, entre autres, un support technique efficace et des technologies transférables.</li>
<li>Agroalimentaire – la consolidation renforce la traçabilité (avec les avantages qui s’ensuivent), la gestion des alertes qualité, l’identification et la prévention des risques liés aux pratiques d’hygiène alimentaire.</li>
</ul><h2>Comment amorcer une stratégie de consolidation ?</h2><p>Sans doute faut-il commencer en se confrontant à la réalité. Bien sûr, il n’est ni possible ni souhaitable de tout remplacer du jour au lendemain. La démarche repose sur :</p><ul><li>Cartographier l’existant – plateformes utilisées, coûts de formation, stocks, vulnérabilités cyber...</li>
<li>Prioriser - repérer les systèmes les plus problématiques (coûteux à maintenir, pannes récurrentes, formation lourde) et planifier leur remplacement en cohérence avec les cycles naturels de renouvellement.</li>
<li>Impliquer les techniciens - ils connaissent, mieux que quiconque, les points de friction opérationnels.</li>
</ul><h2>Vers un bilan positif de l’automatisation</h2><p>Le <a href="https://app.statzon.com/pdfs/q5ma">marché de l’automatisation explose</a>.  De 242 millions d’euros en 2021, nous passerons vraisemblablement à 437 millions d’euros en 2030. Au vue de la pénurie de main-d’œuvre qualifiée, la simplification n’est pas un choix technique, mais stratégique. Pourquoi former les équipes à cinq environnements différents quand un seul suffit ? Pourquoi s’imposer plusieurs politiques de sécurité lorsqu’il est possible de sécuriser une seule plateforme intégrée ?</p><p>Les entreprises qui réduisent la diversité de leurs plateformes réduisent aussi les coûts de formation, elles simplifient les stocks, se sécurisent et gagnent en réactivité. Cette agilité est et restera un atout déterminant. Plutôt que d’optimiser les composants discrets, visez une valeur ajoutée à long terme.</p>]]></description>
      <link>https://www.journaldunet.com/solutions/dsi/1548481-automatisation-industrielle-pourquoi-accumuler-les-meilleurs-systemes-complique-tout/</link>
      <guid>https://www.journaldunet.com/solutions/dsi/1548481-automatisation-industrielle-pourquoi-accumuler-les-meilleurs-systemes-complique-tout/</guid>
      <pubDate>Mon, 09 Mar 2026 17:36:00 +0100</pubDate>
    </item>
    <item>
      <title><![CDATA[Comment former un développeur junior à l'ère de l'IA générative ?]]></title>
      <description><![CDATA[<p class="app_entry_lead"><a title=" © JDN - Grok" href="https://img-0.journaldunet.com/Burdrelth2YU6Mr8mL8g7XZpr40=/1500x/smart/e21e3ee5138a409ca19d5652862ecde1/ccmcms-jdn/39534373.png" class="fancy"><picture><source srcset="https://img-0.journaldunet.com/UKQHDE0t3OMHdzTGVNV2fWJDTcI=/540x/smart/e21e3ee5138a409ca19d5652862ecde1/ccmcms-jdn/39534373.png" media="(max-width: 480px)" /><img src="https://img-0.journaldunet.com/Burdrelth2YU6Mr8mL8g7XZpr40=/1500x/smart/e21e3ee5138a409ca19d5652862ecde1/ccmcms-jdn/39534373.png" alt="Comment former un développeur junior à l'ère de l'IA générative ?" width="1500" height="1001" /></picture></a> Le vibe coding fait évoluer les pratiques d'apprentissage des codeurs débutants. Au-delà du binôme développeur senior-développeur junior, un troisième partenaire s'invite : l'IA. Des tech leads dévoilent leurs nouvelles approches pédagogiques.</p><aside>
<label for="slider-article" class="nl-box--subscribe-with-toggle jBindingSliderArticle">Je m'abonne aux Infos à ne pas rater</label>
</aside><p>Aux Etats-Unis, l’arrivée de l’IA générative a fait une victime collatérale : le développeur junior. Chiffres à l’appui, <a href="https://digitaleconomy.stanford.edu/wp-content/uploads/2025/08/Canaries_BrynjolfssonChandarChen.pdf">une étude</a> de l’université de Stanford montre que le recrutement des codeurs débutants, âgés de 22 à 25 ans, a reculé de près de 20%, entre fin 2022 (correspondant au lancement de ChatGPT), et juillet 2025. Sur la même période, l’embauche de profils seniors augmentait dans une proportion sensiblement similaire. Pour maximiser les gains de productivité, les employeurs américains semblent faire le pari de constituer des tandems associant IA et professionnels expérimentés, ces derniers étant mieux à mêmes de vérifier <a href="https://www.journaldunet.com/intelligence-artificielle/1545337-vibe-coding-comment-evaluer-les-gains-de-l-ia-et-comment-les-ameliorer/">la qualité du code généré par IA</a>.</p><p>En France, si le marché de l’emploi n’est pas favorable aux jeunes diplômés dans leur ensemble, on ne constate pas, à ce stade, de discrimination à l’embauche des développeurs juniors qui serait liée au recours de l’IA générative. En revanche, les employeurs doivent adopter leur mode d’accompagnement et de montée en compétences de ces profils débutants.</p><h2><strong>Rappeler les fondamentaux de la programmation</strong></h2><p>De fait, la génération automatique de code fait fortement évoluer les pratiques d’apprentissage du développement logiciel, sans pour autant renier les fondamentaux. "En l’état des performances des outils de vibe coding, il reste indispensable de s’assurer que la qualité du code produit est conforme à nos standards", juge Soufiane Keli, VP software engineering chez Octo Technology. Les profils juniors doivent, pour cela, posséder de solides bases en programmation et il préconise de conserver les méthodes pédagogiques traditionnelles et les bonnes pratiques du Software Craftsmanship, tout en enrichissant progressivement ce socle avec des compétences spécifiques liées à l’intelligence artificielle.</p><p>Comme son nom l’indique, le mouvement du Software Craftsmanship défend l’idée que développer du logiciel est un métier d’artisan, et valorise l’excellence technique, la qualité du code et la responsabilité professionnelle du développeur. L’ambition est de produire du code qui soit lisible par un humain, maintenable et conforme aux attentes métiers grâce à des pratiques telles que le clean code ou le Test Driven Development (TDD), ou développement piloté par les tests.</p><p>Sous la supervision de son tech lead, le développeur junior va donc commencer à coder manuellement pour acquérir ces fondamentaux. Sur le principe de l’apprentissage par essai-erreur, il se trompe, corrige et recommence. "La durée de cette phase d’apprentissage dépend du niveau initial du collaborateur et de l’accompagnement proposé au sein de l’organisation", note Soufiane Keli.</p><p>Après cette première phase de travail manuel, le junior commence à utiliser l’IA pour générer des portions de code, notamment par auto-complétion. "Il doit alors apprendre à analyser les suggestions de l’IA, les comprendre, les accepter ou les rejeter de manière éclairée, en veillant à identifier les raisons des propositions de l’assistant", poursuit Soufiane Keli. Pour faciliter cette montée en compétences, il conseille d’instaurer un environnement bienveillant et de reconnaître le droit à l’erreur.</p><h2><strong>De nouvelles "soft skills" à acquérir</strong></h2><p>Au-delà des compétences techniques, le codeur en herbe doit acquérir des compétences comportementales propres à l’IA. "Il est essentiel pour un codeur junior de développer un esprit critique sur le code généré afin d’utiliser l’IA à bon escient, avance Jade Chabaro, engineering director et AI acceleration lead chez Sfeir. Il doit savoir identifier, par lui-même, les bugs, les violations de patterns, les problèmes de sécurité et demander systématiquement à l'IA de justifier ses propositions."</p><p>Les promotions actuelles de diplômés d’écoles d’ingénieurs sont les premières à être formées à coder nativement avec Codex d’OpenAI, Gigthub Copilot, Claude Code, Cursor ou Lovable. L’adoption de l’IA s’en trouve facilitée mais une utilisation sans discernement de ces outils de vibe coding expose ces cerveaux encore neufs à de nouveaux risques. Pour Jade Chabaro, l’un des dangers majeurs a pour nom le "cognitive offloading", c’est-à-dire le fait de déléguer la réflexion et la résolution de problèmes à des outils externes. "Ce penchant naturel peut entraîner une perte progressive de la gymnastique intellectuelle propre au métier de développeur."</p><h2><strong>Des sessions de code sans IA</strong></h2><p>"Faire confiance de manière aveugle à la machine, sans vérification approfondie, expose à des erreurs potentielles et à une homogénéisation des solutions, moins adaptées à certains cas spécifiques", estime-t-elle. Les juniors risquent, selon elle, de confondre la facilité d’obtenir des résultats – des succès assistés par l’IA - avec l’acquisition réelle de compétences. "Cette frontière peut devenir floue, car les tâches accomplies avec l’aide de l’IA ne traduisent pas forcément une maîtrise personnelle du sujet."</p><p>Afin qu’ils comprennent pleinement le fonctionnement du code, Jade Chabaro oblige ses stagiaires et alternants à coder sans IA. Ensuite, ils recommencent le même exercice avec l’aide de l’IA. Cette méthode favorise à la fois la maîtrise technique des bases du projet et le développement de compétences en prompting ainsi que la prise de recul nécessaire vis-à-vis des résultats produits par l’IA.</p><p>"Faire ce double travail peut donner l’impression d’une perte de temps mais ce temps passé est vite rattrapé par l’acquisition de bonnes pratiques", juge Jade Chabaro. Une jeune ingénieure a ainsi pu constater que l’IA avait correctement traité la problématique, mais que la machine n’était pas allée plus loin, tandis qu’elle avait perçu des opportunités supplémentaires d’optimisation du code. "Cet exercice lui a permis de bien comprendre l’importance de maintenir un esprit critique et une vigilance constante."</p><h2><strong>Une revue de code en deux étapes</strong></h2><p>Place ensuite à la revue de code. Soufiane Keli conseille de la faire en deux étapes complémentaires. "Une première évaluation peut être réalisée par l’IA ce qui permet d’identifier rapidement des oublis courants. Ces corrections peuvent être intégrées en autonomie par le junior sans prise de risque." En cas d’incompréhension des retours de l’IA, on passe ensuite à une revue humaine menée par un développeur expérimenté. "Ce double regard assure à la fois l’amélioration continue des pratiques et le développement de compétences chez les juniors."</p><p>Dans tous les cas, il est essentiel d’accorder aux juniors une certaine autonomie. "En tant que tech lead, je fais confiance à leur jugement lorsqu’ils acceptent une suggestion proposée par l’IA, poursuit l’expert. Ce mode de fonctionnement repose sur un contrat moral : si le junior ne comprend pas une suggestion, il ne doit pas la valider." Accepter une recommandation implique d’en saisir pleinement la pertinence, avec le soutien de l’IA ou d’un pair au besoin. "Un junior qui ne peut expliquer ses choix me fait perdre du temps."</p><p>Le temps perdu est encore plus conséquent quand une équipe se retrouve avec 200 à 300 lignes de code que personne ne maîtrise et qu’il faut reprendre de zéro. "Le rôle du tech lead est d’accompagner les juniors dans leur progression sans perdre de vue l’exigence de qualité et de responsabilisation individuelle, souligne Soufiane Keli. Chaque développeur, qu’il sorte d’école ou justifie de 40 ans d’ancienneté, est responsable à 100% du code qu’il soumet à la revue. Autrefois, ce code pouvait être un copié-collé depuis le web. Là, il est maintenant généré par l’IA mais cette responsabilité demeure."</p><h2><strong>L’IA, un sparing partner disponibile H24</strong></h2><p>Le développeur junior peut également se servir de l'IA comme d’un sparing partner pour challenger son code avant de demander son avis à son collègue senior. En complément de son environnement de développement intégré (IDE), le junior va utiliser un assistant de type ChatGPT ou Google Gemini pour lui donner des explications sur un pattern ou affiner sa compréhension des concepts de base. "Il peut faire appel à ce mentor complémentaire, disponible à tout moment, sans crainte d’être jugé, note Soufiane Keli. Cette absence de jugement l’encourage à poser toutes les questions, même répétitives, et contribue à lever des barrières dans le processus d’apprentissage."</p><p>Ce tutorat virtuel peut toutefois générer des biais. "Des juniors de mon équipe me disent : "plus je m'appuie sur l'IA, moins je pose les bonnes questions" ou "je ne mémorise pas ce que l'IA produit"", remonte Soufiane Keli. L’utilisation de l’IA dans leur travail de développement dépend donc de la capacité des développeurs juniors à contrôler la qualité des résultats. "Tant qu’ils ne se sentent pas suffisamment à l’aise pour évaluer et contrôler le code généré, ils choisissent de limiter leur recours à l’IA." Une sorte de mécanisme vertueux d’autorégulation. En phase d’acquisition des concepts fondamentaux, l’apprenant préfère vérifier minutieusement les résultats produits par l’IA avant de s’appuyer davantage sur celle-ci.</p><h2><strong>A pied d’égalité dans l’art du prompt engineering</strong></h2><p>En revanche, les juniors et les profils plus expérimentés se retrouvent sur un pied d’égalité dans la maîtrise des techniques du prompt engineering et du context engineering. Les débutants peuvent même être mieux placés sur ce terrain, bénéficiant de davantage d’agilité cérébrale et moins de dogmatisme. Dans ce domaine, le principe est simple : si l’output est mauvais, c’est que probablement l’input l’était aussi.</p><p>"Il faut conc revenir en arrière pour corriger l’input et reboucler jusqu’à ce qu’on soit satisfait du résultat à 97 %, les 3 % restant pouvant être gérés à la main, évalue Soufiane Keli. Lors de ces itérations, on va distinguer les éléments qui peuvent être récurrents, par exemple comment poser un test unitaire, et on va documenter cette façon de faire dans un fichier d’instructions. Ce fichier va être affiné au fur et à mesure. Au bout de quelques itérations on aura transmis un savoir-faire à l’IA."</p><p>Jade Chabaro recourt également à des fichiers de convention de projet, tels que les fichiers .md regroupant les standards du projet et les bonnes pratiques de développement. Autant de garde-fous pour se prémunir des hallucinations de l’IA. "Ces fichiers sont créés et maintenus par des profils seniors et recensent l’ensemble des normes de développement à respecter. Il est primordial que chacun maîtrise parfaitement les éléments qui y sont contenus." A noter qu’il existe un format ouvert, <a href="https://www.journaldunet.fr/intelligence-artificielle/guide-de-l-intelligence-artificielle/1545503-les-instructions-a-ajouter-dans-agents-md-pour-maximiser-les-performances-de-codex-cli/">AGENTS.md</a>, spécifiquement destiné à fournir à des agents IA des instructions et un contexte spécifiques au projet.</p><p>Pour conclure, Soufiane Keli note que, l’IA, tout comme le développeur junior, doit apprendre. "C’est un collaborateur junior supplémentaire, pas très intelligent mais extrêmement productif. A la différence d’un développeur junior qui est intelligent mais n’écrit pas vite."</p>]]></description>
      <link>https://www.journaldunet.com/solutions/dsi/1548375-comment-former-un-developpeur-junior-a-l-ere-de-l-ia-generative/</link>
      <guid>https://www.journaldunet.com/solutions/dsi/1548375-comment-former-un-developpeur-junior-a-l-ere-de-l-ia-generative/</guid>
      <pubDate>Mon, 02 Mar 2026 10:00:00 +0100</pubDate>
    </item>
    <item>
      <title><![CDATA[Pourquoi l'IA et la connectivité cellulaire vont devenir le socle des entreprises en 2026]]></title>
      <description><![CDATA[<p class="app_entry_lead">À l'heure où les infrastructures réseau historiques atteignent leurs limites, l'alliance entre réseaux cellulaires et intelligence artificielle ouvre une nouvelle ère pour les entreprises.</p><aside>
<label for="slider-article" class="nl-box--subscribe-with-toggle jBindingSliderArticle">Je m'abonne aux Infos à ne pas rater</label>
</aside><p>Plus simples à déployer, plus intelligentes à exploiter et capables de supporter des usages critiques, ces nouvelles architectures permettent aux organisations de gagner en performance, en résilience et en agilité dans tous les secteurs, du retail à l’industrie en passant par les services d’urgence.</p><p>Les entreprises prennent rapidement conscience que leurs infrastructures de connectivité historiques ne sont pas conçues pour répondre aux exigences des opérations modernes, ce qui les oblige à envisager d’autres options pour l’année à venir.</p><h2>Des magasins connectés pour transformer l’expérience client</h2><p>Après une année marquée par un ralentissement des ventes, de nombreux distributeurs se sont tournés vers de nouvelles technologies et des espaces commerciaux temporaires pour tester de nouveaux concepts et attirer les clients en magasin. Au Royaume-Uni, 52 % des distributeurs utilisent le Wi-Fi en magasin pour proposer des actions marketing personnalisées. Cependant, ils peinent à déployer ces innovations à grande échelle dans leurs points de vente en raison d’une connectivité insuffisante sur certains sites.</p><p>Les réseaux cellulaires permettent de réduire la complexité du déploiement d’innovations telles que les étagères connectées pour le suivi automatisé des stocks ou les systèmes de caisse cloud pour les bornes de self-checkout, ce qui va permettre aux réseaux des enseignes d’évoluer et de gagner en agilité tout au long de l’année.</p><h2>Des usines intelligentes, mobiles et automatisées</h2><p>Les entreprises industrielles et logistiques constatent de plus en plus que leurs infrastructures de connectivité traditionnelles, basées sur des câbles et des points de service fixes, ne sont pas adaptées aux opérations modernes, les obligeant à envisager d’autres options pour l’année à venir. L’une des solutions est la connectivité cellulaire, mais son adoption a été freinée : 67 % des entreprises françaises déclarent ne pas disposer des compétences nécessaires pour gérer le réseau après son déploiement.</p><p>Les réseaux cellulaires, combinés à l’IA, peuvent aider à simplifier les tâches de routine et tirer pleinement parti de cas d’usage avancés, comme l’utilisation de chariots élévateurs et de véhicules autonomes pour accroître les cadences ou la vision par ordinateur pilotée par l’IA pour le contrôle qualité.</p><h2>Une connectivité critique pour des opérations sans interruption</h2><p>Les opérateurs de flottes, tous secteurs confondus, constatent que leurs infrastructures de connectivité existantes ne sont pas adaptées aux opérations modernes, les obligeant à envisager d’autres solutions pour l’année à venir.</p><p>Les réseaux cellulaires offrent la bande passante élevée, la faible latence et les solutions de secours nécessaires pour soutenir les opérations en zones urbaines, rurales et isolées. Par exemple, elles permettent un accès en temps réel aux analyses de données afin d’identifier plus rapidement la prochaine intervention ou d’améliorer les délais de réponse d’urgence.</p><h2>Une opportunité stratégique pour la France</h2><p>Le déploiement à grande échelle des réseaux cellulaires intelligents représente bien plus qu’une évolution technologique pour la France : c’est un véritable levier de compétitivité, de souveraineté et de transition industrielle. En combinant connectivité 4G/5G privée et intelligence artificielle, les entreprises françaises peuvent moderniser leurs opérations, sécuriser leurs données et accélérer l’adoption de cas d’usage à forte valeur ajoutée, de l’industrie 4.0 au commerce omnicanal en passant par les services publics et d’urgence.</p><p>Dans un contexte de réindustrialisation, de transition énergétique et de tensions sur les chaînes logistiques, ces réseaux offrent l’agilité et la résilience dont les organisations ont besoin pour rester performantes. En rendant la connectivité plus simple à déployer, plus fiable et plus intelligente à piloter, ils démocratisent l’accès à l’innovation, y compris pour les PME et les sites situés hors des grands centres urbains.</p>]]></description>
      <link>https://www.journaldunet.com/ebusiness/telecoms-fai/1548187-pourquoi-l-ia-et-la-connectivite-cellulaire-vont-devenir-le-socle-des-entreprises-en-2026/</link>
      <guid>https://www.journaldunet.com/ebusiness/telecoms-fai/1548187-pourquoi-l-ia-et-la-connectivite-cellulaire-vont-devenir-le-socle-des-entreprises-en-2026/</guid>
      <pubDate>Thu, 26 Feb 2026 21:47:00 +0100</pubDate>
    </item>
    <item>
      <title><![CDATA[Agilité et product management en 2026 : neuf tendances qui redessinent le jeu]]></title>
      <description><![CDATA[<p class="app_entry_lead">En 2026, l'agilité et le product management changent de nature. Fin des recettes toutes faites, montée de l'IA, transformation des rôles et du management : 9 tendances redessinent cet écosystème.</p><aside>
<label for="slider-article" class="nl-box--subscribe-with-toggle jBindingSliderArticle">Je m'abonne aux Infos à ne pas rater</label></aside><p>Depuis plus de quinze ans, l’agilité et le product management occupent une place centrale dans les transformations des organisations. Et pourtant, le constat reste souvent le même : beaucoup d’énergie déployée, une adoption inégale, et une difficulté persistante à démontrer un impact réel sur la performance business.</p><p>À l’aube de 2026, quelque chose est en train de basculer. Non pas une nouvelle vague méthodologique de plus, mais une recomposition plus profonde des pratiques, des rôles et des modèles d’organisation. Les tendances qui émergent aujourd’hui ne sont pas spectaculaires sur le papier, mais elles sont déterminantes dans les faits.</p><p>Voici neuf tendances que nous voyons se confirmer sur le terrain, chez des organisations engagées dans le mode produit, qu’elles soient en phase de lancement, d’accélération ou de remise à plat de leur transformation.</p><h2>1. La fin de l’agilité “framework-centrée”</h2><p>Pendant longtemps, la question centrale a été : quel <a href="https://www.journaldunet.fr/web-tech/dictionnaire-du-webmastering/1203355-framework/" title="Framework">framework</a> déployer ?<br />Scrum, SAFe, Spotify, LeSS… la méthode était perçue comme la réponse. En 2026, cette logique arrive clairement à bout de souffle. Les organisations ne remettent pas en cause l’agilité, mais elles ne croient plus qu’un cadre méthodologique, aussi structurant soit-il, puisse produire mécaniquement de la valeur.</p><p>Ce qui est désormais attendu, ce n’est pas la conformité à un modèle, mais la capacité à produire des résultats tangibles, à prendre de meilleures décisions et à s’adapter plus vite. L’agilité cesse d’être une fin en soi pour redevenir ce qu’elle n’aurait jamais dû cesser d’être : un moyen au service de la performance collective.</p><h2>2. Des modèles de travail hybrides devenus la norme</h2><p>Sur le terrain, très peu d’organisations fonctionnent aujourd’hui selon un modèle “pur”. Les équipes composent, adaptent, bricolent parfois, souvent sans l’assumer pleinement. En 2026, cette hybridation devient explicite. Les entreprises ne cherchent plus le modèle, mais leur modèle.</p><p>Scrum, Kanban, pratiques de discovery, gouvernance produit, contraintes réglementaires, exigences de run… tout cela cohabite. Le véritable enjeu n’est plus l’orthodoxie méthodologique, mais la cohérence globale du système de travail. Les organisations qui réussissent sont celles qui acceptent cette hybridation et qui investissent dans sa lisibilité.</p><h2>3. Le véritable angle mort : le management</h2><p>S’il y a un sujet qui traverse toutes les transformations agiles et produit, c’est bien celui du management. Et pourtant, il reste largement sous-traité. Les frameworks parlent peu du rôle réel du manager dans un environnement produit, laissant les organisations improviser.</p><p>En 2026, ce décalage devient critique. Les transformations ne butent pas tant sur les équipes que sur la capacité des managers à incarner un nouveau cadre de fonctionnement : arbitrer, faire confiance, piloter par la valeur, accepter l’incertitude. Le changement de posture managériale n’est plus un “nice to have”, c’est un facteur déterminant de succès ou d’échec.</p><h2>4. La crise d’incarnation des rôles produit</h2><p>Product Manager, Product Owner, Business Owner… les intitulés se multiplient, mais les responsabilités restent floues. Dans de nombreuses organisations, les rôles produit sont dilués entre coordination, gestion de projet, animation et reporting. Cette ambiguïté fragilise la prise de décision et alimente les frustrations.</p><p>En 2026, les entreprises prennent conscience que le problème n’est pas le titre du rôle, mais sa capacité à porter une responsabilité claire sur la valeur produite. Là où les rôles sont incarnés, outillés et reconnus, le mode produit prend corps. Ailleurs, il reste un vernis.</p><h2>5. Une discovery encore trop déconnectée du delivery</h2><p>Malgré des années de discours sur le design thinking et la discovery continue, la réalité est souvent plus contrastée. D’un côté, des phases amont très cadrées, très “projet”. De l’autre, des équipes de delivery qui héritent de décisions prises ailleurs, avec une perte massive d’intention et de connaissance.</p><p>La tendance de fond en 2026 est claire : la discovery ne peut plus être une parenthèse. Elle doit devenir un flux continu, intégré au delivery, porté par des équipes responsables à la fois de comprendre les problèmes et de livrer des solutions. Sans cela, le mode produit reste théorique.</p><h2>6. L’intelligence artificielle, accélérateur sous conditions</h2><p>L’IA générative s’impose progressivement dans les pratiques agiles et produit. Documentation, rédaction de user stories, analyse de feedback, préparation de backlog… les gains sont réels. Mais les grands groupes restent prudents, parfois méfiants, notamment sur les questions de sécurité et de gouvernance des données.</p><p>En 2026, l’IA n’est plus un gadget, mais elle n’est pas encore un réflexe. Les organisations qui en tirent de la valeur sont celles qui l’intègrent dans leurs processus, avec des règles claires, plutôt que de la laisser se diffuser de manière opportuniste.</p><h2>7. Le retour du change management, mais sous une autre forme</h2><p>La plupart des grandes transformations actuelles sont initiées de manière très top-down. Les dirigeants perçoivent les risques, anticipent les ruptures à venir et veulent rendre leur organisation plus résiliente. Dans ce contexte, l’adoption devient le nerf de la guerre.</p><p>Le change management revient donc au premier plan, mais il doit se réinventer. Les approches séquentielles et ponctuelles montrent leurs limites face à des transformations itératives et continues. En 2026, le change efficace est celui qui s’imbrique dans le delivery, au fil de la valeur produite.</p><h2>8. La qualité comme condition de l’adoption</h2><p>Pendant longtemps, la qualité a été sacrifiée au nom de la vitesse. Les dettes techniques et fonctionnelles se sont accumulées, au détriment de l’expérience utilisateur et de la confiance dans les produits livrés. Aujourd’hui, les organisations en paient le prix.</p><p>La qualité redevient un sujet stratégique, notamment parce qu’elle conditionne l’adoption. L’IA ouvre ici des perspectives intéressantes, en rendant plus accessibles les tests automatisés et le contrôle qualité. Encore faut-il en faire un levier structurant, et non un rattrapage tardif.</p><h2>9. Une rupture émergente : vers des équipes produit radicalement plus petites</h2><p>Enfin, une tendance plus récente commence à émerger et mérite une attention particulière. Avec le développement du “vibe coding”, des IDE augmentés et des agents IA capables de couvrir l’ensemble du cycle de vie d’un produit, le modèle même de la squad produit est questionné.</p><p>Nous voyons apparaître des situations où une, deux ou trois personnes, dotées des bons outils, sont capables de concevoir, spécifier, développer et tester une application fonctionnelle. Le code devient une commodité, et la valeur se déplace vers la compréhension du besoin, la qualité des décisions et la capacité à orchestrer des agents intelligents.</p><p>Il ne s’agit pas de prédire la disparition des équipes produit telles que nous les connaissons, mais d’anticiper une transformation profonde de leur taille, de leur organisation et des méthodes qui les accompagnent. Les cadres actuels, notamment à l’échelle, devront s’adapter à ce nouveau paradigme.</p><h2>En conclusion</h2><p>Les tendances de l’agilité et du product management en 2026 ne sont pas spectaculaires. Elles sont, au contraire, profondément réalistes. Elles traduisent une maturité accrue, mais aussi une exigence nouvelle : celle de produire de la valeur dans un monde plus contraint, plus rapide et plus incertain.</p><p>L’enjeu n’est plus de “faire de l’agile” ou de “passer en mode produit”, mais de construire des organisations capables d’évoluer en continu, d’intégrer l’IA de manière responsable et de remettre l’humain – managers, équipes, utilisateurs – au cœur du système.</p><p>C’est probablement là que se jouera la prochaine génération de transformations.</p>]]></description>
      <link>https://www.journaldunet.com/solutions/dsi/1548009-agilite-et-product-management-en-2026-neuf-tendances-qui-redessinent-le-jeu/</link>
      <guid>https://www.journaldunet.com/solutions/dsi/1548009-agilite-et-product-management-en-2026-neuf-tendances-qui-redessinent-le-jeu/</guid>
      <pubDate>Wed, 18 Feb 2026 18:01:00 +0100</pubDate>
    </item>
    <item>
      <title><![CDATA[Samantha Buigné (Tag Expert) : "Le ciblage des clients à valeur ajoutée et des inactifs sur GA4 présente des résultats très encourageants"]]></title>
      <description><![CDATA[<p class="app_entry_lead">Google simplifie depuis peu le ciblage des clients à valeur ajoutée et des inactifs sur GA4. Ces groupes d'utilisateurs sont désormais construits automatiquement. Samantha Buigné, spécialiste tracking et analytics IA chez Tag Expert, décrypte cela.</p><figure class="image c6"><img alt="" src="https://img-0.journaldunet.com/YhGWAhdois3vv6cPTOYvwvEDqww=/250x/smart/b837e9fa6f344d9ba8d48b4e556c2f76/ccmcms-jdn/39533676.jpg" /><figcaption data-credit="Tag Expert" data-legend="Samantha Buigné est spécialiste en tracking et en data chez Tag Expert">Samantha Buigné est spécialiste en tracking et en data chez Tag Expert <small>© Tag Expert</small></figcaption></figure><h4><strong><em>JDN.</em></strong> <strong>Quelles bonnes pratiques préconisez-vous pour mettre en place le ciblage des clients à forte valeur ajoutée et des inactifs sur GA4 ?</strong></h4><p><strong><em>Samantha Buigné</em></strong><em>.</em> La simplification de l'interface GA4 est une belle avancée sur un plan de démocratisation de l’analyse prédictive. Toutefois, la puissance du ciblage dépend exclusivement de la qualité et de la structure du signal injecté en amont. Mes recommandations peuvent aller de l'adoption d’un plan de marquage en béton à une architecture Server-Side avancée. Il s’agit d’envoyer les données de transaction directement depuis le serveur pour faire face aux barrières des navigateurs et garder l'exhaustivité des conversions.Il est impératif de déployer un schéma de données e-commerce complet incluant la monnaie, la récurrence, les types de produits et un User-ID unifié.</p><h4><strong>Comment mettre en place cela concrètement sur GA4 ?</strong></h4><p>La mise en place repose sur deux piliers techniques. Pour le passage au Server-Side via Google Tag Manager, ou sGTM, au lieu que le navigateur de l'utilisateur envoie l'information à Google, c'est votre serveur qui s'en charge. Concrètement, on installe un conteneur sGTM sur un sous-domaine propre , par exemple : <a href="https://www.google.com/search?q=metrics.votre-site.com)" target="_blank">https://www.google.com/search?q=metrics.votre-site.com</a>. Cela permet de transformer des cookies tiers en cookies "first-party". On configure aussi le dataLayer. Il doit récupérer l'identifiant unique du client, issu de votre base SQL ou CRM, dès qu'il se connecte. Cette clé est envoyée à GA4 avec chaque événement. C'est ce qui permet à GA4 de comprendre que "l'anonyme sur iPhone" et "l'acheteur sur Desktop" sont une seule et même personne à forte valeur.</p><h4><strong>Quels sont les risques si cela n’est pas effectué ?</strong></h4><p>Sans cette réconciliation, un client fidèle qui alterne entre son mobile et son desktop sera perçu comme deux utilisateurs distincts, faussant totalement les segments d'inactifs. Un exemple concret : imaginez un client qui dépense 1 000 € mais renvoie 90 % de ses articles. C’est ce que l’on peut appeler le syndrome de la cabine d'essayage à domicile. Si vous ne réinjectez pas les données de remboursement via le Measurement Protocol, l'IA de GA4 classera ce profil en "Forte Valeur". Elle dépensera alors votre budget pour acquérir des "jumeaux" de ce profil, ce qui détruira votre rentabilité réelle au profit d'un chiffre d'affaires de façade.</p><h4><strong>De manière générale, quels résultats concrets cette nouveauté peut-elle procurer ?</strong></h4><p>Elle offre un gain d’agilité opérationnelle. Automatiser ce qui nécessitait autrefois des requêtes BigQuery complexes permet aux équipes marketing de réagir en temps réel. On peut observer des résultats très encourageants en termes de réengagement, avec des hausses de conversion significatives sur les segments dits "à risque."</p><p>Cependant, l'expert doit distinguer la performance affichée de la performance réelle. Les résultats affichés par GA4 sont souvent flatteurs mais biaisés. Si l'on observe une hausse des taux de conversion sur les segments "forte valeur", il faut savoir distinguer la performance réelle de la simple auto-attribution. Le risque majeur ici est la cannibalisation. Si vous ciblez vos clients à "forte valeur" identifiés par GA4 avec des campagnes Google Ads, vous allez obtenir des ROAS, ou retour sur investissement publicitaire, exceptionnels. Mais, en réalité, vous payez souvent pour acquérir un clic de la part d'un client qui, par définition, est déjà fidèle et serait revenu acheter via un canal gratuit organique ou direct. Le résultat "concret" peut donc être un transfert de marge vers Google plutôt qu'une réelle croissance du chiffre d'affaires. La véritable expertise consiste à utiliser ces audiences pour tester l'accroissement de valeur : est-ce que cette publicité a provoqué l'achat, ou a-t-elle simplement accompagné un achat inévitable ?</p><h4><strong>Comment tester l’incrémentalité sur GA4 ?</strong></h4><p>Tester l’incrémentalité, c'est isoler l'impact réel d'une publicité sur une audience donnée<em>.</em> Pour cela, on peut utiliser la méthode du A/B Testing d'Audience. On prend un segment "Clients à forte valeur" identifié par GA4. On le divise aléatoirement en deux groupes. Le groupe test, composé de 90% des utilisateurs, est exposé aux campagnes Google Ads. Le groupe témoin, avec la rétention, qui contient 10% des utilisateurs, ne reçoit aucune publicité. Au bout d'un mois, on compare le taux de conversion des deux groupes. Si le groupe témoin, sans publicité, a converti à 5% et le groupe test à 5,2%, l'incrémentalité est quasi nulle. Vous avez payé pour des ventes qui auraient eu lieu de toute façon. Si l'écart est significatif, votre investissement est validé.</p><h4><strong>Combien de temps cette simplification du ciblage peut-elle permettre de gagner grâce à l’agilité opérationnelle ?</strong></h4><p>Il faut rester nuancé. Si GA4 simplifie l'exécution, il ne supprime pas la charge de travail, il la déplace. Sur le papier, on gagne environ 3 à 5 heures par mois de manipulation technique. Là où il fallait mobiliser un data analyst pour sortir une liste de clients "à risque", un marketeur peut désormais le faire seul en 10 minutes.</p><p>Cependant, ce gain d'agilité est à double tranchant. La période de "nettoyage" reste incompressible. Le temps gagné en interface est souvent reperdu en amont pour s'assurer que le tracking via le Server-Side et le Consent Mode est irréprochable. Si la donnée source est polluée, l'agilité de GA4 ne sert qu'à automatiser des erreurs plus rapidement. Le besoin d'audit est aussi accru. On passe moins de temps à créer l'audience, mais on doit passer plus de temps à auditer ce que l'algorithme décide dans sa "boîte noire". Le vrai chiffre, c'est que l'on réduit le délai d'activation de 72 heures à quelques minutes, mais au prix d'une perte de contrôle sur la logique de segmentation. L'agilité opérationnelle est réelle, mais la charge mentale de contrôle, elle, augmente si l'on veut rester maître de sa rentabilité.</p><h4><strong>Quelles sont les limites de ces modèles d’audience au final ?</strong></h4><p>Cette nouveauté doit être manipulée avec une grande prudence méthodologique. L'enjeu est de ne pas déléguer sa stratégie de marque à une "boîte noire" algorithmique sans garde-fous. La limite majeure est en effet l'opacité des modèles. Google ne livre pas les variables exactes qui font basculer un client dans la catégorie "inactif". Or, un client peut être inactif sur le web tout en étant un ambassadeur en boutique physique ou sur un réseau social. Se baser uniquement sur le signal GA4, c'est risquer une vision parcellaire et déshumanisée de la relation client.</p><p>Le risque principal est le faux positif. Prenons les restrictions de l’Intelligent Tracking Prevention  sur Apple et Safari qui purgent les cookies après 7 jours, combinées au Consent Mode V2, la mise à jour de l'outil de gestion des consentements de Google, destiné à aider les éditeurs de sites web à respecter les réglementations sur la vie privée. Un client très fidèle qui refuse les cookies ou qui utilise un navigateur restrictif sera "modélisé" par GA4. Si l'IA fait une erreur de probabilité, vous pourriez classer votre meilleur client comme "Inactif" et l'exclure de certaines communications premium, ou pire, le recibler avec une offre de bienvenue agressive, alors qu'il vient de commander hier. Ici, la limite n'est plus seulement technique, elle devient réputationnelle : une mauvaise lecture de la donnée dégrade l'expérience client.</p>]]></description>
      <link>https://www.journaldunet.com/web-tech/1547797-le-ciblage-des-clients-a-valeur-ajoutee-et-des-inactifs-sur-ga4-presente-des-resultats-tres-encourageants-en-termes-de-reengagement/</link>
      <guid>https://www.journaldunet.com/web-tech/1547797-le-ciblage-des-clients-a-valeur-ajoutee-et-des-inactifs-sur-ga4-presente-des-resultats-tres-encourageants-en-termes-de-reengagement/</guid>
      <pubDate>Fri, 13 Feb 2026 09:07:00 +0100</pubDate>
    </item>
    <item>
      <title><![CDATA[Comment révolutionner Internet depuis Paris ?]]></title>
      <description><![CDATA[<p class="app_entry_lead">Internet a profondément changé, mais son architecture de publication reste largement héritée du passé. Faut-il repenser le médium pour accompagner les usages de demain ?</p><p>Internet est partout, mais son architecture de publication n’a que peu évolué depuis plusieurs décennies. Alors que les usages se transforment à grande vitesse, le médium historique, le Web, montre ses limites. Faut-il pour autant considérer que toute révolution d’Internet ne peut venir que des grands acteurs mondiaux ? Depuis Paris, il est possible de repenser ses fondations, à condition d’oser regarder au-delà des usages pour interroger l’infrastructure elle-même.</p><h2>Réinterroger les fondations d’Internet plutôt que ses usages</h2><p>L’innovation numérique se concentre aujourd’hui sur les usages visibles : <a href="https://www.journaldunet.com/intelligence-artificielle/" title="Intelligence artificielle">intelligence artificielle</a>, plateformes, interfaces, nouveaux services. Pourtant, une question plus fondamentale reste largement absente du débat, celle du médium même qui structure la publication sur Internet. Le paradoxe est frappant, alors que les pratiques ont profondément évolué, l’architecture de publication repose toujours sur des principes établis il y a plus de trente ans.</p><p>L’histoire d’Internet rappelle pourtant que les grands progrès ne naissent pas d’une optimisation progressive, mais d’une remise en question des fondations. Le Web est né en Europe, non pas comme un service, mais comme une infrastructure universelle, ouverte, permettant de publier et d’accéder à l’information à l’échelle mondiale. Cette ambition, initialement limitée à la recherche, a fini par s’imposer parce qu’elle répondait à un besoin fondamental et reposait sur des standards ouverts à tous.</p><p>Aujourd’hui, le cadre historique du Web montre ses limites. Pensé à l’origine pour des pages statiques, il a dû absorber des usages toujours plus complexes : mobilité permanente, interfaces riches, exigences accrues de sécurité, protection des données personnelles, enjeux environnementaux. Cette adaptation s’est faite par empilement de couches techniques, au prix d’une complexité croissante et d’une perte de lisibilité pour l’utilisateur. Ces limites n’ont pu être évitées car elles sont structurelles.</p><h2>Pourquoi une révolution peut naître depuis Paris</h2><p>Dans ce contexte, imaginer une révolution d’Internet depuis Paris peut surprendre. Pourtant, c’est précisément cette position en parallèle des acteurs mondiaux dominants qui rend l’exercice possible. Révolutionner Internet ne signifie pas concurrencer les plateformes existantes en en créant une nouvelle, mais proposer un cadre alternatif et universel, en complément du Web et capable de redonner de la liberté aux éditeurs comme aux utilisateurs.</p><p>La France et l’Europe disposent d’un héritage singulier en matière de recherche, de technologies et de réflexion sur l’intérêt général. Ces atouts sont souvent perçus comme des freins dans une économie de l’hypercroissance. Ils deviennent décisifs lorsqu’il s’agit de concevoir une infrastructure mondiale, destinée à durer et à être adoptée par des communautés techniques globales.</p><p>Construire une telle infrastructure impose de penser mondial dès le premier jour. Les communautés de développeurs n’ont pas de frontières, les usages sont transnationaux, et les attentes en matière de gouvernance sont élevées. Il ne s’agit pas seulement de technique, mais aussi de règles comme la protection de la vie privée et le libre accès à la technologie. Une révolution durable repose autant sur la solidité de son cadre institutionnel que sur la qualité de son innovation.</p><h2>Standards ouverts, temps long et responsabilité collective</h2><p>Face à ces enjeux, le choix de développer des standards ouverts n’est pas idéologique, il est stratégique. Un standard ouvert permet l’appropriation collective, l’interopérabilité et l’émergence d’usages nouveaux. Il garantit qu’aucun acteur majeur ne puisse s’approprier une infrastructure conçue pour être universelle. C’est aussi une condition essentielle de la confiance, dans un monde où les développeurs et les organisations hésitent de plus en plus à dépendre de solutions propriétaires susceptibles de disparaître ou de changer de cap.</p><p>Révolutionner Internet ne se finance pas comme un service numérique classique. Les infrastructures exigent du temps, de la continuité et une capacité à traverser les ruptures technologiques. Elles nécessitent une relation particulière au financement, fondée sur la patience et la compréhension du temps long. Contrairement aux idées reçues, l’argent seul ne suffit pas. Les grands acteurs disposent de moyens considérables, mais peinent à produire des standards ouverts mondiaux, car leur modèle repose sur des logiques propriétaires.</p><p>À l’heure où l’intelligence artificielle accélère la centralisation des usages et des données, la question des fondations d’Internet redevient stratégique. Inventer un nouveau médium de publication c’est rouvrir un espace d’innovation, redonner de la marge de manœuvre aux créateurs et proposer une expérience plus respectueuse des utilisateurs. L’histoire montre que les grandes révolutions numériques commencent souvent loin des projecteurs. Depuis Paris, il est possible de penser un Internet plus ouvert, plus sobre et plus durable.</p>]]></description>
      <link>https://www.journaldunet.com/ebusiness/internet-mobile/1547623-comment-revolutionner-internet-depuis-paris/</link>
      <guid>https://www.journaldunet.com/ebusiness/internet-mobile/1547623-comment-revolutionner-internet-depuis-paris/</guid>
      <pubDate>Thu, 05 Feb 2026 16:29:00 +0100</pubDate>
    </item>
    <item>
      <title><![CDATA[Cap sur 2026 : des DSI entre protection et transformation]]></title>
      <description><![CDATA[<p class="app_entry_lead">En 2026, les DSI doivent à la fois sécuriser l'entreprise et accélérer sa transformation, notamment grâce à l'IA et à la data, en démontrant concrètement la valeur créée.</p><p>Quand on évoque 2026 avec les <a href="https://www.journaldunet.com/solutions/dsi/dsi/" title="DSI">DSI</a> (Directeur des Systèmes d'Information), il n’en ressort pas un agenda chargé de technologies à déployer, mais un sentiment d’équilibre à trouver. Pour l’année à venir, les DSI se projettent dans un rôle pleinement bimodal : protéger l’entreprise tout en accélérant sa transformation. Bouclier en quête de résilience face à un risque cyber toujours plus élevé ; moteur d’innovation avec l’industrialisation de l’IA et la transformation des métiers au sein de leur organisation. La fonction IT avance sur ces deux fronts, simultanément.</p><p>L’horizon n’est pas plus dégagé qu’en 2025, mais il est mieux balisé. Les DSI l’abordent avec une vision claire des obstacles à surmonter, des besoins de leur métier, et des objectifs à atteindre. Ils veulent accélérer, générer plus de valeur, montrer que l’IT est un vecteur de performance. Leur rôle stratégique et l’impact de leurs choix sur le business des entreprises est de mieux en mieux compris par les dirigeants et les métiers. Dans ce contexte, 2026 sera une année de consolidation de leur crédibilité et de leur influence.</p><p>Ainsi, les DSI entendent tenir le cap, avec deux impératifs : sécuriser ET créer de la valeur. La cybersécurité et la résilience restent dans le Top 3 de leurs priorités*. Pour autant, ils refusent d’être cantonnés dans une fonction-rempart ou perçus comme un frein. Ils continueront de sécuriser leur SI (système d’information), tout en accélérant la création de valeur, grâce à l’IA, à la data et à un alignement renforcé avec les métiers. Avec l’IA, il ne s’agit plus d’expérimenter, mais de déployer, d’industrialiser, d’apporter des résultats tangibles. Ceci dans un contexte de contraintes budgétaires et d’exigence de performance accrue.</p><h2>L’IA incontournable</h2><p>Au centre des attentes, l’IA devient en 2026 un marqueur fort des feuilles de route : un levier d’innovation et de productivité qui irrigue toute l’entreprise et intensifie la transformation digitale. Ce n’est plus un gadget, ni une brique isolée : on passe à l’échelle. Cette industrialisation remet la data, carburant indispensable de l’IA, au centre du jeu. Gouvernance, qualité, maîtrise des coûts : elle redevient un prérequis stratégique sans lequel l’IA ne produira pas de valeur. De même, la modernisation des infrastructures, du SI et du <a href="https://www.journaldunet.com/cloud/" title="Cloud computing">cloud</a> n’est plus un objectif en soi : elle vise avant tout à soutenir le déploiement de l’IA, le pilotage de la data, la transformation digitale et la performance.</p><p>Les DSI abordent ainsi 2026 avec une logique claire : la continuité qui permettra de sécuriser et d’intensifier les trajectoires, dans une logique de ROI clairement assumée.</p><h2>Des obstacles toujours humains et organisationnels</h2><p>Sur le terrain, les principaux freins restent relationnels : perception de la DSI, arbitrages conflictuels, difficultés à démontrer la valeur business. Les DSI l’ont compris : impossible de convaincre sans mesurer et partager l’impact, et en restant dans l’ombre.</p><p>En 2026, le pilotage devient central : KPIs partagés, ROI clairement démontré, décisions d’arbitrage basées sur des faits et non sur des perceptions. L’alignement IT-métiers n’est plus un vœu pieux : c’est la première priorité organisationnelle pour tenir le rôle d’accélérateur. Parce que la transformation ne se fait jamais seule, les DSI cherchent un nouveau contrat relationnel avec les métiers. Pour le créer, ils doivent encore clarifier leur<br />modèle opérationnel, renforcer leur communication, mieux acculturer les équipes, et mieux collaborer avec elles. Sans cela, même les projets les plus ambitieux risquent de stagner. En bref, les DSI doivent être encore plus transparents et... “bankables”.</p><h2>Des réalistes ambitieux</h2><p>Les DSI savent que 2026 ne sera pas une parenthèse d’expérimentation : l’année à venir doit sécuriser, accélérer et prouver. Ils défendent un modèle exigeant : audace dans l’innovation, rigueur dans la protection. Ils se projettent comme des acteurs stratégiques, capables d’apporter une performance mesurable et de tenir la promesse de transformation.<br />La fonction IT aborde 2026 avec un cap clair : protéger l’entreprise et propulser son avenir.</p><p>* <a href="https://abraxio.com/wp-content/uploads/2025/12/Enjeux-DSI_2026_BarometreAbraxio_Dec25_ext.pdf">Panorama des Enjeux DSI 2026 _ Baromètre Abraxio</a></p>]]></description>
      <link>https://www.journaldunet.com/solutions/dsi/1547753-cap-sur-2026-des-dsi-entre-protection-et-transformation/</link>
      <guid>https://www.journaldunet.com/solutions/dsi/1547753-cap-sur-2026-des-dsi-entre-protection-et-transformation/</guid>
      <pubDate>Thu, 05 Feb 2026 15:50:00 +0100</pubDate>
    </item>
    <item>
      <title><![CDATA[Santé numérique des PME : pourquoi un check-up trimestriel est indispensable]]></title>
      <description><![CDATA[<p class="app_entry_lead">On surveille sa tension, on entretient sa voiture... pourquoi délaisser sa structure numérique ? Zoom sur l'audit trimestriel, un acte de gestion plus indispensable qu'on ne l'imagine !</p><p>Le numérique a révolutionné les usages. Chaque fonction, chaque outil, chaque interaction dans l’entreprise repose aujourd’hui sur des flux numériques. S’il s’agit d’un progrès immense, cela représente aussi une forme de dépendance critique. Or, très peu de PME prennent le temps d’auditer régulièrement la robustesse de leur système d’information. Jusqu’au jour… où tout cale.</p><h2>Une dépendance numérique souvent sous-estimée</h2><p>Sur le terrain, nous observons des organisations connectées, mais peu au fait de l’état de leur réseau. Des outils métiers <a href="https://www.journaldunet.com/solutions/intranet-extranet/saas/" title="SaaS">SaaS</a> performants, mais ralentis par un lien Internet saturé. Des services clients efficaces, mais pénalisés par toute montée de charge non anticipée. Ou encore des collaborateurs en télétravail qui se connectent... depuis des terminaux personnels, sans aucune protection. Bref : une entreprise moderne en façade, mais vulnérable dans ses fondations.</p><p>Un exemple concret ? Après avoir migré plusieurs de ses outils dans le Cloud, une PME industrielle a vu sa productivité chuter : lenteurs inexpliquées, blocages intermittents, appels clients coupés. Le diagnostic a été implacable : la faute à un réseau unique, non priorisé, partagé entre des flux critiques (ERP, supervision, téléphonie) et d'autres non stratégiques (vidéo, sauvegardes, navigation). Une fois les flux cartographiés, priorisés et isolés, la performance est revenue… sans changer d’outil.</p><p>La santé numérique d’une entreprise, à l’instar de la santé humaine, nécessite un suivi sérieux. Et dans un contexte de transformation constante (nouvelles applis, nouveaux usages, croissance, déménagement, cybermenaces…), la logique du “on installe et on n’y touche plus” ne tient plus. Il faut adopter une culture du check-up régulier.</p><h2>Du diagnostic ponctuel à la culture du check-up régulier</h2><p>Il est nécessaire de se poser les bonnes questions tous les trimestres, ou à chaque événement-clé. Où sont stockées mes données ? Comment y accède-t-on ? Qui s’y connecte et depuis quel terminal ? Quels sont mes flux critiques ? Quel est mon scénario de continuité si un service tombe ?</p><p>Ce n’est en rien un “luxe technologique” ; c’est une question de bon sens managérial. D’autant qu’il est facile d’en tirer des gains immédiats : moins d’interruptions, une meilleure réactivité des équipes, une confiance accrue envers le système, une posture de résilience plutôt que de réaction.</p><p>On surveille sa tension ou son cholestérol, on entretient sa voiture, on met à jour ses logiciels. Pourquoi ne pas en faire autant avec sa structure numérique ? L’entreprise est un organisme vivant. Et dans un monde où tout circule par le réseau, la moindre faille peut bloquer tout un organe.</p><p>Auditer son SI, ce n’est pas “faire de l’IT” : c’est piloter son entreprise avec lucidité. Et dans un contexte où la continuité devient un avantage concurrentiel, cette lucidité fait justement toute la différence !</p>]]></description>
      <link>https://www.journaldunet.com/solutions/dsi/1547553-sante-numerique-des-pme-pourquoi-un-check-up-trimestriel-est-indispensable/</link>
      <guid>https://www.journaldunet.com/solutions/dsi/1547553-sante-numerique-des-pme-pourquoi-un-check-up-trimestriel-est-indispensable/</guid>
      <pubDate>Thu, 05 Feb 2026 15:47:00 +0100</pubDate>
    </item>
    <item>
      <title><![CDATA[Les 4 piliers de la création de valeur par la tech : manifeste d'un CTO]]></title>
      <description><![CDATA[<p class="app_entry_lead">Longtemps cantonnée à un rôle d'exécution, la tech occupe désormais une place centrale dans la création de valeur métier.</p><p>Dans les entreprises en croissance, la capacité à délivrer vite, de manière fiable et différenciante conditionne directement la performance business. Le défi n’est plus de produire davantage, mais de structurer l’organisation technique pour qu’elle contribue pleinement à la dynamique collective.</p><p>C’est à cette condition que la tech cesse d’être un simple accompagnement pour devenir une composante active de la création de valeur. Cette approche repose sur quatre piliers complémentaires, pensés comme un ensemble cohérent plutôt que comme des chantiers indépendants.</p><h2>La tech comme architecture de la valeur </h2><p>L’alignement entre les choix techniques, le produit et les priorités business constitue le premier pilier. La roadmap technique formalise des arbitrages concrets qui influencent directement la stabilité du service, la vitesse de livraison et la capacité à retenir et développer une base clients. Chaque décision technologique engage la trajectoire de l’entreprise et doit être évaluée à l’aune de ses effets sur la valeur utilisateur et business. La construction d’une architecture résiliente et évolutive permet d’anticiper la croissance et de contenir la dette technique, dont les conséquences se traduisent rapidement par une perte d’agilité et une dégradation de l’expérience client.</p><p>La capacité à transformer cette vision en résultats repose sur un deuxième pilier, celui de l’exécution et des processus. L’adoption de pratiques DevOps et de pipelines CI/CD réduit les cycles de feedback et sécurise une livraison plus rapide et plus prévisible. Les KPI opérationnels et techniques rendent lisible le lien entre performance technique et capacité à répondre au marché. La vitesse devient alors un avantage compétitif lorsqu’elle reste soutenable dans le temps et cohérente avec les priorités business.</p><p>L’organisation des équipes constitue un autre pilier structurant. Des équipes autonomes et cross-fonctionnelles, alignées sur des domaines métiers, favorisent la responsabilisation et la clarté dans la prise de décision. Cette autonomie s’exerce dans un cadre partagé, avec des rôles définis, des périmètres de décision explicites et des mécanismes d’escalade lisibles. Une organisation en réseau, soutenue par des comités et des guildes transverses, renforce la cohérence des choix techniques et l’engagement durable des équipes.</p><p>Enfin, la création de valeur repose sur une dimension profondément humaine. Une culture fondée sur l’apprentissage continu, la confiance et la responsabilisation permet aux équipes de progresser sans crainte de l’erreur. L’échec, lorsqu’il est analysé collectivement, devient un levier d’amélioration. Un environnement d’échange sain encourage l’innovation, la qualité du feedback et la capacité à remettre en question les pratiques établies.</p><h2>L’exécution : de la technique à l’impact business</h2><p>Pour transformer ces piliers en résultats concrets, certains principes d’exécution s’imposent. Le principe « You Build It, You Run It » confère un ownership complet aux équipes, du développement à l’exploitation. Cette continuité renforce la robustesse des systèmes, la qualité du code et la fiabilité du service rendu, avec un impact direct sur la valeur délivrée aux utilisateurs.</p><p>La qualité et la sécurité relèvent d’une responsabilité partagée. Elles s’intègrent dès la conception et ne reposent pas sur un contrôle a posteriori. Un haut niveau de qualité technique conditionne directement la stabilité opérationnelle et la rétention client. La fluidité de décision repose sur une délégation au plus près de l’information, chaque arbitrage étant guidé par son impact sur l’acquisition, l’activation et l’expansion.</p><h2>Le réflexe critique : faire un « reality check »</h2><p>Toute transformation durable commence par un regard lucide sur l’existant. Un audit technique factuel permet d’identifier la dette technique, les goulots d’étranglement organisationnels et les limites des processus en place. L’enjeu n’est pas de désigner des responsabilités individuelles, mais d’établir une base objective de progression.</p><p>L’analyse des incidents, à travers des post-mortems sans blâme, éclaire les facteurs sous-jacents qui limitent la performance globale. Ces enseignements n’ont de valeur que s’ils restent connectés à leurs effets business. Réduire la dette technique conditionne la stabilité du service, la protection de la réputation et la capacité à tenir les engagements pris auprès des clients.</p><p>En alignant ces quatre piliers sur une culture d’appropriation et d’impact, la tech cesse d’être perçue comme un centre de support. Elle s’affirme comme une composante incontournable de la création de valeur business et de la valeur utilisateur, pleinement intégrée aux enjeux métiers et à la trajectoire de croissance.</p>]]></description>
      <link>https://www.journaldunet.com/solutions/dsi/1547447-les-4-piliers-de-la-creation-de-valeur-par-la-tech-manifeste-d-un-cto/</link>
      <guid>https://www.journaldunet.com/solutions/dsi/1547447-les-4-piliers-de-la-creation-de-valeur-par-la-tech-manifeste-d-un-cto/</guid>
      <pubDate>Tue, 27 Jan 2026 13:58:00 +0100</pubDate>
    </item>
    <item>
      <title><![CDATA[Télécoms, relier l'inaccessible : le retour en force des liaisons micro-ondes]]></title>
      <description><![CDATA[<p class="app_entry_lead">Au-delà de la fibre : l'essor des faisceaux hertziens pour connecter îles, infrastructures critiques et zones éloignées.</p><p>Lorsque l’on évoque les « micro-ondes » en France, beaucoup pensent d’abord au four de la cuisine. Dans les télécommunications, le terme signifie pourtant tout autre chose : la technologie micro-ondes, aussi appelée faisceaux hertziens, désigne des liaisons radio haute fréquence capables de transmettre de grandes quantités de données sur de longues distances, sans aucun câble. À quoi cela sert-il et dans quels cas l’utilise-t-on ?</p><p>Cette technologie fait partie des réseaux de communication modernes depuis plusieurs décennies. Et même si la fibre optique domine aujourd’hui de nombreux projets d’infrastructure, les micro-ondes restent essentielles partout où les liaisons physiques atteignent leurs limites — qu’elles soient techniques, économiques ou géographiques. Un exemple récent issu du Golfe Persique illustre bien ce que permettent aujourd’hui des liaisons micro-ondes, et pourquoi ces capacités intéressent également l’Europe.</p><h2>Faisceaux hertziens des débits désormais au niveau du gigabit</h2><p>La fibre optique est, à juste titre, considérée comme l’un des piliers de la numérisation : performante, stable et durablement évolutive. Mais son déploiement est complexe. Étendues d’eau importantes, relief rocheux ou vastes zones inhabitées peuvent rendre l’installation très coûteuse et chronophage.</p><p>Dans de telles situations, les liaisons micro-ondes deviennent la solution. Elles utilisent des ondes électromagnétiques dans une gamme de fréquences allant d’environ 1 à 40 gigahertz pour transmettre des données entre deux points fixes ; le plus souvent entre des tours ou des antennes. Ces liaisons point-à-point peuvent être mises en place en quelques semaines seulement et atteignent aujourd’hui des débits dans l’ordre du gigabit.</p><h2>Un État du Golfe comme exemple de conditions extrêmes</h2><p>Un important opérateur de la région du Golfe devait connecter plusieurs îles isolées au réseau national de télécommunications. L’option des câbles sous-marins a été écartée en raison des conditions géographiques et climatiques : trop coûteux, trop complexe, trop risqué.</p><p>La solution : une liaison micro-ondes de 26 kilomètres au-dessus de la mer. Sur le papier, cela semble simple ; techniquement, c’est tout l’inverse. Humidité élevée, air salin, réflexions sur la surface de l’eau… autant de facteurs qui perturbent la propagation radio. Pour garantir la stabilité du lien, les ingénieurs ont utilisé une puissance d’émission élevée, un alignement extrêmement précis et une technique appelée diversité spatiale, consistant à employer plusieurs antennes séparées physiquement pour compenser les interférences ou les pertes de signal.</p><p>Résultat : 2 gigabits par seconde de débit et 100 % de disponibilité sur un mois complet de tests. Le tout grâce à un schéma de modulation avancé (1024QAM), qui permet de regrouper un grand nombre de bits dans un seul signal radio. Plus la modulation est élevée, plus l’utilisation de la bande passante est efficace ; mais plus la liaison devient sensible aux perturbations. Obtenir un tel niveau de performance dans un tel environnement constitue un véritable exploit technique.</p><h2>Enseignements pour les opérateurs et les gestionnaires de réseau</h2><p>Ce projet démontre que la technologie micro-ondes n’est plus un simple palliatif. Elle complète la fibre partout où la flexibilité et la rapidité de déploiement sont essentielles : sites industriels éloignés, îles, infrastructures énergétiques comme l’éolien offshore.</p><p>La clé du succès reste une planification minutieuse : choix de la fréquence, hauteur des antennes, conditions environnementales, puissance du système… tout doit être soigneusement harmonisé. Avec cette rigueur, il est possible de déployer des liaisons stables et hautement disponibles sur plus de 20 kilomètres.</p><h2>Une technologie essentielle pour la France et l’Europe</h2><p>En Europe aussi, la technologie micro-ondes est un élément structurel des architectures de réseau modernes. De nombreux sites mobiles, surtout en zones rurales, sont raccordés au cœur de réseau via des faisceaux hertziens. C’est là que tous les flux de données convergent, sont traités, acheminés et interconnectés.</p><p>Dans le déploiement de la 5G, la technologie micro-ondes joue un rôle crucial dans le backhaul, c’est-à-dire le transport des données entre le site radio et le cœur de réseau. Elle peut être mise en service plus rapidement que la fibre et offre des capacités élevées, souvent au niveau du gigabit.</p><p>Les opérateurs énergétiques, les industriels et les autorités l’utilisent également, par exemple pour relier des parcs éoliens offshore, des postes électriques ou des centres de contrôle isolés. Leur indépendance vis-à-vis des infrastructures terrestres fait de ces solutions un pilier essentiel pour bâtir des réseaux résilients et maintenir des communications d’urgence.</p><h2>Un élément clé pour des réseaux plus résilients</h2><p>La performance des réseaux modernes repose sur la complémentarité des technologies. La fibre offre des capacités immenses ; les micro-ondes apportent vitesse, flexibilité et indépendance. À une époque où les réseaux doivent interconnecter des systèmes toujours plus distribués — énergie, industrie, communications — cette combinaison devient stratégique.</p><p>La technologie micro-ondes crée des ponts numériques là où les câbles atteignent leurs limites, contribuant ainsi à réduire la fracture numérique entre zones centrales et régions isolées.</p><p>Qu’il s’agisse d’îles dans le Golfe, de parcs éoliens offshore ou de zones rurales en Europe, les faisceaux hertziens restent un levier essentiel pour rendre les réseaux plus robustes, plus rapides et mieux adaptés aux réalités géographiques du terrain.</p>]]></description>
      <link>https://www.journaldunet.com/ebusiness/telecoms-fai/1546631-telecoms-relier-l-inaccessible-le-retour-en-force-des-liaisons-micro-ondes/</link>
      <guid>https://www.journaldunet.com/ebusiness/telecoms-fai/1546631-telecoms-relier-l-inaccessible-le-retour-en-force-des-liaisons-micro-ondes/</guid>
      <pubDate>Thu, 22 Jan 2026 17:50:00 +0100</pubDate>
    </item>
    <item>
      <title><![CDATA[L'importance de prouver en interne pour convaincre en externe]]></title>
      <description><![CDATA[<p class="app_entry_lead">L'adoption interne (" dogfooding ") transforme le développement en cycle de valeur continue. Utiliser ses propres outils garantit fiabilité, innovation et confiance client avant tout lancement.</p><p>Dans l'univers dynamique du développement logiciel, l'impératif de rapidité est constant. Les nouvelles fonctionnalités sont essentielles à l'innovation et à la compétitivité, ce qui incite les entreprises à accélérer leurs cycles de publication. Cependant, au milieu de cette course effrénée, une étape cruciale est souvent négligée : la validation interne. </p><p>Les tests rigoureux sont indispensables pour assurer le bon fonctionnement des produits, mais leur portée reste limitée. La véritable différence naît lorsque les équipes de développement s'approprient pleinement le produit afin de passer d’un rôle de créateur à celui d'utilisateur. En interagissant activement avec le produit dans des situations réelles pour résoudre des problèmes concrets, les équipes transforment radicalement la perception et la création de valeur. </p><p>L'objectif final ne se limite pas dans l'identification des bogues pendant les cycles de test. Il s'agit plutôt de démontrer une valeur concrète et d'assurer une expérience utilisateur optimale avant que les clients ne soient invités à se fier à la solution. Cette démarche transforme le processus de développement, d'une progression linéaire (construire-tester-livrer) vers un cycle dynamique de validation continue de la valeur. </p><h2>L'adoption interne permet de créer de meilleurs produits </h2><p>L'utilisation de logiciels en interne instaure un cycle d'innovation continu, bien au-delà des méthodes de test classiques. Cette approche favorise une découverte authentique, qui se produit souvent dans des conditions réelles. Ces conditions peuvent égaler, voire surpasser, la complexité que les clients peuvent rencontrer dans leur propre environnement. </p><p>De plus en plus d’équipes adoptent une approche consistant à utiliser leurs propres logiciels en conditions réelles. Cette pratique, qui dépasse le cadre du simple test, leur permet de mieux saisir l’impact de leur travail sur l’activité globale. L’observabilité ne se limite alors plus aux métriques techniques. Elle intègre également des informations métier et offre une vision plus complète de la performance du produit et de la valeur perçue par l’utilisateur. </p><p>L'évolution du produit donne naturellement naissance à de nouveaux cas d'usage internes, créant un cycle vertueux : les solutions actuelles inspirent les innovations futures. Bien souvent, ce sont les besoins identifiés en interne qui révèlent des fonctionnalités ensuite plébiscitées par les clients. </p><h2>L’échec en interne est un investissement, pas une perte </h2><p>L'approche conventionnelle, qui consiste à découvrir les problèmes après le déploiement chez le client, engendre des coûts considérables. L'apparition de dysfonctionnements dans les environnements clients impacte les services d'assistance, détériore les relations et laisse des impressions négatives durables, difficiles à effacer. Les clients gardent en mémoire ces expériences déplaisantes, surtout lorsque les fonctionnalités sont défaillantes ou perturbent leurs opérations. </p><p>Toutefois, comprendre que les problèmes de qualité ne sont que la partie visible de l'iceberg peut être vu comme une opportunité. Une expérience utilisateur négative dès la première interaction avec une nouvelle fonctionnalité rend le processus de récupération d'autant plus ardu. Cette approche assure une expérience utilisateur complète et réelle, générant des retours essentiels pour une navigation intuitive et une adoption naturelle des fonctionnalités. Ce processus de validation interne permet d'identifier non seulement les problèmes fonctionnels, mais aussi les frictions liées à l'expérience, souvent indétectables via les scénarios de test classiques. </p><p>L'utilisation initiale du produit en interne offre un environnement sécurisé où les échecs se transforment en opportunités d'apprentissage, éliminant ainsi les risques pour la réputation. Cela permet de soumettre les fonctionnalités à des tests de résistance authentiques, sans les conséquences d'une exposition publique. Contrairement aux clients qui pourraient simplement abandonner les fonctionnalités problématiques, les parties prenantes internes sont plus patientes face à l'itération et facilement accessibles pour des retours immédiats. Cette approche renforce considérablement la confiance au moment du lancement et garantit une meilleure expérience client dès le premier contact. </p><h2>Un signal de fiabilité qui instaure la confiance </h2><p>Le fait que les fournisseurs de technologie s'appuient activement sur leurs propres solutions pour gérer leurs opérations commerciales envoie un signal fort, mais souvent sous-estimé. Cette adoption communique un niveau de conviction qui transcende les messages marketing en déclarant essentiellement que le produit est suffisamment fiable pour que la réussite de l'entreprise en dépende. Dans les contextes B2B où la fiabilité opérationnelle peut faire ou défaire les relations commerciales, cette authenticité résonne auprès des clients potentiels. </p><p>La crédibilité d'un logiciel repose de plus en plus sur sa transparence d'utilisation interne. Les décideurs évaluent la capacité des fournisseurs à résoudre leurs propres problèmes avec leurs produits, offrant une vision des performances réelles qu'aucune démonstration ou étude de cas ne saurait égaler. Cette transparence renforce la confiance dans les capacités du produit et dans l'engagement continu de l'éditeur. </p><p>A l’inverse, les clients constatent rapidement que les équipes internes des fournisseurs évitent d'utiliser leurs propres outils pour les opérations critiques. Ces incohérences soulèvent des doutes sur les limites réelles des produits, la confiance envers les fournisseurs et l'écart entre les promesses marketing et la réalité opérationnelle. À une époque où les acheteurs de logiciels sont plus informés et plus sceptiques que jamais, la confiance se construit par une conviction démontrée plutôt que par des présentations persuasives. Le pitch de vente le plus convaincant devient l'histoire de la réussite du vendeur, racontée à travers l'excellence opérationnelle quotidienne plutôt que par des récits soigneusement élaborés. </p><h2>Regardez dans le miroir avant de vous lancer </h2><p>Le déploiement de nouvelles fonctionnalités doit incarner un véritable bond en avant, propulsant le projet et marquant des jalons significatifs vers la concrétisation d'une valeur tangible pour les clients. La confiance réelle dans ces nouveautés ne peut cependant pas reposer uniquement sur le succès des tests automatisés, aussi exhaustifs soient-ils. Une confiance solide s'acquiert par l'expérience directe du produit, en appréhendant pleinement son impact transformateur et ses limites pratiques, et ce, avant que quiconque n'y soit confronté. </p><p>Naviguer sur un marché ultra-compétitif sans utiliser ses propres produits comme le feraient les clients équivaut à voler à l'aveugle. Cette approche, dont le coût ne cesse de s'alourdir face aux attentes croissantes des clients et à la multiplication des alternatives, est périlleuse. Les entreprises qui réussiront seront celles qui excelleront à être leurs premiers clients, en développant des produits dont elles dépendent intrinsèquement. </p>]]></description>
      <link>https://www.journaldunet.com/solutions/dsi/1547219-l-importance-de-prouver-en-interne-pour-convaincre-en-externe/</link>
      <guid>https://www.journaldunet.com/solutions/dsi/1547219-l-importance-de-prouver-en-interne-pour-convaincre-en-externe/</guid>
      <pubDate>Wed, 21 Jan 2026 11:17:00 +0100</pubDate>
    </item>
    <item>
      <title><![CDATA[Modernisation de l'assurance : les systèmes cœur de métier sont le dernier rempart à franchir]]></title>
      <description><![CDATA[<p class="app_entry_lead">La modernisation de l'assurance a surtout porté sur les interfaces. Sans refonte des systèmes cœur, les assureurs resteront freinés face aux enjeux réglementaires, tarifaires et à l'IA.</p><p>Depuis une dizaine d’années, un vaste mouvement de modernisation a été engagé par les assureurs afin d’accompagner l’intensification de leur activité et de répondre à des attentes clients toujours plus élevées. En analysant les orientations stratégiques retenues et les investissements consentis, un constat s’impose : les efforts se sont principalement concentrés sur les éléments visibles de l’écosystème, là où l’expérience client pouvait être rapidement valorisée. Les outils de relation client, les portails en ligne ou encore les applications mobiles ont ainsi bénéficié d’une attention prioritaire.</p><p>Cette approche, centrée sur les couches externes, a indéniablement permis d’améliorer les parcours digitaux et de rendre les interfaces plus fluides. Toutefois, les systèmes cœur de métier sont restés largement à l’écart de cette dynamique. Initialement conçus pour traiter des transactions et conserver des données, ils n’ont pas évolué au rythme des usages ni des exigences croissantes du marché. La question se pose alors de la capacité du secteur à engager, au cours des dix prochaines années, une modernisation réelle de ces fondations afin de faire face aux nouveaux défis.</p><h2>Des architectures cloisonnées qui freinent l’évolution</h2><p>Les systèmes centraux des assureurs se sont constitués progressivement, par ajouts successifs, sans vision globale. Chaque composant fonctionnel – tarification, évaluation du risque, souscription, facturation ou gestion des sinistres – a été développé de manière indépendante. Malgré les tentatives d’intégration via des interfaces techniques, ces silos ont instauré une rigidité structurelle qui entrave la fluidité des processus.</p><p>Pour les assurés, cette organisation se traduit par des démarches longues et morcelées, qu’il s’agisse d’obtenir un devis, de signer un contrat, de déclarer un sinistre ou de mettre fin à une couverture. L’embellissement des points d’entrée digitaux ne suffit pas lorsque le socle qui supporte l’ensemble reste inchangé.</p><p>Cette inertie devient d’autant plus problématique que le cadre réglementaire se durcit. Entre le règlement européen FIDA, qui encourage l’open insurance et la portabilité des données en imposant une ouverture accrue des processus, et la loi Hamon, qui simplifie la résiliation des contrats, une exigence de simplicité et de rapidité s’impose progressivement. De telles évolutions se heurtent frontalement à des architectures cloisonnées. En misant sur des couches transverses sans transformer le cœur du système, une limite structurelle du modèle actuel est atteinte.</p><h2>La tarification, levier central de la compétition</h2><p>Le secteur de l’assurance demeure relativement stable, marqué par peu de nouveaux entrants et peu de ruptures majeures. Néanmoins, près d’un assuré sur trois se déclare prêt à changer d’assureur, principalement pour des motifs financiers, dans un contexte inflationniste. La concurrence s’exerce donc largement sur le terrain des prix.</p><p>Déterminer une tarification pertinente suppose d’appliquer le bon prix, au bon risque, au bon moment et pour la bonne personne. Une telle exigence ne peut être satisfaite dans un environnement fragmenté. Lorsque les données sont dispersées et que les processus ne sont pas exécutés de bout en bout, les calculs restent approximatifs et insuffisamment personnalisés, au détriment de la fidélisation et de l’acquisition.</p><p>Cette situation illustre clairement l’écart entre une modernisation superficielle et une transformation structurelle. Les acteurs qui engagent une refonte de leur système cœur, en centralisant les données, en fluidifiant les chaînes de traitement et en industrialisant la tarification, prennent une avance décisive. À l’inverse, le maintien d’une logique de rafistolage par des couches périphériques expose à une perte progressive de compétitivité sur un marché où les arbitrages sont permanents.</p><h2>Un socle intégré, condition de l’intelligence artificielle</h2><p>La prochaine décennie devrait s’accompagner d’une transformation profonde du secteur, avec un basculement vers des plateformes intégrées capables de gérer de manière fluide l’ensemble du cycle de vie client, de la tarification à la gestion des sinistres, en passant par la souscription et la facturation.</p><p>Au-delà des gains d’efficacité opérationnelle, cette intégration constitue un prérequis essentiel à l’exploitation de l’intelligence artificielle, et notamment de l’IA générative. Le fonctionnement de ces technologies repose sur des données centralisées, cohérentes et accessibles en temps réel. À l’inverse, des environnements cloisonnés tendent à reproduire et amplifier les incohérences existantes.</p><p>C’est dans cette perspective qu’un système cœur ouvert, intégré et modernisé devient indispensable pour tirer pleinement parti des apports de l’IA, qu’il s’agisse de tarification dynamique, de recommandations personnalisées ou d’automatisation des sinistres. Les éditeurs de solutions ont d’ailleurs fait évoluer leurs offres dans ce sens, en concevant des plateformes pensées dès l’origine pour couvrir l’ensemble des processus.</p><p>La modernisation des couches périphériques a constitué une première étape structurante pour le secteur. Toutefois, la réponse durable aux attentes des clients, aux contraintes réglementaires et à l’évolution des usages passe désormais par une transformation en profondeur des systèmes cœur. Loin d’être une contrainte, cette évolution représente une opportunité stratégique : celle de bâtir des architectures plus agiles, intégrées et orientées vers l’avenir. En s’engageant dès aujourd’hui dans cette voie, les assureurs se dotent des moyens nécessaires pour mieux valoriser leurs données, accélérer l’innovation et consolider la confiance des assurés. Miser sur un cœur ouvert et modernisé, c’est créer les conditions d’une plus grande efficacité, d’une réactivité accrue et d’une capacité renforcée à se réinventer face aux enjeux de la prochaine décennie.</p>]]></description>
      <link>https://www.journaldunet.com/solutions/dsi/1547245-modernisation-de-l-assurance-les-systemes-coeur-de-metier-sont-le-dernier-rempart-a-franchir/</link>
      <guid>https://www.journaldunet.com/solutions/dsi/1547245-modernisation-de-l-assurance-les-systemes-coeur-de-metier-sont-le-dernier-rempart-a-franchir/</guid>
      <pubDate>Wed, 21 Jan 2026 11:15:00 +0100</pubDate>
    </item>
    <item>
      <title><![CDATA[L'IT entre innovation, résilience et rationalisation en 2026]]></title>
      <description><![CDATA[<p class="app_entry_lead">En 2026, les DSI font face à un triptyque clé : budgets sous pression, hausse des coûts et demandes métiers accrues. Priorité au run, à la cybersécurité et à l'IA, avec une exigence forte de ROI.</p><p><a href="https://www.channelnews.fr/gartner-prevoit-1500-milliards-de-depenses-liees-a-lia-en-2025-150938">Après une période d'investissements soutenus en 2024 et en 2025</a>, le marché des télécommunications et de l'informatique est à un point d'inflexion. Les signaux économiques, couplés à un contexte d'incertitude géopolitique, indiquent un durcissement des conditions financières pour 2026. Les Directions des Systèmes d'Information (DSI) occupent encore aujourd’hui une place stratégique au sein des organisations. Elles sont à la fois pilier technologique, partenaire métier et gardiennes de la performance financière. Cette triple fonction les expose à trois pressions simultanées : la contraction budgétaire, la hausse structurelle des coûts IT et la multiplication des demandes métiers.</p><h2> Arbitrages budgétaires : Le "Run" l'emporte sur le "Build"</h2><p>Les études récentes confirment une rupture de tendance. <a href="https://abraxio.com/41-des-dsi-prevoient-une-augmentation-de-leur-budget-en-2025/">Si 41 % des DSI anticipaient une augmentation de leur budget en 2025, ce chiffre est en net recul pour 2026, tombant à 35 % selon une étude d'Abraxio</a>. Plus inquiétant, <a href="https://abraxio.com/41-des-dsi-prevoient-une-augmentation-de-leur-budget-en-2025/">26 % des DSI s'attendent à une baisse de leurs enveloppes, un doublement par rapport à l'année précédente</a>. Cette réalité contraint les organisations à opérer des arbitrages douloureux.</p><p>Le "Run", qui correspond au maintien opérationnel des systèmes, et la cybersécurité sont les deux postes de dépenses qui bénéficient d'une légitimité indiscutable. La cybersécurité, en particulier, reste une priorité absolue, tirée par les impératifs réglementaires (comme le règlement européen sur l'IA ou l'AI Act) et la sophistication croissante des menaces (notamment les "deepfakes" et l'IA générative malveillante). Les DSI prioriseront donc les investissements dans la détection avancée, la sécurité des pipelines d'IA et l'adoption de la cryptographie post-quantique.</p><p>À l'inverse, les projets d'innovation et de "Build" sont les premiers à souffrir. Faute de marge de manœuvre, les initiatives de transformation numérique, pourtant vitales pour la compétitivité à long terme, sont souvent reportées ou redimensionnées. Cette tendance crée un risque de stagnation technologique pour les entreprises qui ne parviendront pas à trouver un équilibre entre rationalisation et croissance.</p><h2>Rationalisation des coûts : L'efficacité comme nouvelle monnaie</h2><p>Face à la pression budgétaire, la rationalisation des coûts IT devient un impératif stratégique. Il ne s'agit plus de réduire aveuglément les dépenses, mais d'optimiser chaque euro investi pour maximiser la valeur. Plusieurs leviers sont activés par les DSI :</p><ul><li>L'audit et l'optimisation des services cloud : Le passage au cloud a souvent été un vecteur d'augmentation des coûts. En 2026, les entreprises chercheront à rationaliser leurs dépenses en identifiant les instances sous-utilisées, en renégociant les contrats et en favorisant des architectures plus efficientes.</li>
<li>L'automatisation et l'IA : L'intelligence artificielle est perçue non seulement comme un moteur d'innovation, mais aussi comme un puissant levier de réduction des coûts. Les DSI investissent dans l'automatisation des tâches à faible valeur ajoutée, comme la gestion des infrastructures ou le support utilisateur, pour libérer des ressources humaines et améliorer l'efficacité opérationnelle. <a href="https://www.forrester.com/blogs/previsions-tendances-2025-intelligence-artificielle-fr/">Selon une étude de Forrester, l'utilisation de l'IA pour l'automatisation n'a de valeur que si elle permet une réduction tangible des coûts</a>.</li>
</ul><h2>L'IA, moteur d'innovation et point de friction budgétaire</h2><p>Si l'innovation est sous pression, l'intelligence artificielle (IA) constitue une exception notable. L'IA générative en particulier reste le principal poste d'investissement pour l'année à venir. Selon certaines projections, <a href="https://www.informatiquenews.fr/98-des-entreprises-francaises-vont-augmenter-leurs-budgets-ia-en-2026-106699">près de 98 % des entreprises françaises devraient augmenter leurs budgets dédiés à l'IA en 2026</a>. Ces investissements massifs, <a href="https://www.lesechos.fr/tech-medias/intelligence-artificielle/choose-france-plus-de-12-milliards-dinvestissements-lies-a-lintelligence-artificielle-2165928#:~:text=Exclusif-,Choose%20France%20%3A%20l'Elys%C3%A9e%20confirme%2017%20milliards%20d'investissements,Paris%20commencent%20%C3%A0%20se%20concr%C3%A9tiser.">qui pourraient atteindre plus de 17 milliards d'euros pour le marché français</a>, se concentrent sur :</p><ul><li>Le développement d'agents autonomes : Les DSI expérimentent l'IA agentique, c'est-à-dire des IA capables de prendre des décisions et d'exécuter des tâches de manière autonome. Ces agents sont initialement déployés pour des fonctions d'analyse et d'optimisation, afin de minimiser les risques.</li>
<li>L'industrialisation de l'IA : Les entreprises passent de la phase d'expérimentation à la production, en structurant leurs plateformes de données et de MLOps (Machine Learning Operations). Cela implique de lourds investissements dans des infrastructures de calcul (GPU) et de stockage, qui peuvent mettre à rude épreuve les budgets.</li>
<li>La souveraineté et la sécurité : L'adoption de l'IA s'accompagne d'une attention accrue pour les modèles open source et les solutions "cloud souverain". Les DSI cherchent à maîtriser la chaîne de valeur de l'IA, de la gouvernance des données à la sécurité des modèles, pour se conformer aux réglementations et protéger leur propriété intellectuelle.</li>
</ul><h2>Le défi de la démonstration de valeur</h2><p>Dans ce contexte de contrainte budgétaire, le rôle de la DSI évolue. Elle n'est plus un simple centre de coûts, mais un partenaire stratégique qui doit justifier chaque dépense et démontrer la valeur générée par l'IT. Les négociations avec les directions financières et générales s'annoncent particulièrement complexes, avec deux tiers des DSI anticipant des discussions plus difficiles.</p><p>La pédagogie budgétaire devient une compétence clé. Les DSI doivent s'appuyer sur des données précises (KPI, ROI) pour défendre leurs projets, qu'il s'agisse de la modernisation des infrastructures ou des initiatives d'innovation. L'objectif est de transformer le budget IT d'une ligne de dépense à maîtriser en un investissement stratégique pour la résilience et la croissance de l'entreprise.</p><p>En conclusion, l'année 2026 s'annonce comme une année d'équilibriste pour les DSI. La capacité à concilier des budgets sous pression avec les impératifs de cybersécurité et l'opportunité de l'IA définira les leaders de demain. Les organisations qui sauront faire preuve d'agilité, de pragmatisme et de persuasion sortiront renforcées de cette période, tandis que les autres risquent de voir leur compétitivité s'éroder face à la triple pression de l'austérité, de la complexité et de la stagnation.</p>]]></description>
      <link>https://www.journaldunet.com/solutions/dsi/1547365-l-it-entre-innovation-resilience-et-rationalisation-en-2026/</link>
      <guid>https://www.journaldunet.com/solutions/dsi/1547365-l-it-entre-innovation-resilience-et-rationalisation-en-2026/</guid>
      <pubDate>Wed, 21 Jan 2026 11:14:00 +0100</pubDate>
    </item>
    <item>
      <title><![CDATA[Le paradoxe des leaders de transformation : responsables de la valeur, mais rarement équipés pour la mesurer]]></title>
      <description><![CDATA[<p class="app_entry_lead">Les transformations agiles et produits sont jugées sur leur impact, mais rarement outillées pour le mesurer. Sans grille de lecture business partagée, la valeur reste invisible.</p><p>Depuis plusieurs années, les organisations ont fait de l’agilité et du mode produit des axes majeurs de modernisation, mobilisant des investissements importants, des dispositifs dédiés et un ensemble de pratiques censées renforcer la performance collective. Pourtant, au moment d’évaluer l’impact réel de ces transformations, une forme de fragilité apparaît systématiquement : les leaders qui les portent se retrouvent souvent en difficulté pour démontrer la valeur produite, alors même que cette démonstration conditionne la poursuite des efforts engagés. Cette situation crée une tension paradoxale, car on attend d’eux une capacité de pilotage orientée impact, tout en les laissant opérer avec des outils, des métriques et des cadres de lecture qui ne permettent pas réellement de mesurer la performance globale d’une transformation.</p><h2>Une mesure centrée sur l’activité plutôt que sur la valeur produite</h2><p>Ce décalage entre l’ambition initiale et la capacité de preuve est d’autant plus marqué que la plupart des tableaux de bord utilisés aujourd’hui se concentrent essentiellement sur le delivery. Les entreprises suivent la vélocité, la capacité, le nombre de releases, la conformité aux rituels, la couverture de tests ou encore la stabilité des pipelines, mais ces informations ne disent finalement qu’une chose : l’organisation produit. Elles ne permettent en rien d’évaluer si ce qui est produit contribue effectivement à l’amélioration de la performance business, à l’accélération du time-to-market, à la satisfaction des utilisateurs ou à la réduction des risques opérationnels. Le résultat est une transformation qui existe dans l’effort, mais dont la valeur n’est pas explicitement démontrée, ce qui fragilise sa légitimité au moment où les arbitrages budgétaires se durcissent.</p><h2>L’absence d’un cadre de lecture partagé fragilise la transformation</h2><p>Cette difficulté ne relève ni d’un manque de bonne volonté, ni d’une absence de compréhension des enjeux. Elle provient plutôt du fait que les organisations ne disposent pas d’une grille de lecture simple, partagée et suffisamment stratégique pour relier les progrès observés au quotidien aux objectifs globaux de l’entreprise. Lorsque chacun analyse la transformation avec ses propres indicateurs – l’IT par la production, les métiers par l’avancement des projets, la direction financière par la maîtrise budgétaire, et les équipes par l’adoption des pratiques – il devient presque impossible de construire un récit cohérent permettant d’expliquer l’impact global du changement. Une transformation sans langage commun ne peut pas, par nature, produire une mesure objective et reconnue.</p><h2>Une grille en cinq dimensions pour reconnecter transformation et performance</h2><p>Pour réconcilier ces différentes perspectives, l’approche la plus robuste consiste à s’appuyer sur une grille de mesure en cinq dimensions, dérivée du triangle classique qualité-coût-délai, mais enrichie pour refléter la réalité des transformations modernes. Ces cinq dimensions – les coûts, les délais, la qualité, le périmètre de valeur délivré et l’adoption humaine – offrent un cadre qui permet de dépasser la seule logique opérationnelle pour entrer dans une lecture réellement business-first. Elles permettent à la fois de comprendre la performance économique de la transformation, sa capacité à accélérer les cycles d’apprentissage, l’expérience vécue par les utilisateurs, la pertinence des choix réalisés et enfin la manière dont les équipes s’approprient le changement.</p><h2>Coûts, délais, qualité : revisiter les fondamentaux à l’aune de la transformation</h2><p>L’analyse des coûts ne se limite plus au budget initial ou au suivi des dépenses : elle interroge la capacité de l’organisation à obtenir un <a href="https://www.journaldunet.fr/business/dictionnaire-economique-et-financier/1198811-roi-definition-calcul-traduction-et-synonyme/" title="Retours sur investissement">retour sur investissement</a> tangible, à limiter les dérapages et à utiliser ses ressources de manière plus efficiente. De la même manière, la dimension temporelle ne se résume pas à la rapidité d’exécution ; elle s’intéresse à la rapidité d’apprentissage, qui constitue souvent l’avantage compétitif le plus déterminant dans un contexte où les besoins évoluent constamment. La qualité doit, quant à elle, être appréhendée non seulement à travers la conformité technique, mais surtout à travers la satisfaction réelle des utilisateurs et la réduction des irritants, car ce sont ces éléments qui conditionnent la perception globale du produit.</p><h2>Valeur délivrée et adoption humaine : les deux angles morts les plus fréquents</h2><p>La question du périmètre invite à évaluer la transformation autrement que par la tenue d’un plan. Ce qui compte n’est plus la capacité à livrer ce qui avait été prévu, mais la capacité à ajuster le périmètre en fonction des apprentissages, à arrêter les initiatives qui ne créent plus de valeur et à concentrer les efforts sur celles qui renforcent la performance de l’entreprise. Enfin, la dimension humaine, trop souvent reléguée au second plan, apparaît en réalité comme la plus prédictive : une transformation ne peut réussir que si les équipes s’approprient les nouvelles pratiques, si les irritants sont traités rapidement et si un réseau d’ambassadeurs est capable de porter la dynamique de changement au quotidien.</p><h2>Transformer la mesure, transformer la gouvernance</h2><p>L’intégration de ces cinq dimensions transforme profondément la manière dont les organisations pilotent leurs transformations. Elle change le contenu des conversations, éloignant les débats techniques pour recentrer les échanges sur l’impact réel. Elle permet également de rendre visibles des progrès qui, jusqu’ici, restaient implicites ou perçus de manière hétérogène. En offrant une grille commune de lecture, elle crée les conditions d’un pilotage partagé entre les directions, les métiers et les équipes opérationnelles, rétablissant ainsi la lisibilité qui manquait souvent aux transformations agiles et produits.</p><h2>Un nouveau rôle pour les leaders de transformation</h2><p>Dans ce cadre renouvelé, les leaders de transformation assument un rôle différent de celui qu’on leur attribuait traditionnellement. Ils ne sont plus uniquement les garants des processus, des rituels ou de la diffusion culturelle ; ils deviennent les architectes de la valeur produite par la transformation. Leur rôle consiste à structurer la mesure, à en garantir la cohérence, à en assurer la diffusion et à en faire un outil d’aide à la décision pour l’ensemble de l’organisation. Ce repositionnement change leur posture, renforce leur légitimité et construit les conditions d’une transformation durable.</p><h2>Mesurer l’impact : une nécessité stratégique pour pérenniser les transformations</h2><p>L’époque où les transformations pouvaient être pilotées sur la base d’intentions ou de convictions est désormais derrière nous. Les entreprises attendent des preuves, des résultats et une capacité démontrable à améliorer leur performance globale. Mesurer l’impact n’est donc plus une option, mais une nécessité stratégique pour sécuriser les investissements, pérenniser les dispositifs et donner aux leaders les moyens de défendre – et d’ajuster – leur trajectoire. Une transformation qui sait démontrer sa valeur est une transformation qui peut durer, s’adapter et continuer à créer de l’impact, indépendamment des cycles budgétaires et des effets de mode.</p>]]></description>
      <link>https://www.journaldunet.com/solutions/dsi/1547003-le-paradoxe-des-leaders-de-transformation-responsables-de-la-valeur-mais-rarement-equipes-pour-la-mesurer/</link>
      <guid>https://www.journaldunet.com/solutions/dsi/1547003-le-paradoxe-des-leaders-de-transformation-responsables-de-la-valeur-mais-rarement-equipes-pour-la-mesurer/</guid>
      <pubDate>Thu, 08 Jan 2026 14:53:00 +0100</pubDate>
    </item>
    <item>
      <title><![CDATA[PME africaines et IA : pourquoi le vrai problème n'est pas la technologie, mais l'isolement]]></title>
      <description><![CDATA[<p class="app_entry_lead">Un récent rapport d'Ernst &amp; Young révèle que 70 % des acteurs de l'écosystème tech africain francophone déplorent l'absence de culture de coopération. Un cloisonnement fatal ?</p><p>L'Afrique francophone ne manque ni de talents, ni d'idées. Ce constat, posé par <a href="https://afriqueitnews.com/tech-media/afrique-francophone-immense-potentiel-tech-freine-ecosystemes-desarticules/">Ernst &amp; Young dans son rapport publié en novembre 2025</a>, devrait faire réfléchir tous ceux qui réduisent encore le continent à ses retards technologiques. La vraie difficulté est ailleurs : dans l'incapacité structurelle des acteurs de l'écosystème à travailler ensemble.</p><p>L'étude <a href="https://www.agenceecofin.com/actualites/2911-133863-l-ecosysteme-tech-innovant-en-afrique-subsaharienne-francophone-doit-etre-restructure-pour-rester-competitif-ey">"Weak Ecosystem Cohesion Holds Back Tech Innovation in Francophone SSA"</a> est sans appel : plus de 70 % des répondants pointent l'absence de culture de coopération entre startups, universités, investisseurs et gouvernements. Près des deux tiers soulignent le manque de structures d'échange. Le diagnostic est posé. Reste à comprendre ce qu'il signifie concrètement pour les PME qui tentent d'adopter l'intelligence artificielle.</p><p>Le piège des dynamiques isolées</p><p>Après vingt-cinq ans d'accompagnement d'entreprises sur le continent, je peux témoigner d'une réalité que les chiffres d'EY confirment : les innovations africaines restent cloisonnées. Un entrepreneur ivoirien développe une solution prometteuse dans son coin. Une université sénégalaise forme des data scientists qui peinent à trouver des débouchés locaux. Un fonds d'investissement cherche des projets matures sans savoir où regarder. Chacun avance de son côté, sans synergie, sans plateforme de dialogue.</p><p>Le résultat ? Les projets n'atteignent pas leur plein potentiel. Les initiatives gouvernementales ne sont que partiellement efficaces. Et les PME, qui auraient le plus à gagner de l'IA pour compenser leurs ressources limitées, se retrouvent démunies face à une offre fragmentée et des parcours d'adoption inexistants.</p><p>Pourquoi les PME francophones décrochent</p><p>En France, une PME qui souhaite intégrer l'IA peut s'appuyer sur un écosystème structuré : des incubateurs, des programmes publics comme France 2030, des partenariats académiques, des intégrateurs spécialisés. En Afrique francophone, ce maillage n'existe pas – ou pas encore.</p><p>Le rapport EY examine 19 pays à travers six piliers : gouvernance, capital humain, R&amp;D, infrastructures, financements et cadre légal. Le constat est sans surprise : même dans les pays réputés les plus dynamiques comme le Sénégal ou la Côte d'Ivoire, une part significative des acteurs déplore un manque de coordination. Dans d'autres pays – Niger, Guinée, RDC – les écosystèmes sont plus faibles encore, faute d'institutions dédiées ou de réseaux formels.</p><p>Pour une PME africaine, adopter l'IA ne relève donc pas simplement d'un choix technologique. C'est un parcours du combattant : identifier les bons prestataires, former ses équipes sans cursus adaptés, financer l'innovation sans accès au capital-risque, naviguer dans un cadre réglementaire souvent inexistant.</p><p>Ce que l'IA pourrait changer – si on la laissait faire</p><p>Pourtant, le potentiel est considérable. <a href="https://www.agenceecofin.com/actualites/2911-133863-l-ecosysteme-tech-innovant-en-afrique-subsaharienne-francophone-doit-etre-restructure-pour-rester-competitif-ey">L'Observatoire EY de l'innovation</a> rappelle qu'en 2024, les startups africaines ont levé environ 3,2 milliards de dollars sur 534 deals, dont plus de 30 transactions localisées en Afrique francophone subsaharienne. L'espace compte déjà plus de 862 startups et une première licorne fintech. Les hubs de Dakar et d'Abidjan s'affirment sur la carte continentale de l'innovation.</p><p>L'IA générative, en particulier, pourrait offrir aux PME africaines ce qu'elle promet partout ailleurs : automatiser les tâches répétitives, personnaliser la relation client, optimiser les chaînes d'approvisionnement, accéder à de nouveaux marchés. Dans un contexte où les ressources humaines qualifiées sont rares et coûteuses, ces gains de productivité seraient décisifs.</p><p>Mais pour que cette promesse se concrétise, il faut sortir de la logique des initiatives isolées.</p><p>Trois leviers pour débloquer la situation</p><p>Le rapport EY recommande de repenser en profondeur les stratégies de développement numérique. Concrètement, trois axes me semblent prioritaires.</p><p>Premier levier : créer des espaces de dialogue structurés. Les PME ont besoin de points d'entrée clairs dans l'écosystème tech. Cela passe par des plateformes de mise en relation entre offreurs de solutions et entreprises, des événements sectoriels réguliers, des guichets uniques d'accompagnement. <a href="https://smartafrica.org/">L'alliance Smart Africa</a>, avec ses 42 pays membres représentant 2,2 milliards de personnes, pourrait jouer ce rôle de catalyseur – à condition de descendre au niveau des PME et pas seulement des grandes initiatives gouvernementales.</p><p>Deuxième levier : stimuler la demande locale. Former des développeurs ne suffit pas s'il n'y a pas de marché pour les employer. Les gouvernements africains doivent créer des débouchés concrets en digitalisant leurs propres services, en conditionnant certains marchés publics à l'intégration de solutions locales, en soutenant les entreprises qui investissent dans l'IA made in Africa.</p><p>Troisième levier : accepter les partenariats asymétriques. Les PME africaines n'ont pas besoin de réinventer la roue. Elles ont besoin d'accéder à des solutions éprouvées, adaptées à leurs réalités, avec des modèles économiques viables. Cela suppose des partenariats avec des acteurs internationaux – mais des partenariats équilibrés, qui intègrent transfert de compétences et co-développement, pas simplement vente de licences.</p><p>L'opportunité européenne</p><p>Pour les entreprises françaises et européennes, ce diagnostic EY est une invitation à repenser leur approche du marché africain. Les PME du continent ne cherchent pas des vendeurs de solutions clé en main. Elles cherchent des partenaires capables de comprendre leurs contraintes et de construire avec elles.</p><p>L'enjeu est considérable : une meilleure cohésion de l'écosystème tech africain pourrait transformer la région en pôle d'innovation reconnu, créer des milliers d'emplois et accélérer la résolution de problèmes critiques par des solutions locales. Ceux qui sauront s'insérer dans cette dynamique – en apportant expertise, financement et réseau – prendront une longueur d'avance sur un marché de 2,2 milliards de consommateurs potentiels.</p><p>Le vrai frein à l'adoption de l'IA en Afrique francophone n'est pas technologique. Il est organisationnel. Et c'est précisément là que se situe l'opportunité.</p>]]></description>
      <link>https://www.journaldunet.com/web-tech/1547017-pme-africaines-et-ia-pourquoi-le-vrai-probleme-n-est-pas-la-technologie-mais-l-isolement/</link>
      <guid>https://www.journaldunet.com/web-tech/1547017-pme-africaines-et-ia-pourquoi-le-vrai-probleme-n-est-pas-la-technologie-mais-l-isolement/</guid>
      <pubDate>Wed, 07 Jan 2026 11:22:00 +0100</pubDate>
    </item>
    <item>
      <title><![CDATA[PC modernes, sécurité renforcée : renouveler le parc à l'ère de l'IA et de Windows 11]]></title>
      <description><![CDATA[<p class="app_entry_lead">Un parc vieillissant fragilise l'entreprise. Le renouvellement des PC est désormais un levier clé pour sécurité, productivité et résilience.</p><p>Il est tentant de considérer le renouvellement des PC avant tout dans ses aspects les plus immédiats : un châssis plus fin et léger, des processeurs plus rapides, une meilleure autonomie. Si ces améliorations sont évidemment bienvenues, elles ne représentent que la partie visible de l’innovation. La véritable portée d’une stratégie de renouvellement des équipements va bien au-delà : il ne s’agit plus seulement de design et performances, mais de poser les fondations d’une cybersécurité robuste et d’une résilience accrue pour l’entreprise.</p><h2>Des usages transformés, un risque accru</h2><p>Le passage au travail hybride a profondément transformé les modes et les lieux de travail, apportant son lot d’opportunités mais aussi de nouveaux défis. Si les collaborateurs bénéficient d’une plus grande flexibilité, les équipes IT, elles, doivent composer avec une surface d’attaque démultipliée. Les terminaux ne sont plus protégés derrière le pare-feu de l’entreprise : ils se connectent depuis des réseaux domestiques, des Wi-Fi publics et bien d’autres environnements, devenant ainsi des portes d’entrée privilégiées pour les cybercriminels.</p><p>Entre le phishing et les sites frauduleux, la cybercriminalité pourrait coûter jusqu’à10 500 milliards de dollars à l’économie mondiale en 2025.<a href="#_ftn1">[1]</a> Face à des menaces toujours plus sophistiquées et coûteuses, les entreprises doivent repenser chaque décision IT, même les plus anodines, avec une logique de sécurité intégrée dès la conception. C’est là qu’une gestion stratégique du cycle de vie des PC prend tout son sens, transformant un simple renouvellement matériel en véritable levier de cybersécurité.</p><h2>Les risques cachés d’un parc vieillissant</h2><p>Dans le monde, 1,5 milliard de PC sont actuellement utilisés dans les bureaux, les écoles et les foyers.<a href="#_ftn2">[2]</a> Parmi eux, 30 % ont quatre ans ou plus.<a href="#_ftn3">[3]</a> Ces matériels anciens ne peuvent pas prendre en charge les fonctionnalités de sécurité intégrées aux systèmes d’exploitation modernes. À cela s’ajoute un autre risque : ces appareils obsolètes ne disposent même pas d’unités de traitement neuronal (NPU), désormais essentielles pour tirer parti des avancées de l’IA générative.</p><p>Prenons un exemple concret : de nombreuses organisations gèrent actuellement la transition vers Windows 11. Ce cycle de renouvellement représente une opportunité stratégique majeure pour renforcer la sécurité dès la base. Windows 11 a été conçu avec une approche « Security First », nécessitant un matériel doté de composants comme le Trusted Platform Module (TPM) 2.0. Cette puce offre des fonctions de sécurité matérielle, telles que la création et le stockage de clés cryptographiques, bien plus sûres que les solutions purement logicielles.</p><p>Tenter d’exécuter des logiciels modernes sur du matériel ancien ne se limite pas à dégrader les performances : cela expose directement les systèmes à des vulnérabilités critiques. Sans le support matériel adéquat, les organisations ne peuvent pas exploiter pleinement les protections avancées des nouveaux systèmes d’exploitation, les laissant plus vulnérables aux cyberattaques.</p><h2>Comment les PC modernes contribuent à bâtir une base sécurisée</h2><p>Les cybercriminels sont tenaces, ciblant souvent un même PC à plusieurs reprises tout au long de sa durée de vie. Aujourd’hui, les PC professionnels modernes constituent une première ligne de défense dans un environnement « Zero Trust ». Ils intègrent des fonctionnalités de sécurité directement au niveau du matériel et du firmware, en dessous du système d’exploitation, là où les attaques sont les plus difficiles à détecter. Cette approche offre une protection plus robuste contre les attaques visant à contourner les défenses logicielles.</p><p>Prenons le parcours d’un PC avant même qu’il n’arrive chez l’utilisateur. La sécurité de la chaîne d’approvisionnement est une préoccupation croissante, avec des risques de manipulation à chaque étape, de la fabrication à la livraison. Les PC modernes issus de fournisseurs de confiance peuvent inclure des mesures optionnelles pour sécuriser cette chaîne. Par exemple, un certificat numérique créé en usine permet aux organisations de vérifier l’intégrité des composants et de se prémunir contre toute altération. Ce type de mécanisme renforce la confiance dans chaque maillon de la chaîne.</p><p>De plus, des fonctionnalités comme la vérification du BIOS et du firmware, ainsi que des indicateurs précoces d’attaque, contribuent à maintenir la sécurité et l’intégrité du dispositif pendant son utilisation. La protection des identifiants est également cruciale : un stockage sécurisé des informations d’authentification des utilisateurs est essentiel pour contrer les attaques par usurpation d’identité, l’un des vecteurs de menace les plus fréquents aujourd’hui.</p><h2>Une stratégie de renouvellement pour un avenir résilient</h2><p>Selon une étude récente, les systèmes hérités absorbent jusqu’à 80 % des budgets informatiques annuels dans le monde, et les organisations dépensent en moyenne 30 millions de dollars pour maintenir chacun de ces systèmes.<a href="#_ftn4">[4]</a> Considérer le renouvellement des PC comme un élément de la stratégie de sécurité permet de bâtir une entreprise plus résiliente et productive. C’est l’occasion de donner aux collaborateurs les outils dont ils ont besoin pour travailler au mieux, en toute sécurité et efficacité. Un cycle de renouvellement proactif aide également les organisations à aligner leurs objectifs technologiques et business, en passant d’un modèle réactif « break-fix » à une approche stratégique et sécurisée.</p><p>Cette démarche apporte des bénéfices tangibles. Elle réduit la charge des équipes IT, qui passent moins de temps à corriger les vulnérabilités des systèmes obsolètes et davantage à innover. Elle améliore l’expérience des employés, grâce à des appareils offrant de meilleures performances et un accès sécurisé aux ressources de l’entreprise. Et surtout, elle renforce durablement la posture de sécurité face à un paysage de menaces en constante évolution.</p><p>Les dirigeants doivent continuer à considérer leur parc informatique non plus comme un simple ensemble d’appareils, mais comme un pilier de leur stratégie de sécurité. En investissant dans des PC modernes, les organisations ne se contentent pas d’acheter du matériel : elles construisent un avenir plus sûr, plus productif et plus résilient.</p><p><a href="#_ftnref1">[1]</a> Source Cybersecurity Ventures : <a href="https://cybersecurityventures.com/cybercrime-damage-costs-10-trillion-by-2025/">https://cybersecurityventures.com/cybercrime-damage-costs-10-trillion-by-2025/</a></p><p><a href="#_ftnref2">[2]</a> Source Dell : <a href="https://www.dell.com/en-us/blog/ditch-the-legacy-thinking-this-isn-t-your-typical-pc-refresh-cycle/">https://www.dell.com/en-us/blog/ditch-the-legacy-thinking-this-isn-t-your-typical-pc-refresh-cycle/</a></p><p><a href="#_ftnref3">[3]</a> Source Dell : <a href="https://www.dell.com/en-us/blog/ditch-the-legacy-thinking-this-isn-t-your-typical-pc-refresh-cycle/">https://www.dell.com/en-us/blog/ditch-the-legacy-thinking-this-isn-t-your-typical-pc-refresh-cycle/</a></p><p><a href="#_ftnref4">[4]</a> Étude RecordPoint : <a href="https://www.recordpoint.com/blog/maintaining-legacy-systems-costs">What are the hidden costs of maintaining legacy systems?</a></p>]]></description>
      <link>https://www.journaldunet.com/solutions/dsi/1546919-pc-modernes-securite-renforcee-renouveler-le-parc-a-l-ere-de-l-ia-et-de-windows-11/</link>
      <guid>https://www.journaldunet.com/solutions/dsi/1546919-pc-modernes-securite-renforcee-renouveler-le-parc-a-l-ere-de-l-ia-et-de-windows-11/</guid>
      <pubDate>Tue, 23 Dec 2025 15:25:00 +0100</pubDate>
    </item>
    <item>
      <title><![CDATA[Business ONE Luxembourg : l'offre tout-en-un pensée pour les PME luxembourgeoises]]></title>
      <description><![CDATA[<p class="app_entry_lead"><a title=" © Business ONE Luxembourg" href="https://img-0.journaldunet.com/ZM0i5cHsLO-ecHq3YDqOM-a1t6k=/1500x/smart/8e191b3a31964e76940d29deed08bea6/ccmcms-jdn/39530878.jpg" class="fancy"><picture><source srcset="https://img-0.journaldunet.com/govjR7vL0F_1HCLsLYsXlkdAIwQ=/540x/smart/8e191b3a31964e76940d29deed08bea6/ccmcms-jdn/39530878.jpg" media="(max-width: 480px)" /><img src="https://img-0.journaldunet.com/ZM0i5cHsLO-ecHq3YDqOM-a1t6k=/1500x/smart/8e191b3a31964e76940d29deed08bea6/ccmcms-jdn/39530878.jpg" alt="Business ONE Luxembourg : l'offre tout-en-un pensée pour les PME luxembourgeoises" width="1500" height="900" /></picture></a> Face à la multiplication des outils numériques et des prestataires, les PME luxembourgeoises perdent un temps précieux. Business ONE simplifie tout en une offre intégrée.</p><p>Lundi matin, 9 heures pile. Un dirigeant de PME luxembourgeoise décroche son téléphone quatre fois d'affilée. D'abord, c'est le fournisseur internet qui annonce une intervention. Ensuite l'opérateur mobile pour un dépassement de forfait. Puis le prestataire sécurité pour une mise à jour urgente. Et pour finir, le support technique qui relance pour un ticket vieux de trois jours. Voilà le quotidien de milliers d'entreprises au Luxembourg : jongler avec une dizaine de prestataires différents, rien que pour leurs besoins numériques.</p><p>Cette fragmentation a un coût. Et pas seulement celui des factures qui s'empilent. C'est surtout le temps qui part en fumée, les responsabilités qui deviennent floues, les décisions stratégiques qui traînent. Aujourd'hui, avec le télétravail qui s'est installé partout et les cyberattaques qui explosent, cette dispersion devient carrément ingérable. Les PME ont besoin d'autre chose : de la simplicité, de la cohérence, bref d'un seul partenaire capable de tout gérer. C'est justement le pari qu’a fait Proximus NXT en créant son offre Business ONE. Le but : regrouper l’intégralité des besoins IT et télécom d’une entreprise.</p><h2>Business ONE : une offre télécom tout-en-un pour les PME</h2><p>Un pari qui semble fonctionner alors que de nombreuses PME choisissent déjà <a href="https://businessone.proximusnxt.lu/">Business  ONE Luxembourg</a> pour simplifier leur téléphonie, renforcer leur sécurité et centraliser leurs outils numériques en un seul service.</p><p>La base commence par la connectivité : internet haut débit via fibre optique, téléphonie fixe professionnelle, forfaits mobile pour les équipes terrain, et WiFi sécurisé déployé dans l'ensemble des locaux. Le réseau, qu'il relie un seul site ou plusieurs implantations, est conçu et maintenu par les mêmes équipes qui gèrent la cybersécurité.</p><p>Les outils de travail sont également inclus. Les laptops arrivent préconfigurés et prêts à l'emploi. Microsoft 365 est intégré nativement pour assurer collaboration et productivité. Certains secteurs peuvent même ajouter la télévision professionnelle selon leurs besoins spécifiques. Et tout cela s'accompagne d'un support de proximité qui intervient rapidement en cas de besoin.</p><p>Le résultat ? Une seule facture mensuelle, un seul conseiller qui connaît toute l'infrastructure, un seul numéro à composer quand ça coince. Quand le même acteur gère la connectivité, la sécurité et les outils de collaboration, les solutions fonctionnent ensemble au lieu de cohabiter tant bien que mal.</p><h2>Quels sont les avantages de Business ONE ?</h2><p>Regrouper ses services IT fait baisser la facture, c'est un fait. Les économies d'échelle jouent immédiatement : un seul prestataire négocie de meilleurs tarifs qu'une addition de contrats éparpillés. Mais l'économie la plus spectaculaire n'est pas là. Elle se cache dans les heures récupérées, celles qui filaient entre les doigts à coordonner des prestataires qui ne se parlent jamais. Une seule facture mensuelle à valider au lieu de douze. Un seul conseiller qui sait exactement ce qui tourne chez vous. Un seul numéro quand quelque chose plante. Le gain administratif se chiffre en jours, pas en heures.</p><p>La sécurité change aussi de dimension. Plus de bricolage entre un pare-feu chez l'un, des mises à jour chez l'autre, et un support qui découvre votre infrastructure en même temps que votre problème. Proximus NXT surveille, met à jour, anticipe les incidents. La disponibilité du réseau est garantie avec des mécanismes de redondance qui maintiennent l'activité même en cas de panne.</p><p>Avec Microsoft 365 intégré directement dans Business ONE, la productivité change vraiment. Les équipes peuvent accéder à leurs outils de collaboration normalement, sans ces histoires de licences mal paramétrées. Plus besoin de jongler entre des applications qui ne veulent pas se parler. Les emails marchent. Les documents partagés aussi. Les visioconférences fonctionnent. Tout est opérationnel dès le début. Et que les collaborateurs soient au bureau, chez eux en télétravail ou en déplacement quelque part, la mobilité reste fluide. Cette cohérence, c'est exactement ce qu'il faut pour les organisations hybrides actuelles. Fini le temps où se connecter à distance relevait de l'exploit technique.</p><p>Et quand l'entreprise grandit ? La solution suit. Dix nouveaux collaborateurs, un site supplémentaire, plus de bande passante : tout s'adapte sans refonte ni migration douloureuse.</p><h2>Anticiper les défis et garantir la conformité</h2><p>Cette simplification ne cache pas certaines questions importantes. La cybersécurité ? Ce n'est vraiment plus une option aujourd'hui. Les PME sont devenues des cibles de choix pour les hackers. La raison est simple : elles sont souvent moins bien protégées que les grandes entreprises. Les attaques deviennent de plus en plus sophistiquées. Les ransomwares se multiplient partout. Et une seule intrusion suffit pour paralyser toute l'activité pendant plusieurs jours. Business ONE intègre des dispositifs de protection avancés. Ils sont mis à jour régulièrement pour bloquer les nouvelles menaces qui apparaissent. Pas besoin de devenir expert en cybersécurité pour autant. Les équipes de Proximus NXT s'occupent de tout ça.</p><p>La dépendance à un fournisseur unique ? La question revient souvent. Elle mérite qu'on y réponde honnêtement. Oui, mettre tous ses services chez le même acteur crée une certaine dépendance. Mais cette concentration se transforme en vrai atout quand le prestataire assure fiabilité, expertise et réactivité.Proximus NXT s'engage sur des niveaux de service précis. Ils ont les infrastructures redondantes qu'il faut pour assurer la continuité. Le calcul est vite fait : mieux vaut dépendre d'un partenaire solide que jongler avec dix prestataires qui se renvoient la balle dès qu'il y a un problème.</p><p>La conformité réglementaire pèse lourd sur les PME luxembourgeoises. Le Règlement Général sur la Protection des Données impose des obligations très précises. Tous les prestataires doivent les respecter scrupuleusement. Pour en savoir plus sur vos obligations en matière de protection des données, consultez le site de <a href="https://cnpd.public.lu/en.html">la Commission nationale pour la protection des données</a>. Travailler avec un acteur comme Proximus NXT qui intègre ces exigences dès le départ simplifie vraiment la mise en conformité.</p><h2>Le rôle essentiel d'un acteur professionnel</h2><p>Tous ces bénéfices reposent sur une condition importante : l'expertise du prestataire. Déployer une infrastructure IT complète, ça ne s'improvise vraiment pas. Entre les subtilités techniques, les normes de sécurité et les spécificités réglementaires luxembourgeoises, le terrain est miné pour ceux qui n'en font pas leur métier.C'est précisément ce que Proximus NXT apporte aux PME à travers Business ONE.</p><p>L'installation et la configuration de l'ensemble des composantes sont prises en charge par des techniciens qui connaissent leur sujet. Pas de perturbation de l'activité, pas de période de flottement où plus rien ne fonctionne. Le déploiement se fait proprement, avec un planning tenu. Le support local garantit ensuite une intervention rapide quand nécessaire, sans attendre qu'un technicien débarque de Bruxelles ou de Paris avec trois jours de retard.</p><p>La maintenance proactive change vraiment la donne. Plutôt que d'intervenir uniquement quand tout plante, les équipes de Proximus NXT surveillent l'infrastructure en permanence. Les problèmes potentiels ? Ils sont détectés avant de devenir critiques. Les correctifs s'appliquent avant que les utilisateurs ne voient quoi que ce soit. Cette approche préventive limite les interruptions au maximum et améliore les performances.</p><p>L'accompagnement s'inscrit dans la durée. L'entreprise évolue ? Le partenaire suit le mouvement. De nouveaux outils à intégrer ? La bande passante à adapter ? Des fonctionnalités avancées à déployer ? Proximus NXT reste présent pour conseiller et mettre en place les solutions qui conviennent. Pas besoin de tout recommencer à zéro à chaque évolution.</p><h2>Quelles sont les perspectives d’avenir ?</h2><p>Cette infrastructure unifiée ne se contente pas de résoudre les problèmes d'aujourd'hui. Elle prépare ceux de demain. Le télétravail et les organisations hybrides continueront de se développer, c'est acquis. Les entreprises qui s'accrochent à des infrastructures rigides perdront en agilité face à celles qui ont misé sur la flexibilité. Business ONE évolue en permanence pour que les équipes collaborent de manière fluide, qu'elles soient au bureau, chez elles ou en déplacement.</p><p>La cybersécurité va devenir encore plus critique. Les attaques sont de plus en plus sophistiquées chaque mois, les hackers affinent leurs techniques, et les PME restent dans le viseur. Proximus NXT investit massivement dans ce domaine pour que ses clients bénéficient d'une protection actualisée en temps réel. Ces investissements, impossibles à assumer seule pour une PME, font la différence entre subir une attaque et la bloquer avant qu'elle ne fasse des dégâts.</p><p>Le cloud et la collaboration vont poursuivre leur expansion. Les applications s'intègrent de plus en plus facilement. Les possibilités pour le travail collaboratif se multiplient constamment. Avec Microsoft 365 intégré nativement dans l'offre, les PME profitent de ces évolutions. Elles n'ont pas à tout reconfigurer à chaque mise à jour importante qui sort.</p><p>La mobilité des collaborateurs exige une connectivité permanente. Un commercial qui ne peut pas accéder à son CRM en rendez-vous client, un technicien qui ne consulte pas ses plans sur chantier : c'est du chiffre d'affaires qui file. Les réseaux de Proximus NXT assurent cette continuité qui est devenue indispensable.</p><p>L'objectif reste le même : simplifier pour que les PME se concentrent sur ce qu'elles font de mieux. Alors que la technologie se complexifie partout, Business ONE fait le choix inverse : rendre l'IT transparente et vraiment accessible.</p>]]></description>
      <link>https://www.journaldunet.com/solutions/dsi/1546653-business-one-luxembourg-l-offre-tout-en-un-pensee-pour-les-pme-luxembourgoises/</link>
      <guid>https://www.journaldunet.com/solutions/dsi/1546653-business-one-luxembourg-l-offre-tout-en-un-pensee-pour-les-pme-luxembourgoises/</guid>
      <pubDate>Thu, 18 Dec 2025 14:19:00 +0100</pubDate>
    </item>
    <item>
      <title><![CDATA[L'alignement entre DSI et PDG, l'assurance tout risque des entreprises]]></title>
      <description><![CDATA[<p class="app_entry_lead">Un certain nombre de DSI doutent quant aux volontés exactes de leur PDG, et ne se sentent pas habilités à prendre des décisions stratégiques à long terme.</p><p>L’intelligence artificielle (IA) continue de caracoler en tête des principaux intérêts des entreprises. Selon un <a href="https://emt.gartnerweb.com/ngw/globalassets/en/chief-information-officer/documents/q125-cio-report.pdf.pdf?_gl=1*c5d692*_ga*Njk0NzM4MTcyLjE3NjMwMjQzNzI.*_ga_R1W5CE5FEV*czE3NjMwMjQzNzAkbzEkZzEkdDE3NjMwMjQ4MzgkajEwJGwwJGgw*_gcl_au*MTQyNzQ5NzQ3MS4xNzYzMDI0Nzg4LjE2MDg0OTE4OTcuMTc2MzAyNDc4OC4xNzYzMDI0ODI3">récent rapport Gartner</a>, 74 % des PDG la considèrent comme la technologie la plus impactante. De fait, les DSI, prolongement de la structure pensante des organisations, se sentent contraint de justifier les investissements faits dans ce domaine. Néanmoins, l’alignement entre les premiers et les seconds se révèle complexe. Un certain nombre de <a href="https://www.journaldunet.com/solutions/dsi/dsi/" title="DSI">DSI</a> doutent quant aux volontés exactes de leur PDG, et ne se sentent pas habilités à prendre des décisions stratégiques à long terme.</p><p>Ce manque d’assurance dans leurs responsabilités menace l’équilibre des entreprises. En effet, le rôle du DSI « moderne » ne peut plus se limiter à protéger l’entreprise : il doit également contribuer à façonner son avenir numérique. Toutefois, aucun DSI ne peut agir en vase clos ; la réussite de sa mission repose sur un partenariat solide et harmonieux avec son PDG. En l’absence de ce travail d’équipe, le fossé entre les uns et les autres ne cesse de se creuser, et peut discrètement éroder la confiance et la dynamique.</p><h2>Dans la tête du PDG</h2><p>Les PDG sont généralement de grands optimistes. Leur mission consiste à faire progresser l’entreprise, à saisir de nouvelles opportunités et à maintenir le cap sur la croissance. De fait, leur tolérance au risque s’oppose à l’instinct d’un DSI, nécessaire pour identifier, évaluer et réduire ce risque.</p><p>En dépit de leur optimisme, les PDG savent que l’informatique représente une source majeure de risque pour l’entreprise. Ils comptent donc sur les DSI pour les aider à avoir une vue d’ensemble, à définir des niveaux d’exposition acceptables, et à prendre des décisions éclairées qui offrent un équilibre entre risque et opportunité. Dans un monde où l’intelligence artificielle est au cœur des débats, de nombreux PDG se trouvent partagés entre l’adoption ou non de cette technologie. Certains se précipitent pour obtenir un avantage concurrentiel, et d’autres abordent le sujet plus prudemment, préférant s’inspirer des primo-adoptants avant d’investir massivement.</p><p>Cette variation de l’appétence au risque souligne l’importance de connaître la position personnelle d’un PDG. Bâtir des relations équitables reste essentiel, et les DSI doivent adapter leur approche en conséquence. Certains PDG attendent de leur DSI qu’il trouve un juste milieu entre optimisme et prudence, tandis que d’autres privilégient une approche plus conservatrice qui permet de détecter les problèmes rapidement et d’éviter les erreurs. Les DSI les plus efficaces prennent le temps d’identifier ce qui compte le plus pour leur PDG et adaptent leur communication en fonction de ces besoins.</p><p>En fin de compte, les PDG recherchent des DSI fiables. Ils attendent de ces responsables qu’ils prennent des décisions éclairées de façon autonome, signalent les problèmes en amont, et veillent à l’alignement entre stratégie et exécution. Cette confiance découle de la capacité à faire preuve de cohérence, de transparence, et d’une communication proactive axée sur l’entreprise.</p><h2>Transformer le risque en stratégie</h2><p>La nuance caractérise les discussions autour du risque. Les DSI peuvent rendre ces dernières plus productives en présentant les décisions sous forme de choix multiples plutôt que de recommandations uniques. Présenter les options disponibles avec les risques, les coûts et les compromis qui s’y rapportent permet au PDG d’évaluer les résultats et d’agir en toute confiance.</p><p>Par exemple, plutôt que de signaler qu’un système est vulnérable, un CIO peut présenter trois pistes d’action, chacune accompagnée des coûts, des délais et des niveaux d’assurance associés. Cette légère variation dans la manière d’aborder le problème transforme une préoccupation technique en décision stratégique.</p><p>De nos jours, le rôle du DSI dépasse largement la supervision des technologies. De nombreux DSI considèrent que la stratégie de l’entreprise et l’engagement des parties prenantes comptent désormais bien plus qu’une expertise technique approfondie. La communication, la capacité de storytelling et l’empathie font partie intégrante des compétences indispensables de leadership.</p><p>Les PDG recherchent des DSI capables de se montrer calmes, crédibles et confiants, surtout lorsque le risque rentre en jeu risque. Une communication claire et posée renforce la confiance des pairs, des conseils d’administration et des investisseurs, même face à un message complexe.</p><h2>Redéfinir le dialogue sur le risque</h2><p>Parfois, la discussion se révèle plus simple que la réflexion sur la manière de l’aborder. Les échanges autour du risque restent trop souvent axés uniquement sur la façon de le réduire. Un meilleur point de départ consiste à déterminer les domaines dans lesquels l’entreprise prend les bons risques, et ceux où elle se montre encore un peu trop prudente.</p><p>Cette approche permet de redéfinir le risque comme un levier stratégique plutôt que comme contrainte. Elle positionne la technologie comme un moteur de croissance et aligne le message du DSI sur la vision du PDG en matière d’innovation et de compétitivité.</p><p>En définitive, maîtriser le dialogue sur le risque implique de passer du statut d’expert technique à celui de conseiller stratégique. Lorsque les DSI apportent clarté, contexte et confiance dans ces discussions, ils contribuent non seulement à gérer le risque, mais également à en faire un levier de croissance et de résilience.</p>]]></description>
      <link>https://www.journaldunet.com/solutions/dsi/1546797-l-alignement-entre-dsi-et-pdg-l-assurance-tout-risque-des-entreprises/</link>
      <guid>https://www.journaldunet.com/solutions/dsi/1546797-l-alignement-entre-dsi-et-pdg-l-assurance-tout-risque-des-entreprises/</guid>
      <pubDate>Tue, 16 Dec 2025 18:11:00 +0100</pubDate>
    </item>
    <item>
      <title><![CDATA[Les nouvelles tendances 2026 du stockage de données d'entreprise]]></title>
      <description><![CDATA[<p class="app_entry_lead">Les cinq principales tendances en matière de stockage pour 2026 ouvrent la voie à une année riche en innovations, axée sur l'IA et le cyberespace pour le stockage d'entreprise.</p><p>2026 devrait être une année phénoménale pour le stockage d'entreprise. De nouveaux alignements, une convergence et une croissance effrénée sont en train de changer la façon dont nous concevons l'infrastructure de stockage.</p><p>Les cinq principales tendances en matière de stockage pour 2026 ouvrent la voie à une année riche en innovations, axée sur l'IA et le cyberespace pour le stockage d'entreprise. Ces tendances offrent une feuille de route stratégique pour l'avenir du stockage d'entreprise et fournissent des détails et des plans d'action sur les tendances en matière de stockage d'entreprise, afin que vous soyez prêt à passer à l'action dès la nouvelle année.</p><h2>1- Pivot vers l'IA - L'essor continu des applications et des workloads basées sur l'IA pour accélérer la transformation des entreprises</h2><p>L'adoption rapide de l'intelligence artificielle (IA) a eu des implications directes et considérables sur l'infrastructure de stockage des entreprises. En 2026, les déploiements d'IA devraient se poursuivre de manière exponentielle, les entreprises cherchant à se transformer grâce à l'IA. Gartner prévoit que plus de 80 % des entreprises auront utilisé des <a href="https://www.journaldunet.fr/web-tech/dictionnaire-du-webmastering/1203559-api-interface-de-programmation-definition-technos-exemples/" title="Application Programming Interface">API</a> d'IA ou déployé des applications basées sur l'IA d'ici 2026, faisant passer les technologies d'IA d'une phase pilote à des opérations centrales de l'entreprise.</p><p>Cette mégatendance de « transformation par l'IA » annonce un pivot vers une architecture de stockage centrée sur l'IA, des solutions plus performantes pour les charges de travail d'IA basées sur la récupération et des superpositions d'IA qui exploitent l'infrastructure existante pour maximiser les investissements dans le stockage d'entreprise. Le modèle d'IA qui devrait devenir « l'architecture IA de l'année » en 2026 est l'architecture de déploiement de workflow RAG (Retrieval-Augmented Generation), qui améliore considérablement la précision et la pertinence des modèles d'IA.</p><h2>2- Un bond en avant dans la cybersécurité − La résilience du stockage cybernétique pour rendre les mesures de protection plus proactives et préventives</h2><p>Le marché des entreprises est en train de passer d'une approche traditionnelle de détection et de réponse en matière de cybersécurité à une approche privilégiant la cyberdéfense proactive et les mesures préventives afin de rendre l'infrastructure de stockage véritablement cybersécurisée. De plus, les menaces liées à l'IA dans le domaine de la cybersécurité augmentent à un rythme alarmant. Les cybercriminels utilisent l'IA de manière toujours plus sophistiquée pour rendre les cyberattaques plus dangereuses, plus sournoises et plus difficiles à détecter.</p><p>Selon l'enquête Global Digital Trust Insights 2026 de PwC (octobre 2025), 60 % des dirigeants d'entreprises et des responsables technologiques classent l'investissement dans la cybersécurité parmi leurs trois principales priorités stratégiques. Seuls 6 % se sentent en confiance face à toutes les vulnérabilités étudiées. En outre, la pénurie de talents dans le domaine de la cybersécurité reste l'un des principaux obstacles à la progression de la cybersécurité.</p><p>C'est pourquoi, en 2026, la résilience et la récupération du stockage cybernétique des entreprises devront faire partie intégrante des stratégies globales de cybersécurité de toutes les entreprises. Un excellent exemple d'approche proactive consiste à utiliser une fonctionnalité de détection cybernétique intégrée au stockage primaire. Un exemple clé d'approche préventive consiste à utiliser une fonctionnalité de cyberprotection automatisée qui s'intègre de manière transparente au logiciel de cybersécurité à l'échelle du data center ou à un centre d'opérations de sécurité et automatise la prise de snapshots immuables des données afin d'accélérer la récupération après une attaque.</p><h2>3- Repenser les dépenses d'investissement et d'exploitation − La pression continue sur les budgets informatiques crée des opportunités pour le stockage d'entreprise</h2><p>Les technologies de l'information sont fondamentales pour toutes les entreprises à l'échelle mondiale. La technologie n'est plus simplement facultative. En d'autres termes, les budgets informatiques resteront essentiels. Gartner a prévu plus tôt cette année que, d'ici la fin 2025, les dépenses informatiques mondiales devraient atteindre 5,43 milliards de dollars, soit une augmentation de 7,9 % par rapport à 2024. Les dépenses informatiques mondiales devraient atteindre 6 080 milliards de dollars en 2026, soit une augmentation de 9,8 % par rapport à 2025, principalement grâce à des investissements importants dans les infrastructures, les logiciels et les appareils liés à l'IA. Cependant, la pression continuera de s'intensifier en 2026 pour rendre l'informatique plus rentable et réaffecter le budget des infrastructures traditionnelles vers l'IA et d'autres technologies émergentes.</p><p>Le stockage d'entreprise est essentiel pour réduire les dépenses d'investissement et d'exploitation grâce à la consolidation, aux gains d'efficacité énergétique et à une capacité de stockage d'entreprise haut de gamme dans des formats plus compacts. En libérant des fonds provenant des budgets de stockage, les entreprises seront en mesure, en 2026, de créer et de mieux financer de nouveaux projets d'innovation, notamment dans les domaines de l'IA agentique et de la cybersécurité. Si les budgets informatiques devraient rester stables ou connaître une légère croissance à un chiffre dans la plupart des cas, le mantra « faire plus avec moins » est la pierre angulaire de la nouvelle pression exercée pour maîtriser les dépenses informatiques.</p><h2>4- L'alimentation du stockage − Demande croissante d'efficacité énergétique pour remodeler l'infrastructure de données</h2><p>Les besoins en énergie continueront d'augmenter dans les data centers en 2026, ce qui entraînera de nouvelles obligations de réaffectation et de libération des sources d'énergie pour les workloads et les applications IA gourmandes en énergie. Non seulement l'IA est un facteur majeur de l'augmentation de la consommation d'énergie, mais les technologies non liées à l'IA et gourmandes en données exigent également plus d'énergie. Selon 451 Research, les data centers aux États-Unis devraient avoir besoin de 22 % d'électricité en plus d'ici la fin 2025 par rapport à il y a un an, et cette tendance se poursuivra au cours de la nouvelle année. En 2026, la demande des data centers aux États-Unis seulement atteindra 75,8 GW pour les équipements informatiques. À plus long terme, les data centers devraient avoir besoin de près de trois fois plus d'électricité en 2030 qu'en 2024.</p><p>En 2026, les entreprises chercheront à réaliser des économies d'énergie en réduisant leur consommation dans leurs infrastructures de données et ailleurs. Cela nécessitera l'adoption de systèmes de stockage plus économes en énergie et de technologies connexes qui alimentent les infrastructures de données. La technologie n'étant plus facultative dans les entreprises, la nécessité d'une meilleure gestion de l'énergie n'a jamais été aussi importante.</p><h2>5- Capturer plus de données, un stockage plus unifié − La croissance effrénée des données rendra nécessaire la combinaison de la cybersécurité, de l'IA, de l'énergie, des dépenses d'investissement/d'exploitation et de la sauvegarde</h2><p>Il faut s'attendre à une croissance effrénée des données en 2026. Selon Statista, le volume mondial de données était d'environ 149 zettaoctets en 2024. D'ici la fin 2025, le monde dépassera les 181 zettaoctets de données. D'ici 2026, la quantité de données créées devrait atteindre 230 à 240 zettaoctets. L'explosion des informations numériques nécessitera certainement une augmentation considérable de la capacité de stockage. Cette tendance est liée aux quatre autres tendances en matière de stockage pour 2026 : l'IA, la cybersécurité, les dépenses d'investissement/d'exploitation et la consommation d'énergie. Mais elle introduit également une cinquième dimension qui ne peut être négligée : avec toute cette croissance des données prévue pour l'année prochaine, il sera nécessaire de renforcer la sauvegarde et la protection des données. La croissance effrénée des données se traduira par une sauvegarde effrénée.</p><p>La sauvegarde ralentit généralement les performances des applications et des workloads, quelles qu'elles soient. Si le système de sauvegarde est rapide, l'impact sur les workloads et les applications principales est moindre. Lorsque vous devez restaurer des données (qui sont clairement le moteur de toute entreprise), cette restauration doit être aussi rapide que possible. En 2026, davantage d'entreprises prendront des mesures pour répondre au besoin de pouvoir mettre en place et exploiter des référentiels de sauvegarde de manière quasi instantanée.</p><p>Il s'agit d'un stockage d'entreprise à la vitesse des activités boostées par l'IA dans un cybermonde gourmand en énergie et en constante évolution.</p>]]></description>
      <link>https://www.journaldunet.com/solutions/dsi/1546783-les-nouvelles-tendances-2026-du-stockage-de-donnees-d-entreprise/</link>
      <guid>https://www.journaldunet.com/solutions/dsi/1546783-les-nouvelles-tendances-2026-du-stockage-de-donnees-d-entreprise/</guid>
      <pubDate>Tue, 16 Dec 2025 18:10:00 +0100</pubDate>
    </item>
    <item>
      <title><![CDATA[Le design émotionnel, une boussole pour créer des expériences plus impactantes]]></title>
      <description><![CDATA[<p class="app_entry_lead">Face à l'uniformisation des interfaces, le design émotionnel offre une boussole pour comprendre les utilisateurs, humaniser les parcours et créer des expériences mémorables sans manipuler.</p><p>Tribune de Lisa Cadoch, UX Designer chez Micropole, a Talan company</p><p>Le design émotionnel est parfois perçu comme une manière d’influencer subtilement l’utilisateur ou de “jouer avec ses émotions”. Pourtant, lorsqu’il est utilisé avec justesse, il devient un véritable outil d’écoute fine, capable de révéler ce que les utilisateurs ressentent vraiment, au-delà des réponses convenues.</p><p>Cela permet de saisir ces nuances qui transforment une interaction en relation, et une interface en expérience. Bien intégré, le design émotionnel adoucit le parcours, marque les moments clés et crée un lien plus fort entre l’interface et la personne qui l’utilise. C’est dans cet équilibre que l’interface cesse simplement de fonctionner… pour commencer à faire sens.</p><ul><li>Le design émotionnel, un révélateur de nuances</li>
</ul><p>Les émotions révèlent ce que les mots n’expriment pas toujours. Un geste hésitant, un regard qui s’attarde, un souffle coupé par un message d’erreur trop sec : ces signes faibles racontent l’histoire que les utilisateurs ne verbalisent pas. Ils permettent de comprendre où un parcours devient anxiogène, où une interface apaise, où un contenu déclenche la confiance ou la fatigue mentale.</p><p>Dans le retail ou le luxe, ces signaux influencent la perception d’un produit bien avant l’achat. Dans la banque-assurance, ils éclairent la manière dont les utilisateurs appréhendent des décisions complexes. Lors d’événements, ils déterminent ce qui sera mémorisé ou ce qui disparaîtra aussitôt l’activité terminée.</p><p>Des exemples concrets montrent la portée de cette approche. MailChimp en est l’illustration la plus connue : un ton conversationnel, des micro-animations et un humour léger qui viennent réduire la pression émotionnelle d’une plateforme où cliquer sur “Send” peut être stressant. Rien de gratuit : simplement une manière de prendre en considération la vulnérabilité du moment, ce qui change radicalement l’expérience.</p><ul><li>Quand l’émotion devient un levier stratégique</li>
</ul><p>L’émotion apporte une profondeur que les métriques seules ne captent pas. Elle permet de comprendre ce qui génère l’attachement, la clarté ou la confiance, ce qui fait qu’un service “marche” sans que l’on sache toujours pourquoi. Elle devient un outil de décision, en particulier lorsque deux options semblent équivalentes sur le papier mais pas dans la perception.</p><p>Certaines entreprises l’ont compris depuis longtemps : les marques qui construisent leur identité par la cohérence expérientielle, du ton aux interactions jusqu’aux micro-gestuelles savent que l’émotion n’est pas cosmétique. C’est un socle stratégique. Et cette cohérence n’a rien à voir avec un effet “waouh” : elle réside dans la justesse, la simplicité, la capacité à être au bon endroit au bon moment, sans en faire trop.</p><p>Duolingo applique le même principe avec la gamification, des personnages attachants et des encouragements constants. L’utilisateur est motivé, engagé et développe un lien émotionnel avec l’application. L’émotion transforme des utilisateurs passifs en participants actifs et constitue un véritable levier de performance.</p><ul><li>Humaniser l’expérience dès la conception</li>
</ul><p>Travailler l’émotion suppose de s’engager dans un processus d'écoute sincère. Cela passe par des ateliers de coconception, des immersions sur le terrain, des tests répétés où l’objectif n’est pas de provoquer un ressenti mais de le comprendre sans le brusquer. L’émotion existe déjà chez l’utilisateur. Le rôle du design est de la décrypter, pas de la fabriquer artificiellement.</p><p>Humaniser, c’est aussi accepter que certaines émotions inconfortables ne doivent pas être effacées. Le doute face à une démarche administrative, la prudence lors d’un engagement financier, l’appréhension d’un nouveau service numérique : ces ressentis sont légitimes et peuvent même jouer un rôle protecteur. Le design émotionnel ne cherche pas à les masquer, mais à accompagner l'utilisateur pour qu’il progresse avec sérénité.</p><p>Même dans des secteurs sensibles, comme les sites de pompes funèbres, l’émotion joue un rôle central. L’interface peut réconforter l’utilisateur à travers des mots, des images et un ton approprié, transformant une expérience potentiellement difficile en un moment respectueux et apaisant.</p><ul><li>Le double visage du design émotionnel</li>
</ul><p>Comme tout outil puissant, le design émotionnel peut être mal utilisé. Certaines pratiques cherchent à orienter un comportement sans transparence : c’est la frontière dangereuse. D’où la nécessité d’un cadre clair. L’émotion doit faciliter la compréhension, apaiser un moment critique, donner des repères. Elle ne doit jamais pousser à une action que l'utilisateur ne voulait pas entreprendre.</p><p>Les Dark Patterns illustrent ce risque : la notification “Il reste seulement 2 chambres !” sur certains sites de réservation crée du stress pour pousser à agir rapidement. Chaque marque a le choix : créer une expérience bienveillante qui renforce la confiance ou manipuler l’utilisateur pour obtenir un résultat immédiat. L’émotion n’est pas qu’un atout esthétique : c’est un levier puissant qui nécessite discernement et intégrité.</p><ul><li>L’émotion comme différenciant face à l’automatisation</li>
</ul><p>Avec l’automatisation et la multiplication des contenus générés par IA, les interfaces risquent de devenir plus standardisées et mécaniques. Dans ce contexte, le design émotionnel devient un facteur de différenciation clé. Il permet d’offrir ce que l’IA ne peut pas reproduire : de l’authenticité, de l’empathie et une connexion humaine.</p><p>Plus les contenus et interfaces seront automatisés, plus la dimension humaine et émotionnelle sera précieuse. L’émotion devient un outil stratégique pour se démarquer, créer un lien durable et renforcer la fidélité des utilisateurs.</p><ul><li>L’émotion comme choix conscient</li>
</ul><p>Le design émotionnel n’est ni un gadget ni un embellissement. C’est une manière plus humaine et plus honnête d’aborder la conception. Une méthode qui considère l'utilisateur dans toute sa complexité et qui reconnaît l’impact réel des interfaces sur nos décisions et nos émotions. À nous de choisir si nous en faisons un outil de compréhension et d’autonomie, ou un instrument de contrainte.</p>]]></description>
      <link>https://www.journaldunet.com/web-tech/1546681-le-design-emotionnel-une-boussole-pour-creer-des-experiences-plus-impactantes/</link>
      <guid>https://www.journaldunet.com/web-tech/1546681-le-design-emotionnel-une-boussole-pour-creer-des-experiences-plus-impactantes/</guid>
      <pubDate>Mon, 15 Dec 2025 11:45:00 +0100</pubDate>
    </item>
    <item>
      <title><![CDATA[Quand l'IA change le regard sur la marche, elle change le regard sur la santé]]></title>
      <description><![CDATA[<p class="app_entry_lead">Observer comment une personne marche a toujours été à la base de la pratique clinique. Mais aujourd'hui, l'intelligence artificielle rend cette observation bien plus puissante.</p><p>Observer comment une personne marche a toujours été à la base de la pratique clinique. Mais aujourd’hui, l’intelligence artificielle rend cette observation bien plus puissante. Une démarche, un pas, une allure peuvent devenir des signaux précieux. Avec l’IA appliquée à l’analyse du mouvement, la marche se transforme en biomarqueurs, témoins potentiels de la santé neurologique et cognitive d’un individu, souvent des années avant l’apparition des symptômes. </p><h2>La marche : un indicateur oublié devenu capital</h2><p>Certains qualifient la marche de sixième signe vital (avec la respiration, le pouls, la pression artérielle, la température corporelle et la saturation du sang en oxygène). Et des travaux récents confirment ce que l’intuition suggère : la façon de marcher, son organisation, son rythme, son amplitude, sa régularité fournissent des indices sur l’état moteur, mais aussi neurologique, cognitif ou psychique de la personne.<br />Dans ce contexte, l’analyse augmentée par l’IA permet de quantifier objectivement ces indices, ce que l’œil nu ou l’observation clinique seule ne saurait faire avec la même finesse ou la même profondeur. </p><h2>Détecter tôt pour agir tôt, une nouvelle frontière de la prévention</h2><p>Grâce à ces technologies, il devient possible d’identifier les signaux faibles de troubles neurodégénératifs (comme Alzheimer ou Parkinson) ou de déclin cognitif bien avant qu’ils ne se traduisent en symptômes évidents. </p><p>Cela ouvre la voie à une véritable médecine préventive avec des interventions précoces, un suivi longitudinal et une prise en charge adaptée qui peuvent faire grandement la différence pour la personne.</p><h2>L’IA comme alliée, pas comme remplaçante</h2><p>L’intérêt de l’IA n’est pas de remplacer le corps médical, mais de l’amplifier : en fournissant des données fines, objectives, comparables dans le temps, l’IA enrichit le diagnostic, alerte plus tôt, offre des repères clairs.</p><p>La marche, accessible, universelle, devient un indicateur global. L’IA en santé ne doit donc pas être perçue comme un gadget, mais comme un outil de santé publique.</p><h2>Santé publique &amp; équité : un effort collectif pour une meilleure prévention</h2><p>Penser l’IA en santé, ce n’est pas seulement imaginer des technologies de pointe. C’est surtout envisager un système dans lequel ces technologies sont accessibles à tous : actifs, retraités, médecines de ville, territoires ruraux, hôpitaux, etc. Analyser la marche d’un groupe de personnes, c’est donner l’opportunité à un plus grand nombre d’être suivi, d’être repéré, d’être accompagné et d’être respecté.</p><h2>Une transformation possible, mais collective</h2><p>L’IA appliquée à l’analyse du mouvement, à la marche, n’est pas une science-fiction : c’est une réalité. Elle a le pouvoir de changer non seulement la manière dont on diagnostique, mais également la manière dont on préserve la santé sur le long terme. Pour cela, il faut l’engagement de tous, chercheurs, soignants, décideurs et patients avec une ambition partagée pour que chaque pas compte.</p>]]></description>
      <link>https://www.journaldunet.com/web-tech/1546495-quand-l-ia-change-le-regard-sur-la-marche-elle-change-le-regard-sur-la-sante/</link>
      <guid>https://www.journaldunet.com/web-tech/1546495-quand-l-ia-change-le-regard-sur-la-marche-elle-change-le-regard-sur-la-sante/</guid>
      <pubDate>Thu, 11 Dec 2025 10:54:00 +0100</pubDate>
    </item>
    <item>
      <title><![CDATA[Pourquoi vos transformations Agile ou Produit échouent : le rôle sous-estimé du change management]]></title>
      <description><![CDATA[<p class="app_entry_lead">Les transformations Agile et Produit échouent rarement par la méthode, mais faute d'adhésion. Sans stratégie de change, elles s'essoufflent et l'organisation revient à ses anciens repères.</p><p>Depuis plusieurs années, les organisations multiplient les initiatives de transformation Agile, adoptent des modèles Produit, introduisent de nouvelles gouvernances budgétaires comme le Lean Portfolio Management, redéfinissent les rôles et les équipes autour de chaînes de valeur… Mais derrière cette effervescence, un constat s’impose à toute personne travaillant au cœur des transformations : beaucoup d’entre elles sont aujourd’hui en difficulté, ralenties, voire à l’arrêt.</p><p>Et le point commun de ces transformations fragilisées n’est ni la méthode, ni le framework, ni le modèle opérationnel. Leur point commun, c’est l’absence d’une stratégie de gestion du changement suffisamment solide et structurée.</p><p>On a longtemps pensé que l’Agile ou le mode Produit constituaient avant tout des sujets d’organisation. Mais les transformations qui réussissent montrent exactement l’inverse : ce sont d’abord des transformations humaines. Et lorsqu’on ne traite pas l’humain avec la même exigence que l’on traite les structures, les meilleures intentions se transforment en résistances, les nouvelles pratiques s’essoufflent, et les promesses du modèle restent à l’état de promesses.</p><h2>Le malentendu originel : penser que l’Agile ou le Produit sont un sujet organisationnel</h2><p>Dans beaucoup d’entreprises, la transformation Agile est encore abordée comme une évolution d’organisation ou un simple ajustement du fonctionnement interne. On redessine des équipes, on crée des Tribes et des Squads, on distribue de nouveaux rôles, on introduit un backlog, quelques rituels et une nouvelle cadence, persuadé que ce travail de structure suffira à ancrer durablement de nouvelles pratiques. Ce malentendu est un piège classique : parce que la transformation se matérialise par un organigramme ou par des instances de pilotage, on en vient à croire qu’elle peut être déployée comme une réorganisation. C’est pourtant exactement l’inverse. </p><p>L’Agile n’est pas un sujet d’ingénierie organisationnelle, mais un changement profond de manière de travailler, de décider, d’interagir et de considérer la valeur. Il modifie les relations entre les métiers et l’IT, redistribue les responsabilités, interroge la place du management, fait émerger de nouvelles dynamiques collectives et exige, pour réussir, une évolution culturelle bien plus exigeante que la simple adoption d’un cadre méthodologique. Lorsque cette dimension humaine n’est pas intégrée dès le départ, les équipes perçoivent la transformation comme un mouvement externe qu’elles doivent “absorber”, et non comme un projet fédérateur qu’elles peuvent comprendre, s’approprier et faire évoluer.</p><h2>Pourquoi les transformations échouent sans change management</h2><p>Les transformations Agile ou Produit qui s’enlisent ont rarement des difficultés techniques ; elles souffrent d’un déficit d’adhésion et d’un manque d’accompagnement humain. La méthodologie n’est jamais le vrai sujet. </p><p>Ce qui se joue réellement, c’est la capacité des collaborateurs à comprendre ce qu’on attend d’eux, à prendre confiance dans les nouveaux repères, à ajuster leurs comportements professionnels, et à s’inscrire dans une logique de contribution collective différente de celle qu’ils ont connue jusqu’ici. Un Product Owner mal préparé, par exemple, ne parvient pas à endosser un rôle qui repose sur l’arbitrage, la priorisation ou la responsabilité de la valeur. Un manager non accompagné oscille entre son rôle historique et les attentes du nouveau modèle, sans trouver la posture adéquate. Les métiers, faute de lisibilité sur ce qui change réellement pour eux, oscillent entre enthousiasme et prudence. </p><p>On observe alors des frictions, des incompréhensions, des interprétations divergentes de la transformation, ce qui finit par créer un décalage entre ce que le modèle exige et ce que les individus sont prêts ou capables d’assumer. Sans une démarche structurée de gestion du changement, les résistances s’installent, d’abord discrètement, puis de manière de plus en plus visible, jusqu’à entraîner un retour progressif aux pratiques antérieures.</p><h2>Le passage au mode Produit : un changement identitaire</h2><p>Peu de transformations sont aussi exigeantes pour les individus que le passage au mode Produit. Contrairement à l’Agile “en surface”, qui peut parfois être absorbé sans remise en question profonde, le Produit redéfinit la nature même du rôle de chacun. </p><p>Le Product Owner ne se contente plus de gérer un backlog ; il devient responsable de la valeur créée pour l’utilisateur et l’organisation. Le Product Manager ne déroule plus une feuille de route ; il porte une vision, la défend auprès des parties prenantes et engage son équipe dans une dynamique d’apprentissage permanent. Les métiers cessent de formuler des demandes pour entrer dans une logique d’objectifs partagés. L’IT cesse d’être un exécutant pour devenir un partenaire. </p><p>Cette transformation n’est donc pas seulement fonctionnelle : elle est identitaire. Elle oblige chacun à revisiter sa contribution, son espace d’influence, et parfois même la manière dont il définit son expertise. Lorsqu’un tel mouvement n’est pas accompagné, l’organisation cherche naturellement à se réassurer en réactivant les repères familiers : le projet, les cycles de validation, les décisions centralisées, les arbitrages hiérarchiques. Le vocabulaire change, mais les comportements restent inchangés, et le mode Produit se résume alors à un changement cosmétique.</p><h2>Ce qu’apporte une stratégie de change structurée</h2><p>Une transformation n’a de chances d’aboutir que si elle est soutenue par une stratégie de gestion du changement construite dès l’origine, pilotée de manière rigoureuse et intégrée comme un élément essentiel du programme. Cette stratégie donne d’abord une cohérence au mouvement : elle explicite le pourquoi, clarifie les bénéfices recherchés, décrit ce qui va réellement changer pour chacun, et permet aux collaborateurs d’anticiper plutôt que de subir. </p><p>Elle offre ensuite un cadre d’accompagnement pour les leaders, dont le rôle est souvent déterminant : lorsqu’un sponsor incarne la vision, soutient la démarche, prend des positions claires et légitime les rôles émergents, la transformation gagne en crédibilité et en stabilité. Elle fournit également un espace d’apprentissage structuré pour les nouveaux rôles et les nouvelles responsabilités, en donnant aux équipes les moyens de progresser sans se sentir en permanence en décalage avec les attentes du modèle. </p><p>Enfin, une stratégie de change permet d’ancrer durablement les pratiques en installant des boucles de renforcement, des mesures d’adhésion, des mécanismes de retour d’expérience et une écoute active des irritants. C’est cet ensemble cohérent qui transforme une intention de changement en dynamique collective réelle.</p><h2>Ce que révèlent les transformations menées sur le terrain : la gestion du changement comme véritable accélérateur</h2><p>Dans les transformations les plus ambitieuses – qu’il s’agisse de refontes de systèmes critiques, de déploiements du mode Produit à grande échelle, d’agilisation d’équipes métier ou de dispositifs LPM – le facteur déterminant n’est jamais la sophistication du modèle, mais la qualité du travail réalisé sur l’adhésion. </p><p>Dès lors qu’une organisation investit réellement dans cette dimension, la dynamique de transformation évolue profondément : les équipes cessent d’exécuter mécaniquement des rituels et s’approprient la logique qui structure le modèle ; les managers clarifient leur positionnement et trouvent une contribution cohérente dans le nouveau fonctionnement ; les métiers ne perçoivent plus la transformation comme un mouvement initié par l’IT, mais comme un cadre auquel ils participent pleinement. </p><p>Les irritants, plutôt que de s’accumuler et de fragiliser l’ensemble du dispositif, sont identifiés et résolus à mesure qu’ils émergent. Cette évolution progressive des postures renforce la capacité de l’organisation à tenir dans la durée, à absorber la complexité, à ajuster son modèle et à en retirer une performance tangible. </p><p>La gestion du changement cesse alors d’être un simple accompagnement périphérique : elle devient l’accélérateur essentiel qui permet au modèle de s’incarner dans la pratique quotidienne plutôt que de rester cantonné aux intentions initiales.</p>]]></description>
      <link>https://www.journaldunet.com/solutions/dsi/1546475-pourquoi-vos-transformations-agile-ou-produit-echouent-le-role-sous-estime-du-change-management/</link>
      <guid>https://www.journaldunet.com/solutions/dsi/1546475-pourquoi-vos-transformations-agile-ou-produit-echouent-le-role-sous-estime-du-change-management/</guid>
      <pubDate>Tue, 09 Dec 2025 12:12:00 +0100</pubDate>
    </item>
    <item>
      <title><![CDATA[La maintenance prédictive  : la pièce maîtresse d'une production 4.0 efficace et durable ?]]></title>
      <description><![CDATA[<p class="app_entry_lead">Dans le monde actuel de la production industrielle, où tout va très vite, les temps d'arrêt peuvent coûter très cher aux entreprises. À l'ère de l'industrie 4.0, quelles solutions sont possibles ?</p><p>Dans l'industrie, les pannes imprévues peuvent perturber la production et entraîner une augmentation des coûts et une baisse de la compétitivité sur le marché, estimé entre 3 et 8 % du chiffre d’affaires annuel pour une entreprise. Les stratégies de maintenance traditionnelles conduisent souvent soit à une maintenance insuffisante, provoquant des pannes, soit à une maintenance excessive, entraînant des pertes de temps et des coûts inutiles. Alors, la maintenance dite « prédictive » peut changer la donne. Elle permet d'atteindre un équilibre en effectuant la maintenance au moment et à l'endroit où elle est nécessaire. Cette approche ciblée et durable réduit la fréquence des interventions, diminue la consommation de pièces de rechange et minimise les coûts de main-d'œuvre, ce qui se traduit par une allocation plus efficace des ressources. Selon PwC, la <a href="https://www.journaldunet.fr/web-tech/dictionnaire-de-l-iot/1489507-maintenance-predictive-definition-et-interet-dans-l-industrie/" title="Maintenance prédictive">maintenance prédictive</a> réduit les coûts de maintenance de 12 %, améliore la disponibilité des machines de 9 % et prolonge leur durée de vie de 20 %. Comment la déployer pour en faire un levier stratégique ?</p><h2>La maintenance prédictive : un levier stratégique sous exploité par les DSI ?</h2><p>Les systèmes de maintenance modernes sont considérés comme essentiels dans l'industrie 4.0, car ils offrent efficacité, transparence et capacité à contrôler de manière proactive les processus de production. Ces systèmes ont un potentiel immense dans le domaine de la maintenance, notamment comme base pour la maintenance prédictive, puisqu’ils permettraient aux entreprises industrielles d’économiser des milliers d’heures de travail chaque année. Le marché français de la maintenance prédictive est estimé à plus de 2 milliards d’euros en 2025, avec une croissance annuelle moyenne de 20 %. Cependant dans la pratique, les progrès sont souvent en deçà des attentes, pourquoi ? L'une des principales raisons, à part le coût d’investissement, est que la numérisation des processus ne suffit pas à elle seule. Ce n'est que lorsque les entreprises collectent les données de maintenance pertinentes, de manière structurée, les évaluent en continu et les relient intelligemment, que la technologie devient un outil qui permet une véritable optimisation des processus et prend tout sens.  </p><p>La maintenance prédictive ne se limite pas à des capteurs intelligents ou à des algorithmes avancés. Elle repose sur la capacité à relier en continu l’historique de maintenance, les données en temps réel, la consommation de pièces et les schémas de défaillance au sein d’une plateforme intégrée. Le principe des systèmes de maintenance modernes est simple : les installations et les processus réels sont entièrement enregistrés et cartographiés sous forme numérique dans une plateforme de données centrale. L'objectif n'est pas seulement de documenter les activités de maintenance, mais aussi de relier entre elles toutes les informations clés telles que l'historique de maintenance et les données actuelles des machines. Cette approche permet une vue d'ensemble fiable et basée sur des données d’états, de processus et de mesures. Mais c'est précisément là que réside le défi : un système de gestion de maintenance assisté par ordinateur (GMAO) ne peut atteindre son plein potentiel que si ces données sont disponibles de manière précise, complète et systématique. </p><h2>La donnée : l'élément central des prévisions pour une industrie plus compétitive et durable</h2><p>Tandis que la donnée est l’élément clé de la maintenance moderne, pour de nombreuses entreprises, savoir où elles se trouvent, en temps réel, est un défi de taille. Bien que de grandes quantités de données de maintenance soient désormais disponibles, elles sont souvent dispersées, non structurées ou obsolètes. Les informations sont conservées dans des systèmes isolés, enregistrées manuellement ou évaluées de manière sélective. En conséquence, la transformation digitale reste souvent inachevée. Pour faire de la maintenance un outil de contrôle efficace, il faut investir dans une plateforme cloud complète qui permet de connecter de manière intelligente toutes les sources de données pertinentes. Par exemple, l’utilisation d’une plateforme cloud holistique permet d’économiser en moyenne 3 400 heures de travail par an, tout en réduisant les temps d’arrêt et en optimisant l’allocation des ressources.</p><p>Ces plateformes enregistrent non seulement l'état actuel des systèmes, mais intègrent également l'historique de maintenance, les schémas d'erreurs, la consommation de matériaux et les plans de déploiement dans une structure de données cohérente. Elles standardisent les informations provenant de différentes sources, créent une base de données uniforme et la rendent systématiquement évaluable. Ce n'est que lorsque l'état des machines, les mesures prévues, la disponibilité des pièces de rechange et les ressources opérationnelles sont regroupés sur une plateforme centrale que le plein potentiel de la maintenance automatisée et numérique peut être exploité. La maintenance prédictive n'est alors plus une simple théorie, mais la pierre angulaire d’un processus de production efficace et résilient. </p><p>Loin d’être un gadget technologique, la maintenance prédictive s’impose comme une composante essentielle de l’industrie 4.0. Elle favorise non seulement la performance économique mais aussi la durabilité : prolongation de la durée de vie des équipements, réduction de la consommation de pièces et diminution des gaspillages énergétiques. Dans un contexte où la réindustrialisation et la compétitivité française sont au cœur des priorités, la maintenance prédictive offre une réponse concrète et mesurable et l'ignorer c’est accepter un déficit de compétitivité. Les entreprises qui sauront exploiter pleinement leurs données et investir dans des plateformes intégrées, feront de la maintenance non plus une charge, mais un atout stratégique pour une production à la fois plus efficace et plus durable. </p>]]></description>
      <link>https://www.journaldunet.com/solutions/dsi/1546421-la-maintenance-predictive-la-piece-maitresse-d-une-production-4-0-efficace-et-durable/</link>
      <guid>https://www.journaldunet.com/solutions/dsi/1546421-la-maintenance-predictive-la-piece-maitresse-d-une-production-4-0-efficace-et-durable/</guid>
      <pubDate>Tue, 09 Dec 2025 12:10:00 +0100</pubDate>
    </item>
    <item>
      <title><![CDATA[Comment le réseau terabit alimente-t-il l'IA, le gaming et le streaming ?]]></title>
      <description><![CDATA[<p class="app_entry_lead">L'IA, le gaming et le streaming exigent des réseaux terabit offrant débits massifs et latence quasi nulle, devenant le socle d'une connectivité mondiale et d'une innovation sans précédent.</p><p>Ces dernières années, l’essor fulgurant de l’économie numérique représente un défi majeur pour les dirigeants des services informatiques. Chaque clic, chaque flux et, surtout, chaque processus alimenté par l’IA génèrent un volume de données considérable, mettant à l’épreuve la fluidité des infrastructures sur lesquelles reposent les entreprises. À mesure que ces applications convergent, l’élément stratégique du réseau ne réside plus dans le datacenter, mais dans l’architecture globale qui les interconnecte.</p><p>Pendant des décennies, la capacité transatlantique a été perçue comme le principal goulot d’étranglement des performances. Aujourd’hui, le réseau terrestre et sous‑marin à téraoctet s’impose comme l’infrastructure incontournable du commerce mondial. Ce concept n’est plus une vision futuriste. Il devient une exigence opérationnelle immédiate, marquant un tournant décisif dans la façon de planifier et de bâtir les fondations numériques.</p><h2>L'explosion des données alimentée par l'IA</h2><p><a href="https://www.gigabyte.com/Article/the-data-revolution-in-ai-factories-driving-high-speed-networking-forward">L’essor fulgurant de l’intelligence artificielle (IA) est le principal moteur de la demande croissante pour des réseaux capables de délivrer des débits de l’ordre du terabit.</a> L’IA redéfinit en profondeur le paysage économique des infrastructures réseau. Le bon fonctionnement des technologies telles que l’IA générative, le machine learning et les datacenters massifs, répartis sur de vastes territoires, exige non seulement une bande passante colossale, mais aussi une latence quasi nulle. Par exemple, l’entraînement d’un seul grand modèle IA peut exiger le transfert de pétaoctets de données, une tâche colossale qui saturerait et paralyserait les réseaux actuels de 400 Gbps.</p><p>L’entraînement d’un modèle d’IA avancé constitue une véritable prouesse. Il faut traiter des pétaoctets de données au sein d’infrastructures informatiques réparties à l’échelle mondiale. Cette opération, à la fois massive et complexe, mobilise des ressources de calcul exceptionnelles et nécessite une coordination internationale sans précédent. Par ailleurs, chaque utilisation quotidienne de ces modèles, qu’il s’agisse d’une requête utilisateur, d’une génération d’image ou d’une tâche analytique avancée, déclenche un échange d’informations à la fois complexe et continu. Cette activité impose une exigence considérable, souvent sous‑estimée, sur l’infrastructure. Elle nécessite une bande passante exceptionnelle et une latence ultra‑faible pour fonctionner de manière optimale.</p><p><a href="https://www.deloittelegal.de/dl/en/services/legal/about/hyperscaler-migration-rechtliche-aspekte.html?icid=top_hyperscaler-migration-rechtliche-aspekte">Les géants du cloud hyperscale ne se contentent plus d’utiliser la capacité réseau. Ils en sont désormais les véritables architectes.</a> En participant activement à la conception de câbles sous‑marins et en déployant des systèmes ouverts pilotés par logiciel, tout en intégrant des solutions optiques avancées et cohérentes sur leurs réseaux terrestres, ils bâtissent une toute nouvelle infrastructure. Cette méthode leur offre la possibilité de créer des liaisons déterministes à très faible latence entre leurs fermes d’entraînement IA critiques et leurs datacenters. Le réseau ne se contente plus d’assurer un débit élevé. Il doit également garantir une synchronisation d’une précision exceptionnelle.</p><h2>Gaming, streaming et quête d'une expérience immersive</h2><p>Au-delà des datacenters d'entreprise, la demande des consommateurs est un moteur puissant pour les vitesses téraoctet. Le monde réclame désormais le streaming haute‑fidélité, le gaming immersif dans le cloud et l’univers en pleine expansion des applications métavers. Aujourd’hui, un même foyer peut simultanément diffuser du contenu vidéo en 4 K, jouer à un jeu multijoueur ultra‑réactif et tenir une vidéoconférence en haute résolution, le tout sans sacrifier la qualité de la connexion.</p><p>En matière de jeux vidéo en ligne, le rêve de « jouer à tout, où que l’on soit » est désormais une réalité. Toutefois, la fluidité de cette expérience dépend exclusivement de la latence. Un délai de quelques dizaines de millisecondes suffit à rompre l’illusion. Avec le passage du 1080 p au 4 K, voire au 8 K, et des fréquences de rafraîchissement atteignant 120 Hz, les exigences en bande passante deviennent colossales.</p><p>Conçus pour offrir une latence ultra‑faible, les câbles transatlantiques de dernière génération, à l’image d’AMITIE et de SOL, relient les principaux hubs financiers et de données du monde, de New York à Londres en passant par Bordeaux. Cette architecture place la rapidité au cœur de l’infrastructure, garantissant des échanges quasi instantanés entre les centres névralgiques du secteur. Par exemple, la latence entre Bordeaux et New York est de seulement 34 millisecondes.</p><p>Ces performances exceptionnelles sont rendues possibles <a href="https://www.sciencedirect.com/topics/materials-science/dense-wavelength-division-multiplexing">grâce à la technologie DWDM (Multiplexage Dense en Longueur d’Onde), qui intègre rapidement des processeurs de signal numérique cohérents de dernière génération</a>. Cette avancée ouvre la voie à des débits de l’ordre du terabit par canal, repoussant ainsi les limites de capacité bien au‑delà de ce qui était auparavant envisageable.</p><h2>La vitesse rencontre la résilience</h2><p>Ce n’est pas uniquement une question de vitesse. Il s’agit avant tout de résilience et de capacité par bit. <a href="https://www.submarinenetworks.com/en/systems/trans-atlantic/grace-hopper/colt-and-ciena-trial-1-2tbps-wavelength-on-grace-hopper-cable-system">Ainsi, le câble sous‑marin Grace Hopper, qui assure la liaison entre New York, le Royaume‑Uni et l’Espagne, a récemment franchi une étape décisive en réussissant un essai à 1,2 térabit par seconde (Tb/s).</a> Cette performance exceptionnelle a été obtenue sur plus de 6 000 km, grâce à la toute dernière génération de technologie optique cohérente.</p><p>Une étape majeure vient d’être franchie avec le lancement d’un nouveau réseau terabit transatlantique et terrestre robuste. Pensée pour servir deux des plus grands fournisseurs de contenu mondiaux, cette infrastructure étendue occupe une position stratégique qui permet aux hyperscalers de satisfaire la demande exponentielle de bande passante engendrée par l’IA générative, le gaming, le streaming vidéo et les exigences informatiques des entreprises. Elle le fait tout en limitant la consommation énergétique et les émissions de carbone.</p><p>Lorsque chaque longueur d’onde peut acheminer plus d’un trillion de bits chaque seconde, la connectivité ne se contente plus d’être « suffisante ». Elle devient véritablement « abondante ». <a href="https://finance.yahoo.com/news/submarine-cable-systems-market-worth-140100864.html?guccounter=1&amp;guce_referrer=aHR0cHM6Ly93d3cuZ29vZ2xlLmNvbS8&amp;guce_referrer_sig=AQAAANKt6PxfX_UQeQn9mke0Biedu57sYm0GBjKVcjzZuTqZSaOyHcu_jhADEZ3Yq4x58yA9_tuPFsPJ_Y08GSx6QqYiQN8fE1hjyRnKPn1h1ifwi4aMdXk9r6jCm1TV-UdmwomlGOjrrOkotvjkcJqgUuBxPGwzxhiUb7NX-JZWNvbS">D’après les dernières prévisions, le trafic sous‑marin mondial, qui avoisine aujourd’hui 5 000 Tb/s, devrait dépasser les 32 PB/s d’ici 2030, soit une hausse de plus de 550 %.</a></p><h2>Des obstacles majeurs subsistent</h2><p>La pose de câbles sous‑marins requiert d’importants capitaux et une navigation prudente au cœur de zones géopolitiques complexes. Sur le continent, les projets de fibre optique sont confrontés à des négociations difficiles pour les droits de passage, à des contraintes physiques et à des pressions de coûts très élevées.</p><p>L’enjeu dépasse largement une simple mise à niveau incrémentale. Nous sommes à l’aube d’un changement fondamental. Il s’agit du passage des gigabits aux térabits en passant d’une infrastructure qui se contente de suivre la demande à une infrastructure capable d’alimenter l’innovation future. Pour la prochaine génération de technologies, de l’IA générative au cloud gaming en temps réel, l’impact sera transformateur.</p><p>Dans ce nouveau paysage numérique, l’avantage concurrentiel ne reviendra pas à ceux qui accumulent les données, mais à ceux qui savent les transférer rapidement, en toute sécurité et de façon durable. Les entreprises qui misent dès maintenant sur une connectivité ultra‑performante, des écosystèmes collaboratifs et des partenariats stratégiques seront celles qui capteront la prochaine vague d’opportunités numériques.</p><p>Ce réseau téraoctet, qui relie océans et continents, est bien plus qu’une technologie. C’est le socle de l’avenir numérique commun. Et dans cette connexion profonde se trouve le catalyseur de la prochaine grande avancée.</p><p>Ce réseau téraoctet, qui relie océans et continents, dépasse la simple dimension technologique : il constitue le socle d’un futur numérique partagé. Au cœur de cette connexion réside le moteur de la prochaine grande avancée.</p>]]></description>
      <link>https://www.journaldunet.com/ebusiness/telecoms-fai/1546365-comment-le-reseau-terabit-alimente-t-il-l-ia-le-gaming-et-le-streaming/</link>
      <guid>https://www.journaldunet.com/ebusiness/telecoms-fai/1546365-comment-le-reseau-terabit-alimente-t-il-l-ia-le-gaming-et-le-streaming/</guid>
      <pubDate>Mon, 08 Dec 2025 16:39:00 +0100</pubDate>
    </item>
    <item>
      <title><![CDATA[Corma lève 3 millions d'euros pour automatiser la gouvernance des logiciels]]></title>
      <description><![CDATA[<p class="app_entry_lead"><a title=" © Corma" href="https://img-0.journaldunet.com/leEkQmgaupxDP_w7BwXQ4i3EVSE=/1500x/smart/88493a4335024fd29495b8f4eec34606/ccmcms-jdn/39530595.jpg" class="fancy"><picture><source srcset="https://img-0.journaldunet.com/TVqllDwtggB2W-dWzM6IwZdrLB0=/540x/smart/88493a4335024fd29495b8f4eec34606/ccmcms-jdn/39530595.jpg" media="(max-width: 480px)" /><img src="https://img-0.journaldunet.com/leEkQmgaupxDP_w7BwXQ4i3EVSE=/1500x/smart/88493a4335024fd29495b8f4eec34606/ccmcms-jdn/39530595.jpg" alt="Corma lève 3 millions d'euros pour automatiser la gouvernance des logiciels" width="1500" height="1000" /></picture></a> Corma boucle un tour de 3,5 millions d'euros, dont 3 millions en equity et 500 000 euros de dette, mené par XTX Ventures. La jeune pousse revendique plus de 200 entreprises utilisatrices.</p><p>Avec un tour de 3,5 millions d’euros mené par XTX Ventures, dont 3 millions en equity et 500 000 euros de dette, Corma signe ce 8 décembre un seed éclair. Le tour, bouclé en quelques semaines, réunit Tuesday Capital, Kima Ventures, 50 Partners, Olympe Capital et plusieurs business angels, dont Thomas Wolf (Hugging Face) et Jean-Louis Quéguiner (Gladia). Il s’inscrit dans la continuité d’un premier financement de 650 000 euros opéré fin 2023.</p><p>Le contexte explique en partie cette dynamique. Pour les DSI, la gestion du parc logiciel devient un enjeu stratégique à l’ère de l’explosion du SaaS, des usages IA et d’une pression réglementaire renforcée. "L’IT doit cesser d’être un centre de coût et redevenir un investissement qui se mesure. Aujourd’hui, ils n’ont pas d’outil unifié pour le prouver", observe Héloïse Rozès, cofondatrice et CEO.</p><p>Dans ce paysage saturé, Corma trouve rapidement sa place. La start-up revendique plus de 200 entreprises utilisatrices dans sept pays, de la jeune pousse de 20 salariés aux groupes de 10 000 collaborateurs. Le “sweet spot” reste toutefois les ETI entre 300 et 3 000 personnes. Et la demande semble forte. Selon Corma, un tiers des nouveaux contrats arrive en inbound, signe d’un besoin devenu évident côté DSI.</p><h2>Gouverner identités, accès et logiciels au même endroit</h2><p>Jusqu’ici, il était compliqué de relier identités, accès, permissions, rôles RH et portefeuille logiciel dans un même référentiel exploitable. Les mondes de l’identity &amp; access management (IAM) et du software asset management (SAM) vivaient en vases clos. "Une identité informatique peut avoir cinq e-mails, dix-sept accès, plusieurs niveaux de permissions… des données souvent centralisées par les RH et qui ne dialoguent pas entre elles", explique Héloïse Rozès.</p><p>Cette fragmentation a ouvert la voie à un phénomène désormais massif : le shadow IT, puis le shadow AI, où les collaborateurs adoptent des outils SaaS ou des services d’IA générative échappant totalement au pilotage de l’IT. "Dans une entreprise de 350 personnes, Corma découvre parfois 150 outils non déclarés. Aujourd’hui, ce n’est plus un doute, il y a du shadow IT et il y a du shadow AI", souligne-t-elle.</p><p>Pour y répondre, Corma propose une solution pour cartographier, automatiser et sécuriser. Grâce à cela, elle revendique des onboarding et offboarding ramenés à quelques minutes, des revues d’accès réduites de plusieurs centaines d’heures à quelques jours et jusqu’à 20% d’économies sont réalisées sur la dépense logicielle annuelle. "Les DSI ne veulent plus bricoler. Ils veulent du temps, de la visibilité et un cadre", résume la CEO.</p><h2>Vers une gouvernance logicielle automatisée et augmentée à l’IA</h2><p>La vision de la jeune pousse dépasse largement l’agrégation de données. En deux ans, Corma a pivoté deux fois pour adopter une architecture multi-agents, inspirée par les avancées du protocole MCP d’Anthropic, capable d’orchestrer automatiquement l’ensemble des workflows IT. "On vise le zéro-touch provisioning : un système d’on et offboarding où l’utilisateur n’a rien à faire. C’est désormais à notre portée", affirme Héloïse Rozès. Les agents s’attaquent aussi à des tâches historiquement manuelles, comme les revues d’accès, les rapprochements RH-logiciels ou la préparation de renégociations de contrats.</p><p>A moyen terme, Corma ambitionne d’industrialiser la gouvernance logicielle et de créer, à partir de la donnée collectée, une nouvelle couche de recommandation et de benchmark. "Toute la donnée que l’on capte sur les usages va devenir un levier d’intelligence marché. Et nous n’en sommes qu’au tout début", promet la fondatrice.</p>]]></description>
      <link>https://www.journaldunet.com/solutions/dsi/1546507-corma-leve-3-millions-d-euros-pour-automatiser-la-gouvernance-des-logiciels/</link>
      <guid>https://www.journaldunet.com/solutions/dsi/1546507-corma-leve-3-millions-d-euros-pour-automatiser-la-gouvernance-des-logiciels/</guid>
      <pubDate>Mon, 08 Dec 2025 08:00:00 +0100</pubDate>
    </item>
    <item>
      <title><![CDATA[Du SMS au RCS : le grand virage de la communication client]]></title>
      <description><![CDATA[<p class="app_entry_lead">En 2025, la relation client change d'ère avec le RCS...</p><p>En 2025, la relation client change d'ère. Avec 60 % de smartphones compatibles au deuxième trimestre, le RCS (Rich Communication Services) s'impose comme bien plus qu'une alternative au SMS : c'est désormais un standard en pleine montée en puissance, adopté à la fois par les consommateurs et les marques. Et la dynamique ne faiblit pas. Du Retail aux services en passant par l'automobile, tous les secteurs s'y intéressent. Il faut dire que le RCS cumule les atouts : contenus enrichis (photos et vidéos HD, carrousels, réactions, fichiers), conversations interactives et sécurité renforcée via le chiffrement de bout en bout. Autant de fonctionnalités qui rendent le SMS classique obsolète pour les marques souhaitant engager leurs clients avec plus de pertinence. L'adoption annoncé par Apple avec l'iOS 18, couplée au soutien des grands opérateurs télécoms français, confirme que le RCS est sur les rails pour devenir un canal incontournable dans la stratégie relationnelle des entreprises.</p><h2>Une expérience client plus immersive et engageante</h2><p>A l'inverse du sms qui n'offre que 160 caractères de texte, le RCS apporte une nouvelle dimension aux échanges : images, vidéos, carrousels, boutons cliquables pour inciter à l'action, le tout intégré dans l'app de messagerie du client, sans téléchargements superflus. Le ressenti utilisateur devient fluide, personnalisé et ultra connecté, favorisant des taux d'ouverture, de clics et de conversion nettement supérieurs aux canaux traditionnels. De plus, les campagnes RCS enregistrent environ 80 % de taux d'ouverture, soit un bond significatif comparé au SMS qui a vite fait de séduire les grandes marques de consommation.</p><h2>Un levier stratégique, piloté par l'IA, au service d'une relation client plus humaine</h2><p>Le RCS ne se limite pas à un canal enrichi : il devient un véritable levier stratégique pour les entreprises. Grâce à des fonctionnalités avancées, il permet un suivi précis et en temps réel du parcours client (clics, visites en ligne ou en magasin) et offre des capacités d'analyse qui facilitent l'optimisation des campagnes et la mesure directe du retour sur investissement.</p><p>En parallèle, l'essor de l'intelligence artificielle générative renforce la puissance de l'omnicanal. Elle permet de personnaliser les interactions à grande échelle en s'appuyant sur les comportements et préférences des utilisateurs. Pourtant, cette automatisation ne saurait fonctionner sans une supervision humaine : dans un environnement numérique saturé, la confiance, l'empathie et la sécurité restent des piliers essentiels de l'engagement. <br />C'est précisément là que le RCS tire son épingle du jeu : en alliant sécurité des données, hyperpersonnalisation des échanges et présence humaine quand elle est attendue, il permet aux marques de se différencier, de renforcer le lien client et de créer des expériences à la fois performantes et authentiques.</p><h2>Une adoption sectorielle rapide et diversifiée</h2><p>L'usage du RCS s'accélère : 267 marques ont lancé des campagnes entre mars 2024 et février 2025 selon l'Association Française pour le développement des services et usages Multimédias Multi-opérateurs (af2m), soit 50 % de plus qu'un an auparavant. Le retail demeure le secteur le plus actif (25 %), suivi des services (16 %) et de l'automobile (9 %). En parallèle, le taux de compatibilité des smartphones continue sa progression : +35 % en six mois et une prévision de 85 % d'ici fin 2025. Les campagnes RCS s'imposent désormais partout puisque les consommateurs y ont accès (parfois même sans le savoir) qu'ils utilisent Google Messages, Samsung Messages ou encore iMessages, en accès Wifi comme en 4G/5G et quel que soit le support (smartphone, tablette ou ordinateur). Difficile d'y échapper…</p><p>Le RCS n'est pas une révision du SMS, c'est une révolution dans la relation client : plus immersive, mesurable et personnalisée. Avec l'IA et une stratégie centrée sur la valeur – sécurité, personnalisation, humanité –, les entreprises disposent enfin d'un canal capable de répondre aux attentes des consommateurs modernes. En 2025, le RCS est gage d'une relation client fluide, engageante et réellement impactante qui peut faire la différence dans un contexte ultra concurrentiel. Tandis que la consommation des ménages peine à redémarrer en France, savoir s'adresser aux consommateurs reste la clé du succès.</p>]]></description>
      <link>https://www.journaldunet.com/ebusiness/telecoms-fai/1545987-du-sms-au-rcs-le-grand-virage-de-la-communication-client/</link>
      <guid>https://www.journaldunet.com/ebusiness/telecoms-fai/1545987-du-sms-au-rcs-le-grand-virage-de-la-communication-client/</guid>
      <pubDate>Tue, 18 Nov 2025 14:23:00 +0100</pubDate>
    </item>
    <item>
      <title><![CDATA[Shadow IT : la bombe à retardement du travail hybride]]></title>
      <description><![CDATA[<p class="app_entry_lead">Le travail hybride a fait fleurir les outils numériques, parfois jusqu'à en devenir contre-productif. Aujourd'hui, une évidence s'impose : pour gagner en efficacité, mieux vaut connecter que cumuler.</p><p>L’hybride a bouleversé nos organisations. En quelques années, les entreprises ont empilé les applications pour garder le lien : messageries, visios, plateformes collaboratives, outils métiers… Résultat ? Un patchwork numérique qui ressemble souvent plus à une fuite en avant qu’à une véritable stratégie. Et les collaborateurs, livrés à eux-mêmes, se débrouillent comme ils peuvent.</p><p>Le chiffre est vertigineux : 97% des applications cloud utilisées en entreprise ne sont pas autorisées par la DSI (source : Osterman Research). Autrement dit, la quasi-totalité des salariés bricolent avec des solutions “hors cadre” pour pallier les manques. Ce Shadow IT, loin d’être marginal, est devenu la norme. Et avec lui, trois risques majeurs explosent :</p><ul><li>La sécurité, puisque chaque outil non validé ouvre une porte supplémentaire aux cyberattaques,</li>
<li>La <a href="https://www.journaldunet.fr/business/dictionnaire-economique-et-financier/1199023-productivite-definition-traduction/" title="Productivité">productivité</a>, car jongler entre des environnements épars ralentit et fatigue les équipes,</li>
<li>La fidélisation, enfin, puisque pas moins de 20% des employés déclarent envisager de quitter leur entreprise à cause de politiques insuffisantes sur les outils hybrides (source : Lucid Software).</li>
</ul><p>Le paradoxe est cruel : à force de vouloir digitaliser à tout prix, certaines organisations fabriquent elles-mêmes leur chaos numérique. Trop d’outils, mal intégrés, mal expliqués... et la collaboration devient un labyrinthe. On perd du temps à chercher l’information, à réexpliquer, à compenser.</p><p>La réponse n’est pas de rajouter encore une couche d’outils. Elle est de penser l’intégration. Des systèmes qui parlent entre eux, des API ouvertes, du low-code pour réduire les silos et fluidifier les parcours. Et surtout, de l’accompagnement humain : formation, conduite du changement, cadre clair d’utilisation.</p><p>L’urgence est là : il faut recréer de la cohérence. Car un environnement numérique désordonné, c’est comme un open space sans règles : bruyant, brouillon, épuisant. À l’inverse, une intégration réussie, c’est moins d’énergie perdue et plus de clarté pour les équipes.</p><p>Si le travail hybride a ouvert des possibles extraordinaires, il ne laissera aucune place à l’improvisation. Le défi n’est pas dans la multiplication des outils, mais dans la capacité à les intégrer intelligemment, notamment grâce à des solutions de communications unifiées, ou d’écosystèmes digitaux (vraiment) pensés comme des "hubs" de collaboration.</p>]]></description>
      <link>https://www.journaldunet.com/solutions/dsi/1545797-shadow-it-la-bombe-a-retardement-du-travail-hybride/</link>
      <guid>https://www.journaldunet.com/solutions/dsi/1545797-shadow-it-la-bombe-a-retardement-du-travail-hybride/</guid>
      <pubDate>Wed, 12 Nov 2025 17:22:00 +0100</pubDate>
    </item>
    <item>
      <title><![CDATA[Carve-Out / Carve-In Data : enjeux et stratégies pour les DSI]]></title>
      <description><![CDATA[<p class="app_entry_lead">Les opérations de fusion, d'acquisition ou de cession se multiplient, entraînant à chaque fois un chantier majeur : la transformation des systèmes d'information.</p><p>Dans ce contexte, le carve-out (séparation) ou le carve-in (intégration) deviennent des exercices d’équilibriste : transformer l’existant sans compromettre la continuité, les synergies et la maîtrise des coûts. Pour les DSI, une question décisive demeure : comment les systèmes d’information vont être transformer pour garantir continuité, synergies et maîtrise des coûts ?</p><p>Les solutions sont multiples, côté applications comme services d'infrastructure. Pour avancer, il faut définir un plan afin d’élaborer une stratégie, en validant un certain nombre d’objectifs, de contraintes et de principes de travail. C’est ce cadre qui guidera les décisions et la définition de la roadmap.</p><p>Nous nous concentrons volontairement sur la dimension data du système d’information (IS, IT et organisation), en laissant de côté les autres composants (fonctionnels, infrastructure).</p><p>Deux univers à aligner : le métier et l’IT</p><p>Pour élaborer rapidement un plan de séparation ou d’intégration, nous raisonnons en deux groupes de composants data :</p><h3>Groupe des composants métier</h3><ul><li>Données de référence : données clés, stables, à faible variation,</li>
<li>Modèles de données : sémantique métier, structures et axes d’analyse,</li>
<li>Cas d’usage des données : portefeuille d’usages exploitant la donnée,</li>
<li>Organisation de la donnée : gouvernance, sécurité, conformité, responsabilité métier.</li>
</ul><h3>Groupe des composants IS-IT</h3><ul><li>Sources de données : applications alimentant ou utilisant la donnée,</li>
<li>Architecture data : services, outils et programmes supportant la donnée,</li>
<li>Modèle de delivery des données : équipes et modes opératoires de livraison des jeux de données aux cas d’usage.</li>
</ul><p>Pour chaque groupe, le DSI doit définir une stratégie adaptée aux objectifs stratégiques et opérationnels ainsi qu’aux contraintes identifiées. </p><h3>Les 6 objectifs stratégiques pouvant servir de "boussole"</h3><ol><li>Assurer la continuité des opérations, de leur management et de leur pilotage,</li>
<li>Optimiser ou réduire les coûts du TSA (Transfer Service Agreement), souvent lourds si la transition traîne,</li>
<li>Converger vers la cible métier et IS-IT chaque fois que c’est réalisable,</li>
<li>Evaluer les transformations ou améliorations à apporter, et déterminer leur rentabilité,</li>
<li>Définir, structurer et planifier la cible finale et sa mise en œuvre,</li>
<li>S’assurer l’atteinte des synergies visées.</li>
</ol><p>Pour l’élaboration de la cible, ainsi que la construction du plan d’actions de sa mise en œuvre, on recherchera le "meilleur équilibre" entre quatre niveaux de performance :</p><p><img alt="39529099.png" src="https://img-0.journaldunet.com/hhRAQoJcBc7V4gCvPWNbQJ2sJ1M=/1080x/smart/e55057d58a1c4d0bb3645c7ccd6c88d8/ccmcms-jdn/39529099.png" /></p><p>Cet équilibre pourra être ajusté au fur et à mesure : un projet de simplification réalisé plus tôt que prévu pourrait faire disparaître un projet d’harmonisation futur, qui n’aurait plus lieu d’être.</p><h2>L’intégration commence souvent… par la donnée client</h2><p>Les données de base constituent un composant métier présentant un niveau de criticité élevé : un référentiel Client, par exemple, conditionne directement l’exploitation des synergies commerciales.</p><p>Lorsque deux modèles de données client coexistent – celui de la société acheteuse et celui de la société acquise –, avec plusieurs référentiels non normalisés ni mis en qualité, les travaux nécessaires s’annoncent conséquents.</p><p>Sur le plan stratégique, la priorité est claire : la réorganisation commerciale ne sera efficace que si client est harmonisé et mutualisé. C’est la condition pour créer rapidement de la valeur. L’obtention de ce résultat est donc retenu comme prioritaire.</p><p>Sur le plan technologique, la solution la plus simple consiste à mettre en place un outil de Master Data Management (MDM), éventuellement de façon transitoire. Il devient le "point de vérité", auquel les applications existantes s’abonneront, évitant ainsi des transformations lourdes et immédiates sur leurs modèles de données.</p><p>Reste à atteindre l’objectif d’harmonisation tout en limitant l’effort de transformation.</p><p>Opter pour le modèle le plus large, intégrant l’ensemble des attributs existants, peut manquer de cohérence métier et n’apporter ni clarté ni simplification. À l’inverse, se limiter au plus petit dénominateur commun – les seuls attributs présents dans toutes les bases – appauvrirait la valeur métier.</p><h2>Partir des usages, pas des systèmes</h2><p>Mais ces deux tactiques ne généreraient pas une valeur métier suffisante au regard de l’effort de synergie consenti. La meilleure tactique sera plutôt de :</p><ul><li>Définir précisément les processus et les besoins métiers qui mobiliseront la donnée client,</li>
<li>Structurer le modèle de données en fonction de ces usages,</li>
<li>Construire les programmes de migration permettant de mettre à niveau le MDM avec une base cible,</li>
<li>Abonner à ce référentiel consolidé l’ensemble des applications consommatrices.</li>
<li>Lancer la nouvelle organisation commerciale, désormais appuyée sur une donnée harmonisée.</li>
</ul><p>Ainsi le profil de notre plan d’actions sera le suivant :</p><p><img alt="39529100.png" src="https://img-0.journaldunet.com/x0lg7FZcSat6ccdxJWT5gYho0p8=/1080x/smart/0802f4d2a6194ae0b418c02ca8b43627/ccmcms-jdn/39529100.png" /></p><p>Une étape de simplification — rationaliser certaines applications consommatrices — pourra intervenir plus tard.</p><p>Elle apparaît comme moins prioritaire : l’essentiel est que, grâce à la transformation du référentiel client, les synergies commerciales soient rapidement activées.</p><p>Le cas du référentiel client n’est qu’un exemple. La même logique doit s’appliquer à tous les composants data. Au-delà de la technologie, l’enjeu pour le DSI est de construire une vision data commune, capable de traverser les changements d’organisation et de soutenir durablement la performance.</p>]]></description>
      <link>https://www.journaldunet.com/solutions/dsi/1545845-carve-out-carve-in-data-enjeux-et-strategies-pour-les-dsi/</link>
      <guid>https://www.journaldunet.com/solutions/dsi/1545845-carve-out-carve-in-data-enjeux-et-strategies-pour-les-dsi/</guid>
      <pubDate>Wed, 12 Nov 2025 17:16:00 +0100</pubDate>
    </item>
    <item>
      <title><![CDATA[Une dette numérique qu'il est temps de rembourser]]></title>
      <description><![CDATA[<p class="app_entry_lead">Il y a quelque chose d'absurde à construire des services digitaux toujours plus perfectionnés... sans se demander s'ils sont vraiment accessibles à tous.</p><p>Dans une société numérisée à marche forcée, où l’on consulte son médecin, sa banque ou ses droits en ligne, ou ChatGPT ou Mistral deviennent des coachs en achats, organisation, planification personnelle, l’inaccessibilité numérique est un angle mort inquiétant. Et pourtant, les échéances arrivent : depuis juin 2025, les entreprises privées sont elles aussi soumises à des obligations renforcées (RGAA, European Accessibility Act). De nombreuses grandes marques ont déjà été épinglées. Et ça coûte cher ! Et la question n’est plus seulement réglementaire : elle est stratégique. Ce n’est plus un "sujet DSI", mais un levier de transformation globale.</p><h2>Quand l’accès devient un privilège</h2><p>On imagine souvent l’accessibilité comme une contrainte technique, ou une mise en conformité parmi d’autres. C’est une erreur. Car derrière l’accessibilité, il y a une idée simple : celle de rendre possible l’accès à l’information, aux services, aux opportunités, aux produits. Et ce qui devrait être un standard est encore trop souvent un privilège. Trop de contenus restent illisibles pour les personnes dyslexiques. Trop de formulaires sont inadaptés. Trop d’interfaces ne sont pas conçues pour être naviguées sans la vue. Et trop d’organisations découvrent le sujet a posteriori, une fois leur site ou leur application déjà en ligne. Pis, l’accessibilité vient en dernier dans les processus de conception ou de production de contenus, alors qu’ils devraient être “Accessible by design”. </p><p>C’est un modèle à revoir. Plus de 80 % des handicaps sont invisibles. Ce sont 12 millions de Français. 12 millions de clients, de talents, de citoyens qui attendent qu’on pense à eux. Et une population vieillissante, de moins en moins à l’aise avec les codes du numérique. Penser l’accessibilité, c’est parler de performance collective, pas d’une minorité. C’est une façon de prendre soin de ses publics les plus fragiles mais aussi de tous les autres.</p><h2>Changer d’échelle</h2><p>Le sujet est mal réparti : dans la plupart des organisations, il reste cantonné à des experts ou à des directions support. Or il devrait irriguer la stratégie produit, les choix techniques, les politiques RH ou les feuilles de route de transformation. C’est un changement de culture qu’il faut impulser, à tous les niveaux. Ce changement, il commence tôt. Dans les écoles de développement web, de communication, de design. Dans les formations aux métiers du numérique, où l’accessibilité est encore trop peu enseignée. Et dans les appels d’offres, où l’on ne s’interroge pas assez sur la capacité des prestataires à produire des contenus inclusifs. Former les futurs professionnels, interroger ses partenaires, mesurer l’impact dès la conception : les leviers sont connus, encore faut-il les activer.</p><p>Des signaux faibles montrent que la bascule pourrait enfin s’opérer. Les grands modèles d’intelligence artificielle, en particulier les LLM (Large Language Model), facilitent l’audio-description d’images, la transcription automatique en langue des signes, la lecture des PDF, la simplification des textes complexes ou leur adaptation en FALC (Facile à lire et à comprendre). Rendre accessible devient (un peu) plus accessible. Ce n’est pas encore une révolution, mais c’est un début de mouvement à encourager.</p><h2>Une dette à transformer en opportunité</h2><p>Nous avons accumulé une dette d’accessibilité. Une dette de qualité, de performance, de considération. Il est temps de la rembourser. Car la rendre visible, c’est aussi pouvoir la mesurer, la piloter, la réduire. L’accessibilité n’est pas un surcoût. Elle améliore l’expérience, élargit les audiences, optimise les parcours, limite les erreurs de saisie, facilite la navigation… et améliore la performance en référencement naturel. Elle fait mieux avec ce qu’on a déjà. Elle nous oblige à concevoir des parcours plus clairs, plus sobres, plus utiles. Et donc plus efficaces. Elle permet de rendre le digital plus juste, mais aussi plus performant. Sinon demain les LLM plus simples à utiliser deviendront le point de contact central d’échange et de recommandations des personnes en situation de handicap. Au risque pour les marques de ne plus être référencées et de disparaître de leur quotidien… </p><h2>Ce n’est pas un sujet d’image. C’est un sujet d’impact. Social, sociétal et économique ! </h2>]]></description>
      <link>https://www.journaldunet.com/solutions/dsi/1545899-une-dette-numerique-qu-il-est-temps-de-rembourser/</link>
      <guid>https://www.journaldunet.com/solutions/dsi/1545899-une-dette-numerique-qu-il-est-temps-de-rembourser/</guid>
      <pubDate>Wed, 12 Nov 2025 16:27:00 +0100</pubDate>
    </item>
    <item>
      <title><![CDATA[Comment l'agrégation de liaisons peut améliorer la connectivité et la résilience des services d'urgence ?]]></title>
      <description><![CDATA[<p class="app_entry_lead">En cette fin d'année, les services d'urgence sont sous forte pression : météo, fêtes et accidents rendent leur réactivité et leur connectivité en toutes circonstances vitales.</p><p>L'agrégation de liaisons (Link Bonding), également appelée liaison WAN, est une technologie qui combine plusieurs connexions Internet en une seule connexion unifiée afin d'augmenter la bande passante, d'améliorer la résilience des applications et d'optimiser les performances globales du réseau. Cette approche est particulièrement avantageuse pour les structures qui ont besoin d'une connectivité fiable et performante, telles que les services d'urgence.</p><p>L'agrégation de liaisons agrège intelligemment plusieurs liaisons filaires ou sans fil (4G LTE, 5G, <a href="https://www.journaldunet.fr/web-tech/dictionnaire-du-webmastering/1487601-test-debit-internet/" title="Haut débit">haut débit</a>, Wi-Fi et satellite, par exemple) en une seule connexion logique. Cette agrégation permet de répartir les paquets de données entre les liaisons combinées, ce qui augmente efficacement le débit et offre de la redondance.</p><h2>Les bénéfices concrets pour les services d’urgence</h2><p>L'agrégation de liaisons est particulièrement utile pour les services d'urgence qui peuvent être amenés à intervenir dans des zones où les options de connectivité sont limitées ou peu fiables, ce qui le rend particulièrement avantageux pour les opérations de terrain en offrant :</p><ol><li>Une fiabilité et une résilience accrues : les services d'urgence ont besoin d'une connectivité ininterrompue pour coordonner leurs interventions et accéder aux informations critiques. Le Link Bonding minimise les temps d'arrêt en assurant un basculement transparent entre plusieurs connexions. Si une liaison se dégrade ou tombe en panne, le trafic est automatiquement transféré vers d'autres liaisons disponibles sans interruption de session ni perte de données. Cette continuité transparente est cruciale en cas de catastrophe, lorsque les infrastructures peuvent être compromises.</li>
<li> Une augmentation de la bande passante : la combinaison de plusieurs liaisons augmente la bande passante disponible, ce qui permet un transfert de données plus rapide, un streaming vidéo amélioré et une meilleure prise en charge des applications critiques telles que les flux vidéo en temps réel et les plateformes de communication.</li>
<li>Une amélioration des performances des applications : l'agrégation intelligente optimise la distribution du trafic en fonction de la priorité des applications, garantissant ainsi que les services essentiels reçoivent la bande passante dont ils ont besoin sans interruption. L'équilibrage de charge dans l'agrégation de liens permet de répartir intelligemment le trafic sur tous les liens actifs en fonction des performances et des priorités actuelles. Les messages vocaux et d'alerte critiques bénéficient de la priorité la plus élevée, tandis que les données moins urgentes, telles que les téléchargements administratifs, utilisent la capacité restante.</li>
<li>Une gestion simplifiée du réseau : les solutions modernes de liaison de liens incluent souvent une gestion basée sur le cloud, offrant un contrôle et une surveillance centralisés de toutes les connexions, ce qui est crucial dans les situations d'urgence. Un tableau de bord unique offre une visibilité en temps réel sur l'état des liens, le débit et la latence. Les équipes opérationnelles peuvent définir des politiques, ajuster les priorités et résoudre les problèmes à partir d'une console unifiée.</li>
<li>Une meilleure rentabilité : en tirant parti d'une combinaison de types de connexion, y compris des options sans fil économiques, les organisations peuvent réduire leur dépendance à l'égard de lignes dédiées coûteuses ou de connexions satellitaires uniques tout en maintenant une <a href="https://www.journaldunet.fr/web-tech/dictionnaire-du-webmastering/1445286-haute-disponibilite-en-informatique-definition-concrete-et-conseils-pratiques/" title="High Availability">haute disponibilité</a>. En mettant en commun la bande passante disponible de différents réseaux, l'agrégation de liens permet d'atteindre des débits de données bien supérieurs à ceux qu'un seul lien peut fournir. Cela est essentiel pour transmettre des vidéos haute définition depuis les lieux d'incidents, des données télémétriques en temps réel depuis des drones ou des capteurs à distance, et des fichiers de données volumineux entre les centres de commandement.</li>
</ol><h2>Des équipements adaptés aux environnements critiques</h2><p>Il existe des routeurs intégrant le Link Bonding qui gèrent le basculement grâce à une gestion intelligente du trafic, surveillent en permanence l'état et le statut de chaque connexion dans la liaison groupée. Ces routeurs surveillent en permanence l'état et les performances de chaque lien et distribuent les flux de données en conséquence afin de maximiser la bande passante et d'assurer la résilience.</p><p>Les services d'urgence peuvent équiper leurs véhicules et leurs centres de commande de ces routeurs multi-WAN, combinant des connexions cellulaires 4G LTE/5G avec des connexions satellite ou haut débit filaires lorsque celles-ci sont disponibles. Cette configuration garantit une connectivité continue même si une ou plusieurs liaisons tombent en panne ou sont saturées.</p><h2>Garantir la continuité opérationnelle en toutes circonstances</h2><p>Face à des urgences de plus en plus fréquentes et imprévisibles, la connectivité devient un pilier de la réactivité et de la coordination des secours. L'agrégation de liaisons offre aux services d'urgence des capacités de mise en réseau robustes, performantes et résilientes, qui sont essentielles en cas d'urgence.</p><p>En combinant intelligemment plusieurs connexions, ces organisations peuvent garantir une communication continue, un accès plus rapide aux données et une meilleure efficacité opérationnelle globale. Cette capacité à maintenir des communications fiables et performantes est essentielle pour faire face aux urgences d’aujourd’hui et aux défis de demain.</p>]]></description>
      <link>https://www.journaldunet.com/ebusiness/telecoms-fai/1545909-comment-l-agregation-de-liaisons-peut-ameliorer-la-connectivite-et-la-resilience-des-services-d-urgence/</link>
      <guid>https://www.journaldunet.com/ebusiness/telecoms-fai/1545909-comment-l-agregation-de-liaisons-peut-ameliorer-la-connectivite-et-la-resilience-des-services-d-urgence/</guid>
      <pubDate>Wed, 12 Nov 2025 16:25:00 +0100</pubDate>
    </item>
    <item>
      <title><![CDATA[Numérique : sortir de la souveraineté pour passer à la résilience]]></title>
      <description><![CDATA[<p class="app_entry_lead">Après dix ans de règlements défensifs au nom de la souveraineté numérique, l'Europe doit changer de cap et passer à la résilience pour plus d'innovation et de liberté.</p><p>Depuis dix ans, l’Europe s’abrite derrière un mot-fétiche : souveraineté numérique. Et derrière ce mot, une avalanche de règlements : RGPD, DMA, DSA, DGA, IA ACt et beaucoup d’autres… Des textes importants avec de belles valeurs, certes, mais avant tout défensifs. À force de dresser des murailles réglementaires, nous avons oublié l’essentiel : une muraille protège, elle n'émancipe pas. Nous l’avons vu, l'Europe reste une colonie numérique, les données des européens des matières premières, et les amendes ne font peur à plus personne.</p><p>La souveraineté telle qu’elle est pensée aujourd’hui, est une citadelle assiégée. On verrouille, on encadre, on interdit. Mais où est le souffle créateur ? Où est la capacité à inventer nos propres outils, nos propres infrastructures, notre propre futur numérique ?</p><h2>La Résilience Numérique : La voie de la souplesse</h2><p>Face aux empires technologiques qui dominent le monde, nous n’avons pas besoin d’une Europe recroquevillée derrière ses règlements. Nous avons besoin d’une Europe résiliente. La résilience, ce n’est pas la peur du choc, c’est la capacité à l’absorber, à rebondir, à transformer la contrainte en opportunité. La résilience c’est la capacité à continuer parce que l’on sait que les ressources de la continuité sont accessibles.<br />Quand Broadcom a racheté VMware en quasi-monopole, le prix des licences a pu être multiplié par 800% du jour au lendemain. Que peuvent faire les DSI des entreprises françaises à part accepter de payer la note ? Les grands groupes dont la compétence est externalisée à des grandes ESN, auraient-elles les compétences pour continuer les projets si leur contrat s’arrête ?</p><p>C’est le sens de l’Indice de résilience numérique, lancé en juillet dernier par David Djaiz, Arno Pons et Yann Lechelle, qui mesure nos dépendances réelles. C’est aussi le combat du Conseil national de la Résilience de Tariq Krim : construire des infrastructures ouvertes, distribuées, diversifiées, plutôt que de fantasmer une souveraineté hors-sol. La liberté viendra de la capacité des organisations de savoir que leur informatique peut plier sans rompre.</p><h2>Quatre piliers pour un numérique Résilient</h2><p>La résilience numérique repose sur quatre piliers concrets, sans lesquels nous resterons éternellement prisonniers de la dépendance :</p><ol><li> La formation : il ne suffit pas d’utiliser les technologies, il faut savoir les comprendre, les détourner, les réinventer. Tant que nous dépendrons des autres pour coder le système, développer les modèles nous resterons des consommateurs, pas des acteurs.</li>
<li>  La culture tech des décideurs : combien de responsables politiques et économiques signent des contrats cloud ou IA sans en comprendre les enjeux politiques ? Chaque ligne de code est un choix de société. L’ignorance des décideurs est aujourd’hui notre plus grande vulnérabilité.</li>
<li> L’open source : c’est la seule voie crédible pour sortir des monopoles. Transparent, coopératif, adaptable, l’open source est un instrument de liberté. Ne pas en faire une priorité stratégique est une faute politique.</li>
<li>La recherche : sans recherche publique et privée de haut niveau, pas de leadership. Nous ne serons jamais résilients si nous abandonnons l’innovation de rupture aux États-Unis et à la Chine.</li>
</ol><h2>Un nouveau contrat social du numérique</h2><p>La souveraineté numérique a été un réflexe de survie. Mais elle est devenue une prison dans une économie de marché mondialisée.  L’heure est venue de basculer vers la résilience numérique : abandonner la liberté figée de la souveraineté pour celle active de la résilience. C’est seulement ainsi que nous pourrons bâtir un numérique émancipateur, capable de rayonner et de reprendre la course au progrès dans le peloton de tête capable de plier sans rompre, donc de se libérer de la peur.</p>]]></description>
      <link>https://www.journaldunet.com/web-tech/1545827-numerique-sortir-de-la-souverainete-pour-passer-a-la-resilience/</link>
      <guid>https://www.journaldunet.com/web-tech/1545827-numerique-sortir-de-la-souverainete-pour-passer-a-la-resilience/</guid>
      <pubDate>Wed, 12 Nov 2025 16:19:00 +0100</pubDate>
    </item>
    <item>
      <title><![CDATA[Multi-sites et réseaux 5G privés : comment les industriels peuvent étendre leur connectivité]]></title>
      <description><![CDATA[<p class="app_entry_lead">Trouver une technologie parfaitement adaptée aux besoins de son entreprise, c'est comme découvrir une mine d'or : la productivité augmente, les silos disparaissent et l'expérience s'améliore.</p><p>Certaines entreprises constatent déjà les avantages des réseaux 5G privés. Un nombre croissant d’entre elles déploient des réseaux 5G privés complets, offrant une bande passante dédiée à leurs opérations les plus critiques. Dans les entrepôts ou les usines de production, ces déploiements permettent de maintenir les outils connectés, de respecter les délais et de satisfaire les clients.</p><p>Alors que les entreprises profitent des bénéfices des réseaux 5G privés, une question naturelle se pose : comment étendre ces avantages à d’autres sites ? Pour y parvenir, la meilleure solution consiste souvent à adopter un réseau 5G privé capable d’être déployé sur plusieurs sites — localement sur différents campus, ou à l’échelle internationale.</p><h2>Les réseaux 5G privés ne se limitent plus à votre site principal</h2><p>Traditionnellement, lorsqu’une entreprise souhaitait déployer un réseau 5G privé (ou 4G LTE) sur plusieurs sites, elle devait installer une solution de bout en bout dans chaque lieu. Cela incluait le cœur de réseau et son contrôleur, ainsi que les différents composants du réseau d’accès radio (RAN).</p><p>L’approche multi-sites repose sur la centralisation des ressources réseau (cœur de réseau et contrôleur) dans le site principal. L’entreprise n’a alors plus qu’à déployer le RAN dans les sites secondaires, là où l’enjeu principal est la couverture ou la mobilité, et non les applications temps réel où chaque milliseconde compte.</p><h2>Tirer parti des réseaux 5G privés sur chaque site industriel</h2><p>Cette capacité à étendre la couverture cellulaire privée sans multiplier les déploiements complets présente plusieurs avantages. D’abord, elle permet de bénéficier de la couverture et de la mobilité sans interruption des réseaux 5G privés tout en réduisant le coût total de possession lié à plusieurs réseaux indépendants.</p><p>Elle permet également de limiter la complexité technique, organisationnelle et sécuritaire liée à la gestion de multiples réseaux de bout en bout. Les déploiements distribués complets offrent une gestion centralisée via un tableau de bord unique et garantissent l’authentification des cartes SIM sur l’ensemble des sites.</p><p>Les réseaux disparates peuvent générer des incohérences de politiques de sécurité lorsque les employés, les équipements et les machines connectées se déplacent d’un site à l’autre. Avec une approche multi-sites, un administrateur peut autoriser une seule carte SIM pour plusieurs sites, ce qui garantit l’uniformité des politiques de sécurité, sans devoir remplacer la carte à chaque changement de site. Cela simplifie considérablement le déploiement et la gestion du réseau.</p><h2>Comment savoir si un déploiement multi-sites est nécessaire ?</h2><p>Analyser les cas d’usage et les bénéfices concrets est la meilleure façon de déterminer si un réseau 5G privé distribué est pertinent. L’industrie manufacturière est l’un des secteurs qui en tire le plus d’avantages. À l’ère de l’Industrie 4.0, les entreprises dépendent fortement de l’IA et de technologies automatisées qui exigent une connectivité fiable, flexible et évolutive.</p><p>Aujourd’hui, les industriels cherchent à rapprocher les technologies de l’information (IT) et les technologies opérationnelles (OT). L’IT couvre notamment la sécurité réseau, tandis que l’OT englobe l’automatisation et la robotique qui assurent la production. Ces deux domaines convergent dans les usines 4.0, où par exemple des robots mobiles autonomes (AMR) ou des véhicules guidés automatisés (AGV) doivent circuler entre différents sites tout en conservant une connectivité fiable et des politiques de sécurité cohérentes.</p><p>Le secteur manufacturier fournit déjà des exemples concrets de l’apport des réseaux 5G privés. En France, un sidérurgiste a pu construire une nouvelle usine de production en face de son site principal et l’interconnecter à son infrastructure IT existante. L’approche multi-sites des réseaux 5G privés lui a permis d’étendre la connectivité haut débit au nouveau site, tout en facilitant la gestion du réseau par un seul administrateur.</p><p>Bien que l’industrie manufacturière illustre parfaitement ces bénéfices, d’autres secteurs peuvent en tirer parti. Les administrateurs réseaux et responsables IT peuvent s’inspirer des déploiements actuels pour évaluer l’intérêt d’une telle approche dans leur propre activité. Un déploiement multi-sites sera particulièrement utile aux entreprises souhaitant faire évoluer leur réseau 5G privé, centraliser la gestion réseau, appliquer des politiques de sécurité cohérentes et anticiper les besoins en connectivité de futures technologies susceptibles de se déplacer entre sites.</p><p>Avec cette flexibilité et cette évolutivité, les entreprises peuvent aborder leurs projets d’innovation avec une agilité et une confiance accrues.</p>]]></description>
      <link>https://www.journaldunet.com/ebusiness/telecoms-fai/1545349-multi-sites-et-reseaux-5g-prives-comment-les-industriels-peuvent-etendre-leur-connectivite/</link>
      <guid>https://www.journaldunet.com/ebusiness/telecoms-fai/1545349-multi-sites-et-reseaux-5g-prives-comment-les-industriels-peuvent-etendre-leur-connectivite/</guid>
      <pubDate>Tue, 04 Nov 2025 11:46:00 +0100</pubDate>
    </item>
    <item>
      <title><![CDATA[Au-delà de l'unification : repenser la donnée autour de l'objet métier]]></title>
      <description><![CDATA[<p class="app_entry_lead">Les plateformes de données se veulent unifiées, elles restent cependant pensées comme des chaînes techniques cloisonnées. Et si la véritable rupture ne venait pas d'un changement de modèle ?</p><p>L’unification des outils de données s’est imposée comme un objectif stratégique pour nombre d’organisations. Face à la multiplication des sources, à la complexité des architectures hybrides et à la pression sur les coûts, les DSI ont logiquement cherché à consolider ingestion, transformation, gouvernance et analyse dans des plateformes centralisées. Mais alors que ces plateformes dites "unifiées" prolifèrent, une question mérite d’être posée : l’unification des couches techniques suffit-elle à résoudre les défis structurels de la donnée en entreprise ? Rien n’est moins sûr.</p><h2>Une promesse technique, une réalité encore fragmentée</h2><p>En théorie, les plateformes unifiées simplifient le paysage : elles rassemblent les étapes du cycle de vie des données, de la collecte à l’analyse. En pratique, elles restent souvent organisées en silos fonctionnels : pipeline d’ingestion, moteur de traitement, outil de qualité, couche analytique. Chacune possède ses propres règles, ses propres formats, son propre vocabulaire.</p><p>Cette architecture, bien qu'intégrée, reste fondamentalement pipeline-centric. Elle suppose que la valeur émerge d’un traitement en cascade, où chaque étape repose sur la précédente. Le problème ? Cette logique engendre redondance, dette technique, et une dépendance persistante aux équipes IT pour des ajustements souvent mineurs.</p><h2>Replacer l’objet métier au centre du cycle data</h2><p>Une autre approche émerge aujourd’hui : celle qui considère que la donnée ne devrait plus être manipulée par étapes, mais structurée dès l’origine sous forme d’objets métier unifiés. Ces objets — commande, patient, contrat, équipement — encapsulent toutes les dimensions pertinentes : données sources, règles métiers, enrichissements, historiques, contraintes de qualité et conditions de gouvernance.</p><p>Ce modèle présente un avantage décisif : il abolit la séparation entre modélisation technique et usage métier. L’objet devient une entité exploitable directement, tant par les équipes data que par les fonctions métiers. Il est transportable, traçable, visualisable et réutilisable — sans nécessiter de transformation intermédiaire ou d’interprétation manuelle.</p><h2>Une logique déclarative plutôt que procédurale</h2><p>Dans ce cadre, l’exécution du traitement repose sur une logique déclarative : on décrit ce que l’on veut obtenir, et non comment l’obtenir. La plateforme ou le moteur sous-jacent se charge de l’orchestration, de l’enchaînement des tâches, et de l’application des règles. Ce paradigme réduit drastiquement la dette technique, tout en garantissant la reproductibilité et la conformité des objets manipulés.</p><p>Ce changement de perspective ouvre la voie à une gouvernance intégrée : chaque règle métier devient une propriété de l’objet. Chaque transformation est documentée et traçable. Chaque donnée exposée est certifiée par construction, non par audit a posteriori.</p><h2>Vers des architectures data orientées métier</h2><p>Le passage d’un pipeline technique à une architecture orientée objet métier représente plus qu’une évolution technologique : c’est une transformation culturelle. Elle exige de repenser les outils, les rôles, les responsabilités. Elle invite à une convergence réelle entre les équipes IT et les fonctions métiers, au service d’un même langage, d’une même structure, d’un même référentiel.</p><p>Dans un contexte où la rapidité d’exploitation, la qualité des décisions et la souveraineté des données sont devenues critiques, cette approche pourrait bien marquer une nouvelle étape de maturité pour les plateformes de données d’entreprise.</p>]]></description>
      <link>https://www.journaldunet.com/solutions/dsi/1545773-au-dela-de-l-unification-repenser-la-donnee-autour-de-l-objet-metier/</link>
      <guid>https://www.journaldunet.com/solutions/dsi/1545773-au-dela-de-l-unification-repenser-la-donnee-autour-de-l-objet-metier/</guid>
      <pubDate>Tue, 04 Nov 2025 11:43:00 +0100</pubDate>
    </item>
    <item>
      <title><![CDATA[Pourquoi la gouvernance des risques ne peut plus se limiter au COMEX]]></title>
      <description><![CDATA[<p class="app_entry_lead">Face à des réglementations toujours plus strictes et des délais de mise en conformité de plus en plus courts, les organisations doivent repenser leur gestion des risques.</p><p>Désormais, tout le monde au sein de l'entreprise a un rôle à jouer. Dans ce contexte, les dirigeants adoptent une approche plus agile et proactive, où la sensibilisation aux risques est intégrée dès le départ dans les processus métier. Et pour ce faire, ils s’appuient sur la technologie pour obtenir une vision en temps réel des risques à l'échelle de l'entreprise et permettre à chaque collaborateur de devenir un véritable acteur de la gestion des risques. </p><p>Pour mettre en place une approche IT agile et proactive en matière de risques et de conformité, il est nécessaire de commencer par sensibiliser les collaborateurs et d’instaurer une gestion responsable de la donnée. Concrètement, cela signifie protéger et préserver la confidentialité des données sensibles, tout en exploitant les données et les technologies pour effectuer des auto-audits en temps réel et renforcer la posture de l'organisation en matière de risques.</p><h2>Le risque ne se limite plus à la salle du conseil d'administration</h2><p>Dans une structure organisationnelle traditionnelle, un Chief Risk Officer supervise les risques et la conformité au sein de l'organisation. Mais ce positionnement ne suffit plus dans les organisations actuelles. Car force est de constater que tout le monde porte une responsabilité individuelle en matière de risque - des agents de sécurité qui surveillent les entrées et sorties d’un immeuble, jusqu’aux collaborateurs qui peuvent partager des données sensibles par email. Les collaborateurs en première ligne peuvent - et doivent ! - détecter des anomalies susceptibles de révéler des scénarios à risque. Les dirigeants veillent donc à ce que la gestion des risques soit bien ancrée et diffusée dans la culture de leur organisation et ce, à tous les niveaux. </p><h2>Une approche pragmatique</h2><p>Pour adopter une approche agile, les chefs d'entreprise doivent repenser l’ensemble de leur approche liées au risque. Plutôt que de se précipiter pour gérer les évolutions réglementaires, cette gestion des risques doit être intégrée dès le départ dans les processus métier. Les dirigeants doivent prendre le contrôle des données, établir des sources fiables et investir dans des technologies telles que la data science et l’IA. Car investir dans l'IA, et en particulier dans l'<a href="https://www.journaldunet.com/ia-generative/" title="IA génératives">IA générative</a>, peut contribuer à accélérer l'identification et la gestion des risques, pour in fine améliorer la résilience de l'organisation. L'utilisation de solutions de gestion pour intégrer les données à l'échelle de l'organisation est, à ce titre, une première étape. L’IA générative permet aux dirigeants de mettre en place un processus d’auto-audit capable d’identifier et de traiter les problèmes de manière rapide et continue, facilitant ainsi l’adaptation de l’organisation à un environnement réglementaire et commercial en constante évolution.</p><h2>Adopter une vision d’ensemble</h2><p>Les cadres dirigeants doivent avoir une vision globale du risque. En cela, l'IA représente un outil de plus en plus indispensable pour exploiter le volume considérable de données traitées et pour détecter les signes d’éventuels problèmes avant qu'ils ne surviennent. Car pour les organisations, les données constituent leur atout commercial le plus précieux. Les régulateurs exigent désormais des « ensembles de données complets » dans le cadre de leurs missions de supervision et d’investigation. Ils s’attendent donc à la réalisation d’audits et d’analyses à un niveau aussi proche du temps réel que possible. À ce titre, l’IA jouera un rôle essentiel pour re-donner du sens à ce volume de données dans des délais pertinents. L'utilisation la plus importante de l'IA consiste ainsi à « trouver le signal dans le bruit », c'est-à-dire à révéler les risques liés à tous les actifs nécessaires au fonctionnement d'une organisation, des technologies aux données en passant par les personnes.</p><p>L'IA, et en particulier l'IA générative, jouera à l’avenir un rôle central dans les questions liées à la gestion des risques et à la mise en conformité, à mesure que les organisations évoluent vers un modèle où chacun est responsable des risques. Les dirigeants pourront créer un nouveau type d'entreprise, où la gestion des risques est intégrée dans chaque fibre de l'organisation, en commençant par ses fondamentaux - car la proactivité constitue le fondement d'une innovation et d'une performance continue.</p>]]></description>
      <link>https://www.journaldunet.com/solutions/dsi/1545629-pourquoi-la-gouvernance-des-risques-ne-peut-plus-se-limiter-au-comex/</link>
      <guid>https://www.journaldunet.com/solutions/dsi/1545629-pourquoi-la-gouvernance-des-risques-ne-peut-plus-se-limiter-au-comex/</guid>
      <pubDate>Fri, 31 Oct 2025 12:09:00 +0100</pubDate>
    </item>
    <item>
      <title><![CDATA[Réinventer la DSI : architecte des écosystèmes assurantiels de demain]]></title>
      <description><![CDATA[<p class="app_entry_lead">Avec des enjeux tels que l'ouvertures des systèmes et la recherche d'une plus grande agilité, le secteur de l'assurance connaît une phase d'accélération sans précédent.</p><p>Les <a href="https://www.journaldunet.com/solutions/dsi/dsi/" title="DSI">DSI</a> se trouvent donc face à une bifurcation majeure. Certaines directions parviennent à tirer parti de cette mutation, tandis que d’autres peinent à en saisir pleinement la portée. Entre technologies héritées, développements internes, solutions externes et plateformes ouvertes, la quantité d’options disponibles aujourd’hui façonne le rôle des DSI au sein des compagnies d’assurance. </p><h2>Héritage des systèmes propriétaires : un modèle remis en question</h2><p>Les premiers systèmes d’information assurantiels ont été pensés comme des créations uniques, intimement liées aux processus internes. Faute d’outils standardisés, les DSI bâtissaient patiemment des architectures complexes, devenues un avantage compétitif. Détenir et maîtriser son SI représentait alors un choix audacieux et différenciateur, conférant à la DSI un rôle stratégique de gardienne du capital technologique.</p><p>Or, la donne a changé. Le SI, désormais en interaction permanente avec les clients, courtiers et partenaires, dépasse largement sa fonction d’outil interne. Il devient un vecteur d’expérience utilisateur et un support de valeur. Les utilisateurs, aujourd’hui mobiles et exigeants, n’acceptent plus les lenteurs ni les erreurs de fonctionnement. Le digital a rééquilibré le pouvoir en faveur de l’utilisateur final, et cette exigence s’impose sans compromis.</p><h2>Un environnement en constante évolution</h2><p>L’assurance, en particulier IARD (dommages), est soumise à des transformations structurelles : intensification des aléas climatiques, émergence de nouveaux risques, accélération numérique. L’avantage concurrentiel n’est plus déterminé par un code propriétaire correspondant à des besoins passés, mais dans la capacité à lancer rapidement une offre, intégrer un canal inédit ou réagir face à un risque émergent.</p><p>Les acteurs qui transforment le marché d’aujourd’hui sont ceux qui raccourcissent drastiquement leurs délais de souscription ou qui modernisent leurs plateformes pour accélérer la mise sur le marché. Ces exemples illustrent la voie à suivre : l’adaptabilité comme facteur différenciant.</p><h2>La DSI, de bâtisseur à chef d’orchestre de l’écosystème IT</h2><p>Le rôle des DSI s’est profondément modifié. Le temps où tout devait être conçu en interne est révolu. L’avenir repose sur l’intégration cohérente de solutions multiples, appuyées sur des plateformes cœur de métier robustes, capables de couvrir à la fois les offres traditionnelles et les modèles émergents comme l’assurance embarquée ou paramétrique.</p><p>Ces plateformes doivent conjuguer sécurité, interopérabilité et évolutivité.  Elles ouvrent la porte aux meilleures solutions du marché : outils de tarification dynamique, assurtechs, solutions antifraude ou exploitation des données IoT et satellitaires. L’objectif est clair : expérimenter rapidement, corriger efficacement, sans repartir systématiquement de zéro.</p><p>Néanmoins, certains contextes – un secteur très spécifique ou une intégration complexe avec un partenaire majeur –, justifient encore le recours à une brique propriétaire. La DSI doit alors démontrer sa capacité à naviguer habilement entre standardisation et personnalisation selon les besoins métier.</p><h2>L’essor des plateformes ouvertes et des assurtechs</h2><p>Le paysage technologique s’est radicalement transformé depuis les années 1990. Des éditeurs proposent désormais des plateformes conçues spécialement pour l’assurance, ouvertes et évolutives, déjà déployées à grande échelle par des centaines d’assureurs dans le monde. Ces solutions constituent un socle solide pour accompagner la transformation numérique, tout en s’ouvrant à des écosystèmes à travers des marketplaces donnant accès aux innovations des meilleures assurtechs sur le marché. Tenter de recréer en interne ce type de plateforme s’avère rarement pertinent, bien que certaines DSI restent attachées à leur patrimoine ou réticentes à céder une part de contrôle.</p><p>Cette prudence est compréhensible : passer d’un univers fermé et maîtrisé à un environnement ouvert exige un changement de posture. Pourtant, il ne s’agit pas d’une confrontation. Les éditeurs assurent l’évolution des plateformes pour l’ensemble des métiers de l’assurance, tandis que la DSI se concentre sur les besoins propres à son entreprise. En collaborant, chacun joue un rôle complémentaire, et les DSI qui savent équilibrer partenariats et développements ciblés, tirent clairement avantage de cette approche.</p><h2>Repenser la DSI comme partenaire stratégique</h2><p>La DSI ne peut plus être perçue comme un centre de coûts ou une usine à code, elle devient un acteur clé de la stratégie. Dans le contexte actuel, les assureurs ne peuvent plus se reposer sur de vieux systèmes informatiques. La question n’est plus seulement de choisir entre solution propriétaire ou externe mais d’assurer la rapidité, la résilience et l’impact métier.</p><p>Les DSI les plus performantes l’ont déjà compris : elles orchestrent habilement les bons outils au moment opportun pour maximiser la valeur métier.</p><p>Aujourd’hui, il revient aux DSI de reprendre une place centrale en optimisant l’accès aux technologies ainsi qu’aux nouvelles opportunités, en assumant le rôle d’architectes d’un écosystème à la fois agile et innovant. En collaborant avec les éditeurs spécialisés, en intégrant les assurtechs et en plaçant l’expérience client au cœur des priorités, les DSI ne se limitent plus à suivre la transformation : elles la pilotent désormais activement.</p>]]></description>
      <link>https://www.journaldunet.com/solutions/dsi/1545283-reinventer-la-dsi-architecte-des-ecosystemes-assurantiels-de-demain/</link>
      <guid>https://www.journaldunet.com/solutions/dsi/1545283-reinventer-la-dsi-architecte-des-ecosystemes-assurantiels-de-demain/</guid>
      <pubDate>Fri, 31 Oct 2025 12:05:00 +0100</pubDate>
    </item>
    <item>
      <title><![CDATA[Isentroniq lève 7,5 millions d'euros pour industrialiser les ordinateurs quantiques]]></title>
      <description><![CDATA[<p class="app_entry_lead"><a title=" © isentroniq" href="https://img-0.journaldunet.com/apQ2a39e1NleNIuEv3GE1_qVEWo=/1500x/smart/9ce7820977d0459e899eb5724417e35b/ccmcms-jdn/39527861.png" class="fancy"><picture><source srcset="https://img-0.journaldunet.com/mK-gDrw8Fzt1AcznlTMr6knnhWs=/540x/smart/9ce7820977d0459e899eb5724417e35b/ccmcms-jdn/39527861.png" media="(max-width: 480px)" /><img src="https://img-0.journaldunet.com/apQ2a39e1NleNIuEv3GE1_qVEWo=/1500x/smart/9ce7820977d0459e899eb5724417e35b/ccmcms-jdn/39527861.png" alt="Isentroniq lève 7,5 millions d'euros pour industrialiser les ordinateurs quantiques" width="1500" height="999" /></picture></a> La start-up parisienne développe une technologie de câblage supraconducteur. Une innovation qui pourrait permettre de multiplier le nombre de qubits utiles dans un ordinateur quantique.</p><p>L'<a href="https://www.journaldunet.com/informatique-quantique/" title="Informatique quantique">informatique quantique</a> promet des avancées majeures dans la santé, l'intelligence artificielle ou encore la modélisation moléculaire. Mais encore faut-il disposer d'ordinateurs quantiques capables de fonctionner efficacement… et de tenir dans des infrastructures classiques. Pour rendre cette technologie réellement industrialisable, la start-up parisienne Isentroniq a mis au point une solution de câblage supraconducteur. L'entreprise annonce ce mardi 14 octobre une levée de 7,5 millions d'euros comprenant une partie de financement non dilutif. Le tour est mené par Heartcore Capital, avec la participation d'OVNI Capital, iXcore, Kima Ventures, Better Angle, Epsilon VC et de France 2030 via la BPI et l'ANR. </p><h2>Des câbles jusqu'à 1 000 fois plus efficient</h2><p>Par nature quand on parle de calcul quantique, les qubits sont extrêmement fragiles et sujets aux erreurs. "Il en faut des milliers pour encoder un seul qubit logique et fiable", précise Paul Magnard, CEO et co-fondateur d'Isentroniq. Conséquence, pour réaliser des calculs utiles dans des domaines comme la simulation moléculaire ou l'optimisation logistique, les machines doivent passer de quelques centaines de qubits aujourd'hui à plusieurs millions demain. Sans cette masse critique, les ordinateurs quantiques resteraient cantonnés aux preuves de concept et seraient incapables de rivaliser avec les supercalculateurs classiques. Or, parmi les cinq plateformes pour construire un ordinateur quantique, l'approche utilisant des circuits supraconducteurs s'impose comme la plus mature. Mais la technologie supraconductrice impose une contrainte majeure : maintenir les puces à une température de 10 millikelvins (-273 degrés environ) à l'aide d'appareils appelés cryostats.</p><p>Ce besoin en refroidissement extrême pose problème. Dans un ordinateur quantique supraconducteur, chaque qubit nécessite environ quatre câbles pour être contrôlé depuis l'extérieur du cryostat. Les câbles, qui relient les instruments aux puces ultra-froides, constituent le véritable goulet d'étranglement du système. "La chaleur est à 100% générée par les câbles", explique Paul Magnard. Pour passer au million de qubits nécessaire, l'infrastructure cryogénique deviendrait pharaonique. "On se retrouve avec une machine qui fait la taille de dix stades de foot, qui coûte des dizaines de milliards de dollars et qui a une consommation énergétique complètement dingue, de l'ordre d'un gigawatt", résume le physicien. </p><p>La solution développée par la start-up parisienne s'attaque précisément à ce blocage. Elle a développé une technologie de câblage capable d'apporter "mille fois moins de chaleur" que les câbles conventionnels. Si la composition exacte reste secrète jusqu'aux premiers démonstrateurs prévus début 2026, la technologie pourrait ramener le coût d'un système d'un million de qubits à environ 50 millions d'euros. Le tout en lui permettant de tenir dans un bâtiment de la taille d'un datacenter.</p><h2>Une commercialisation dès 2026</h2><p>Isentroniq vise une commercialisation dès 2026. La start-up conçoit les câbles, mais délèguera la fabrication à des partenaires industriels spécialisés. "On peut utiliser toute la maturité technologique que ces fabricants ont, sans avoir à investir dans des machines", explique Théodore Amar, cofondateur et COO. Et les clients cibles sont déjà identifiés. Google, IBM, Amazon côté américain, mais aussi les champions européens comme Alice &amp; Bob, IQM ou Rigetti. "Ils ont déjà fait leur POC et maintenant veulent réussir à augmenter le nombre de qubits considérablement", analyse Paul Magnard. La start-up a pris contact avec certains de ces acteurs pour "vérifier leurs besoins."</p><p>Les 7,5 millions récoltés jusqu'à présent serviront à financer l'infrastructure de test quantique (installée sur l'iX Campus de Saint-Germain-en-Laye) et à constituer une équipe d'ingénieurs de haut niveau. Isentroniq prévoit notamment d'ouvrir quatre postes supplémentaires dans l'année (ingénieurs mécanique, quantique, radiofréquence et software). Les recrutements, toujours en cours devraient porter l'équipe à 8 personnes en janvier 2026.</p>]]></description>
      <link>https://www.journaldunet.com/web-tech/1545177-isentroniq-leve-7-5-millions-d-euros-pour-industrialiser-les-ordinateurs-quantiques/</link>
      <guid>https://www.journaldunet.com/web-tech/1545177-isentroniq-leve-7-5-millions-d-euros-pour-industrialiser-les-ordinateurs-quantiques/</guid>
      <pubDate>Tue, 14 Oct 2025 06:00:00 +0200</pubDate>
    </item>
    <item>
      <title><![CDATA[Les réseaux télécoms seront dotés d'un vrai sixième sens : comment la détection 6G va transformer nos vies ?]]></title>
      <description><![CDATA[<p class="app_entry_lead">Dans le transport, la logistique, la santé, la sécurité ou la gestion de l'environnement des applications concrètes et multiples.</p><p>La technologie des réseaux continue d'évoluer et dépasse largement la simple connectivité. Les concepteurs des fonctionnalités des futures normes 6G ont réalisé une avancée majeure : le réseau sensible au monde physique environnant.</p><p>Il est vrai que le concept de détection n'est pas nouveau. Il existe depuis le début du 20e siècle. Les premiers systèmes de sonar et de radar ont été mis au point pour détecter des avions et des navires en approche. Ils font partie des premières technologies qui ont rendu visible ce qui était invisible. En dépit de leur puissance, ces systèmes ont leurs limites. Leur déploiement est extrêmement coûteux. Ils exigent une infrastructure autonome et sont largement inaccessibles en dehors des domaines militaires, aéronautiques ou météorologiques.</p><p>Aujourd'hui, nous sommes à l'aube d'une remarquable transformation. Alors qu'elle a toujours exigé des équipements dédiés et des instruments spécialisés, la détection physique est sur le point de devenir radicalement plus accessible, évolutive et intelligente. Grâce aux progrès de la technologie sans fil, de l'intelligence artificielle et du traitement des signaux, la prochaine génération de réseaux mobiles deviendra un vecteur de détection, capable de percevoir le monde physique en temps réel.</p><p>Comme si les réseaux allaient acquérir un sixième sens. Plus qu'une métaphore, c'est une réalité technique et commerciale qui se profile à l'horizon, supportée par le passage de la 5G à l'ère de la 6G.</p><h2>Des réseaux dotés de véritables fonctionnalités de détection</h2><p>Traditionnellement, un réseau de télécommunication est conçu pour transporter des signaux voix et données. Mais avec l'avènement de chaque génération technologique, les réseaux progressent en intelligence et offrent des niveaux d'intégration plus avancés avec le monde qui les entoure. La 5G constitue une étape clé, car elle a apporté une latence ultra-faible, des capacités spectaculaires et des niveaux de fiabilité à toute épreuve. Ces progrès ont posé les bases nécessaires à des fonctionnalités plus avancées, telles que la détection intégrée.</p><p>La détection en réseau utilise le même type de signal radio que ceux utilisés pour transmettre et recevoir des données. Les signaux émis rebondissent sur les objets présents dans l'environnement local, tels que les personnes, les véhicules, les surfaces dures ou même les conditions météorologiques. Les signaux ainsi réfléchis peuvent être captés par un réseau doté de fonctionnalités de détection. Il est aussi capable d'interpréter les données qu'ils contiennent, indiquant notamment la taille, la forme ou la direction du déplacement des objets détectés. La technologie actuelle, combinant les bons algorithmes et une puissance de calcul suffisante, permet d'extraire de ces signaux une foule de données et de les exploiter.</p><p>De plus, le passage de la connectivité de base à la détection intelligente est largement favorisé par les nouveaux modèles d'intelligence artificielle, l'apprentissage automatique et le traitement avancé des signaux. La combinaison de ces technologies permet aux réseaux de traiter d'énormes volumes de données en temps réel. Les réseaux ont ainsi acquis une capacité d'identification des formes qui bénéficie d'un niveau de précision et de nuance inimaginable il y a seulement quelques années.</p><h2>Une meilleure perception de notre environnement direct</h2><p>Cette transformation s'appuie sur un ensemble de protocoles technologiques connus sous le nom de Détection et communication intégrée (Joint Communication and Sensing – JCAS). La JCAS est un principe sous-jacent aux futures normes de la 6G. Son objectif est de faire de la détection en réseau une caractéristique essentielle capable de créer de nouveaux domaines de développement et d'utilisation.</p><p>Grâce à un réseau dense de sites cellulaires radio, il sera possible de cartographier dynamiquement une version numérique du monde physique actualisée en temps réel. Avec la progression des réseaux et la généralisation des bandes de fréquences mmWave et sub-terahertz, la résolution des « images » soit des cartes numériques, pourra bénéficier d'une amélioration considérable. Plus les bandes passantes s'élargissent, plus la finesse des détails s'améliore. Les images des objets physiques détectés deviennent alors plus claires et précises.</p><p>Cette progression n'est pas théorique. Dans le cadre du <a href="https://www.nokia.com/newsroom/nokia-to-lead-komsens-6g-integrating-sensing-into-the-communications-system/">Consortium KOMSENS-6G</a> en Allemagne, des essais ont donné des résultats positifs dans des environnements industriels, avec la participation d'entreprises réputées comme Bosch. Des initiatives de ce type jouent un rôle essentiel, car elles explorent et identifient des solutions pour normaliser et adapter les fonctions de détection nécessaires à l'ère de la 6G.</p><h2>Les réseaux de détection, de multiples opportunités de marché </h2><p>Mais quelles pourraient être les applications d'un réseau de détection ? Elles sont en fait très nombreuses et peuvent répondre à des besoins très concrets dans divers marchés verticaux.</p><p>Dans le domaine de la mobilité connectée, les réseaux pourraient détecter les véhicules, les piétons et autres dangers. Les signaux pourraient élargir la visibilité au-delà des virages ou dans des conditions de mauvaise visibilité. La détection permet alors de renforcer la sécurité routière aux intersections, d'améliorer la réactivité de la gestion du trafic et potentiellement de soutenir la conduite autonome.</p><p>Les réseaux de détection offrent également un fort potentiel d'amélioration de la sécurité publique. Pour certaines applications, comme le contrôle des foules, ou la gestion des événements importants, la détection peut servir à reconnaître la forme des groupes, des modèles de mouvements inhabituels, voire des intrusions physiques dans des zones restreintes. Elle pourrait apporter des informations plus rapides et mieux informées pour répondre à des situations d'urgence. En outre, elle constitue une alternative très intéressante à la vidéosurveillance lors des manifestations publiques. En particulier lorsque la technologie de reconnaissance faciale a suscité des inquiétudes en matière de respect de la vie privée.</p><p>La détection peut aussi renforcer la sécurité dans les contextes industriels qui utilisent de plus en plus des solutions d'automatisation. Les machines et les robots deviendraient sensibles à la présence soudaine des personnes et pourraient automatiquement interrompre des processus dangereux sans nécessiter de capteurs ou de caméras supplémentaires. Il serait alors possible de détecter la présence d'une personne dans un atelier ou des outils mal placés avec une précision de l'ordre du millimètre.</p><p>Dans d'autres domaines, comme la santé, les avantages potentiels sont très nombreux. Par exemple, il deviendrait possible de surveiller le rythme respiratoire d'un patient ou sa mobilité, sans fixer de capteurs sur son corps. De tels potentiels ouvrent des perspectives considérables pour la télémédecine, les soins aux personnes âgées et le suivi clinique, en particulier dans les environnements où la protection de la vie privée est primordiale. L'Institut Fraunhofer Heinrich Hertz et l'hôpital universitaire de la Charité à Berlin ont lancé un projet conjoint pour <a href="https://www.nokia.com/newsroom/nokia-fraunhofer-hhi-and-charite-to-collaborate-on-wireless-sensing-solutions-for-healthcare/">tester la détection en réseau sans fil des signes vitaux des patients</a>. Ce cas d'utilisation est un excellent aperçu des capacités de cette technologie dans un contexte clinique.</p><h2>Dans le transport, la logistique, la santé, la sécurité et la gestion de l'environnement</h2><p>D'un point de vue commercial, la détection en réseau représente un changement de paradigme. Il ne s'agit pas simplement d'une fonctionnalité ajoutée, mais de créer une plateforme de services capables de répondre aux besoins de plusieurs secteurs d'activité. Les opérateurs télécoms peuvent offrir des services d'information basés sur la détection, ouvrant ainsi des sources de revenus dans des secteurs tels que le transport, la logistique, la sécurité et la gestion de l'environnement.</p><p>Par exemple, les gestionnaires de la circulation urbaine pourraient exploiter des informations en temps réel fournies par des services de réseau par abonnement pour optimiser la synchronisation des feux de circulation. Les entreprises de logistique portuaire pourraient surveiller les mouvements des conteneurs sans dépendre de dispositifs de suivi physiques. Les agences environnementales pourraient utiliser les données du réseau pour surveiller la pollution ou les mouvements de la faune dans des zones reculées.</p><p>Il est important de préciser que de tels avantages nécessitent une infrastructure de réseau standard, complétée par des logiciels et des analyses de données. Il suffit d'exploiter le potentiel de détection du réseau lui-même, sans installer des capteurs supplémentaires. Cette facilité réduit considérablement les barrières d'accès pour les opérateurs télécoms. Ils pourront créer des offres de services réellement différenciées face à la prolifération des jumeaux numériques.</p><h2>Des réseaux sensibles à l’environnement, un vrai 6ème sens</h2><p>La prochaine génération de réseaux mobiles ne se limitera pas à l'accélération des débits et à la réduction des latences. Elle deviendra sensible à son environnement. Les réseaux sauront ce qui se passe autour d'eux et nous donneront des informations pour agir en conséquence.</p><p>En intégrant la détection native dans la 6G, nous créons une plateforme de réseau qui ne se contente pas de nous connecter au monde, mais qui nous aident à le comprendre et à le façonner. Les opérateurs télécoms bénéficient du potentiel de nouveaux services et de nouvelles sources de revenus. Les industries verticales semblent prêtes à tirer parti d'une multitude de nouvelles fonctionnalités pour développer des cas d'utilisation de pointe.</p><p>Dans la culture populaire, le sixième sens est souvent présenté comme un superpouvoir caché, qui confère à son détenteur des niveaux d'intuition extraordinaires. À mesure que notre infrastructure évolue, chacun d'entre nous pourrait bientôt bénéficier d'une perception nettement accrue. Mais ces capacités n'auront rien de surnaturel, car ce sont nos réseaux qui nous montreront la voie.</p>]]></description>
      <link>https://www.journaldunet.com/ebusiness/telecoms-fai/1545037-les-reseaux-telecoms-seront-dotes-d-un-vrai-sixieme-sens-comment-la-detection-6g-va-transformer-nos-vies/</link>
      <guid>https://www.journaldunet.com/ebusiness/telecoms-fai/1545037-les-reseaux-telecoms-seront-dotes-d-un-vrai-sixieme-sens-comment-la-detection-6g-va-transformer-nos-vies/</guid>
      <pubDate>Wed, 08 Oct 2025 10:58:00 +0200</pubDate>
    </item>
    <item>
      <title><![CDATA[Les télécoms, un levier stratégique pour renforcer notre souveraineté numérique]]></title>
      <description><![CDATA[<p class="app_entry_lead">Le déploiement d'infrastructures télécoms robustes constitue bien plus qu'un défi technologique : il représente un élément essentiel de notre compétitivité économique et de notre indépendance.</p><p>Le nécessaire déploiement d’infrastructures télécoms robustes constitue bien plus qu’un défi technologique : il représente un élément essentiel de notre compétitivité économique et de notre indépendance. En effet, chaque jour, la connectivité (fibre, Wi-Fi, 5G etc.) façonne la manière dont nous produisons, travaillons, consommons et interagissons. Or, dans un contexte de dépendance croissante aux géants extra-européens, la souveraineté numérique s’impose comme un impératif national et européen.</p><p>Aucune transformation numérique n’est possible sans réseaux performants et sécurisés. Les infrastructures télécoms en sont l’un des piliers fondamentaux. Elles permettent notamment le déploiement de la robotique dans l’industrie, la généralisation de l’IA, le développement des services cloud en entreprise ainsi que la digitalisation des services publics. Elles conditionnent par là même occasion la compétitivité de nos entreprises, la vitalité de nos startups et notre confort au quotidien.  </p><p>Les crises récentes l’ont montré : la continuité économique et sociale repose sur la robustesse des réseaux. Télétravail, télémédecine, enseignement à distance, transactions bancaires en ligne… autant de pratiques aujourd’hui devenues incontournables.</p><ul><li>Vers un renforcement de notre souveraineté numérique</li>
</ul><p>Parler de souveraineté numérique, c’est parler de notre capacité collective à maîtriser les infrastructures, les technologies et les données essentielles à notre économie et à notre sécurité. Le risque d’une dépendance excessive à des acteurs non européens n’est pas théorique. Il expose nos entreprises et nos administrations à des décisions étrangères, à des vulnérabilités dans les chaînes d’approvisionnement, et à une perte de contrôle sur des données sensibles.</p><p>Dans un monde marqué par des tensions géopolitiques croissantes, la maîtrise des télécoms représente ainsi un enjeu clé de notre autonomie stratégique et l’Europe a un rôle primordial en la matière. Prenons les exemples des États-Unis et la Chine qui investissent massivement dans leurs infrastructures et leurs technologies tout en étant soutenus par des politiques industrielles offensives, favorisant notamment les acteurs locaux dans la commande publique.</p><ul><li>Investir et innover pour préserver l’indépendance européenne</li>
</ul><p>Le rapport Draghi publié en septembre 2024 a marqué un tournant : préserver la souveraineté numérique passe donc par une mobilisation de tous : pouvoirs publics, acteurs industriels et investisseurs. Plusieurs initiatives européennes illustrent cette dynamique, comme France 2030 qui consacre près de 1,7 milliard d’euros pour soutenir les technologies numériques stratégiques (cloud, cybersécurité, IA, 6G) ou encore l’European Chips Act, avec 43 milliards d’euros d’investissements publics et privés pour sécuriser la production de semi-conducteurs, essentiels aux infrastructures télécoms. Cependant, pour être crédibles, elles doivent s’accompagner d’investissements massifs et durables dans la recherche, le développement et le déploiement des infrastructures de nouvelle génération.</p><p>Il ne s’agit pas seulement de rattraper un retard technologique, l’Europe doit affirmer une vision numérique claire : ouverte, sécurisée, démocratique et souveraine. Cela passe notamment par un investissement massif dans les télécoms, la facilitation de la consolidation du secteur pour justement faciliter et rendre plus efficace cet investissement et enfin la révision des règles de concurrence.</p><ul><li>Le rôle des acteurs industriels français</li>
</ul><p>La France dispose d’entreprises capables de jouer un rôle moteur dans cette ambition. Spécialisées dans le déploiement d’infrastructures télécoms, elles conjuguent expertise technologique, ancrage territorial et capacité d’innovation. Leur action concrète, qu’il s’agisse du déploiement de réseaux à très haut débit dans les territoires, de projets 5G industriels ou de solutions renforçant la cybersécurité, contribue directement à renforcer notre souveraineté.</p><p>La souveraineté numérique ne peut se bâtir qu’à travers une coopération étroite entre l’État, l’Union européenne et les acteurs industriels. Elle exige des choix stratégiques clairs, des financements ambitieux afin de renforcer la compétitivité européenne face à d’autres grandes puissances technologiques.</p><p>Les dix dernières années ont montré un arrêt de la désindustrialisation et une timide reprise des implantations de sites industriels. Pour confirmer cette reprise, la capacité des pouvoirs publics à donner un cadre stable pour les prochaines années est décisif afin de favoriser l’investissement dans le tissu industriel et in fine, la souveraineté.</p><p>Si nous voulons que la France et l’Europe demeurent des puissances économiques et technologiques, nous devons faire des télécoms non seulement un levier de compétitivité, mais aussi un élément clé de notre indépendance numérique. La souveraineté n’est pas une option elle doit devenir le pilier d’un véritable projet industriel et technologique européen.</p>]]></description>
      <link>https://www.journaldunet.com/ebusiness/telecoms-fai/1545061-les-telecoms-un-levier-strategique-pour-renforcer-notre-souverainete-numerique/</link>
      <guid>https://www.journaldunet.com/ebusiness/telecoms-fai/1545061-les-telecoms-un-levier-strategique-pour-renforcer-notre-souverainete-numerique/</guid>
      <pubDate>Wed, 08 Oct 2025 10:55:00 +0200</pubDate>
    </item>
    <item>
      <title><![CDATA[Le pouvoir de transformation de la plateforme NaaS]]></title>
      <description><![CDATA[<p class="app_entry_lead">Le NaaS pour Network-as-a-Service rend le réseau agile, flexible et sécurisé. Il remplace les infrastructures rigides par des services cloud à la demande, réduisant coûts et complexité.</p><p>A une époque où <a href="https://www.gartner.com/en/documents/4006716" target="_blank">la transformation numérique s'accélère</a> et <a href="https://www.gartner.com/en/human-resources/insights/managing-hybrid-workforce" target="_blank">où le travail hybride devient la norme</a>, les entreprises repense leur infrastructure informatique afin de s'adapter en permanence à un environnement en constante évolution. Au cœur de cette transformation, un facteur déterminant émerge : le Network-as-a-Service (NaaS), véritable catalyseur de changement. Tout comme <a href="https://inform.tmforum.org/research-and-analysis/reports/how-software-as-a-service-is-reshaping-business-support-systems" target="_blank">le modèle Software-as-a-Service (SaaS) a remodelé la distribution des logiciels</a>, le <a href="https://www.networkcomputing.com/network-management/how-naas-is-reshaping-enterprise-connectivity" target="_blank">Network-as-a-Service (NaaS) redéfinit</a> la façon dont les entreprises conçoivent, déploient, administrent et adaptent leurs infrastructures réseau.</p><h2>Vers un réseau à la demande, agile et sécurisé</h2><p>Avec le NaaS, le réseau s’affranchit des architectures fixes et des configurations complexes, offrant une agilité accrue. Les entreprises profitent désormais de services réseau à la demande, à la fois évolutifs, flexibles et sécurisés. Ce tournant stratégique consacre l’abandon progressif des infrastructures traditionnelles, souvent rigides et coûteuses, au bénéfice d’environnements agiles, dynamiques et pilotés par logiciel.</p><p>Dans un contexte où les entreprises cherchent à moderniser leurs opérations et à renforcer leur compétitivité, le modèle NaaS s’impose comme une solution innovante et transformatrice. En remplaçant les infrastructures réseau traditionnelles, centrées sur le matériel, par des architectures définies par logiciel et proposées sous forme d’abonnement, le NaaS simplifie le déploiement, réduit les investissements initiaux et libère les équipes informatiques des tâches de maintenance courante, leur permettant ainsi de se concentrer sur des initiatives à plus forte valeur ajoutée.</p><h2>Une évolution naturelle vers le tout logiciel</h2><p><a href="https://digitalisationworld.com/blog/58212/why-naas-is-set-to-change-networking" target="_blank">L'évolution du NaaS est étroitement liée au passage de réseaux basés sur le matériel à des solutions définies par logiciel</a>. Ce changement rend possible la fourniture de nombreux services réseau – pare-feux, SASE (Secure Access Service Edge), etc. – via un modèle <a href="https://www.journaldunet.com/cloud/" title="Cloud computing">cloud</a>, à la demande. Par conséquent, les entreprises peuvent désormais accéder aux capacités de réseau dont elles ont besoin sans avoir à gérer l'infrastructure sous-jacente.</p><p><a href="https://www.pipelinepub.com/network-evolution-2024/benefits-of-NaaS-for-enterprises" target="_blank">Les avantages du NaaS sont multiples</a> : simplification des processus IT, automatisation de la gestion réseau, fonctionnalités de sécurité avancées, tout en tirant parti de la rentabilité et de l'évolutivité d'un modèle basé sur l'abonnement. Ce passage des dépenses d'investissement (CapEx) aux dépenses opérationnelles (OpEx) permet aux entreprises de mieux gérer leurs budgets et d'allouer leurs ressources de manière plus stratégique. La capacité à solliciter différentes options d'accès à la demande optimise les performances du réseau, renforce sa résilience ainsi que la reprise après sinistre, tout en favorisant une conformité accrue.</p><h2>Une agilité essentielle dans un monde en perpétuelle évolution</h2><p><a href="https://my.idc.com/mea/events/72621-reimagining-connectivity-the-future-of-enterprise-networks-with-naas" target="_blank">Le NaaS façonne l'avenir des réseaux</a> en permettant aux entreprises de s'adapter rapidement à l'évolution de leurs besoins. Son évolutivité et sa flexibilité permettent aux organisations d'ajuster leurs services réseau en fonction de leurs besoins, sans avoir à gérer l'infrastructure sous-jacente. Cette agilité constitue un atout majeur dans un environnement commercial en constante évolution, où la réactivité face aux fluctuations du marché et aux innovations technologiques est essentielle pour conserver un avantage concurrentiel.</p><p>Toutefois, la transition vers le modèle NaaS soulève plusieurs enjeux importants. Parmi eux figurent les risques de sécurité liés à l’utilisation de ressources partagées, la dépendance accrue vis-à-vis des fournisseurs pour assurer la performance et la disponibilité du réseau, ainsi que l’exigence d’une connectivité Internet stable et fiable. Ces éléments doivent être évalués avec attention avant toute adoption. L'abandon des datacenters traditionnels et la dépendance à l'égard du matériel de réseau peuvent également constituer des obstacles pour certaines entreprises.</p><h2>Une tendance de fond pour l’avenir du cloud et des réseaux</h2><p>Malgré ces défis, la croissance du marché NaaS est incontestable. Alors que les entreprises s'efforcent de rationaliser leurs opérations, à réduire leurs coûts et à améliorer leur agilité, cette solution réseau basée sur le cloud séduit de plus en plus.</p><p>Le NaaS ne se contente pas de transformer la manière dont les entreprises conçoivent et gèrent leurs réseaux ; il impacte également en profondeur les stratégies cloud et l'ensemble de l'écosystème technologique. Le Network-as-a-Service représente une rupture majeure pour les entreprises. En proposant une solution réseau simplifiée, économique et évolutive, il leur permet de faire face aux défis d'un monde numérique en constante évolution. Grâce à l'automatisation, à la virtualisation et à l'intelligence artificielle, le NaaS permet aux entreprises de se concentrer sur leurs priorités tout en s'adaptant aisément aux exigences changeantes de l'ère numérique. Alors que le marché du NaaS poursuit sa croissance, il est évident que cette technologie révolutionnaire occupera une place centrale dans l'avenir des réseaux d'entreprise et des stratégies cloud.</p>]]></description>
      <link>https://www.journaldunet.com/ebusiness/telecoms-fai/1545035-le-pouvoir-de-transformation-de-la-plateforme-network-as-a-service-naas/</link>
      <guid>https://www.journaldunet.com/ebusiness/telecoms-fai/1545035-le-pouvoir-de-transformation-de-la-plateforme-network-as-a-service-naas/</guid>
      <pubDate>Wed, 08 Oct 2025 10:52:00 +0200</pubDate>
    </item>
    <item>
      <title><![CDATA[Cette fois, l'ordinateur quantique frappe vraiment à notre porte]]></title>
      <description><![CDATA[<p class="app_entry_lead"><a title=" © JDN / Dall-E" href="https://img-0.journaldunet.com/sgn4jzzKJz7Spu-Zk3tZqBK7raY=/1500x/smart/55c111db0b824cfd8ae7f2a444165c2e/ccmcms-jdn/39527586.png" class="fancy"><picture><source srcset="https://img-0.journaldunet.com/-zvUWhrWwcuXhE4-Ffu_JgEzsIc=/540x/smart/55c111db0b824cfd8ae7f2a444165c2e/ccmcms-jdn/39527586.png" media="(max-width: 480px)" /><img src="https://img-0.journaldunet.com/sgn4jzzKJz7Spu-Zk3tZqBK7raY=/1500x/smart/55c111db0b824cfd8ae7f2a444165c2e/ccmcms-jdn/39527586.png" alt="Cette fois, l'ordinateur quantique frappe vraiment à notre porte" width="1500" height="1000" /></picture></a> Plusieurs avancées récentes montrent que cette technologie a aujourd'hui atteint un stade de maturité qui permet d'envisager des usages très concrets au cours des prochaines années.</p><p>Gordon Gekko en rêvait, IBM l'a fait. En mettant fin septembre son ordinateur quantique au service de la banque HSBC, le géant de l'informatique a permis à celle-ci d'obtenir des prédictions 34% plus précises pour ses traders sur l'évolution des bons du Trésor. Une performance notamment due au fait que la machine d'IBM est parvenue à identifier des motifs cachés parmi les millions de données de marché étudiées, qui échappaient aux ordinateurs classiques et lui ont permis d'acquérir ce surcroît de précision dans ses prédictions. S'il n'a pas été plus rapide qu'un ordinateur normal, le processeur quantique a donc produit un calcul de meilleure qualité.</p><p>Pour IBM, le fait d'être parvenu à démontrer un cas d'usage concret susceptible d'apporter de la valeur aux entreprises est un gros plus en faveur de sa stratégie quantique en tant que service, qui vise à permettre aux clients d'accéder à la puissance de ses machines quantiques via le cloud.</p><p>L'autre aspect intéressant de cette annonce est que le <a href="https://www.lemagit.fr/actualites/252521449/Ces-startups-qui-mettent-fin-au-bruit-quantique" target="_blank">bruit quantique</a> — c'est-à-dire la défaillance des qubits qui rend les machines quantiques promptes aux erreurs et est généralement considérée comme un fort obstacle à leur développement — a ici joué en la faveur des chercheurs d'IBM, en les aidant à identifier les motifs cachés parmi les données financières étudiées.</p><p>Si l'<a href="https://www.journaldunet.com/informatique-quantique/" title="Informatique quantique">informatique quantique</a> est une technologie complexe, qui nécessite encore un long développement avant d'arriver à maturité, cette annonce prouve que la technologie est désormais suffisamment mûre pour apporter de la valeur aux entreprises. Ce que confirme Xavier Vasques, directeur de la R&amp;D d'IBM France. "Notre pari, c'est qu'en 2029, nous aurons la commercialisation de machines quantiques tolérantes aux pannes, qui pourront être utilisées par les entreprises pour débloquer un certain nombre de cas d'usage."</p><p>Des chercheurs de l'université d'Austin, au Texas, viennent de leur côté d'affirmer avoir atteint la suprématie quantique, c'est-à-dire la résolution, par une machine quantique, d'un problème qui aurait été insoluble pour un ordinateur traditionnel.</p><p>Si l'annonce a un air de déjà-vu, c'est parce que Google a déjà allégué avoir réalisé cette performance fin 2019, à l'aide de son processeur Sycamore, une annonce qui a toutefois depuis été remise en question. En 2024, des chercheurs chinois ont par exemple accompli la même performance que l'ordinateur de Google avec une machine classique. Prouver la "suprématie quantique" est en effet très complexe, dans la mesure où il faut s'assurer qu'aucun algorithme classique ne pourrait résoudre la tâche assignée à l'ordinateur quantique.</p><p>C'est pourquoi certains, à l'instar d'IBM, estiment que la question de la suprématie quantique est moins importante que celle de prouver que les ordinateurs quantiques peuvent résoudre des problèmes concrets, susceptibles de débloquer de la valeur. "Plutôt que sur des calculs sans utilité pratique, nous préférons nous concentrer sur des cas d'usage avec une utilité industrielle", résume Xavier Vasques, qui affirme qu'IBM publiera les résultats d'un calcul quantique utile d'ici la fin 2026.</p><h2>La recherche fondamentale avance rapidement</h2><p>Quelle que soit la volonté de trouver des cas d'usage pratiques, l'informatique quantique demeure dépendante des avancées de la recherche fondamentale. Or, l'actualité est également riche à cet égard. Des chercheurs australiens sont ainsi parvenus à intriquer des noyaux atomiques à grande distance. Propriété très curieuse de la mécanique quantique, <a href="https://www.radiofrance.fr/franceculture/podcasts/la-methode-scientifique/intrication-quantique-un-etrange-aspect-de-la-matiere-4409536" target="_blank">l'intrication</a> — qui relie deux particules de telle sorte que leurs états deviennent interdépendants, même lorsqu'elles sont éloignées — est l'une des propriétés sur lesquelles se fonde la puissance des ordinateurs quantiques. L'expérience des chercheurs australiens ouvre la voie à des microprocesseurs quantiques utilisant la même échelle de fabrication que les puces en silicium de nos téléphones ou ordinateurs, un pas significatif vers la démocratisation de cette technologie.</p><p>Plus près de chez nous, la jeune pousse française Alice &amp; Bob, en collaboration avec l'Inria, a trouvé une nouvelle manière, plus économe et moins complexe, de préparer des états magiques. Ces états quantiques sont indispensables pour rendre un ordinateur capable d'exécuter n'importe quel algorithme, y compris ceux avec un avantage prouvé comme celui de Shor (utilisé en cryptographie) ou de Grover (pour la recherche dans des bases de données). Alice &amp; Bob, qui possède également des bureaux à Boston, est notamment connue pour son "qubit de chat", un qubit résistant aux erreurs.</p><h2>Des applications, au-delà du trading</h2><p>Toutes ces évolutions préparent donc l'arrivée imminente de machines quantiques susceptibles d'avoir un impact réel et transformateur sur plusieurs secteurs économiques. Parmi ceux-ci, citons notamment la santé, où ces machines pourraient permettre d'élaborer de nouveaux traitements. "Nous avons un partenariat en place avec Moderna, autour de l'ARN Messager, afin d'étudier comment celle-ci évolue. Mais aussi pour la découverte de nouvelles molécules", précise Xavier Vasques.</p><p>La cryptographie est un autre secteur qui risque d'être intégralement chamboulé par l'arrivée des ordinateurs quantiques. De gros efforts sont actuellement déployés pour basculer vers des algorithmes de <a href="https://www.journaldunet.com/cybersecurite/1544057-cybersecurite-a-l-ere-quantique-anticiper-aujourd-hui-ce-que-le-calcul-de-demain-va-briser/" target="_blank">cryptographie post-quantique</a>, qui seront capables à résister aux tentatives de déchiffrement des futurs ordinateurs lorsque ceux-ci seront devenus suffisamment puissants et répandus.</p><p>"Aujourd'hui, nous avons beaucoup de projets dits "quantum safe", visant à crypter à l'avance les bases de données qui ont des longévités de plus de 6, 8, 10 ans. Car si, dans 8 ans, le quantique arrive, vous pourrez craquer des bases de données générées aujourd'hui, puisque vous aurez les technologies qui permettent de le faire. Il faut donc se préparer dès maintenant", note Xavier Vasques.</p><p>Le quantique permet également de mettre en place des synergies avec d'autres technologies de pointe, comme l'IA. "On utilise l'IA pour nous aider à développer des algorithmes quantiques", confirme Xavier Vasques. "En effet, on ne peut pas simplement prendre un algorithme classique et le faire tourner sur une machine quantique. Cela ne marche pas. En revanche, l'<a href="https://www.journaldunet.com/ia-generative/" title="IA génératives">IA générative</a> nous permet d'accélérer, en disant que cette équation-là, on veut la reproduire dans un écosystème quantique. On génère ainsi automatiquement de nouveaux algorithmes."</p><p>Citons encore la logistique, où le quantique permet de résoudre des problèmes d'optimisation complexes avec de nombreux paramètres. Ou encore la chimie, où les machines quantiques peuvent être mises au service de la modélisation moléculaire, afin de développer de nouveaux matériaux.</p>]]></description>
      <link>https://www.journaldunet.com/web-tech/1545013-cette-fois-l-ordinateur-quantique-frappe-vraiment-a-notre-porte/</link>
      <guid>https://www.journaldunet.com/web-tech/1545013-cette-fois-l-ordinateur-quantique-frappe-vraiment-a-notre-porte/</guid>
      <pubDate>Mon, 06 Oct 2025 14:19:00 +0200</pubDate>
    </item>
    <item>
      <title><![CDATA[Migrations logicielles imposées : 7 questions pour reprendre la main]]></title>
      <description><![CDATA[<p class="app_entry_lead">Logiciel de trésorerie : questions clés pour évaluer une migration imposée, reprendre le contrôle face aux annonces d'éditeurs et choisir ses évolutions.</p><p>Dans l'écosystème des logiciels métier, un phénomène s'amplifie : la multiplication des annonces de migration imposée. Fin de support, nouvelle architecture, évolution tarifaire... Les motifs varient, mais la réalité reste la même pour de nombreuses entreprises : subir un changement qu'elles n'ont pas initié.</p><p>Cette situation touche particulièrement les directions financières. Les logiciels de trésorerie, ERP ou de gestion des paiements font l'objet d'annonces régulières de "modernisation" qui placent les DAF et trésoriers face à des décisions contraintes, souvent dans des délais serrés.</p><p>Ces pratiques révèlent cependant une tendance encourageante : un nombre croissant d'organisations développent des stratégies pour reprendre le contrôle de ces décisions technologiques. Plutôt que de subir passivement, elles transforment ces moments de rupture en opportunités de modernisation choisie.</p><h2>Le phénomène des migrations imposées s'intensifie</h2><p>L'observation du marché révèle une accélération des annonces de migration dans tous les secteurs : ERP, CRM, logiciels de gestion financière, solutions RH... </p><p>Pour les fonctions financières, ces annonces revêtent une dimension particulière. Un système de trésorerie ou de gestion financière constitue un outil critique dont l'interruption peut paralyser l'entreprise. Cette criticité renforce souvent le sentiment d'urgence et limite la perception des alternatives possibles.</p><p>Pour les entreprises utilisatrices, ces annonces créent souvent un sentiment d'urgence et de contrainte. Les délais annoncés sont généralement courts, les alternatives semblent limitées, et la pression commerciale forte. Cette situation génère des décisions prises dans l'urgence, souvent sous-optimales pour l'organisation.</p><p>Pourtant, une approche méthodique permet de reprendre l'initiative et certaines entreprises parviennent à transformer ces contraintes en véritables leviers de modernisation, en se donnant les moyens d'évaluer objectivement leurs options.</p><h2>Sept questions essentielles pour éclairer ses décisions</h2><p>Voici sept questions fondamentales qui permettent d'évaluer objectivement la pertinence d'une migration imposée, quelle que soit la typologie de logiciel concerné.</p><ol><li>Cette migration répond-elle à vos enjeux métier ou à la stratégie de l'éditeur ? L'évaluation objective des bénéfices annoncés par rapport aux besoins réels constitue un prérequis. Pour un système de trésorerie, cela implique de vérifier si les nouvelles fonctionnalités répondent à des besoins d'optimisation des flux, de gestion des risques ou de reporting.</li>
<li>Allez-vous conserver votre niveau de personnalisation et de flexibilité ? Les nouvelles versions privilégient souvent la standardisation au détriment des spécificités métier, ce qui peut représenter une régression fonctionnelle pour des processus financiers sophistiqués.</li>
<li>Avez-vous le choix du calendrier et pouvez-vous l'ajuster à vos contraintes internes ? Les migrations imposées suivent rarement le rythme idéal pour l'entreprise utilisatrice, particulièrement problématique pour des fonctions critiques comme la trésorerie.</li>
<li>Quel est le coût total réel de cette migration ? Au-delà des licences, les coûts d'intégration, de formation des équipes, de conduite du changement et de perte de productivité temporaire doivent être intégrés.</li>
<li>L'architecture proposée est-elle vraiment moderne et évolutive ? Une interface web ne garantit pas une architecture cloud native, et une nouvelle version peut masquer des fondations technologiques datées, particulièrement critiques pour des systèmes financiers nécessitant fiabilité et performance.</li>
<li>Vos équipes vont-elles réellement gagner en productivité et en satisfaction ? L'adhésion des utilisateurs finaux conditionne largement le succès d'une migration, d'autant plus importante que les trésoriers et contrôleurs de gestion utilisent ces outils quotidiennement.</li>
<li>Enfin, avez-vous exploré sérieusement les alternatives disponibles sur le marché ? Cette étape, souvent négligée par manque de temps, peut révéler des solutions mieux adaptées aux enjeux actuels de digitalisation des fonctions financières.</li>
</ol><h2>Transformer la contrainte en opportunité stratégique</h2><p>Les entreprises les plus agiles développent des approches structurées pour gérer ces situations. Elles ne se contentent plus de réagir aux annonces éditeurs, mais anticipent et préparent leurs réponses. Ces organisations mettent en place des veilles technologiques pour identifier les signaux précoces d'évolution et cultivent leur connaissance du marché pour disposer d'alternatives crédibles.</p><p>Dans le domaine de la trésorerie, certaines directions financières développent des stratégies de diversification technologique pour réduire leur dépendance à un éditeur unique, tandis que d'autres privilégient des architectures modulaires qui facilitent les évolutions partielles. </p><p>Les exemples les plus probants concernent des organisations qui ont su transformer une migration imposée en projet de modernisation globale. Plutôt que de subir une évolution technique, elles ont saisi l'occasion pour repenser leurs processus et leurs organisations. Cette approche nécessite un changement de perspective : au lieu de considérer la migration comme un mal nécessaire, ces entreprises l'envisagent comme une opportunité de remise à plat et sollicitent de nouveaux acteurs pour s'assurer de disposer du meilleur outil pour leur organisation.</p><p>La clé réside dans la préparation et l'anticipation. les directions financières qui réussissent ces transformations se donnent le temps d'analyser leurs besoins réels et d'évaluer les alternatives. Elles sortent de la logique de l'urgence pour retrouver une posture de choix. Cette approche génère des bénéfices qui dépassent largement le cadre technique, révélant souvent des optimisations possibles et servant de catalyseur pour l'évolution des compétences.</p><h2>Préserver l'autonomie décisionnelle</h2><p>Ces sept questions trouvent leur utilité dans tous les contextes de migration imposée, qu'il s'agisse d'un système de trésorerie, d'un ERP ou de tout autre logiciel critique. Leur application systématique permet de dépasser les réactions émotionnelles pour adopter une démarche rationnelle et retrouver une position de choix. </p><p>L'expérience montre que les organisations qui prennent le temps de se poser ces questions prennent généralement de meilleures décisions. Elles évitent les migrations précipitées qui génèrent des surcoûts et des insatisfactions durables, et identifient plus facilement les opportunités d'amélioration de leurs systèmes d'information.</p><p>Cette réflexion nécessite parfois de solliciter des regards externes. L'évaluation objective des alternatives disponibles sur le marché demande souvent l'expertise d'acteurs indépendants, capables d'apporter une vision neutre sur les options technologiques. L'enjeu dépasse la simple dimension technologique. Il s'agit de préserver la capacité de l'entreprise à choisir ses évolutions plutôt que de les subir. Face aux annonces de migration, oser questionner, comparer et explorer constitue non seulement un droit, mais une nécessité stratégique. Cette autonomie décisionnelle reste un facteur clé de compétitivité dans un environnement en évolution permanente. Les entreprises qui osent sortir de la logique du "pas le choix" découvrent souvent des alternatives plus adaptées à leurs besoins réels. Elles transforment une contrainte externe en opportunité de modernisation choisie, reprenant ainsi la main sur leur destin technologique.</p>]]></description>
      <link>https://www.journaldunet.com/solutions/dsi/1543963-migrations-logicielles-imposees-7-questions-pour-reprendre-la-main/</link>
      <guid>https://www.journaldunet.com/solutions/dsi/1543963-migrations-logicielles-imposees-7-questions-pour-reprendre-la-main/</guid>
      <pubDate>Thu, 02 Oct 2025 14:58:00 +0200</pubDate>
    </item>
    <item>
      <title><![CDATA[Réseaux invisibles : fournir un Internet plus rapide pour les clients d'un hôtel, sans compromettre l'esthétique du bâtiment]]></title>
      <description><![CDATA[<p class="app_entry_lead">Des réseaux de fibres optiques invisibles jusque dans la chambre : grâce aux solutions FTTR pour Fiber-to-the-Room, les clients d'un hôtel peuvent bénéficier d'un accès rapide et ininterrompu à Internet,</p><p>Pour attirer et fidéliser les clients, les hôtels ne sont plus seulement obligés d'offrir un service et une ambiance de qualité. Un autre élément crucial entre en scène : la connectivité. La fiabilité des réseaux et l'Internet à haut débit ont un impact direct sur la satisfaction des clients, qui s'attendent par exemple à des appels vidéo fluides et à un streaming sans interruption lors de leur séjour.</p><h2>Les nouveaux bâtiments ne sont plus les seuls à avoir besoin d'un accès rapide à Internet</h2><p>Il est plus facile de répondre à ces attentes dans les bâtiments récemment construits, où la connectivité est intégrée dès le départ. Les hôtels et les stations balnéaires plus anciens sont confrontés à certains défis lorsqu'il s'agit de mettre à niveau et d'étendre leur infrastructure réseau pour répondre aux besoins croissants en matière de bande passante. Dans les bâtiments anciens en particulier, il est souvent nécessaire de préserver l'aspect esthétique, même si l'on modernise les réseaux techniques.</p><p>Cette situation entraîne des répercussions sur les concepteurs et les fabricants de réseaux, qui doivent donner aux fournisseurs de services de proximité les moyens de fournir l'Internet à haut débit aux hôtels, tout en rendant la technologie pratiquement invisible.</p><h2>Physique et adhésifs : faire "disparaître" les câbles</h2><p>L'industrie propose diverses approches pour faire en sorte que les réseaux soient visuellement invisibles. Une des méthodes les plus innovantes consiste à utiliser des surfaces de câbles micro-structurées. Ces dernières sont conçues pour disperser la lumière entrante au lieu de la refléter, un phénomène connu sous le nom de réflexion diffuse. Ce principe permet d'éviter la formation de bords lumineux visibles, comme sur les surfaces brillantes. A la place, le câble se fond dans les murs ou les plafonds, devenant presque invisible même sous un éclairage intense.</p><p>Il est également essentiel de minimiser l'utilisation d'adhésifs, d'attaches, de conduits ou de matériaux supplémentaires susceptibles de nuire à l'esthétique d'un bâtiment. Les câbles auto-adhésifs peuvent être appliqués facilement sur presque toutes les surfaces, en décollant le support et en le pressant pour le faire tenir en place.</p><h2>Plus de performances et moins de volume</h2><p>Pour garantir des performances réseau stables et fiables, il est primordial d'éviter les pertes (appelées atténuation), qui se produisent lorsque les signaux s'affaiblissent le long du câble, ralentissant le transfert de données et dégradant la qualité de la connexion.</p><p>Pour y faire face, des solutions fibre compactes et à haute densité sont utilisées, telles que des câbles fibre insensibles à la courbure et de diamètre réduit. Ces solutions simplifient l'installation et améliorent les performances du réseau.</p><h2>Infrastructure de réseau pour les bâtiments historiques : le Wigwam Resort</h2><p>Le luxueux Wigwam Resort, situé en Arizona et datant de 1929, propose une cuisine raffinée, des piscines, des terrains de golf et un spa sur 178 hectares. Pourtant, l'infrastructure du réseau présentait des problèmes : les connexions étaient souvent interrompues à l'extérieur des chambres des clients. Cette situation venait à perturber non seulement les clients, mais aussi les activités du personnel, qu'il s'agisse des services d'enregistrement et de conciergerie ou des systèmes de surveillance.</p><p>Pour fournir une connectivité solide et fiable, l'infrastructure devait être modernisée, sans compromettre l'aspect historique qui distingue le complexe de ses concurrents.</p><h2>La FTTR surmonte les obstacles à la numérisation propres à chaque pays</h2><p>Les hôtels historiques sont confrontés à des défis similaires dans le monde entier. En France, par exemple, l’accès à un Internet de qualité est reconnu comme un droit fondamental depuis la loi pour une République numérique de 2016. L’État s’est engagé, à travers le plan France Très Haut Débit<a href="#_ftn1">[1]</a>, à garantir une couverture intégrale du territoire en très haut débit d’ici 2025. </p><p>Dans les hôtels, bien qu’il n’existe aucune obligation légale de fournir un accès à Internet, ce service est devenu un standard attendu par les clients. L’accès à Internet fait aujourd’hui partie des critères pris en compte dans le cadre du classement officiel des hôtels en France. La présence d’une connexion Wi-Fi, qu’elle soit disponible dans les espaces communs ou dans les chambres, permet aux établissements de cumuler des points dans le référentiel établi par Atout France. À partir du classement trois étoiles, la mise à disposition d’un accès Internet devient quasiment incontournable pour atteindre le nombre de points nécessaires. Ce critère reflète l’évolution des attentes des clientèles, pour qui la connectivité constitue un service de base.</p><h2>La technologie moderne rencontre l'architecture historique</h2><p>La FTTR (pour Fiber-to-the-Room) s'est avérée être la solution idéale pour le Wigwam Resort. L'installation de fibres dans chaque chambre a permis d'obtenir une couverture complète de l'ensemble de la structure. La fibre monomode a été utilisée pour une faible latence sur de longues distances, ainsi que des câbles auto-adhésifs pour une installation rapide et simple et une harmonie esthétique.</p><p>Autre avantage : la FTTR a permis de réduire les besoins en salles de serveurs. L'ensemble de la zone est désormais supporté efficacement par seulement deux racks dans l'armoire de distribution principale, ce qui simplifie la gestion du réseau et réduit les coûts d'exploitation et de maintenance. Près de cinq kilomètres de câbles ont été installés pour que l'hôtel soit prêt à répondre aux demandes croissantes en matière de bande passante.</p><h2>Une solution idéale pour les nouveaux bâtiments - avec un potentiel d'optimisation</h2><p>Le Wigwam Resort montre comment la FTTR peut être intégrée avec succès dans des structures existantes. Les rénovations doivent respecter les limites de l'infrastructure actuelle, souvent dictées par les armoires de distribution et les chemins d'acheminement existants. Heureusement, les architectures FTTR utilisent de manière optimale l'espace disponible et introduisent un minimum de câblage supplémentaire dans les passages étroits.</p><p>Cette approche est également très efficace pour les nouveaux bâtiments. Lorsque les concepteurs de réseaux sont impliqués dès le début, l'emplacement des armoires de distribution peut être optimisé. Dans la pratique, la FTTR peut réduire d'au moins 50 % le nombre d'armoires nécessaires. Un petit hôtel de 150 chambres peut n'avoir besoin que d'une armoire au lieu de deux, et un hôtel de 1 000 chambres sur 40 étages peut n'avoir besoin que de dix armoires au lieu de vingt.</p><h2>Conclusion : des clients satisfaits dans les anciens et les nouveaux bâtiments</h2><p>Qu'il s'agisse de moderniser un bâtiment existant ou d'en concevoir un nouveau, la FTTR permet aux hôteliers de fournir la connectivité et la vitesse qu'exigent les usages numériques d'aujourd'hui. La technologie répond même aux exigences esthétiques les plus strictes, ce qui prouve que les solutions à fibre optique peuvent s'adapter à tous les environnements - des hôtels traditionnels riches en patrimoine aux centres de conférence ultramodernes.</p><p><a href="#_ftnref1">[1]</a> <a href="https://www.arcep.fr/mes-demarches-et-services/collectivites/fiches-pratiques/le-plan-france-tres-haut-debit-pfthd.html">Source</a></p>]]></description>
      <link>https://www.journaldunet.com/ebusiness/telecoms-fai/1544761-reseaux-invisibles-fournir-un-internet-plus-rapide-pour-les-clients-d-un-hotel-sans-compromettre-l-esthetique-du-batiment/</link>
      <guid>https://www.journaldunet.com/ebusiness/telecoms-fai/1544761-reseaux-invisibles-fournir-un-internet-plus-rapide-pour-les-clients-d-un-hotel-sans-compromettre-l-esthetique-du-batiment/</guid>
      <pubDate>Thu, 02 Oct 2025 08:43:00 +0200</pubDate>
    </item>
    <item>
      <title><![CDATA[Elham Kashefi (NQCC) : "Lors de la conception d'un ordinateur quantique, nous pouvons d'emblée intégrer la confiance, la sécurité, la confidentialité et l'intégrité"]]></title>
      <description><![CDATA[<p class="app_entry_lead">La scientifique en chef du Centre National d'Informatique Quantique du Royaume-Uni et directrice de recherche au CNRS revient sur l'enjeu de la confiance sur le terrain de l'informatique quantique.</p><h3><em>JDN.</em> Pourquoi est-il si difficile de faire confiance aux résultats d'un ordinateur quantique ? Pourquoi sommes-nous proches de résoudre ce problème ?</h3><figure class="image c6"><img alt="" src="https://img-0.journaldunet.com/q8-i_AOVvdQfTl7DQcVuQvSyjTQ=/250x/smart/7170eafcfa8f4d6cb6a9991979f92680/ccmcms-jdn/39526896.jpg" /><figcaption data-credit="ALICE SANTINI" data-legend="Elham Kashefi est la scientifique en chef du Centre National d'Informatique Quantique du Royaume-Uni.">Elham Kashefi est la scientifique en chef du Centre National d'Informatique Quantique du Royaume-Uni. <small>© ALICE SANTINI</small></figcaption></figure><p><strong><em>Elham Kashefi.</em></strong> La puissance même de l'informatique quantique – c'est-à-dire le fait qu'elle ne soit pas simulable par un supercalculateur classique - est la raison pour laquelle la vérification des données et du bon fonctionnement de l'appareil est très compliquée. C'est paradoxal : nous poussons nos machines à un niveau où elles ne sont plus compatibles avec notre puissance classique. Par conséquent, comment savons-nous qu'elles fonctionnent correctement ? C'est une question fascinante.</p><p>La meilleure application de l'informatique quantique pourrait être les découvertes en chimie quantique, comme l'idée de Feynman - vous prenez un système complexe, vous le simulez, vous obtenez des données, mais nous n'avons aucune garantie que ces données soient correctes. C'est pourquoi la vérification de l'informatique quantique est très différente de la vérification de l'informatique classique.</p><p>Mais il y a une solution qui vient de la cybersécurité. Dans ce domaine, nous traitons également des scénarios où nous ne savons pas ce que fait l'attaquant. Tout le travail consiste alors à traiter le bruit ou la puissance de l'ordinateur quantique comme une cyberattaque. Nous utilisons des techniques de cryptage et de décryptage quantiques pour détecter si la machine fonctionne correctement ou non. Nous avons déjà démontré notre technique de vérification sur une plateforme commerciale avec une machine de 52 qubits, prouvant qu'elle fonctionne vraiment comme prévu.</p><h3>Vous avez été pionnière dans le concept de blind quantum computing. Une méthode qui consiste à utiliser un ordinateur quantique sans révéler ses données. Voyez-vous cela comme la pierre angulaire pour les futurs services cloud quantiques de confiance ?</h3><p>J'y crois totalement. Je travaille sur cette question depuis environ 20 ans. La question de la confiance dans le cloud, de l'intégrité et de l'exactitude est quelque chose qui nous concerne tous, que ce soit dans l'informatique classique ou l'informatique quantique. Historiquement, nous appliquons une couche de confiance, par le biais d'une solution purement logicielle, un système de <a href="https://fr.wikipedia.org/wiki/Chiffrement_homomorphe" target="_blank">chiffrement homomorphe</a> par exemple.</p><p>Mais dans l'informatique quantique, nous n'avons pas besoin de passer par là. Mon travail a démontré qu'au moment même de la conception de la machine quantique, nous pouvons intégrer la confiance, la sécurité, la confidentialité et l'intégrité. Comment ? Grâce à la communication quantique. Les photons sont très spéciaux. Quand un client prend ses données, les randomise et utilise des photons pour la communication, les informations arrivent déjà chiffrées sur la plateforme au niveau matériel.</p><blockquote>
<p class="c7">"Nous ne savons pas laquelle des technologies d'informatique quantique va gagner. Toutes sont encore dans la course"</p>
</blockquote><p>Cette couche matérielle en plus de la couche logicielle offre un moyen très efficace de fournir un excellent niveau de sécurité. J'ai démontré dans tous mes travaux, notamment via ma propre entreprise VeriQloud, que nous pouvons mettre ce niveau de confiance en place dès maintenant sur de très petits ordinateurs quantiques.</p><p>Le blind quantum computing transforme le photon en une clé matérielle. C'est un chiffrement où la clé secrète est un fil matériel, et ce fil matériel, en plus du logiciel qui se trouve au-dessus, donne un tout nouveau niveau de confiance. Je crois fermement qu'à terme, toutes nos plateformes d'informatique quantique pourront fournir cette sécurité. C'est une vraie valeur ajoutée. Alors que l'IA peine encore à atteindre un bon niveau de confidentialité, l'informatique quantique nous le livre par conception.</p><h3>Il existe de nombreuses technologies différentes en informatique quantique : circuits supraconducteurs, qubits à base de silicium, atomes neutres, technologies photoniques... Pensez-vous qu'une standardisation technologique sera nécessaire pour faire émerger l'informatique quantique ?</h3><p>Ce ne sera pas nécessaire. Je pense au contraire que cette diversité est une force. C'est magique que la physique de toutes ces plateformes - supraconductrice, piège à ions, photonique - soit complètement différente. Et pourtant, leur couche d'abstraction permet d'exécuter les mêmes algorithmes.</p><p>Ces différentes plateformes activent chacune différentes applications. Pour le calcul analogique, les atomes naturels peuvent être très bons. Pour un traitement rapide, le supraconducteur est pertinent. Pour une architecture hybride à base de photons et d'ions, une troisième voie se dessine avec également ses avantages.</p><p>Nous ne savons pas laquelle de ces technologies va gagner - toutes sont encore dans la course. Plus important encore, du point de vue logiciel, chacune a des caractéristiques que nous pouvons exploiter pour des applications particulières. Je suis donc partisan que toutes ces plateformes soient exploitées. Il est beaucoup trop tôt pour essayer de standardiser.</p><p>La beauté, c'est que nous pouvons construire une pile logicielle qui, au niveau supérieur, pourra s'adosser à une couche matérielle agnostique. À très haut niveau, vous pouvez écrire dans votre langage de programmation préféré sans avoir besoin de connaître tous les détails des couches basses. Pour nous qui cherchons encore où se trouve l'avantage quantique réel, avoir ces multiples pistes est très important et constitue une force.</p><h3>Si nous pensons à la confiance non seulement dans les machines mais aussi dans les institutions et la gouvernance, quels cadres éthiques ou garanties faudrait-il déployer pour accompagner la mise en œuvre de la technologie quantique ?</h3><p>Je crois que cette question de confiance dans l'écosystème quantique est très importante et nous devons nous assurer de ne pas suivre le drame de l'IA. Nous avons vu ce qui s'est passé quand l'IA a évolué entre les mains de grandes entreprises et qu'elle est devenue si sophistiquée qu'elle a fini par pécher en termes de confiance et de recherche responsable.</p><p>Le quantique est encore dans la période de l'enfance. C'est un moment où tous les acteurs académiques, les programmes nationaux, l'UE ainsi que les entreprises collaborent encore. Je peux vous donner un exemple de la façon dont nous établissons la confiance : je suis la scientifique en chef du Centre National d'Informatique Quantique au Royaume-Uni (NQCC, ndlr). Le rôle du NQCC est d'être cette autorité qui non seulement stimule la recherche et l'innovation depuis l'idée académique jusqu'à l'exploitation industrielle, mais aussi s'érige en acteur indépendant garant de la confiance dans la technologie.</p><h3><strong>Une entreprise peut-elle à elle seule garantir cette confiance dans l'informatique quantique ?</strong></h3><p>Il est très difficile de demander à une entreprise d'agir comme un acteur de confiance - chaque société prétend naturellement que sa plateforme est la meilleure. Vous avez besoin de mobiliser les gouvernements, les laboratoires nationaux et autres institutions de recherche pour garantir cette confiance.</p><p>Par exemple, nous avons acheté en tant que client gouvernemental sept matériels quantiques différents et nous effectuons maintenant nos propres validations, tests et vérifications. Des choses similaires se passent aux États-Unis avec l'Initiative de référence quantique, mais aussi au niveau de l'UE avec la création de benchmarking.</p><p>Je pense qu'à terme, ces éléments que les organismes nationaux mettent en œuvre assureront un accès sécurisé à ces plateformes. L'écosystème qui réunit les acteurs industriels, les acteurs académiques experts et les laboratoires nationaux et internationaux est le bon modèle pour assurer une confiance pérenne dans l'écosystème quantique.</p><p><em>Elham Kashefi est la scientifique en chef du Centre National d'Informatique Quantique au Royaume-Uni. Elle est aussi directrice de recherche au CNRS et co-fondatrice de la société VeriQloud. En parallèle, elle est également professeur en informatique quantique à l'Ecole de Mathématique à Université d'Édimbourg.</em></p>]]></description>
      <link>https://www.journaldunet.com/solutions/dsi/1544597-lors-de-la-conception-d-un-ordinateur-quantique-nous-pouvons-d-emblee-integrer-la-confiance-la-securite-la-confidentialite-et-l-integrite/</link>
      <guid>https://www.journaldunet.com/solutions/dsi/1544597-lors-de-la-conception-d-un-ordinateur-quantique-nous-pouvons-d-emblee-integrer-la-confiance-la-securite-la-confidentialite-et-l-integrite/</guid>
      <pubDate>Tue, 30 Sep 2025 07:22:00 +0200</pubDate>
    </item>
    <item>
      <title><![CDATA[Rentrée 2025 : l'accessibilité numérique, maillon oublié de l'école inclusive ?]]></title>
      <description><![CDATA[<p class="app_entry_lead">L'accessibilité numérique à l'école est une opportunité d'offrir à chaque élève un accès équitable à la connaissance et à la réussite.</p><p>En septembre 2024, la condamnation historique de l’État pour l’inaccessibilité de Pronote (logiciel de gestion scolaire utilisé par des millions d’élèves et d’enseignants) a ébranlé le secteur éducatif. Rendue sur la base des lois déjà en vigueur, notamment la loi handicap de 2005, cette décision a révélé l’ampleur du retard des établissements en matière d’accessibilité numérique.</p><p>Quelques mois plus tard, le 28 juin 2025, la directive européenne sur l’accessibilité numérique (European Accessibility Act) est entrée en vigueur, précisant les règles applicables dans toute l’UE, fixant des standards communs pour tous les outils numériques et renforçant contrôles et sanctions en cas de non-conformité. Depuis, toutes les écoles doivent garantir l’accessibilité de leurs outils numériques, sous peine d’amendes allant jusqu’à 50 000 euros.</p><h2>Egalité des chances : remettre chaque élève au centre</h2><p>L'accessibilité numérique n’est pas une question de conformité : elle répond à un enjeu fondamental d’égalité des chances. En France, 12 millions de personnes vivent avec un  handicap et risquent l’exclusion numérique : élève malvoyant ayant des difficultés à lire ses notes, collégien avec troubles de l’attention perturbé par des interfaces inadaptées, lycéen temporairement blessé au bras qui ne peut utiliser sa souris…</p><p>Prenons l’exemple de Pierre, un élève malvoyant de 15 ans. Il ne peut pas accéder à la version numérique de son manuel d’histoire et son logiciel de capture de lecture d’écran ne sait pas interpréter les présentations PowerPoint envoyées par son collège. C’est son camarade de classe qui doit les lui lire. En réalité, Pierre n’a pas besoin d’aide pour apprendre, il a surtout besoin d’outils accessibles. L’accessibilité numérique à l’école lui permettrait d’étudier de façon autonome et de ne plus dépendre constamment de quelqu’un d’autre.</p><h2>Facilité de mise en oeuvre : un chantier à porté de main</h2><p>Contrairement aux idées reçues, l’accessibilité n’est pas un Everest technique ou financier. Quelques bonnes pratiques – alternatives textuelles aux images, structuration des contenus, contrastes adaptés, réglage de la taille des polices – peuvent transformer rapidement l’expérience utilisateur.</p><p>Des référentiels comme le RGAA (basé sur les WCAG 2.1 AA) donnent un cadre et des solutions concrètes pour chaque type de support numérique (ENT, plateformes pédagogiques, sites web, documents, vidéos…). L’investissement, souvent limité à 5-10% du coût d’un projet ou quelques milliers d’euros par an pour la mise en conformité, reste très inférieur au coût d’éventuelles amendes et contribue à une transformation durable de l’école.</p><p>La montée en compétence du personnel est également facilitée par de nombreuses formations courtes et des guides pratiques désormais accessibles à tous. L’intégration de l’accessibilité dès la conception de chaque projet – principe dit « d’accessibilité native » – réduit drastiquement complexité et surcoût.</p><h2>L'école inclusive : un projet de société</h2><p>Face aux contrôles renforcés et à la mobilisation croissante des associations, la mise en accessibilité n’est plus optionnelle, c’est une obligation immédiate et une opportunité de repenser les fondements d’une école républicaine qui n’exclut personne. Ce défi est le catalyseur d’un projet collectif: une école numérique inclusive, qui offre à chaque élève, un accès équitable à la connaissance et à la réussite.</p><p>Ne pas prendre ce virage, c’est risquer de creuser les nouvelles inégalités et d’exposer l’école à une crise de confiance majeure. Mais y répondre, c’est engager toute la communauté éducative vers une société où la réussite scolaire repose vraiment sur le talent et l’effort, pas sur la chance d’avoir accès aux outils d’apprentissage numériques.</p><p>Rentrée 2025: réinventons une école numérique synonyme d’égalité des chances, où aucun élève n’est laissé de côté. Il faut agir dès maintenant, intégrer l’accessibilité dans chaque projet, former ceux qui conçoivent les outils et faire de l’inclusion une évidence.</p>]]></description>
      <link>https://www.journaldunet.com/web-tech/1544017-rentree-2025-l-accessibilite-numerique-maillon-oublie-de-l-ecole-inclusive/</link>
      <guid>https://www.journaldunet.com/web-tech/1544017-rentree-2025-l-accessibilite-numerique-maillon-oublie-de-l-ecole-inclusive/</guid>
      <pubDate>Tue, 23 Sep 2025 20:48:00 +0200</pubDate>
    </item>
    <item>
      <title><![CDATA[La 5G RedCap une variante rationalisée et économe en énergie de la 5G, la réponse parfaite aux nécessités spécifiques de la connectivité industrielle]]></title>
      <description><![CDATA[<p class="app_entry_lead">Pour innover et évoluer rapidement, à moindre coût, sans complexité inutile avec une consommation d'énergie réduite au minimum.</p><p>L'IA et l'automatisation transforment toute l'industrie, en stimulant l'innovation et l'efficacité dans de multiples secteurs verticaux. PwC prévoit d’ailleurs que si l'industrie manufacturière et les secteurs connexes adoptent cette transition technologique, leurs activités pourraient <a href="https://www.pwc.com/gx/en/issues/value-in-motion.html#:~:text=%2434.17%20trillion%20to%20global%20GDP">contribuer au PIB mondial à hauteur de 34,17 billions de dollars</a> d'ici 2035.</p><p>Avec cette prochaine vague d'automatisation, la connectivité devra évoluer pour répondre aux besoins spécifiques des processus émergents. Même si la technologie 5G a transformé les communications sans fil, l'ensemble de ses fonctionnalités dépasse de loin les exigences de nombreux appareils industriels connectés. Cela a favorisé une adoption très large des solutions 4G/LTE. Bien qu'elle convienne à de nombreuses applications, cette technologie héritée a révélé ses limites avec la sophistication progressive des exigences industrielles. </p><p>La 5G à Capacité Réduite, ou 5G RedCap, est une variante rationalisée et économe en énergie de la 5G, qui répond à des nécessités spécifiques importantes dans le paysage de la connectivité industrielle. Tous les appareils, nœuds ou capteurs d'un système industriel complexe ou d'une chaîne d'approvisionnement n'ont pas besoin de la gamme complète des fonctionnalités de la 5G.</p><p>En effet, grâce à son ensemble limité de fonctionnalités, la 5G RedCap constitue une base solide pour la numérisation industrielle à grande échelle. Avec la prolifération des appareils IoT intelligents dans les entreprises, elle deviendra une plateforme de connectivité qui prendra en charge d'innombrables cas d'utilisation dans les secteurs industriels verticaux. Elle supportera ainsi une logistique plus intelligente, une infrastructure urbaine plus réactive et des réseaux d'utilité publique plus résilients.</p><h2>Une connectivité parfaitement adaptée au secteur industriel</h2><p>La 5G RedCap occupe une place de choix dans la panoplie des outils de connectivité. Ses débits de données typiques, compris entre 90 et 200 Mbps, sont bien inférieurs à ceux de la 5G standard. Ce niveau de performance est déjà plus que suffisant pour de nombreuses utilisations, tout en offrant les avantages supplémentaires d'une conception plus simple, avec une réduction nette de la consommation d'énergie et des coûts.</p><p>Bien des applications, telles que le suivi des actifs, la surveillance à distance ou les véhicules à guidage automatique (VGA), n'ont pas besoin de la bande passante intense requise par les cas d'utilisation 5G les plus exigeants. Pour elles, une connectivité solide et fiable est la vraie priorité, avec une grande stabilité dans les environnements surchargés, une consommation d'énergie la plus basse possible, pour assurer des opérations à long terme en toute sécurité.</p><p>La 5G RedCap est particulièrement adaptée à divers appareils industriels, tels que caméras, compteurs intelligents, machines autonomes, dispositifs portables et capteurs. Ces appareils nécessitent généralement de bonnes performances en liaison montante, et c'est l'un des domaines dans lesquels la 5G RedCap surpasse largement les normes traditionnelles telles que LTE Cat.4. Cette capacité supérieure en liaison montante est d'autant plus précieuse pour les applications vidéo, car elle est une exigence essentielle dans tous les scénarios de surveillance et de contrôle.</p><h2>Une simplicité et une efficacité, dès sa conception</h2><p>La plus grande force de la 5G RedCap réside dans son efficacité, qui commence dès sa conception matérielle. Fondamentalement, les appareils 5G RedCap utilisent des configurations d'antennes simplifiées pour assurer le fonctionnement en bande unique uniquement, ainsi que d'autres composants radio rationalisés. Ces choix de conception minimisent les coûts et la complexité pour les fabricants. En outre, ils rendent l'intégration dans différents environnements industriels plus facile et moins coûteuse.</p><p>La consommation d'énergie est réduite au minimum grâce à des fonctions telles que la réception discontinue étendue (eDRX), qui met les appareils en état de veille profonde, et la gestion optimisée des ressources radio (RRM), qui désactive les processus consommateurs d'énergie lorsqu'ils ne sont pas activement utilisés. Ces gains prolongent considérablement l'autonomie opérationnelle des capteurs et autres appareils alimentés par batterie. Concrètement, cette amélioration peut se traduire par des années d'utilisation sans recharge ni remplacement, ce qui est particulièrement avantageux dans des endroits éloignés ou difficiles d'accès.</p><p>Il est important de noter qu'en plus de sa meilleure efficacité spectrale, la 5G RedCap est conçue pour s'adapter aux réseaux 5G SA modernes. Comme elle élimine la nécessité de la double connectivité ou de l'agrégation de porteuses, son architecture réduit la pression sur le réseau et fournit des fonctions de connectivité avancées aux appareils, selon les besoins.</p><h2>De très nombreux cas d’utilisation</h2><p>Les cas d'utilisation de la 5G RedCap sont aussi nombreux que variés. Néanmoins, la mobilité urbaine et la gestion du trafic font partie des meilleurs exemples de son potentiel de transformation. À mesure que nos villes deviennent plus intelligentes, les systèmes de circulation accèdent à de nouveaux moyens pour résoudre le problème persistant de la congestion routière. La 5G RedCap bénéficie d'un positionnement idéal pour soutenir la surveillance du trafic en direct, l'interconnexion des feux de circulation, les autoroutes intelligentes et les communications entre véhicules et réseaux.</p><p>Grâce à sa compatibilité avec des connexions vidéo, la 5G RedCap   soutient des systèmes de stationnement intelligents. Elle peut alors fournir aux autorités municipales et aux automobilistes des informations en temps réel sur la disponibilité des places de stationnement le long de leur trajet ou dans des parkings dédiés.</p><p>La 5G RedCap trouve aussi de nouvelles applications dans les domaines des transports et de la logistique. Dans les ports, les entrepôts et les centres de distribution, la 5G RedCap couvre des besoins spécifiques, tels que le suivi des ressources en temps réel, le pilotage des grues à distance et l'utilisation des véhicules autoguidés. Ces cas d'utilisation bénéficient de l'amélioration de la liaison montante et des performances vidéo de la technologie. Les avantages de la faible consommation d'énergie répondent aux exigences des capteurs ou autres instruments installés sur des éléments mobiles, tels que les conteneurs d'expédition.</p><p>Dans les secteurs de l'énergie et des services publics, les entreprises investissent massivement dans les technologies numériques afin de moderniser les infrastructures de transmission existantes. La 5G RedCap est la technologie idéale pour supporter la transition vers un réseau réellement intelligent. En connectant les compteurs, les capteurs et les systèmes de contrôle sur le terrain, les dispositifs 5G RedCap permettent d'exploiter la télémétrie en temps réel et la détection des pannes, tout en offrant une capacité opérationnelle continue pendant des années grâce à une consommation minimale. La fonctionnalité native sur les réseaux publics 5G SA actuellement en cours de commutation assurera une transition fiable et progressive à partir de l'ancien LTE. En outre, les fournisseurs de services pourront mieux gérer la transition vers une fourniture d'énergie plus durable.</p><h2>Des niveaux élevés de sécurité, d'évolutivité et de réactivité</h2><p>La 5G RedCap n'est pas une version édulcorée de la 5G. Dans la panoplie des outils de communication sans fil, elle constitue un ajout rationalisé principalement conçu pour faciliter notre avenir interconnecté et suralimenter l'industrie grâce à sa puissance et son extrême efficacité. Elle répond aux attentes des entreprises pour innover et évoluer rapidement, à moindre coût et sans complexité inutile.</p><p>Parallèlement à l'évolution des réseaux 5G et à la prolifération des nouveaux dispositifs, la 5G RedCap ouvre une voie différente : elle permet aux secteurs spécialisés de déployer une infrastructure intelligente qui dynamisera leur transformation numérique. Combinant des niveaux élevés de sécurité, d'évolutivité et de réactivité face aux exigences futures, la 5G RedCap aligne l'innovation technique sur les besoins réels des industries pour prouver à nouveau, que dans bien des cas, moins c'est plus.</p>]]></description>
      <link>https://www.journaldunet.com/ebusiness/telecoms-fai/1544231-la-5g-redcap-une-variante-rationalisee-et-econome-en-energie-de-la-5g-la-reponse-parfaite-aux-necessites-specifiques-de-la-connectivite-industrielle/</link>
      <guid>https://www.journaldunet.com/ebusiness/telecoms-fai/1544231-la-5g-redcap-une-variante-rationalisee-et-econome-en-energie-de-la-5g-la-reponse-parfaite-aux-necessites-specifiques-de-la-connectivite-industrielle/</guid>
      <pubDate>Tue, 23 Sep 2025 18:49:00 +0200</pubDate>
    </item>
    <item>
      <title><![CDATA[Adieu la SIM physique : avec l'iPhone 17 Air l'ère " eSIM-only " commence]]></title>
      <description><![CDATA[<p class="app_entry_lead">Apple a confirmé ce que beaucoup dans l'industrie avaient anticipé : le nouvel iPhone 17 Air n'a pas de plateau de carte SIM à l'échelle mondiale</p><h2>Une technologie qui n'est pas nouvelle</h2><p>Si le changement peut sembler soudain pour certains, la technologie eSIM existe depuis des années. Apple a introduit la prise en charge des eSIM dès 2018, et les iPhones américains fonctionnent uniquement avec des eSIM depuis 2022. Ce qui est différent aujourd'hui, c'est qu'Apple déploie cette technologie à l'échelle mondiale. Il est très probable qu'elle soit suivie par d'autres fabricants et opérateurs de téléphonie mobile.</p><p>Une eSIM est une carte SIM numérique intégrée à votre téléphone. Celle-ci repose sur une norme mondiale du secteur et permet d'activer un forfait mobile sans avoir à insérer une carte physique.</p><h2>Des avantages concrets pour les utilisateurs</h2><p>Les eSIM apporteront de la flexibilité et faciliteront grandement le changement d'opérateur. Les utilisateurs pourront changer instantanément de forfait sans avoir à se rendre en magasin. Les opérateurs, quant à eux, devront se surpasser pour conserver leurs clients.</p><p>L'impact sera particulièrement majeur pour les voyages. Lorsque vous passez des frontières, les eSIM peuvent facilement se connecter aux réseaux locaux, ce qui a pour effet d'augmenter la concurrence. Les voyageurs n'ont plus besoin de chercher des cartes SIM locales dans les aéroports : ils peuvent accéder à un forfait instantanément en téléchargeant une application. C'est à la fois flexible, abordable et pratique.</p><p>Les eSIM sont également plus sûres : il n'y a pas de carte physique susceptible d'être perdue, volée ou clonée.</p><h2>Un bouleversement pour le secteur des télécommunications</h2><p>Au-delà des consommateurs, ce changement va bouleverser le mode de fonctionnement des opérateurs de télécommunications. Ceci remet en question l'ensemble du modèle de distribution des cartes SIM et poussera le secteur à évoluer. Dans un premier temps, les cartes SIM passeront des guichets aux sites Internet et aux applications.</p><p>Les eSIM vont remodeler la façon dont nous consommons la connectivité. Jusqu'à présent, les utilisateurs se procuraient un accès à Internet sur mobile en se rendant à la boutique du coin ou au kiosque de l'aéroport. Avec l'eSIM, la connectivité devient un produit numérique. Les utilisateurs téléchargeront des profils SIM depuis leur domicile, comme s'ils installaient une application. Cela remettra en question l'ensemble du système de vente au détail des opérateurs de télécommunications, les obligeant à repenser la manière dont ils vendent et fournissent leurs services mobiles.</p><h2>Des défis à anticiper</h2><p>Selon les pays, certains services sont encore liés à des cartes SIM physiques, comme les signatures électroniques basées sur la téléphonie mobile ou les anciens systèmes d'authentification. Les utilisateurs devront vérifier si ceux-ci fonctionnent sans compartiment de carte SIM.</p><p>Pour les consommateurs, quelques points sont à garder à l'esprit. L'installation des eSIM est simplifiée : elles peuvent être activées avec des QR codes, des applications de l'opérateur ou en les transférant depuis un autre appareil, le tout sans plastique. Cependant, l'activation nécessite généralement un accès à Internet : il est recommandé de télécharger votre eSIM avant d'atterrir dans le pays de destination.</p><h2>Une évolution plus large des télécoms</h2><p>Il faut s'attendre à ce que les opérateurs accélèrent la prise en charge des services numériques, en proposant éventuellement des forfaits et leur recharge basés sur des applications, au-delà du modèle traditionnel de distribution de cartes SIM.</p><p>Cette initiative d'Apple va changer la façon dont nous accédons à la connectivité : adieu aux kiosques dans les aéroports, bonjour aux téléchargements d'applications chez soi. À mesure que l'univers mobile évolue, les utilisateurs doivent s'attendre à une adoption plus rapide des services compatibles avec les eSIM et à une réduction des obstacles qui les empêchent d'accéder à Internet, quel que soit le pays où ils voyagent.</p><p>Il ne s'agit pas d'un simple lancement de produit, mais du début de l’ère mondiale de l'eSIM.</p>]]></description>
      <link>https://www.journaldunet.com/ebusiness/telecoms-fai/1544291-adieu-la-sim-physique-avec-l-iphone-17-air-l-ere-esim-only-commence/</link>
      <guid>https://www.journaldunet.com/ebusiness/telecoms-fai/1544291-adieu-la-sim-physique-avec-l-iphone-17-air-l-ere-esim-only-commence/</guid>
      <pubDate>Tue, 23 Sep 2025 18:49:00 +0200</pubDate>
    </item>
    <item>
      <title><![CDATA[Coupe du monde 2026 : le terrain de jeu réseau grandeur nature]]></title>
      <description><![CDATA[<p class="app_entry_lead">Alors que se profile la coupe du monde de football 2026, les opérateurs des infrastructures doivent déjà être en ordre de bataille pour pallier toute perturbation technique ou cybercriminelle à venir.</p><p>Les manifestations sportives ont, de tous temps, favorisé la cohésion et le rassemblement des hommes. Des arènes romaines à nos jours, elles ont « […] le pouvoir de changer le monde. [Elles ont] le pouvoir d’unir les gens d’une manière quasi-unique. » pour reprendre les mots de l’ancien président de l’Afrique du Sud et passionné de sport, Nelson Mandela. Cet engouement a depuis plusieurs décennies, largement bénéficié du perfectionnement des technologies, lesquelles ont permis de faire passer la retransmission du tube cathodique à l’internet, au-delà des frontières. Or, qui n’a pas expérimenté avec grande frustration les ralentissements des premières heures d’internet, face au nombre (trop) important de personnes connectées et subit des décalages de réception d’un but ou de l’arrivée d’une course ? Ce sont ces types de problèmes que les spécialistes réseaux s’évertuent à résoudre quotidiennement.</p><p>Les grands évènements sportifs ont, de fait, toujours été des accélérateurs d’innovation pour les réseaux mobiles. C’est pourquoi la <a href="https://www.fifa.com/fr/tournaments/mens/worldcup/canadamexicousa2026">Coupe du monde de football 2026</a>, constituera indubitablement un véritable terrain d’expérimentation grandeur nature pour les opérateurs des infrastructures de nouvelle génération. En effet, par son ampleur, ce tournoi qui se déroulera dans 16 stades en 104 rencontres, poussera les réseaux mobiles au maximum de leurs capacités. À chaque match, des dizaines de milliers de supporters génèreront de colossales quantités de données, que ce soit en consultant des statistiques sur les applications sportives ou en visionnant des vidéos en 4K. Plusieurs centaines de journalistes accrédités, membres des équipes de diffusion et autres employés connectés simultanément mettront ainsi le réseau existant à rude épreuve. En d’autres termes, la technologie sur laquelle repose cette manifestation suivie par des millions de spectateurs du monde entier ne peut en aucun cas échouer, toute perturbation majeure faisant immédiatement la une des médias.</p><p>Pour relever ce défi, les opérateurs devront donc déployer les innovations 5G les plus récentes, avec par exemple des micro-réseaux temporaires et des « tranches » de réseau. À terme, le succès sera défini par deux critères : une protection robuste contre les cybermenaces telles que les attaques par déni de service distribué (DDoS) ; une capacité suffisante pour prendre en charge un nombre élevé d’abonnés et de nouvelles applications à haut débit.</p><h2>Indicateurs de performance clés et de la modélisation de la propagation des micro-réseaux</h2><p>Afin de répondre aux besoins croissants de bande passante que suscitent des évènements de cette envergure, les opérateurs déploient des micro-réseaux privés via des unités mobiles, également connus sous l’appellation Network-on-Wheels (NoW). Ces unités regroupent l’ensemble des technologies 5G essentielles (à savoir RAN, Core, MEC et Transport) dans un format compact qui autorise un déploiement rapide et temporaire partout où cette technologie est nécessaire.</p><p>Ce mode de déploiement permet aux opérateurs de gérer la connectivité sur site. Cela présente plusieurs avantages parmi lesquels une bande passante supérieure pour les caméras installées dans des endroits inaccessibles aux équipements câblés ou un visionnement en streaming sans tampon pour les spectateurs. Cette capacité de contrôle leur donne également la possibilité de mieux surveiller certains indicateurs de performance tels que la perte de paquets de données, susceptible d’augmenter la latence, la gigue, qui est une variation de temps d'acheminement des paquets à travers un réseau et qui est parfois à l’origine de coupures de son, ou encore le débit en liaisons montantes/descendantes, notamment pour le streaming vidéo et le partage de contenus. En d’autres termes, il est essentiel de maintenir une qualité maximale pour chacun de ces éléments, dans la mesure où toute dégradation du réseau sera immédiatement remarquée et engendrait des coûts supplémentaires élevés, ainsi que du temps et des ressources.</p><h2>Nécessité d’une meilleure observabilité de bout-en-bout</h2><p>Par ailleurs, assurer le bon fonctionnement d'un réseau temporaire, requiert de tester sa robustesse bien en amont de l'événement. Pour ce faire, les équipes mettent le réseau à l'épreuve avec des simulations de forte affluence pour assurer une couverture optimale, un débit suffisant et une infrastructure résistante aux imprévus. Ainsi, une surveillance en temps réel et une visibilité de bout en bout du réseau permettront aux équipes techniques de veiller à son bon fonctionnement, avec une connexion stable et de qualité et d’identifier tout trafic inhabituel ou malveillant – à l’instar de potentielles attaques DDoS –, mais également de localiser les applications, les appareils et les utilisateurs spécifiquement à l’origine des problèmes de performance. Une telle visibilité permettra de résoudre les problèmes proactivement en empêchant qu’un dysfonctionnement mineur ne devienne une panne généralisée.</p><h2>Mesure de succès : sécurité et capacité</h2><p>Du point de vue des opérateurs, le succès sera mesuré à l’aune de deux indicateurs particulièrement importants : la protection du réseau contre les menaces DDoS et le maintien d’une capacité suffisante pour les utilisateurs.</p><p>Par son ampleur, la Coupe du monde, ainsi que les 48 pays en lice, constituent une cible de choix pour les cybercriminels, augmentant le risque d’attaques telles que les DDoS. Par le passé, des États-nations et des activistes ont perturbé cette épreuve, démontrant ainsi que les protocoles de sécurité et la détection des menaces en temps réel sont essentiels pour les organisateurs et les sponsors. Le moindre incident de sécurité peut non seulement impacter les recettes, mais également nuire à l’image de l’évènement avec des pertes d’audience potentielles à la clé. C’est pourquoi, les opérateurs mobiles doivent a minima renforcer leur système de détection et de neutralisation des attaques DDoS.</p><p>In fine, pour les opérateurs de réseaux mobiles, la Coupe du monde de football 2026 sera bien davantage qu’un évènement sportif. Cela sera un terrain d’essai sans précédent. En effet, les connaissances acquises grâce au perfectionnement des modèles de propagation en environnements haute densité, à la garantie de l’observabilité d’un bout à l’autre du réseau, en passant par renforcement de la cybersécurité joueront un rôle décisif. Ces avancées ouvriront la voie à la Coupe du monde 2030 et façonneront en profondeur les stratégies de déploiement de réseaux commerciaux résilients et hautement performants au cours des années à venir.</p>]]></description>
      <link>https://www.journaldunet.com/ebusiness/telecoms-fai/1544407-coupe-du-monde-2026-le-terrain-de-jeu-reseau-grandeur-nature/</link>
      <guid>https://www.journaldunet.com/ebusiness/telecoms-fai/1544407-coupe-du-monde-2026-le-terrain-de-jeu-reseau-grandeur-nature/</guid>
      <pubDate>Tue, 23 Sep 2025 18:48:00 +0200</pubDate>
    </item>
    <item>
      <title><![CDATA[Architecture web composable : promesse d'agilité ou complexité sous-estimée ?]]></title>
      <description><![CDATA[<p class="app_entry_lead">Les architectures composables ouvrent la voie à un web plus agile et scalable. Mais leur promesse n'est réelle que si elles s'appuient sur une stratégie produit et une gouvernance solides.</p><p>Si l’idée d’un web composable séduit par sa flexibilité et sa capacité à évoluer, la réalité est plus nuancée. Derrière la promesse d’agilité et d’expériences riches, se cache une exigence forte : cadrer le rôle du CMS dans un écosystème où il n’est plus central, mais une brique parmi d’autres, à relier et à gouverner avec méthode.</p><h2>Le CMS n’est plus le cœur</h2><p>Il y a une dizaine d’années, un CMS suffisait largement à couvrir la plupart des besoins : publier du contenu, gérer quelques formulaires, administrer un blog. Aujourd’hui, la réalité est toute autre. Les entreprises veulent un site marketing capable de dialoguer avec un extranet, de fournir des flux à une application mobile, d’intégrer un moteur e-commerce et d’échanger en temps réel avec un CRM. Dans ce contexte, le CMS n’est plus le centre de gravité du dispositif. Il devient une brique parmi d’autres, reliée à un ensemble de services via API, et sa valeur dépend de la capacité de l’écosystème global à fonctionner de manière cohérente.</p><h2>Liberté, oui… mais sous conditions</h2><p>Conçue avec méthode, une architecture composable offre des bénéfices indéniables. Elle permet d’adapter chaque composant de manière indépendante, d’évoluer sans devoir tout réécrire et de s’ouvrir naturellement à des expériences multi-canaux. C’est un levier de scalabilité et d’indépendance technologique qui peut transformer un projet. Cependant cette liberté a un coût. Plus le nombre de briques augmente, plus les points de défaillance se multiplient. Chaque intégration doit être maintenue, et les équipes doivent être alignées techniquement comme fonctionnellement. Cela suppose une gouvernance technique rigoureuse, une vision produit claire et des compétences DevOps affirmées. Sans ces fondations, l’architecture censée simplifier se transforme en contrainte.</p><h2>Le risque de la sur-ingénierie</h2><p>Le principal piège réside dans l’adoption du composable par réflexe ou par effet de mode. Trop de projets simples deviennent inutilement complexes, avec des back-offices qui se révèlent ingérables pour les équipes éditoriales et des coûts qui explosent au fil du temps. Le composable se révèle pertinent lorsqu’il s’agit d’adresser plusieurs canaux, de concevoir une expérience front-end très personnalisée ou d’accompagner une stratégie digitale sur le long terme. Mais il se révèle contre-productif dans le cas d’un site éditorial classique, sans équipe technique interne ou lorsque les contraintes de temps et de budget imposent de privilégier la simplicité.</p><h2>Enseignements tirés du terrain</h2><p>L’expérience montre que les projets réussis partagent plusieurs points communs. Ils reposent sur un cadrage technique clair dès l’amont, une cartographie précise des flux – contenus, produits, utilisateurs – et une stratégie de déploiement pensée pour durer. À l’inverse, les projets qui rencontrent des difficultés sont souvent ceux où le choix du headless n’a pas été suffisamment justifié par les besoins, où la dimension éditoriale a été sous-estimée ou encore où la dette technique côté front-end a fini par peser lourdement sur la maintenance.</p><h2>Le composable, une philosophie avant tout</h2><p>Le composable ne doit pas être perçu comme une technologie miracle, mais comme une philosophie d’architecture. Chaque brique doit être conçue comme remplaçable, interopérable et orchestrée dans une logique de cohérence globale. C’est une décision qui doit être alignée avec les besoins métiers, les ressources disponibles et l’ambition projet, pas un choix dicté par la tendance ou la volonté d’impressionner un comité. Une architecture durable n’est pas celle qui brille le jour de sa mise en ligne, mais celle qui continue à évoluer et à servir le business cinq ans plus tard.</p>]]></description>
      <link>https://www.journaldunet.com/solutions/dsi/1543847-architecture-web-composable-promesse-d-agilite-ou-complexite-sous-estimee/</link>
      <guid>https://www.journaldunet.com/solutions/dsi/1543847-architecture-web-composable-promesse-d-agilite-ou-complexite-sous-estimee/</guid>
      <pubDate>Tue, 23 Sep 2025 15:37:00 +0200</pubDate>
    </item>
    <item>
      <title><![CDATA[DSI : sortir de l'urgence pour redevenir stratège]]></title>
      <description><![CDATA[<p class="app_entry_lead">Le DSI doit jongler entre projets, sécurité et innovation dans un contexte d'urgence permanente. Des solutions existent pour le soulager, il doit s'en saisir pour plus de sérénité et d'efficacité.</p><p>Trop d’urgences, trop de demandes, trop peu de temps. Le quotidien d’un Directeur des Systèmes d’Information (DSI) ressemble souvent à une course sans ligne d’arrivée. Ses impératifs : résoudre des incidents, accompagner les équipes métiers, suivre les projets de transformation, assurer la sécurité...et, si possible continuer à innover. Le DSI est au cœur d’une véritable tempête numérique !</p><h2>DSI : de l'urgence permanente à la transformation maîtrisée</h2><p>Dans l’ombre des grandes décisions stratégiques, les DSI tiennent la barre d’un navire numérique en pleine tempête. Non sans surprise, leur charge mentale atteint aujourd’hui un niveau critique.</p><p>Selon le rapport Future Forward d’Experis (avril 2025)*, 56 % des DSI estiment que leur rôle est mal compris par la Direction Générale, alors qu’ils sont en première ligne sur tous les fronts : cybersécurité (priorité n°1 pour 77 % des organisations), transformation numérique, gestion des talents, conformité réglementaire, et désormais l’intégration de l’incontournable IA. À cela s’ajoute une pénurie de compétences : 76 % des employeurs IT peinent à recruter, notamment en cybersécurité (46 %), IA (35 %) et cloud (34 %).</p><p>Face à une transformation numérique devenue une condition de survie, le DSI est souvent pris dans un tourbillon d’urgences (gérer les incidents techniques, piloter le support utilisateurs, évaluer de nouveaux besoins, etc.). Il est ainsi contraint de jongler entre le court terme et le long terme, entre l’opérationnel et le stratégique.</p><p>Des technologies comme le SaaS, l’IA, ou le low-code/no-code, intégrées aux ERP modernes, constituent des leviers concrets pour soulager les DSI et repenser leur quotidien avec plus de clarté et d’efficacité.</p><p>Mais comment les éditeurs d’ERP peuvent-ils participer à alléger la charge mentale des DSI ?<br />En leur offrant des outils modernes, intégrant des technologies innovantes, qui facilitent l’orchestration des ressources, des outils et des priorités. C’est précisément sur ce terrain que leur rôle devient clé : en offrant des solutions concrètes, agiles et sécurisées, pensées pour alléger le quotidien et libérer du temps aux DSI.</p><p>En s’appuyant sur les bons leviers technologiques, et avec le soutien de ces partenaires, les DSI peuvent transformer la complexité en clarté, réduire la pression opérationnelle et redevenir les moteurs d’une innovation à la fois maîtrisée et durable.</p><p>Christian Dhinaut, Directeur produit en charge de l’innovation ERP et CRM chez Divalto, partage son éclairage sur les technologies clés – SaaS, IA, IoT, low-code/no-code – qui façonneront l’environnement numérique des entreprises dans la prochaine décennie. Des leviers puissants pour, in fine, soulager durablement la charge mentale des DSI et leur permettre de redevenir les stratèges de l’innovation.</p><h2>1 – Le SaaS : externaliser la complexité</h2><p>Le SaaS est aujourd’hui le catalyseur d’une IT moderne, fluide et sécurisée !</p><p>Et les DSI l’ont bien compris : les mises à jour automatiques, la scalabilité et l'accessibilité à distance permettent une gestion plus agile, évolutive et sécurisée des outils informatiques face au modèle rigide et coûteux du On-Premise.</p><p>Il n’est donc pas étonnant de voir que les solutions ERP SaaS représentent 85% des nouveaux déploiements dans le monde**.</p><p>Le SaaS offre en effet, des bénéfices sans précédent en termes de rapidité, d’agilité et de sécurité tels que :</p><h3>Réduire la maintenance technique pour gagner en agilité opérationnelle</h3><p>Déploiement et mises à jour rapides, accès à distance… La flexibilité offerte par le SaaS permet aux équipes métiers de bénéficier des nouvelles évolutions sans attendre de longs cycles d’installation ou de maintenance. En s’affranchissant d’une infrastructure lourde et coûteuse, les entreprises peuvent ainsi adapter leurs outils plus rapidement, en fonction de l’évolution de leurs besoins, et gagner en réactivité face aux défis du marché.</p><h3>Sécurité renforcée et conformité</h3><p>Hébergement protégé, sauvegardes automatiques, traçabilité… Le SaaS offre un niveau de sécurité souvent supérieur aux installations internes. Par ailleurs, les ERP en mode SaaS facilitent aussi la mise en conformité réglementaire. Les mises à jour automatiques garantissent un alignement constant avec les dernières exigences légales, sans intervention lourde du DSI. Cela permet une gestion sécurisée, conforme et allégée, qui offre aux DSI la possibilité de se concentrer sur des enjeux plus stratégiques.</p><h3>Réduire les coûts et booster la productivité</h3><p>La maîtrise budgétaire s’appuie aujourd’hui sur des modèles par abonnement qui permettent de réduire significativement les dépenses liées aux infrastructures, à la maintenance et au support. Grâce à ce mode, le DSI peut réallouer les ressources libérées vers des projets à forte valeur ajoutée. En éliminant les coûts liés aux serveurs et à la gestion interne, les équipes IT sont dégagées des tâches chronophages et peuvent se concentrer sur l’innovation.</p><h3>Innover en continu</h3><p>Grâce au SaaS, les équipes bénéficient d’un accès immédiat aux dernières fonctionnalités et mises à jour, sans délai ni interruption. Cette approche garantit une parfaite compatibilité avec les outils métiers existants, tout en facilitant l’intégration des nouvelles technologies comme l’intelligence artificielle (IA), l’Internet des Objets (IoT), les API webservices ou les plateformes low-code. L’innovation devient ainsi un processus continu, permettant à l’entreprise de rester agile, compétitive et prête à saisir les opportunités offertes par la transformation digitale.</p><p>✅ Résultat ? Plus de temps pour la stratégie, moins pour l’opérationnel.</p><h2>2 – Exploiter le potentiel du low-code et du no-code pour redonner du pouvoir aux métiers</h2><p>La démocratisation du low-code et des outils no-code - à l’image du français Flexio - ouvre aujourd’hui une palette de bénéfices encore sous-exploités par les entreprises. Les utilisateurs métiers peuvent eux-mêmes créer leurs outils : un tableau de bord, un formulaire, une mini-application métier… sans écrire une seule ligne de code. En redonnant la main aux utilisateurs finaux, les DSI peuvent gagner un temps considérable, tout en renforçant la gouvernance et la qualité des outils développés. Cette approche présente plusieurs avantages concrets :</p><ul><li>Moins de Shadow IT : les applications créées par les métiers le sont dans des environnements encadrés, évitant les solutions non sécurisées ou non conformes.</li>
<li>Gain de temps pour les équipes SI : en déléguant une partie du développement aux utilisateurs, le DSI peut se concentrer sur des projets structurants.</li>
<li>Réduction des coûts et accélération des délais : les outils sont créés plus vite, à moindre coût, sans mobilisation systématique de développeurs.</li>
<li>Meilleure qualité de service : les utilisateurs conçoivent eux-mêmes des solutions adaptées à leurs besoins réels, ce qui favorise l’adoption et l’efficacité.</li>
</ul><p>✅ Résultat ?  Plus de temps pour se concentrer sur les projets structurants.</p><h2>3 – Intégration de l’IA : un assistant personnel pour le DSI</h2><p>Microsoft Copilot par exemple est loin d’être un gadget. Il s’impose aujourd’hui comme un véritable assistant numérique du quotidien pour les DSI et leurs équipes. L’IA Générative permet ainsi la rédaction de documentations techniques, la génération de scripts, la priorisation de tickets, l’automatisation des FAQs internes : elle libère un temps précieux sur les tâches chronophages. Mais son impact va bien au-delà de l’opérationnel avec notamment :</p><ul><li>Renforcement de la performance IT : Elle prend en charge les tâches répétitives, accélère les cycles de production et propose des recommandations intelligentes, améliorant ainsi l’efficacité des équipes techniques.</li>
<li>Amélioration de la qualité des données : Lors des migrations ERP, l’IA réduit fortement le temps de préparation des données et en améliore la qualité de façon significative, assurant des déploiements plus rapides et fiables.</li>
<li>Autonomie accrue des utilisateurs métiers : Grâce à des assistants comme Microsoft Copilot ou ChatGPT, les utilisateurs peuvent résoudre une partie de leurs problèmes sans solliciter le support, allégeant la charge des équipes IT.</li>
</ul><p>✅ Résultat ? Moins de sollicitations, le DSI peut se concentrer sur l’anticipation, la sécurité et la création de valeur.</p><h2>4 – Un bon partenaire logiciel : plus qu’un fournisseur, un copilote</h2><p>Un éditeur de logiciels ne peut plus se contenter d’être un simple fournisseur de solutions. Il doit devenir un partenaire stratégique, capable d’accompagner les DSI dans la durée. Cela implique :</p><ul><li>D’offrir un support réactif, expert et humain, capable de répondre rapidement aux incidents comme aux questions stratégiques, avec une compréhension fine des enjeux métiers et techniques.</li>
<li>De co-construire les évolutions fonctionnelles en impliquant les DSI dès la genèse des projets, afin de garantir que les solutions développées répondent réellement aux besoins du terrain et s’intègrent harmonieusement dans l’écosystème existant.</li>
<li>D’assurer une conformité réglementaire rigoureuse (RGPD, cybersécurité, normes sectorielles…), en intégrant les exigences légales dès la conception des produits et en accompagnant les clients dans leur mise en œuvre opérationnelle.</li>
<li>En combinant technologie, accompagnement et simplicité, les éditeurs de logiciels sont de véritables alliés des DSI.</li>
</ul><p>✅ Résultat ? En agissant comme un copilote de confiance, l’éditeur contribue à réduire l’incertitude, à sécuriser les choix technologiques et à alléger la charge mentale des DSI.</p><h2>Conclusion</h2><p>En combinant technologies adaptées et partenariats solides, les éditeurs de logiciels jouent un rôle important dans le quotidien des DSI. Un DSI libéré des urgences opérationnelles, c’est une entreprise plus agile, plus résiliente, et mieux préparée à affronter les défis numériques de demain. </p><p>Les ERP modernes, intégrant ces avancées, permettent aux DSI de reprendre le contrôle et de recentrer leurs actions sur des missions à forte valeur ajoutée. Il s’agit aujourd’hui de faire le choix d'une transformation numérique sereine, durable et centrée sur l'humain.</p><p>Sources :</p><p>* <a href="https://experisfrance.fr/experis-devoile-son-rapport-future-forward-sur-les-enjeux-des-dsi-en-2025/">https://experisfrance.fr/experis-devoile-son-rapport-future-forward-sur-les-enjeux-des-dsi-en-2025/</a></p><p>** Le baromètre du marché de l’ERP 2024 : <a href="https://www.akuiteo.com/blog/le-barom%C3%A8tre-du-march%C3%A9-de-lerp-2024">https://www.akuiteo.com/blog/le-barom%C3%A8tre-du-march%C3%A9-de-lerp-2024</a></p>]]></description>
      <link>https://www.journaldunet.com/solutions/dsi/1544303-dsi-sortir-de-l-urgence-pour-redevenir-stratege/</link>
      <guid>https://www.journaldunet.com/solutions/dsi/1544303-dsi-sortir-de-l-urgence-pour-redevenir-stratege/</guid>
      <pubDate>Mon, 22 Sep 2025 16:48:00 +0200</pubDate>
    </item>
    <item>
      <title><![CDATA[Workday lance sa plateforme agentique et prend le virage de l'IA]]></title>
      <description><![CDATA[<p class="app_entry_lead"><a title=" © JDN / Capture" href="https://img-0.journaldunet.com/uasyn2Fm5clhuUY_aIggVq4oORY=/1500x/smart/ea666ba49e5c4ae8a752fa70edd09d1b/ccmcms-jdn/39526562.jpg" class="fancy"><picture><source srcset="https://img-0.journaldunet.com/CooMEsdOz6Hw3Bs2jqZrMxRbz9g=/540x/smart/ea666ba49e5c4ae8a752fa70edd09d1b/ccmcms-jdn/39526562.jpg" media="(max-width: 480px)" /><img src="https://img-0.journaldunet.com/uasyn2Fm5clhuUY_aIggVq4oORY=/1500x/smart/ea666ba49e5c4ae8a752fa70edd09d1b/ccmcms-jdn/39526562.jpg" alt="Workday lance sa plateforme agentique et prend le virage de l'IA" width="1500" height="1002" /></picture></a> L'éditeur de San Francisco s'oriente vers un nouvel environnement d'intelligence artificielle mis au service de ses deux fonctionnalités historiques : la gestion RH et la gestion financière.</p><p>Lors de son événement mondial Rising US qui se tient du 15 au 18 septembre à San Francisco, <a href="https://www.journaldunet.fr/web-tech/guide-de-l-entreprise-digitale/1508975-workday/" title="Workday">Workday</a> lève le voile sur Workday Build. Un environnement de développement no code / low-code taillé pour développer des applications intelligentes basées sur sa plateforme historique de gestion RH et financière. Il s'intègre à Workday Extend, le service de plateforme (<a href="https://www.journaldunet.com/solutions/cloud-computing/paas/" title="PaaS">PaaS</a>) du groupe. Au cœur de la solution figure Workday Flow Wise, une brique conçue pour générer et déployer des agents d'IA.</p><p>Issu du rachat de la société éponyme, Flow Wise se présente sous la forme d'un assistant intelligent permettant de développer des agents en mode vibe coding. Typiquement, le développeur se contente de décrire l'application qu'il souhaite. Celle-ci est ensuite automatiquement générée. "Il pourra s'agir par exemple de mettre en œuvre un agent d'IA de gestion de la reconnaissance des salariés", explique <a href="https://www.linkedin.com/in/markewoollen/" target="_blank">Mark Woollen</a>, chief product officer chez Workday.</p><p>En amont, quelques phrases suffiront pour que l'agent en question soit automatiquement créé. Une fois déployé, il déroulera l'ensemble du process : superviser l'atteinte des objectifs, vérifier le budget, demander l'approbation des managers, et, si celle-ci est accordée, déclencher une prime. "A partir de là, il sera facile de personnaliser le résultat en ajoutant par exemple une prime ponctuelle ou tout autre option", complète Mark Woollen.</p><h2>MCP et Agent2Agent</h2><p>Via le protocole Agent2Agent, l'agent de reconnaissance se connectera à des agents tiers, tels un agent de gestion de la performance RH pour faire le pont avec l'entretien annuel d'évaluation. En aval, une notification pourra être envoyée aux salariés concernés. Dans cette optique, l'agent s'interfacera par exemple avec la messagerie Slack ou Microsoft Teams en faisant appel à un serveur MCP (pour model context protocol). Un composant lui aussi intégré à Workday Flow Wise qui permettra en parallèle d'intégrer les agents Workday à Microsoft Copilot. En sens inverse, les agents de Microsoft seront également poussés dans la plateforme en utilisant le même canal.</p><div class="c7"><figure class="image c6"><a class="fancy" href="https://img-0.journaldunet.com/rEIGRkTuhbfkAd4eDe68IKSEAek=/1080x/smart/037e833334434bc88f4b2b5e06ea0a90/ccmcms-jdn/39526558.jpg"><img alt="" src="https://img-0.journaldunet.com/rEIGRkTuhbfkAd4eDe68IKSEAek=/1080x/smart/037e833334434bc88f4b2b5e06ea0a90/ccmcms-jdn/39526558.jpg" /></a>
<figcaption data-credit="JDN / Capture" data-legend="Workday Build s'articule autour d'un environnement complet taillé pour développer des applications sur la plateforme Workday en mode no code / low-code, avec à la clé 3000 API SOAP et 1000 API REST disponibles.">Workday Build s'articule autour d'un environnement complet taillé pour développer des applications sur la plateforme Workday en mode no code / low-code, avec à la clé 3000 API SOAP et 1000 API REST disponibles. <small>© JDN / Capture</small></figcaption></figure></div><p>Workday Flow Wise repose sur 9 000 modèles d'IA. "En termes de LLM, on utilise à peu près tous les grands modèles du marché. Du coup, les développeurs pourront choisir de multiples librairies", précise <a href="https://www.linkedin.com/in/pierregousset/" target="_blank">Pierre Gousset</a>, vice-président avant-vente chez Workday. Les agents de Workday comme ceux conçus par les partenaires du groupe seront par ailleurs accessibles depuis la place de marché de la plateforme américaine. Mais également via un meta-agent, baptisé Ask Workday, qui permettra d'interagir avec eux. "Sur ce plan, notre vision à court terme est d'aboutir à une seconde interface graphique qui sera purement conversationnelle", annonce Pierre Gousset. L'agent System of Record vient compléter l'édifice en proposant une console de gouvernance et d'administration des agents Workday.</p><blockquote>
<p class="c8">"Notre vision à court terme est d'aboutir à une seconde interface graphique qui sera purement conversationnelle"</p>
</blockquote><p>Workday inaugure en outre un nouveau système de tarification adapté à Flow Wise. Baptisé Flex, il inclut un certain volume de crédits fongibles au sein des forfaits de base de l'éditeur. "Si un client souhaite opérer plus d'appels vers les agents ou les API, il achètera des crédits supplémentaires et disposera instantanément de nouvelles capacités", indique Mark Woollen. Un tableau de bord affichera les volumes consommés pour chaque agent et API, et permettra ainsi à l'utilisateur d'évoluer à son rythme.</p><p>En parallèle, le groupe californien annonce Workday Data Cloud. Il s'agit d'une data platform sur laquelle Workday Build et Flow Wise pourront se baser pour exécuter leurs applications. "Workday Data Cloud recouvre trois briques : un lac de données basé sur la plateforme <a href="https://www.journaldunet.com/solutions/open-source/" title="Open source">open source</a> Apache Iceberg, des API SQL pour effectuer des traitements en temps réel, ainsi que le composant Workday Prism pour gérer la gouvernance de l'ensemble", détaille Mark Woollen.</p><p>Principal avantage mis en avant ? Via une couche open source, Workday Data Cloud se veut ouvert sur un écosystème d'applications tierces. Sur ce point, trois premiers logiciels sont mis dans la boucle en s'adossant à des connecteurs ad hoc : Databricks, Salesforce et Snowflake. "Les données pourront circuler dans les deux sens sans réplication. L'objectif est de fournir la solution de gestion de data la plus flexible possible. Sachant que ces trois offres ne sont que les premières d'une longue liste", insiste Mark Woollen. Dans cette perspective, les solutions AWS Redshift et Google Cloud Storage sont déjà évoquées.</p><p>API REST, MCP, Agent2Agent, Apache Iceberg... Workday s'engage en faveur de standards ouverts et interopérables. Idem avec les langages de programmation. "Vous voulez écrire en Python, vous pouvez écrire en Python. Vous voulez écrire en Java, vous pouvez écrire en Java. Vous voulez écrire en C, vous pouvez écrire en C. Nous sommes interopérables avec les environnements applicatifs les plus utilisés", insiste <a href="https://www.linkedin.com/in/pbailis/" target="_blank">Peter Bailis</a>, directeur technique chez Workday. Cette stratégie d'ouverture constitue un virage dans la stratégie de l'éditeur qui se voulait jusque-là un acteur du SaaS très majoritairement propriétaire.</p><h2>15 agents pré-packagés</h2><p>Dernier volet de la série d'annonces réalisées à l'occasion de Rising US : le lancement de nouveaux agents d'IA pré-packagés. En 2024, Workday avait livré une première vague d'agents. Ils étaient centrés sur la gestion du recrutement, la gestion de la mobilité interne, la gestion des dépenses et l'optimisation des processus métier. A cette bibliothèque s'ajoutent désormais des agents taillés pour automatiser le support RH et des agents de terrain. Ainsi que des agents pour semi-automatiser la clôture d'exercice financier ou la gestion contractuelle. Au total, Workday propose désormais une quinzaine d'agents de gestion RH et financière sur étagère.</p><p>Et Pierre Gousset de résumer : "Nous souhaitons faciliter l'adoption de l'IA en fournissant l'outillage nécessaire à l'exploitation des données et le développement d'agents. Un outillage qui permette l'orchestration sur la base de notre plateforme via un modèle technologique et un modèle de tarification qui soit flexible de façon à débloquer les limitations." Pierre Gousset ajoute : "L'IA est évidemment une technologie que nos clients souhaitent adopter. Ils sont encore en quête de ROI sur ce terrain par le biais de métriques qui soient mesurables. Ce que nous leur apportons désormais via notre offre." Pierre Gousset conclut : "Nous ne positionnons plus Workday simplement comme un service SaaS qui délivre des applications pour le monde de la RH et de la finance, mais comme une plateforme ouverte d'IA à destination de ces deux fonctions".</p>]]></description>
      <link>https://www.journaldunet.com/web-tech/1544373-workday-lance-sa-plateforme-agentique-et-prend-le-virage-de-l-ia/</link>
      <guid>https://www.journaldunet.com/web-tech/1544373-workday-lance-sa-plateforme-agentique-et-prend-le-virage-de-l-ia/</guid>
      <pubDate>Tue, 16 Sep 2025 15:00:00 +0200</pubDate>
    </item>
    <item>
      <title><![CDATA[Pierre Desjardins (C12) : "C12 prévoit d'atteindre la suprématie quantique d'ici quelques mois"]]></title>
      <description><![CDATA[<p class="app_entry_lead">Le CEO de la start-up française revient sur sa stratégie et sa feuille de route pour les mois et années à venir. La jeune pousse a choisi de s'orienter vers une technologie quantique originale : le qubit de spin.</p><h3><em>JDN.</em> C12 fête le 17 septembre ses 5 ans d'existence. Quel regard portez-vous sur le chemin parcouru ?</h3><figure class="image c6"><img alt="" src="https://img-0.journaldunet.com/itSiYZiRRaHppiliyfLggTw7Sd0=/250x/smart/0624aad2de64412b8f8adf5f0b287ece/ccmcms-jdn/39526564.jpg" /><figcaption data-credit="C12" data-legend="Pierre Desjardins est CEO et co-fondateur de C12.">Pierre Desjardins est CEO et cofondateur de C12. <small>© C12</small></figcaption></figure><p><em><strong>Pierre Desjardins.</strong></em> Nous en sommes très fiers. En septembre 2020, je prenais la décision avec mon frère Matthieu de dédier ma vie à ce projet dans un café à proximité de l'Ecole Normale Supérieure. Cinq ans après, nous avons structuré une société de 55 personnes. Nous avons également monté un Quantum Fab, une première ligne pilote dédiée à la production de processeurs quantiques au cœur de Paris.</p><h3>Votre technologie repose sur l'utilisation de nanotubes de carbone ultra purs sur silicium. Combien de qubits de ce type avez-vous déjà produits ?</h3><p>Nous en avons produit des centaines. Cette dynamique scientifique s'est concrétisée en juin 2025 par une publication dans la revue Nature attestant pour la première fois d'un temps de cohérence record de 1,3 microseconde sur des qubits de spin en nanotubes de carbone connectés à un bus quantique. C'est une performance 100 fois supérieure aux résultats historiques sur cette technologie et 10 fois meilleure que celle des meilleurs qubits en silicium dans des conditions comparables.</p><h3>Quel est le rôle du bus quantique ?</h3><p>Il permet de passer à l'échelle en connectant un nombre important de qubits. Un volume qui augmente le risque de décohérence, ce que les nanotubes de carbone permettent à leur tour de compenser. La prochaine étape consistera à connecter deux qubits entre eux. Dans cette perspective, nous avons validé en février dernier, via des tests expérimentaux, un design qui permet de réaliser cette opération entre deux qubits distants. Il s'agit d'un prototype industrialisable.</p><h3>Vous misez sur la qualité plutôt que la quantité...</h3><p>Effectivement. Nos premiers démonstrateurs se concentrent sur des bus à un ou deux qubits. L'objectif est de bénéficier de briques de base les plus performantes possibles. Nous ne sommes donc pas dans la course au nombre de qubits. Faire du volume se traduirait par des qubits de mauvaise qualité qui impliqueraient un grand nombre de post-traitements classiques pour parvenir à un résultat précis qui ne soit pas aléatoire. En partant petit, notre objectif est in fine de parvenir le plus vite possible à un ordinateur à grande échelle capable d'atteindre l'avantage quantique (<em>ou</em> <a href="https://fr.wikipedia.org/wiki/Supr%C3%A9matie_quantique" target="_blank"><em>suprématie quantique</em></a><em>, ndlr</em>).</p><h3>A quelle échéance comptez-vous atteindre l'avantage quantique ?</h3><p>D'ici quelques mois. Nous avons l'année 2033 en ligne de mire, avec pour objectif d'atteindre un ordinateur quantique comptant une centaine de qubits logiques.</p><h3>La chaîne de fabrication que vous mettez en œuvre est assez complexe. Comment comptez-vous la financer ?</h3><p>C'est une très bonne question. Nous ciblons un processus de nano-assemblage qui permette de mettre en œuvre à terme un grand volume de qubits. Dans cette perspective, le point clé sera de présélectionner les qubits pour délivrer des puces avec une qualité uniforme. Pour ce faire, nous utilisons un mécanisme de tri-laser automatisé. Ce dispositif, qui contrôle aussi bien le rendement que la qualité, nous permettra de passer à l'échelle sur de gros volumes de qubits.</p><blockquote>
<p class="c7">"Hormis Intel et nous, aucune autre société n'est positionnée sur les qubits de spin"</p>
</blockquote><p>Pour passer à l'échelle, nous aurons besoin de lever à nouveau des fonds (<em>C12 a bouclé une première levée de 18 millions d'euros en juin 2024, ndlr</em>). Les moyens de production, de test et de développement dont nous avons besoin impliquent en effet un nouveau tour de table. Mais cette opération n'est pas prévue à court terme.</p><h3>Avec Callisto, vous avez développé un premier simulateur quantique. Quelles sont les premières références client que vous pouvez citer autour de ce premier produit B?</h3><p>Air Liquide a recours à Callisto pour réaliser des simulations de chimie quantique, Dassault Aviation pour effectuer des simulations d'équations dérivées partielles dans la dynamique des fluides. Enfin, Thales l'utilise pour résoudre des problèmes d'optimisation dans le cadre d'applications de défense. En parallèle, C12 a été sélectionné par l'Armée française dans le cadre du programme Proqcima dans le but de livrer un ordinateur quantique d'ici 2032.</p><h3>Quels sont les autres cas d'usage que vous avez dans votre scope ?</h3><p>Nous avons des cas d'usage à fort potentiel dans la finance. C'est aussi le cas dans l'IA, que ce soit pour améliorer la précision des résultats lors de l'inférence, ou pour simplifier les étapes de préapprentissage.</p><h3>Face à la compétition internationale, comment C12 peut-il préserver et amplifier son avance dans la technologie des <a href="https://en.wikipedia.org/wiki/Spin_qubit_quantum_computer" target="_blank"><strong>qubits de spin</strong></a> ?</h3><p>Hormis Intel et nous, aucune autre société n'est positionnée sur les qubits de spin. Nous sommes par conséquent les leaders du domaine en Europe, et nous comptons bien le rester. Sur le front de l'informatique quantique, nombre de sociétés sont beaucoup mieux financées. Rien qu'en septembre, nous avons assisté à trois méga-levées de fonds dans le secteur : celle d'<a href="https://meetiqm.com/press-releases/iqm-quantum-computers-raises-over-300-million-in-series-b-funding-round/" target="_blank">IQM de 300 millions de dollars</a>, <a href="https://investor.honeywell.com/news-releases/news-release-details/honeywell-announces-600-million-capital-raise-quantinuum-10b-pre" target="_blank">celle de Quantinuum de 600 millions de dollars</a>, et enfin celle de <a href="https://www.psiquantum.com/news-import/psiquantum-1b-fundraise" target="_blank">PsiQuantum à hauteur de 1 milliard de dollars</a>. L'attractivité est très forte. Les investisseurs ont intégré tout le potentiel de cette technologie et sa capacité à transformer l'industrie.</p><p>Reste une vraie différence. Avec les qubits de spin, nous ne cherchons pas à créer des accélérateurs de particules (<em>rire, ndlr</em>). Nous ne ciblons pas ce degré de complexité comme c'est le cas des acteurs que je viens de citer. L'ordinateur que nous cherchons à développer pour 2033 fera la taille d'un simple rack de serveurs.</p><h3>Vous misez également sur l'intégration d'ordinateurs quantiques dans des centres de calcul haute performance classique...</h3><p>C'est une piste que nous explorons. Nous estimons que les ordinateurs quantiques pourront venir compléter les centres de calcul HPC ou les AI factories dans le cas de traitements particuliers, notamment en matière de recherche de nouveaux matériaux ou de modélisation de réaction chimique. Ce ne sera pas une infrastructure de substitution mais plutôt un outil complémentaire centré sur les problèmes trop complexes à résoudre pour les systèmes classiques. Cette imbrication implique des enjeux spécifiques en termes de machines, d'intégration et de logiciel (<em>lire la chronique de Pierre Desjardins publié sur ce sujet dans le JDN :</em> <a href="https://www.journaldunet.com/cloud/1543955-les-data-centers-et-les-centres-de-calcul-de-haute-performance-face-au-defi-quantique/" target="_blank"><em>Les data centers et centres de calcul de haute performance face au défi quantique</em></a>).</p><p><em>Pierre Desjardins a créé C12 avec son frère Matthieu. Il occupe actuellement le poste de CEO. Précédemment, Pierre Desjardins a été chercheur assistant en physique quantique à l'Université de Columbia (New York). Dans la foulée, il a décroché un diplôme en photonique quantique dans le même établissement. En 2013, il a occupé le poste d'</em>a<em>ssistant de recherche au MIT. Il planche alors sur le développement de sources de photons uniques intégrées sur des puces en silicium. En 2014, il rejoint la société Roland Berger, un cabinet de conseil en stratégie. Il est d'abord nommé consultant, puis gravit les échelons. En 2019, il est promu chef de projet. Tout juste un an après, il cofonde C12.</em></p>]]></description>
      <link>https://www.journaldunet.com/web-tech/1544375-c12-atteindra-la-suprematie-quantique-d-ici-quelques-mois/</link>
      <guid>https://www.journaldunet.com/web-tech/1544375-c12-atteindra-la-suprematie-quantique-d-ici-quelques-mois/</guid>
      <pubDate>Tue, 16 Sep 2025 12:13:00 +0200</pubDate>
    </item>
    <item>
      <title><![CDATA[Théau Peronnin (Alice & Bob) : "Alice & Bob atteindra l'avantage quantique d'ici 2030"]]></title>
      <description><![CDATA[<p class="app_entry_lead">Le CEO de la start-up française détaille sa feuille de route ainsi que les dernières avancées scientifiques de son équipe de recherche.</p><h3><strong><em>JDN.</em> En quoi la technologie d'Alice &amp; Bob se différencie-t-elle de la concurrence ?</strong></h3><figure class="image c6"><img alt="" src="https://img-0.journaldunet.com/B0L1kZ1G_eqKDt3NF44TUPtX-WA=/250x/smart/0d56f5fbc64745b19f7c2886306f5e73/ccmcms-jdn/39526496.jpg" /><figcaption data-credit="Alice &amp; Bob" data-legend="Théau Peronnin est CEO et cofondateur d'Alice &amp; Bob.">Théau Peronnin est CEO et cofondateur d'Alice &amp; Bob. <small>© Alice &amp; Bob</small></figcaption></figure><p><strong><em>Théau Peronnin</em></strong><strong><em>.</em></strong> Pour résumer, notre système est 100 à 1 000 fois plus rapide que les calculateurs quantiques à base d'atomes neutres (<em>approche prônée par la start-up Pasqal, ndlr</em>), et beaucoup moins cher que ceux reposant sur les photons (<em>approche prônée par la start-up Kandela, ndlr</em>). Il est constitué de circuits imprimés supraconducteurs qui opèrent dans la gamme des micro-ondes comme le Wi-Fi ou la 5G. Il implique d'être refroidi à très basse température, de l'ordre de 10 microkelvins. C'est aussi la plateforme la plus prisée du secteur. Elle rassemble environ 60% des investissements du domaine. Elle a par ailleurs été retenue par les géants de la tech, dont Google, IBM ou AWS.</p><h3><strong>Pourquoi cet engouement en faveur de cette technologie ?</strong></h3><p>Il s'agit de la plateforme qui présente le meilleur équilibre entre capacité à passer à l'échelle et performance. Nous sommes l'une des rares start-up à nous positionner sur ce segment, les autres ont tendance à faire des paris technologiques différents.</p><h3><strong>En quoi votre approche se différencie-t-elle de la concurrence dans le domaine des circuits supraconducteurs ?</strong></h3><p>Notre technologie s'adosse au qubit de chat. Elle utilise plus précisément les états de <a href="https://fr.wikipedia.org/wiki/Chat_de_Schr%C3%B6dinger" target="_blank">chat de Schrödinger</a>. Leur spécificité est d'intégrer, par conception, une première boucle de correction d'erreurs directement au cœur du qubit (<em>qui est l'unité de calcul de l'<a href="https://www.journaldunet.com/informatique-quantique/" title="Informatique quantique">informatique quantique</a>, ndlr</em>). C'est un point fondamental. L'ordinateur quantique est sensible au bruit du monde extérieur qui crée un phénomène de décohérence conduisant à des erreurs dans le système. Nous venons corriger ces erreurs par construction. Résultat : nous avons besoin d'un nombre de qubits nettement moins important. Dans nos dernières publications, nous avons démontré être en capacité de réduire d'un facteur 200 le nombre de qubits comparé à l'approche standard des circuits imprimés supraconducteurs.</p><h3><strong>Quel est votre facteur différenciant comparé à la photonique ? Vous évoquez le prix...</strong></h3><p>Le principal acteur américain positionné dans ce domaine est PsiQuantum. Pour atteindre une centaine à quelques centaines de qubits logiques, il prévoit d'assembler des machines qui rempliront des hangars entiers. Des systèmes qui représentent des investissements de 1 à 3 milliards d'euros l'unité. De notre côté, nous affichons une feuille de route visant à atteindre une centaine de qubits logiques au même niveau de performance, le tout via 2 000 qubits de chat. Ce qui tient dans un frigo, avec à la clé un coût nettement inférieur, d'environ quelques dizaines voire une centaine de millions d'euros.</p><h3><strong>Quels sont les principaux cas d'usage sur lesquels vous travaillez ?</strong></h3><p>Selon les algorithmes, les performances des ordinateurs quantiques seront différentes. Certains permettront une accélération quadratique, d'autres une accélération exponentielle. Pour être plus précis, on parlera plutôt d'une accélération superpolynomiale. C'est-à-dire une fonction qui va plus vite que n'importe quel polynome, ce qui est une classe plus large que les fonctions exponentielles.  C'est cette seconde catégorie que nous ciblons. Elle recouvre typiquement l'algorithme de Shor qui s'applique au chiffrement, mais pas uniquement. Elle s'étend plus globalement à la résolution d'opérations diverses et variées, notamment à la simulation mais aussi à certains cas d'usage dans l'optimisation.</p><blockquote>
<p class="c7">"A court terme, nous préparons la commercialisation de notre puce Helium"</p>
</blockquote><p>Quand on pousse l'analyse jusqu'au bout, le plus excitant pour nous porte sur la science des matériaux et sur la chimie à petite échelle, notamment la chimie de la catalyse, ce qui est un domaine à impact industriel monumental.</p><h3><strong>Quels sont vos principaux partenaires scientifiques ?</strong></h3><p>Alice &amp; Bob est issu d'un groupe de chercheurs à cheval entre le CNRS, le CEA, l'INRIA, l'ENS Paris, l'ENS de Lyon et l'Ecole des Mines. C'était absurde de voir tous ces scientifiques brillants, complètement sous-financés, avec à la clé une technologie émergente si prometteuse, à savoir le qubits de chat. Partant de ce constat, mon associé (<em>Raphaël Lescanne, ndlr</em>) et moi, tous deux jeunes thésards, on s'est dit qu'on n'avait rien à perdre à se lancer. On a été très surpris d'être immédiatement rejoint par la quasi-totalité du groupe, soit en direct comme salarié, soit indirectement comme conseiller scientifique détaché à temps partiel.</p><p>Nous avons conservé cet ADN académique depuis. Presque 10% de notre effectif est représenté par des thésards <a href="https://www.enseignementsup-recherche.gouv.fr/fr/les-cifre-46510" target="_blank">CIFRE</a>. Au total, le premier cercle de chercheurs gravitant autour d'Alice &amp; Bob compte une cinquantaine voire une soixantaine de scientifiques. Au-delà, nous avons également des liens avec des réseaux plus ou moins larges : des projets européens, des projets internationaux, et plus globalement la communauté open source.</p><h3><strong>Et quelles sont les prochaines étapes ?</strong></h3><p>A court terme, nous préparons la commercialisation de notre puce Helium. Certes, cette architecture ne peut pas résoudre de problèmes infaisables pour des ordinateurs classiques. Mais il s'agira de la première machine à correction d'erreurs qui permettra de se préparer aux générations suivantes de nos supercalculateurs. Nous prévoyons de livrer notre première machine dans le courant de l'année 2026. En termes de commercialisation, nous ciblons à la fois l'Europe, le Moyen-Orient mais aussi les Etats-Unis, depuis notre bureau basé à Boston.</p><p>Après Helium il y aura Lithium puis nous lancerons Béryllium qui intégrera les usines à état magique. Enfin, en 2030, viendra Graphène qui comptera 1000 qubits de chat pour atteindre la performance de 100 qubits logiques. A cette date, Alice &amp; Bob atteindra ainsi <a href="https://fr.wikipedia.org/wiki/Supr%C3%A9matie_quantique" target="_blank">l'avantage quantique</a>. En termes de levée de fonds, il est très probable que nous bouclerons un nouveau tour de table début 2027 pour rester sur notre rythme d'une opération tous les trente mois.</p>]]></description>
      <link>https://www.journaldunet.com/solutions/dsi/1544343-alice-bob-atteindra-l-avantage-quantique-d-ici-2030/</link>
      <guid>https://www.journaldunet.com/solutions/dsi/1544343-alice-bob-atteindra-l-avantage-quantique-d-ici-2030/</guid>
      <pubDate>Mon, 15 Sep 2025 16:53:00 +0200</pubDate>
    </item>
    <item>
      <title><![CDATA[Réduire les coûts IT sans sacrifier la performance : un enjeu stratégique]]></title>
      <description><![CDATA[<p class="app_entry_lead">Réduire les coûts IT ne doit pas se faire au détriment de la performance ou de l'innovation : l'essentiel est d'optimiser avec discernement, créer de la valeur et faire de l'IT un moteur de résilience</p><p>En ces temps d’incertitude économique et de contraintes budgétaires croissantes, la direction des systèmes d'information est soumise à une pression inédite et doivent « faire mieux avec moins ». D’un côté, l’entreprise attend de son IT qu’elle accompagne les transformations métiers ; de l’autre, elle exige une réduction des dépenses, immédiate et durable. Dans ce contexte, une question s’impose avec acuité : comment concilier réduction des coûts IT et maintien d’un haut niveau de performance ? Car s’il est tentant de restreindre les budgets, le coût réel d’une baisse de performance et de sécurité, d’une indisponibilité ou d’un déficit d’innovation peut s’avérer bien plus élevé que l’économie réalisée initialement.</p><h2>Rationaliser plutôt que couper : le bon usage des ressources</h2><p>Il s’agit avant tout d’optimiser les ressources, de fluidifier les processus, et d’aligner plus finement les moyens et ressources sur les priorités et besoins réels. De nombreuses entreprises continuent aujourd’hui de financer des infrastructures peu utilisées et mal-dimensionnées, voire obsolètes. Cela représente un gisement d’économies souvent sous-exploité. Un audit technique et fonctionnel peut révéler des inefficacités : licences logicielles en doublon, serveurs dormants, architectures vieillissantes… autant de zones grises où les coûts s'accumulent sans générer de valeur.</p><p>Rationaliser, c’est aussi sortir d’une logique de silos : mutualiser les outils, fédérer les environnements, favoriser l’interopérabilité. Ces choix permettent à la fois de simplifier la gestion et de réduire les charges fixes, tout en renforçant l’agilité opérationnelle.</p><h2>Le cloud privé managé : catalyseur de performance maîtrisée</h2><p>Parmi les leviers d’optimisation les plus probants, le cloud privé managé occupe une place de choix. Ce modèle permet de combiner les avantages d’un cloud personnalisé avec une logique de mutualisation des ressources et de réduction du coût total de possession (TCO). Concrètement, cela signifie : un meilleur dimensionnement des capacités, un pilotage plus fin de la consommation, une maintenance externalisée auprès de spécialistes, et une continuité de service renforcée. Les entreprises gagnent en lisibilité, en maîtrise, et surtout en sérénité. Ce modèle trouve tout son sens pour les entreprises soumises à des exigences réglementaires strictes (RGPD, HDS, ISO…), ou pour celles dont les enjeux de souveraineté et de localisation des données sont centraux. Le cloud public, aussi puissant soit-il, montre parfois ses limites sur ces terrains. Le cloud privé managé, bien conçu, devient alors un compromis vertueux entre performance, sécurité, conformité et maîtrise budgétaire.</p><h2>Réconcilier sobriété numérique, durabilité et performance</h2><p>L’optimisation IT ne peut plus être pensée uniquement en termes financiers. Elle doit désormais intégrer une dimension environnementale, éthique et sociale. La réutilisation de matériel reconditionné, par exemple, permet de réduire considérablement l’empreinte carbone des environnements informatiques, tout en offrant des performances adaptées aux usages de pré-production ou de développement. En choisissant des solutions sobres, les entreprises envoient un signal fort : celui d’une IT responsable, ancrée dans les enjeux de son temps.</p><p>Il ne s’agit pas d’opposer performance et durabilité, mais bien de les faire converger. Car une informatique durable, c’est une informatique plus efficiente, plus agile, et plus alignée avec les valeurs des collaborateurs, des clients et des investisseurs.</p><h2>Piloter avec des indicateurs orientés valeur</h2><p>La vraie maîtrise des coûts IT repose sur des indicateurs de valeur clairs, pertinents et dynamiques. Coût par utilisateur actif, coût par application critique, taux de disponibilité, capacité d’évolution, vitesse de déploiement, efficacité énergétique… Ces métriques permettent de sortir d’une logique purement budgétaire, pour s’inscrire dans une logique orientée vers la création de valeur. Cette approche permet aux DSI de dialoguer d’égal à égal avec les directions métiers et les directions financières. En objectivant les performances et les apports de l’IT, on construit un langage commun, propice aux arbitrages éclairés et à la mise en place de plans d’action cohérents</p><p>Enfin, il est essentiel de rappeler que l’optimisation IT n’est une initiative ponctuelle, elle se construit dans le temps. Elle repose sur une culture d’amélioration continue, sur une capacité à se remettre en question, à expérimenter et à innover. Cela suppose un dialogue constant entre les équipes IT, les métiers, les partenaires externes. Cela nécessite aussi d’investir dans la montée en compétences, dans l’automatisation intelligente, et de repenser les usages, les architectures et les modes de fonctionnement. L’innovation n’est pas un luxe, c’est souvent elle qui permet de faire mieux… avec moins.</p><p>Réduire les coûts IT, oui … mais pas au prix de la performance ou de l’innovation. Le véritable enjeu est de faire des choix éclairés, alignés avec les priorités stratégiques de l’entreprise. Optimiser, c’est refuser la facilité des coupes aveugles pour embrasser la complexité avec méthode et discernement. C’est chercher, dans chaque décision technologique, à générer de la valeur pour l’entreprise, à renforcer la résilience, à accompagner l’évolution des usages. C’est ainsi que l’IT restera ce qu’elle doit être : un levier de transformation, de compétitivité et de durabilité.</p>]]></description>
      <link>https://www.journaldunet.com/solutions/dsi/1543911-reduire-les-couts-it-sans-sacrifier-la-performance-un-enjeu-strategique/</link>
      <guid>https://www.journaldunet.com/solutions/dsi/1543911-reduire-les-couts-it-sans-sacrifier-la-performance-un-enjeu-strategique/</guid>
      <pubDate>Mon, 01 Sep 2025 10:56:00 +0200</pubDate>
    </item>
    <item>
      <title><![CDATA[5G et connectivité par satellite : un duo gagnant pour les services d'urgence]]></title>
      <description><![CDATA[<p class="app_entry_lead">Pour les équipes de première ligne des services d'urgence, la connectivité sans fil est aujourd'hui un outil indispensable.</p><p>Les équipes des services d’urgence dépendent d’un accès rapide et permanent aux applications et aux données critiques pour accomplir leur mission, que ce soit dans un véhicule, une caserne ou sur le terrain. Cependant, elles sont confrontées à des défis spécifiques qui nécessitent des solutions adaptées, comme la sécurisation des données pour les véhicules en mouvement, la gestion d’une couverture cellulaire limitée dans les zones rurales, ou le fonctionnement dans des conditions difficiles.</p><p>Cela est particulièrement opportun en France pendant les mois d’été, lorsque le pays est confronté à de nombreux épisodes d’incendies de forêt qui doivent être gérés dans des conditions difficiles. Ces situations nécessitent une communication parfaite pour coordonner les efforts et déployer les ressources efficacement.</p><p>Par exemple, un camion de pompiers luttant contre un feu de forêt dans une région isolée peut rencontrer des limitations de couverture cellulaire. Dans ce cas, la connectivité satellite peut servir de lien de secours, assurant une connectivité continue pour les communications critiques.</p><p>Plutôt que de choisir entre satellite ou réseau cellulaire, combiner les deux technologies peut offrir une option plus résiliente et flexible.</p><h2>Satellites LEO : une alternative pour les zones reculées ou mal couvertes</h2><p>Les systèmes internet par satellites en orbite basse (LEO), comme Starlink de SpaceX, sont conçus pour les organisations opérant dans des zones rurales ou isolées, où l’infrastructure cellulaire est absente. Starlink constitue une solution de repli quand le service cellulaire est instable ou inexistant. Toutefois, des limites existent en termes de capacité et de coût. Les frais d’installation, les abonnements récurrents et l’impact des conditions météorologiques rendent l’usage du satellite comme principal moyen de connectivité difficile pour des services d’urgence devant circuler entre zones urbaines et rurales.</p><p>La combinaison des satellites LEO et de la 5G renforce la connectivité en créant un réseau plus résilient et à plus haut débit. Les services d’urgence peuvent ainsi maintenir leurs opérations, peu importe leur localisation. Cette alliance garantit un accès WAN performant, fiable et sécurisé.</p><h2>Cas d’usage : basculement de réseau multi-WAN</h2><p>Pour les organisations disposant de sites fixes, il est courant de s’appuyer sur une connexion filaire principale. Cependant, il est essentiel de prévoir des solutions de secours fiables afin d’assurer la continuité des opérations.</p><p>Si la ligne filaire est indisponible à cause d’un incident ou d’intempéries, la 5G peut prendre le relais sans aucune interruption de service. Et si la 5G est elle-même indisponible, le trafic réseau peut alors basculer sur la liaison satellite.</p><h2>Cas d’usage : basculement du cellulaire vers le satellite</h2><p>Prenons l’exemple d’une base de services d’urgence située en zone reculée, avec une couverture cellulaire partielle. En l’absence de ligne filaire, la connexion cellulaire devient la liaison principale. Elle assure les échanges en conditions normales, mais bascule automatiquement vers le satellite en cas de baisse de performance ou de coupure.</p><h2>Cas d’usage : communication critique dans les véhicules en déplacement</h2><p>Étant donné que la connectivité filaire est impossible dans les véhicules, l’idéal est d’utiliser un routeur double modem prenant en charge plusieurs opérateurs cellulaires, pour un basculement sans interruption. Le satellite peut alors être utilisé comme troisième option de secours lorsque le cellulaire n’est pas disponible.</p><p>Mais que faire si aucune couverture cellulaire n’est disponible dans la zone d’utilisation ? Il reste pertinent de déployer un routeur professionnel assurant la sécurité et des fonctions réseau avancées, particulièrement si deux connexions Starlink sont utilisées. Le choix du routeur et la gestion des appareils connectés sont alors cruciaux.</p><h2>Fonctionnalités clés pour gérer une connectivité critique sur le terrain</h2><p>En plus d’un routeur de qualité professionnelle capable de gérer des scénarios de basculement complexes, trois autres exigences doivent être prises en compte, surtout pour les services d’urgence :</p><ul><li>Simplicité de gestion : Les services d’urgence disposent rarement de grandes équipes IT. Il est donc essentiel d’avoir un réseau sophistiqué mais facile à administrer par une petite équipe technique.</li>
<li>Sécurité : Bien que les réseaux cellulaires 5G offrent une sécurité élevée grâce à un chiffrement intégré, la plupart des systèmes LEO ont des fonctionnalités de sécurité limitées.</li>
<li>Agrégation de liens (link bonding) : Dans certains cas, il est pertinent de combiner plusieurs connexions en un seul flux virtuel. Il est donc important de disposer d’une solution offrant de la flexibilité dans l’architecture réseau.</li>
</ul><p>Même si la 5G offre une sécurité native, les services d’urgence doivent privilégier des fournisseurs proposant une approche zero trust du réseau. Le Zero Trust SD-WAN permet des liaisons WAN résilientes grâce à l’agrégation de liens et un basculement rapide : par exemple, passer d’un opérateur mobile à un autre avec un meilleur signal, ou basculer du cellulaire vers le satellite. Des fonctions avancées de sécurité web protègent également contre les attaques par email ou navigateur. Ces solutions doivent aussi être rapides à déployer et faciles à gérer à distance.</p><p>Cette connectivité combinée permet aux services d’urgence de continuer à fonctionner de manière efficace et sécurisée, même dans des environnements complexes ou mal couverts. En tirant parti des deux technologies, ils peuvent maintenir des communications critiques, renforcer leur connaissance de la situation et garantir la réactivité de leurs interventions — contribuant ainsi à la sécurité publique et à l'efficacité opérationnelle.</p>]]></description>
      <link>https://www.journaldunet.com/ebusiness/telecoms-fai/1543857-5g-et-connectivite-par-satellite-un-duo-gagnant-pour-les-services-d-urgence/</link>
      <guid>https://www.journaldunet.com/ebusiness/telecoms-fai/1543857-5g-et-connectivite-par-satellite-un-duo-gagnant-pour-les-services-d-urgence/</guid>
      <pubDate>Mon, 01 Sep 2025 10:49:00 +0200</pubDate>
    </item>
    <item>
      <title><![CDATA[QAP Computing se démarque en mariant HPC et informatique quantique]]></title>
      <description><![CDATA[<p class="app_entry_lead"><a title=" © JDN / Sora" href="https://img-0.journaldunet.com/lKYCD3sJRyF5u0lbRPruLgG2mFM=/1500x/smart/64db142d30f845c4ab365115fc81aa5d/ccmcms-jdn/39525154.jpeg" class="fancy"><picture><source srcset="https://img-0.journaldunet.com/T9pB7xyl099pbJzBd3s2EB8Gxcc=/540x/smart/64db142d30f845c4ab365115fc81aa5d/ccmcms-jdn/39525154.jpeg" media="(max-width: 480px)" /><img src="https://img-0.journaldunet.com/lKYCD3sJRyF5u0lbRPruLgG2mFM=/1500x/smart/64db142d30f845c4ab365115fc81aa5d/ccmcms-jdn/39525154.jpeg" alt="QAP Computing se démarque en mariant HPC et informatique quantique" width="1500" /></picture></a> La jeune pousse française incubée par l'Inria développe des algorithmes hybrides, notamment axés sur la simulation. Son principal défi : tirer parti du meilleur des deux générations de l'informatique.</p><p>Incubée par le Startup Studio de l'Inria, QAP Computing s'est donné pour mission de combiner l'informatique quantique avec le calcul haute performance traditionnel (ou HPC pour high performance computing). La <a href="https://www.journaldunet.com/start-up/" title="Start-ups">start-up</a> a été fondée par Marc Baboulin, professeur à l'Université Paris-Saclay et chercheur à l'Inria. Après avoir dirigé plusieurs équipes de recherche à l'<a href="https://www.journaldunet.com/inria/" title="Inria">Inria</a> Saclay et à l'Université Paris Saclay, il a été directeur du laboratoire Maison de la Simulation du CEA. Depuis 2021, il est membre du comité exécutif du centre Quantum Paris-Saclay. Il est aussi impliqué dans le plan national quantique et dans le projet de supercalculateur exascale français.</p><p>La philosophie de QAP Computing ? Exécuter un même calcul en faisant à la fois appel à l'<a href="https://www.journaldunet.com/informatique-quantique/" title="Informatique quantique">informatique quantique</a> et au supercalculateur classique. "L'idée est de combiner le meilleur des deux mondes. D'un côté l'informatique quantique permet de réaliser certains traitements avec des performances exponentielles. De l'autre le jeu n'en vaut pas toujours la chandelle. L'informatique quantique nécessite en effet de revoir entièrement les algorithmes. Le gain de temps d'exécution obtenu devra être suffisamment important comparé à celui de l'approche classique", résume Marc Baboulin.</p><h2>Exploiter le meilleur des deux mondes</h2><p>Concrètement, QAP Computing développe des algorithmes hybrides dits "quantique-classique". "Prenons l'exemple d'<a href="https://fr.wikipedia.org/wiki/Syst%C3%A8me_lin%C3%A9aire" target="_blank">un système linéaire</a>", indique Marc Baboulin. "En passant par les calculateurs quantiques actuels, vous aurez besoin de beaucoup de ressources pour le traiter. Au final, vous ne serez pas en capacité de le résoudre entièrement." D'où l'idée de commencer par dégrossir le calcul via un ordinateur quantique qui pourra s'attaquer à une matrice de grande taille avant de mobiliser un supercalculateur classique coûtant beaucoup moins cher en nombre d'opérations. L'objectif étant de réaliser par ce biais un raffinement itératif en vue d'aboutir au résultat recherché. "On découpe ainsi le traitement en deux phases", résume Marc Baboulin.</p><p>QAP Computing compte notamment appliquer sa technologie au champ de la simulation et plus globalement aux résolutions d'équations de la physique générale, telles <a href="https://fr.wikipedia.org/wiki/%C3%89quation_de_la_chaleur" target="_blank">l'équation de la chaleur</a> en thermodynamique ou <a href="https://fr.wikipedia.org/wiki/%C3%89quations_de_Maxwell" target="_blank">les équations de Maxwell</a> en électromagnétisme. Autres domaines d'application : <a href="https://fr.wikipedia.org/wiki/Liste_des_algorithmes_de_la_th%C3%A9orie_des_graphes" target="_blank">les algorithmes de graph</a> et les problèmes d'optimisation. "Sur ce plan, on cherchera typiquement à résoudre le problème du voyageur de commerce qui vise à identifier le meilleur parcours possible pour se rendre d'un endroit à un autre", simplifie Marc Baboulin. Aux côtés de l'industrie, QAP Computing peut cibler beaucoup d'autres secteurs d'activité confrontés à des problèmes d'optimisation combinatoire, le domaine de la finance par exemple.</p><blockquote>
<p class="c6">"L'objectif est de parvenir à un produit commercialisable en 2026"</p>
</blockquote><p>La jeune pousse entend capitaliser sur les connaissances de son équipe de recherche sur le terrain du calcul scientifique. "La plupart des start-up positionnées dans notre domaine ont leur conception des algorithmes quantiques et essaient de les adapter aux problèmes de calcul scientifique. Etant issu de ce domaine, c'est beaucoup plus simple pour nous de faire cet exercice", argue Marc Baboulin, qui évoque notamment  les problèmes de calcul de système linéaire, de calcul de valeur propre, de calcul d'approximation par les moindres carrés, notamment.</p><p>Pour l'heure, QAP Computing est en phase de test. "Nous prenons notre temps. L'objectif est de parvenir à un produit commercialisable en 2026", confie Marc Baboulin. "En ce moment, nous testons des matrices (<em>une brique nécessaire au calcul quantique, ndlr</em>) qui viennent d'équations concrètes de la physique. L'objectif est de parvenir à terme à une solution crédible de manière scientifique et opérationnelle." QAP Computing n'a pas les moyens de s'éparpiller. La start-up a donc décidé de se focaliser pour l'instant sur les problèmes de simulation appliqués à l'aéronautique.</p><h2>Une offre en trois briques</h2><p>La start-up articule son offre autour de trois briques. D'abord, elle a développé un simulateur quantique pour permettre à ses futurs clients de se familiariser avec ce domaine et les algorithmes associés. Ensuite, elle a mis au point une bibliothèque conçue pour intégrer des fonctions quantiques à l'intérieur de codes existants. "Nous devons nous adapter à l'existant. Nous ne pouvons pas nous permettre de demander aux clients de réécrire l'intégralité de leurs applications. Ce n'est pas réaliste", insiste Marc Baboulin. Enfin, la jeune pousse à créé un moteur permettant de générer un langage qui pourra être interprété par une machine quantique.</p><p>Avec cette pile logicielle, QAP Computing entend proposer à ses futurs clients l'ensemble de la boîte à outils nécessaire pour se préparer à l'arrivée de calculateurs quantiques opérationnels. Ce qui pour la plupart des chercheurs spécialistes du domaine est une question d'années.</p>]]></description>
      <link>https://www.journaldunet.com/web-tech/1543595-qap-computing-se-demarque-en-mariant-hpc-et-informatique-quantique/</link>
      <guid>https://www.journaldunet.com/web-tech/1543595-qap-computing-se-demarque-en-mariant-hpc-et-informatique-quantique/</guid>
      <pubDate>Thu, 28 Aug 2025 08:14:00 +0200</pubDate>
    </item>
    <item>
      <title><![CDATA[Comparatif des outils de création de site web sans code : Webflow remporte la bataille]]></title>
      <description><![CDATA[<p class="app_entry_lead"><a title=" © JDN / Sora" href="https://img-0.journaldunet.com/5Z97Edlp9h2Ii09_3CdeFq3Pdb4=/1500x/smart/76eba6738db749a19835617a1ed3ae32/ccmcms-jdn/39524637.jpg" class="fancy"><picture><source srcset="https://img-0.journaldunet.com/7ZQKktQnxkzDzdxTHo_5V7tYiKQ=/540x/smart/76eba6738db749a19835617a1ed3ae32/ccmcms-jdn/39524637.jpg" media="(max-width: 480px)" /><img src="https://img-0.journaldunet.com/5Z97Edlp9h2Ii09_3CdeFq3Pdb4=/1500x/smart/76eba6738db749a19835617a1ed3ae32/ccmcms-jdn/39524637.jpg" alt="Comparatif des outils de création de site web sans code : Webflow remporte la bataille" width="1500" height="1002" /></picture></a> Face à l'historique WordPress, la solution de San Francisco tire son épingle du jeu en séduisant à la fois les citizen developer et les designers. Elle est talonnée par Framer.</p><p>Equipant plus de 533 millions de sites en juin 2025 (soit 43% de part de marché), WordPress demeure la solution de développement web <a href="https://www.journaldunet.fr/web-tech/guide-de-l-entreprise-digitale/1498785-no-code/" title="No-code">no code</a> la plus utilisée à travers le monde. Mais cette solution lancée en mai 2003 s'est désormais faite rattraper en termes de qualité fonctionnelle par <a href="https://www.journaldunet.fr/web-tech/guide-de-l-entreprise-digitale/1511331-webflow-l-outil-de-developpement-web-no-code-de-reference/" title="Webflow">Webflow</a>, une plateforme de la Silicon Valley sortie en 2013 et dotée des technologies web de toute dernière génération.</p><table border="0" cellpadding="0" style="border-spacing: 0px; width: 805px;"><caption>Comparatif des outils de création de site web sans code</caption>
<thead><tr><th scope="row" class="c6" style="height: 20px;"> </th>
<th scope="col" class="c7">Figma Site</th>
<th scope="col" class="c7">Framer</th>
<th scope="col" class="c7">Webflow</th>
<th scope="col" class="c7">WordPress</th>
</tr></thead><tbody><tr><th scope="row" class="c8" style="height: 20px;">Nombre de thèmes</th>
<td class="c9">Plus de 10 000</td>
<td class="c9">Plus de 2 000</td>
<td class="c9">Plus de 7 000</td>
<td class="c9">13 000 référencés</td>
</tr><tr><th scope="row" class="c10" style="height: 39px;">Nombre de plugins</th>
<td class="c9">0</td>
<td class="c9">Environ 230</td>
<td class="c9">Environ une centaine</td>
<td class="c9">60 000 plugins référencés</td>
</tr><tr><th scope="row" class="c8" style="height: 20px;">Open source</th>
<td class="c11"> </td>
<td class="c11"> </td>
<td class="c11"> </td>
<td class="c11">X</td>
</tr><tr><th scope="row" class="c10" style="height: 39px;">Environnement propriétaire sécurisé</th>
<td class="c11">X</td>
<td class="c11">X</td>
<td class="c11">X</td>
<td class="c11"> </td>
</tr><tr><th scope="row" class="c8" style="height: 20px;">CMS intégré</th>
<td class="c11">X</td>
<td class="c11">X</td>
<td class="c11">X</td>
<td class="c11">X</td>
</tr><tr><th scope="row" class="c8" style="height: 20px;">Personnalisation puissante</th>
<td class="c11"> </td>
<td class="c11"> </td>
<td class="c11">X</td>
<td class="c11"> </td>
</tr><tr><th scope="row" class="c8" style="height: 20px;">Interface ciblant les équipes marketing</th>
<td class="c11"> </td>
<td class="c11"> </td>
<td class="c11">X</td>
<td class="c11"> </td>
</tr><tr><th scope="row" class="c8" style="height: 20px;">Interface ciblant les développeurs et designers</th>
<td class="c11"> </td>
<td class="c11"> </td>
<td class="c11">X</td>
<td class="c11"> </td>
</tr></tbody></table><p>Comparé aux autres acteurs de ce panorama, WordPress bénéficie de son modèle open source. Une caractéristique doublée d'une architecture modulaire. Résultat : le CMS porté par le californien Automattic enregistre plus de 13 000 thèmes graphiques référencés et 60 000 plugins. Le tout développé par la communauté gravitant au sein de son écosystème. Revers de la médaille : une ergonomie qui n'est pas aussi poussée que celles de ses concurrents Figma Site, Framer et surtout Webflow. Autre point faible et pas des moindres, ce mode de développement ouvert se traduit par des thèmes et des plugins dont les mises à jour de sécurité ne sont pas toujours au rendez-vous. Ce qui se traduit par des failles et un environnement pas toujours stable.</p><p>De leur côté, Figma Site, Framer et Webflow affichent une approche SaaS, propriétaire et tout-en-un (sur le modèle d'Apple). Une approche qui se traduit par des environnements plus sécurisés avec à la clé une maintenance robuste et cohérente.</p><h2>La personnalisation de Webflow</h2><p>"Webflow est le plus puissant en termes de personnalisation. Par exemple, un bouton pourra être paramétré en termes de taille, de forme, d'emplacement, d'effet...", constate Valentin Bert, CEO de l'agence Nocode Factory. "Cette solution est aussi la plus scalable. Elle pourra encaisser de forts volumes de trafic sans bug." Webflow bénéficie en parallèle d'<a href="https://webflow.com/design" target="_blank">une interface dédiée aux designers et aux développeurs</a> avec un mode canvas conçu pour manipuler visuellement des objets HTML5 mais aussi des CSS et du JavaScript. Le code de ces objets est accessible. Il est par conséquent possible de le personnaliser. "En parallèle, <a href="https://webflow.com/edit-mode" target="_blank">un mode édition</a> permettra aux équipes marketing de prendre la main sur les contenus sans risquer de toucher au code", complète Valentin Bert. Cette double interface n'est pas disponible dans WordPress qui concentre design et code au sein d'un même écran avec tous les risques que cette approche peut engendrer.</p><blockquote>
<p class="c12">"Les points forts de Webflow résident dans la grande liberté qu'il apporte en termes de design, mais également dans sa rapidité de mise en œuvre et sa simplicité de déploiement"</p>
</blockquote><p>Parmi les autres points forts de Webflow figure son orientation API-first. Son interface de programmation d'application permettra de créer les pages d'un site en masse de façon automatisée en partant d'une base de données.</p><p>"Les points forts de Webflow résident dans la grande liberté qu'il apporte en termes de design, mais également dans sa rapidité de mise en œuvre et sa simplicité de déploiement. En revanche, cet outil s'adresse à des utilisateurs avancés que se soit en design ou en développement", résume <a href="https://www.linkedin.com/in/melinda-ferda/" target="_blank">Melinda Ferda</a>, engineering manager au sein de l'agence <a href="https://www.alegria.group/" target="_blank">Alegria.group</a>. Comme les autres outils de ce comparatif, Webflow est équipé d'un système de gestion de contenu web (CMS).</p><h2>Framer et Figma Site : champions du design</h2><p>De leurs côtés, Framer et Figma Site se détachent par leur capacité de design. "En revanche, ils ne donnent pas accès au code, ou en tous cas pas aussi simplement que Webflow (<em>qui, à la différence de Framer, permet aussi de l'exporter, ndlr</em>). Ils se limitent à une interface orientée graphisme", pondère Valentin Bert. "Ces solutions ciblent avant tout les designers qui n'ont pas le budget pour faire un site professionnel digne de ce nom, mais qui souhaitent tout de même parvenir à un résultat qu'ils pourront présenter voire commercialiser." Avec Framer et Figma Site, une heure permettra de parvenir à une première ébauche de site. Il suffit de choisir un thème graphique puis de l'adapter en y ajoutant du contenu (texte, photos...).</p><p>Parmi les points faibles des deux solutions figure le SEO. Framer comme Figma Site génère un code qui n'est pas optimisé pour le référencement Google. A l'opposé, Webflow affiche des sources optimisées. C'est aussi le cas de WordPress qui donne accès à des plugins comme Yoast SEO ou encore All in One SEO qui permettent d'aboutir à un site lisible par les robots de Google.</p>]]></description>
      <link>https://www.journaldunet.com/web-tech/1543337-comparatif-des-outils-de-creation-de-site-web-sans-code-webflow-remporte-la-bataille/</link>
      <guid>https://www.journaldunet.com/web-tech/1543337-comparatif-des-outils-de-creation-de-site-web-sans-code-webflow-remporte-la-bataille/</guid>
      <pubDate>Tue, 26 Aug 2025 10:24:00 +0200</pubDate>
    </item>
    <item>
      <title><![CDATA[Conditions météorologiques extrêmes en Europe : augmenter les capacités de calcul des data centers sans épuiser les ressources naturelles]]></title>
      <description><![CDATA[<p class="app_entry_lead">Alors que la demande en IA explose, Jeff Wittich, CPO d'Ampere Computing explique comment optimiser les infrastructures informatiques sans épuiser les ressources en eau et en énergie.</p><p>L’Europe traverse un été hors norme. Les vagues de chaleur record et les sécheresses prolongées font pression sur les ressources disponibles en eau et en énergie. Cette situation contraint les gouvernements à adopter <a href="https://www.datacenterdynamics.com/en/news/european-commission-to-launch-new-measures-to-stem-data-center-energy-consumption/">des mesures strictes</a>, notamment en régulant sévèrement les data centers gourmands en ressources.</p><p>Des analyses récentes de l’UE <a href="https://www.networkworld.com/article/4014956/datacenter-industry-calls-for-investment-after-eu-issues-water-consumption-warning.html">ont sonné l'alarme</a> : les data centers consomment des quantités excessives d’eau et d’énergie pour le refroidissement de leurs serveurs. La croissance des workloads d’IA ne fait qu’accroitre cette pression. La question n’est plus de savoir si la demande de puissance de calcul augmentera mais comment soutenir cette croissance sans aggraver la situation environnementale.</p><h2>Une solution évidente consiste à renforcer la puissance de calcul même des data centers existants.</h2><p>En optimisant l’efficacité de chaque watt d’électricité et la performance de chaque rack, il ne sera pas nécessaire de construire davantage de data centers, ce qui se traduit directement par une réduction des infrastructures, une baisse de la consommation électrique globale et une diminution des besoins en eau pour le refroidissement. La transition vers des infrastructures informatiques durables ne se limite pas à l'utilisation d'énergies plus propres ou à la conception de meilleurs systèmes de refroidissement. Elle implique également de réduire l'empreinte physique des systèmes informatiques eux-mêmes.</p><p>Pourtant, la réalité professionnelle actuelle connaît une tendance inverse : l'essor de l'IA pousse les organisations à se regrouper et à déployer des infrastructures plus importantes, souvent équipées de matériel hautement spécialisé qui chauffe et consomme énormément d'énergie. Si les gains d’efficacité ne progressent pas, l’industrie sera condamnée à une expansion incontrôlée de ses infrastructures, chaque nouveau data center aggravant l’empreinte environnementale globale.</p><p>Cette crise est déjà une réalité : plusieurs régions européennes bloquent ou retardent les permis de construction de nouveaux data centers face aux pénuries énergétiques et à l’opposition des communautés locales. Par exemple, l'opérateur du réseau irlandais <a href="https://apnews.com/article/ai-data-centers-ireland-6c0d63cbda3df740cd9bf2829ad62058">a suspendu</a> le raccordement de data centers au réseau dans la région de Dublin jusqu'en 2028. Les autorités locales ont rejeté des propositions en raison de préoccupations liées à la capacité du réseau électrique et ont invoqué l'insuffisance des infrastructures énergétiques. Dans ce contexte, l'efficacité des infrastructures ne constitue plus seulement un objectif technique, mais un enjeu déterminant pour les entreprises et les pouvoirs publics.</p><h2>L'industrie doit désormais se concentrer sur l'optimisation des performances réelles par watt, non seulement au niveau des puces, mais également au niveau des racks et de l'ensemble des systèmes.</h2><p>Ce niveau d'efficacité offre une grande flexibilité. Il permet aux fournisseurs cloud et IA d'évoluer sans modifier leur empreinte, de se déployer dans des environnements restreints et d'éviter de nouveaux conflits environnementaux et règlementaires.</p><p>Cette réalité impose une refonte radicale des architectures informatiques, où chaque décision technique doit désormais concilier deux impératifs : maximiser la performance par watt et intégrer en temps réel les innovations des processeurs les plus efficientes. Cela implique également de rééquilibrer les workloads et de concevoir des systèmes dont le débit est adapté à la consommation thermique et énergétique. L'efficacité énergétique ne peut plus être repoussée au second plan, elle doit devenir prioritaire.</p><p>Maximiser l’exploitation de chaque watt et chaque mètre carré dans les data centers existants, réduira radicalement le besoin d’en construire de nouveaux – une approche clé pour limiter la consommation d'eau et d'énergie, particulièrement cruciale dans les régions fortement impactées par le changement climatique. L’avenir de l’informatique durable repose sur l’optimisation intelligente des infrastructures actuelles plutôt que leur expansion aveugle.</p>]]></description>
      <link>https://www.journaldunet.com/ebusiness/telecoms-fai/1543717-conditions-meteorologiques-extremes-en-europe-augmenter-les-capacites-de-calcul-des-data-centers-sans-epuiser-les-ressources-naturelles/</link>
      <guid>https://www.journaldunet.com/ebusiness/telecoms-fai/1543717-conditions-meteorologiques-extremes-en-europe-augmenter-les-capacites-de-calcul-des-data-centers-sans-epuiser-les-ressources-naturelles/</guid>
      <pubDate>Fri, 08 Aug 2025 09:50:00 +0200</pubDate>
    </item>
    <item>
      <title><![CDATA[Smartphones et high-tech : pourquoi le reconditionné ne convainc pas encore le grand public ?]]></title>
      <description><![CDATA[<p class="app_entry_lead">Le reconditionné a, en théorie, tout pour séduire : des produits moins chers, une démarche plus durable, et une accessibilité en forte progression.</p><p>De la téléphonie aux consoles de jeux, en passant par l’électroménager ou les casques audio, l’offre s’est professionnalisée et étendue, poussée par des plateformes spécialisées, des acteurs de la distribution classique et l’émergence de nouvelles garanties qualité. Pourtant, dans les faits, le grand public reste encore frileux. Pourquoi ?</p><h2>Le reconditionné progresse, mais lentement</h2><p>Sur un marché toujours plus sensible au prix et à l’impact environnemental, on aurait pu s’attendre à une adoption massive. Pourtant, les données indiquent une dynamique ralentie, voire en recul. En 2024, par exemple, la part des recherches liées aux smartphones reconditionnés a baissé de 12 % par rapport à l’année précédente. Et selon une étude Kantar, 66 % des Français estiment que le neuf reste plus fiable, contre seulement 21 % pour le reconditionné.</p><h2>Des écarts de prix trop faibles pour basculer</h2><p>L’un des freins majeurs reste le niveau de prix. Dans l’imaginaire collectif, reconditionné rime avec bonnes affaires. Mais dans les faits, l’écart de prix entre le neuf (au meilleur tarif) et le reconditionné s’avère souvent trop faible pour justifier le compromis.</p><p>À titre d’exemple, selon les données relevées sur la plateforme de comparatif leDénicheur, l’analyse des prix des smartphones les plus populaires révélait que :</p><ul><li>L’iPhone 13 affichait un écart significatif (environ -35 %) entre le neuf et le reconditionné,</li>
<li>Mais pour deux modèles plus récents, comme l’iPhone 16 Pro Max ou le Galaxy S24, le reconditionné est parfois plus cher… voire simplement égal au neuf, avec un avantage inférieur à 7 %.</li>
</ul><p>Dans ces conditions, la majorité des consommateurs préfère investir dans un produit neuf, perçu comme plus fiable, mieux garanti, et sans "surprise" à la livraison.</p><h2>Des marketplaces qui brouillent les repères</h2><p>Ce phénomène s’explique notamment par l’agressivité tarifaire de certains vendeurs tiers sur les marketplaces, qui peuvent casser les prix du neuf jusqu’à rendre le reconditionné peu compétitif. Cette guerre des prix brouille les repères et complexifie la lecture pour les acheteurs.</p><h2>Apple, Samsung : deux visions, deux usages</h2><p>Les différences de comportement entre marques confirment cette tendance. Les produits Apple sont davantage recherchés en reconditionné que ceux de Samsung. Cela s’explique par :</p><ul><li>des prix neufs plus élevés pour les iPhones, rendant le reconditionné plus attractif, </li>
<li>une distribution plus massive des produits Samsung neufs à prix réduits via des vendeurs tiers.</li>
</ul><h2>Au-delà du smartphone, une adoption encore marginale</h2><p>Selon une étude du collectif “On passe la seconde”, seuls 14 % des Français déclarent privilégier le reconditionné pour leurs achats de matériel numérique, tandis que 73 % continuent de préférer le neuf, en particulier lorsqu’il est soldé ou en promotion.</p><p>Le smartphone reste la principale porte d’entrée vers le reconditionné, avec environ 14 % des recherches produits orientées vers ce segment. À titre de comparaison : 12 % pour les consoles de jeu, et entre 6 et 8 % pour les tablettes, casques audio ou montres connectées.</p><p>En somme, le reconditionné progresse, mais reste cantonné à certains usages spécifiques, souvent motivés par le prix initial élevé du neuf.</p><h2>La promesse ne suffit plus : il faut rassurer</h2><p>Aujourd’hui, la promesse d’un produit plus accessible et plus durable ne suffit plus à faire basculer l’acte d’achat. Ce qu’attendent les consommateurs, ce sont des garanties concrètes : transparence sur les tests effectués, clarté sur l’état réel du produit, lisibilité des grades (A, B, C…), politique de retour sans ambiguïté, véritable écart de prix justifié.</p><p>Le reconditionné n’a plus à démontrer sa légitimité. Il a à prouver sa fiabilité, sa transparence et sa valeur. Dans un marché ultra-concurrentiel, la confiance est la monnaie d’échange. Elle passe par des standards plus stricts, une meilleure lisibilité de l’offre, et une pédagogie renforcée. Le jour où un consommateur pourra acheter un smartphone reconditionné avec le même niveau de sérénité qu’un produit neuf, l’adoption suivra naturellement.</p>]]></description>
      <link>https://www.journaldunet.com/ebusiness/telecoms-fai/1543683-smartphones-et-high-tech-pourquoi-le-reconditionne-ne-convainc-pas-encore-le-grand-public/</link>
      <guid>https://www.journaldunet.com/ebusiness/telecoms-fai/1543683-smartphones-et-high-tech-pourquoi-le-reconditionne-ne-convainc-pas-encore-le-grand-public/</guid>
      <pubDate>Thu, 07 Aug 2025 10:38:00 +0200</pubDate>
    </item>
    <item>
      <title><![CDATA[Été, soleil… et blackout informatique : les 5 erreurs IT qui peuvent coûter très cher]]></title>
      <description><![CDATA[<p class="app_entry_lead">Chaque année, c'est la même chose : le mercure grimpe, les bureaux se vident… et les serveurs chauffent.</p><p>Chaque année, c’est la même chose : le mercure grimpe, les bureaux se vident… et les serveurs chauffent.<br />L’été est une saison à haut risque pour les infrastructures IT. Entre absences, pics de température et relâchement de la vigilance, certaines erreurs se paient comptant : pannes, pertes de données ou atteintes à la crédibilité.</p><p>Pourtant, la pause estivale peut, et doit, devenir un levier stratégique. À condition d’éviter ces 5 erreurs fréquentes :</p><h2>Erreur n°1 : penser que "tout ira bien"</h2><p>L’ennemi numéro un de l’IT en été, c’est le confort mental. Ce faux sentiment que l’activité ralentit, donc que les systèmes peuvent suivre.</p><p>Mauvaise nouvelle : les cyberattaques, elles, ne prennent pas de vacances. Pas plus que les incidents techniques.</p><p>Ce qui dort, meurt. Une infrastructure non monitorée et non testée devient une cible idéale.</p><h2>Erreur n°2 : laisser partir le seul expert IT sans relais</h2><p>L’humain reste la meilleure... et parfois la pire sécurité IT. Si votre DSI est sur une plage sans réseau, qui agit en cas de crise ?</p><p>Trop d’entreprises n’ont ni plan de continuité, ni remplaçant compétent identifié.</p><p>Un bon backup, ce n’est pas qu’un fichier. C’est une équipe.</p><h2>Erreur n°3 : reporter l’audit à la rentrée</h2><p>L’été est une opportunité en or pour faire ce qu’on repousse le reste de l’année :<br />auditer les serveurs, les droits d’accès, les sauvegardes, les pare-feux, la conformité RGPD…<br />Le calme relatif permet d’agir sans perturber les utilisateurs.</p><p>Ce qui ne se voit pas en septembre se prépare en juillet.</p><h2>Erreur n°4 : négliger la température ambiante</h2><p>Une salle serveur mal ventilée en plein mois d’août, c’est une bombe à retardement. Un seul pic de chaleur peut griller vos équipements.</p><p>Une infrastructure IT ne bronze pas : elle se refroidit.</p><p>Et si vous êtes dans le cloud, assurez-vous que vos prestataires respectent leurs engagements thermiques</p><p>et de disponibilité.</p><h2>Erreur n°5 : repousser les mises à jour de sécurité</h2><p>"On fera les updates à la rentrée" ? C’est une invitation directe aux ransomwares.</p><p>Chaque faille non corrigée est une porte ouverte.</p><p>L’été est justement idéal pour planifier les mises à jour critiques, sans pression utilisateur.<br />Sécuriser, c’est anticiper. Pas réparer.</p><h2>Moralité : profitez du soleil, pas des incidents</h2><p>L’IT ne prend pas de RTT. Préparez-la à survivre, et performer, même quand vous êtes loin.<br />L’été est une parenthèse à exploiter, pas une excuse à subir.</p>]]></description>
      <link>https://www.journaldunet.com/solutions/dsi/1543671-ete-soleil-et-blackout-informatique-les-5-erreurs-it-qui-peuvent-couter-tres-cher/</link>
      <guid>https://www.journaldunet.com/solutions/dsi/1543671-ete-soleil-et-blackout-informatique-les-5-erreurs-it-qui-peuvent-couter-tres-cher/</guid>
      <pubDate>Thu, 07 Aug 2025 10:30:00 +0200</pubDate>
    </item>
    <item>
      <title><![CDATA[Facturation électronique & réforme 2026 :  les bons réflexes à adopter pour réussir sa transition]]></title>
      <description><![CDATA[<p class="app_entry_lead">Alors qu'elle pourrait être perçue comme une nouvelle contrainte réglementaire, la facturation électronique représente un véritable bouleversement de l'écosystème comptable et fiscal.</p><p>A compter de 2026, près de 4 millions d’entreprises devront adopter la facturation électronique. Cette réforme n’est pas une simple mise à jour de logiciels, c’est une refonte structurelle ; qui touche les flux, les outils, les organisations, les responsabilités. C’est une transformation. Et à transformation, bonnes pratiques.</p><h2>Structurer sa trajectoire : cap sur la cartographie des flux</h2><p>Première erreur fréquente : croire que le projet commence par l’outil. Il commence par une cartographie. Une mise à plat exhaustive de tous les flux de facturation, entrants et sortants, dans tous leurs formats, circuits spécifiques (auto-facturation, multi-commandes, intra-groupe, <a href="https://www.journaldunet.com/affacturage/" title="Affacturages">affacturage</a>, notes de frais, acomptes…), et leurs particularités locales ou métiers.</p><p>Cette cartographie doit également intégrer le périmètre du e-reporting, en particulier la TVA sur encaissements. Ce travail permet non seulement d’identifier les cas d’usage, mais aussi de révéler les dysfonctionnements non identifiés de l’entreprise : processus non harmonisés, référentiels obsolètes, etc. </p><p>C’est aussi le moment d’évaluer la pertinence de l’existant, de repenser les cycles P2P et O2C, de poser les jalons d’une automatisation intelligente. Autrement dit, de transformer une contrainte en opportunité d’optimisation.</p><h2>Choix de la solution : ni précipitation, ni improvisation</h2><p>Ce n’est pas parce qu’un outil coche toutes les cases sur le papier qu’il est adapté. Le choix d’une solution doit être guidé par un cahier des charges précis, construit de façon transverse, intégrant à la fois les obligations réglementaires (notamment le e-reporting), ou encore les contraintes IT.</p><p>Des ateliers d’adéquation avec les éditeurs finalistes sont indispensables pour tester concrètement la gestion des cas complexes, l’ergonomie des interfaces, la logique des rejets, ou encore l’évolutivité de l’architecture.</p><p>Impliquer les utilisateurs finaux dès cette phase n’est pas une option, mais une condition de succès. Un outil, même performant, mal compris ou mal intégré, ne produira pas l’effet attendu. Rien de pérenne ne se fait sans embarquer les équipes dès le départ. </p><h2>Une des clés du succès ? La qualité des données</h2><p>La facturation électronique exige de l’exactitude. Si la donnée n’est pas fiable, les flux seront rejetés. SIRET inexacts, codes TVA absents, référentiels articles hétérogènes : chaque élément à son importance et doit être vérifié. </p><p>Nettoyer les bases, fiabiliser les référentiels, s’assurer que la bonne information soit au bon endroit, dans le bon format, devient une priorité. Et ce travail n’est pas uniquement technique, il est aussi organisationnel. Il implique de repenser les responsabilités : qui saisit, qui vérifie, qui valide, qui corrige ? Une gouvernance des données s’impose, avec des processus clairs et des outils adaptés.</p><p>La facturation électronique ne se limite pas à une obligation réglementaire.</p><p>C’est une opportunité pour les entreprises de rationaliser les processus, renforcer la qualité de l’information financière et réduire les charges administratives. Mais pour y parvenir, un trio de choc s’impose : méthode, ambition et vision long terme.</p>]]></description>
      <link>https://www.journaldunet.com/solutions/dsi/1543559-facturation-electronique-reforme-2026-les-bons-reflexes-a-adopter-pour-reussir-sa-transition/</link>
      <guid>https://www.journaldunet.com/solutions/dsi/1543559-facturation-electronique-reforme-2026-les-bons-reflexes-a-adopter-pour-reussir-sa-transition/</guid>
      <pubDate>Mon, 28 Jul 2025 10:18:00 +0200</pubDate>
    </item>
    <item>
      <title><![CDATA[Économiser n'est pas investir : la puissance publique face à ses contradictions]]></title>
      <description><![CDATA[<p class="app_entry_lead">Plutôt que d'imposer l'austérité sociale, l'État devrait mieux orienter ses achats publics pour relancer l'économie, soutenir l'emploi, relocaliser, générer des recettes et renforcer sa souveraineté.</p><p>Face à l’urgence budgétaire, l’exécutif envisage de tailler dans les dépenses sociales. Pourtant, un gisement d’économies et de relance existe : les achats publics. En les orientant stratégiquement, l’État peut soutenir l’emploi, renforcer sa souveraineté économique et générer des retombées fiscales. Une approche à repenser d’urgence.</p><h2>La tentation de l’austérité sociale</h2><p>La France doit trouver 40 milliards d’euros d’économies pour redresser ses comptes publics. C’est le chiffre officiel avancé par Bercy pour 2026. Mais que recouvre ce chiffre ? Pas une ligne budgétaire à couper au scalpel. Plutôt une équation douloureuse : rogner les retraites, comprimer la Sécurité sociale, toucher aux aides, toucher aux niches fiscales. Autrement dit, plonger les mains dans ce qui fait société.</p><p>Pourtant, il existe un autre levier, plus discret, moins explosif mais tout aussi puissant : les achats de l’État. Ils représentent près d’un quart de la dépense publique, soit 50 milliards d’euros par an<a href="https://www.economie.gouv.fr/dae/chiffres-cles">[1]</a>. Viser un dixième de cet effort permettrait d’économiser 5 milliards d’euros. C’est beaucoup, mais c’est aussi 50 fois 100 millions. C’est atteignable, si l’on identifie 50 poches de relocalisation ou d’optimisation de 100 millions chacune dans la machine publique. Ce n’est pas un objectif lointain, c’est une action concrète. </p><h2>Le cas DINUM : un choix à repenser économiquement</h2><p>Prenons un cas concret : le numérique (qui pèse 4 milliards/an) et la DINUM, la direction interministérielle du numérique. Elle a lancé un appel d’offre à 120 millions d’euros pour concevoir une suite logicielle interne destinée aux 2 millions d’agents de l’État. L’objectif est d’échapper à la dépendance aux GAFAM, notamment Microsoft. L’intention est louable. Mais dans les faits, l’État devient opérateur lui-même, en développant des outils au lieu de s’appuyer sur une filière d’éditeurs français déjà existante.</p><p>Ce choix freine la dynamique économique. En internalisant le développement, l’État ne génère ni retombées fiscales ni impact industriel. Aucune TVA, aucun IS, aucun emploi dans la filière logicielle nationale. Pire : dans de nombreux ministères, Microsoft reste massivement utilisé, parfois sous licence publique, parfois via des clouds non souverains. Résultat : on cumule les coûts sans réussir à basculer vers un modèle vertueux. C’est une double peine. Une sortie sèche de 120 millions, sans retour ni levier, doublée du maintien des dépenses privées vers l’étranger. </p><h2>Relocaliser les dépenses pour relancer l’économie</h2><p>À l’inverse, confier ce chantier à une filière logicielle française aurait permis une circulation vertueuse : développement local, prestations associées, hébergement, support, emplois, impôts. Une part des 120 millions serait revenue dans les caisses publiques via la fiscalité. Une autre aurait renforcé la base industrielle numérique du pays, ouvrant la voie à des reventes à d’autres administrations, collectivités ou à l’export. Ce n’est pas de l’idéologie mais de la macroéconomie appliquée. Les chaînes de valeur sont des leviers d’autonomie économique.</p><p>Une étude menée par le CIGREF et le cabinet Asterès le rappelle : chaque point de marché repris aux GAFAM crée un effet levier. L’Europe perd 264 milliards d’euros par an dans sa dépendance numérique, dont une part significative s’envole vers les États-Unis. La France importe chaque année 25 milliards d’euros de services numériques. Réorienter 5% de ces flux vers des acteurs européens générerait 12 milliards de valeur ajoutée et près de 180 000 emplois. Des chiffres à la hauteur de l’enjeu.</p><h2>Dépenser mieux, pas moins</h2><p>Le cas de la DINUM illustre le choix fondamental à faire : continuer de considérer les achats publics comme une dépense… ou les traiter comme un investissement productif au service de l’économie, de l’emploi et de la souveraineté.</p><p>La rigueur budgétaire ne doit pas étouffer l’économie. Couper dans les dépenses ne crée pas de richesse. Investir intelligemment peut en créer beaucoup.</p><p>Alors non, le choix n’est pas binaire entre austérité et laxisme. Il est entre passivité et stratégie, fuite des capitaux et circulation locale. Entre importation et production. Changer la logique des dépenses publiques n’est pas une utopie. C’est une stratégie. Diminuer, c’est mourir. Investir, c’est soutenir.</p><p><a>[1]</a> <a href="https://www.economie.gouv.fr/dae/chiffres-cles" target="_blank">Source</a></p>]]></description>
      <link>https://www.journaldunet.com/solutions/dsi/1543531-economiser-n-est-pas-investir-la-puissance-publique-face-a-ses-contradictions/</link>
      <guid>https://www.journaldunet.com/solutions/dsi/1543531-economiser-n-est-pas-investir-la-puissance-publique-face-a-ses-contradictions/</guid>
      <pubDate>Fri, 25 Jul 2025 10:17:00 +0200</pubDate>
    </item>
    <item>
      <title><![CDATA[Stratégie, transformation, technologie : les trois piliers d'un même moteur]]></title>
      <description><![CDATA[<p class="app_entry_lead">Stratégies éphémères, marchés instables : l'agilité, la tech et la transformation continue sont les nouveaux piliers de la performance.</p><p>Je suis convaincu que la stratégie, la transformation et la technologie ne sont pas des disciplines séparées, mais différentes facettes d’une même réalité. Les gérer de manière intégrée constitue un levier puissant pour favoriser un succès durable à long terme.</p><p>Pour comprendre pourquoi ces éléments doivent être pilotés comme un tout unifié, prenons un peu de recul :</p><h2>Stratégie : définir le "Pourquoi" et le "Quoi"</h2><p>La stratégie donne la direction. Elle définit où l’entreprise veut aller, son avantage concurrentiel et comment elle compte gagner. Une stratégie solide apporte de la clarté sur les priorités, les domaines d’investissement et les objectifs à long terme.</p><p>Cependant, une stratégie sans exécution n’est qu’une liste de souhaits. Sans transformation ni technologie, même la meilleure stratégie reste une vision théorique sans impact concret.</p><h2>Transformation : le "Comment"</h2><p>La transformation concerne l’exécution – elle garantit que l’organisation dispose des personnes, des processus, de la culture et de la gouvernance nécessaires pour concrétiser la stratégie. Cela peut impliquer la réorganisation des équipes, l’adoption de nouvelles méthodes de travail ou la redéfinition des modèles économiques.</p><p>Mais une transformation ne peut être pérenne sans technologie. Dans le monde numérique actuel, un changement impactant est impossible sans automatisation, données et prise de décision pilotée par l’IA. Les organisations qui se transforment sans intégrer la technologie au cœur de leur démarche rencontrent des inefficacités et une faible capacité d’évolution.</p><h2>Technologie : le catalyseur stratégique</h2><p>La technologie fournit les outils, plateformes et capacités pour exécuter la stratégie et mener la transformation à grande échelle. Qu’il s’agisse de cloud computing, d’IA, de systèmes ERP ou d’analytique de données, la technologie permet de transformer les idées stratégiques et les efforts de transformation en résultats concrets.</p><p>Cependant, la technologie isolée peut mener au gaspillage. De nombreuses organisations tombent dans le piège du "tout technologique", en déployant des outils sans alignement clair avec les objectifs business. C’est souvent la cause des échecs de projets – non pas à cause de la technologie elle-même, mais parce qu’elle n’est pas liée à une stratégie ou une transformation bien définie.</p><h2>Pourquoi ces trois éléments doivent être gérés comme un tout intégré</h2><p>Une stratégie portée par la technologie (et non un simple support IT) : autrefois, la technologie était perçue comme une fonction de support. Aujourd’hui, elle définit ce qui est possible en matière de business. L’IA, le cloud et l’automatisation ne sont pas de simples outils : ils façonnent la manière dont la stratégie est pensée et exécutée. Des entreprises comme Walmart ou Tesla ne considèrent pas la technologie comme une fonction IT, mais comme un pilier stratégique central de leur avantage concurrentiel.</p><p>Une transformation comme capacité continue, pas comme projet ponctuel : beaucoup d’entreprises voient la transformation comme une initiative temporaire avec un début et une fin. En réalité, la transformation est une capacité continue – les entreprises doivent évoluer, s’adapter et intégrer en permanence de nouvelles technologies (ce qui explique la fréquence des réorganisations !). Cela implique de créer une culture de l’adaptabilité, où la transformation est intégrée au quotidien plutôt que vécue comme une rupture périodique.</p><p>Une prise de décision pilotée par les données : une approche unifiée de la stratégie, de la transformation et de la technologie nécessite une base de données solide. Les organisations doivent exploiter l’analytique et l’IA pour mesurer en continu l’exécution stratégique, identifier les lacunes dans les initiatives de transformation et optimiser les investissements technologiques pour un impact business réel.</p><p>Les entreprises qui traitent la stratégie, la transformation et la technologie comme un tout intégré créent des avantages décisifs. Des organisations comme Nestlé, Unilever ou L’Oréal illustrent cette approche :</p><ul><li>Innovation plus rapide (elles peuvent pivoter rapidement face aux évolutions du marché),</li>
<li>Efficacité accrue (les investissements technologiques soutiennent directement les objectifs stratégiques, évitant les gaspillages),</li>
<li>Meilleure expérience client (l’alignement entre capacités digitales et objectifs business renforce l’engagement client),</li>
<li>Exécution renforcée (les efforts de transformation sont durables, pas de simples ajustements temporaires).</li>
</ul><p>Note : les opinions exprimées ici sont strictement personnelles et ne reflètent pas celles de mon employeur.</p>]]></description>
      <link>https://www.journaldunet.com/solutions/dsi/1543367-tech-with-a-twist-strategy-transformation-and-technology-three-facets-of-a-single-reality/</link>
      <guid>https://www.journaldunet.com/solutions/dsi/1543367-tech-with-a-twist-strategy-transformation-and-technology-three-facets-of-a-single-reality/</guid>
      <pubDate>Tue, 22 Jul 2025 10:59:00 +0200</pubDate>
    </item>
    <item>
      <title><![CDATA[L'industrie du haut débit en 2025 : entre la fin du cuivre, la fibre pour tous et les contraintes budgétaires]]></title>
      <description><![CDATA[<p class="app_entry_lead">En 2025, l'industrie française du haut débit doit concilier transition vers la fibre, contraintes budgétaires et hausse des besoins numériques pour assurer une connectivité durable et performante.</p><p>En 2025, le secteur français du haut débit se trouve à un tournant décisif. Alors que la fin programmée du réseau cuivre interroge sur l'accélération du déploiement de la fibre, en 2024, l’Arcep (Autorité de Régulation des Communications Electroniques, des Postes et de la distribution de la Presse) avait souligné la nécessité de garantir une couverture effective du territoire. Malgré les ambitions initiales du plan France <a href="https://www.journaldunet.fr/web-tech/dictionnaire-du-webmastering/1487601-test-debit-internet/" title="Haut débit">Très Haut Débit</a>, lancé en 2013 avec un objectif de 20 milliards d'euros sur dix ans, le ralentissement des déploiements observé en 2024, couplé à une réduction des financements publics, constitue un défi majeur pour les opérateurs. Dans ce contexte, la demande croissante en intelligence artificielle et en technologies émergentes augmente la pression sur les réseaux pour fournir une connectivité fiable et performante. </p><p>Le haut débit joue un rôle clé dans la stratégie économique de l'Europe, en facilitant le travail à distance, le commerce électronique et la télémédecine, et en stimulant l'innovation dans des secteurs vitaux pour l'avenir du continent. Pionnière dans ce domaine, la France a commencé très tôt à développer son infrastructure haut débit et est aujourd'hui un leader européen. Alors que l'Europe vise une couverture universelle d'ici 2030 dans le cadre de la Décennie numérique de l'UE, la France poursuit son engagement avec des déploiements ambitieux de <a href="https://www.journaldunet.com/ebusiness/telecoms-fai/fibre-optique/" title="Fibre optique">fibre optique</a> jusqu'à l'abonné (FTTH) et de fibre optique jusqu'au bâtiment (FTTB), afin de répondre à la demande toujours croissante de connectivité fluide et performante. </p><p>En 2025, l'industrie française du haut débit sera confrontée à un défi majeur. Alors que le plan d'Orange (principal opérateur de télécommunications en France) visant à supprimer le réseau en cuivre d'ici 2030 et l'objectif d'une connectivité Gigabit pour tous restent des priorités, la réduction des fonds publics rend plus difficile le financement des infrastructures et des mises à niveau des réseaux. Dans ce contexte, les avancées technologiques, notamment en matière d'intelligence artificielle et d'automatisation, renforcent le besoin de réseaux plus performants et plus fiables. Les opérateurs doivent donc concilier l'expansion de la fibre avec les contraintes budgétaires, tout en garantissant un accès de qualité à tous les utilisateurs. Par ailleurs, l'évolution du cadre réglementaire continue d'influencer la dynamique du marché, avec des répercussions pour les consommateurs comme pour les entreprises. </p><h2>Comment la consolidation des réseaux en fibre optique remodèle le marché du haut débit</h2><p>Toujours selon l'Arcep, la France compte actuellement plusieurs fournisseurs d'accès à Internet (FAI), allant des grandes marques nationales aux opérateurs alternatifs, souvent appelés altnets. Ces acteurs, qu'il s'agisse de géants établis des télécommunications ou de nouveaux entrants, se disputent l'avantage concurrentiel avec leurs réseaux de fibre optique, chacun apportant ses forces et ses faiblesses sur le marché. </p><p>À mesure que la couverture devient plus omniprésente, le marché favorise plus en plus les entreprises capables de réaliser des économies d'échelle. Cette tendance à la consolidation des réseaux de fibres optiques, marquée par de nombreuses fusions et acquisitions, est visible sur les marchés européens. Les acquéreurs profitent généralement d'acquisitions ciblées en étendant rapidement leur infrastructure de réseau à des coûts nettement inférieurs, ce qui leur évite de devoir tout construire eux-mêmes. </p><p>Par exemple, des opérateurs alternatifs tels que <a href="https://www.teamfrance-export.fr/infos-sectorielles/33735/33735-sky-sallie-a-cityfibre-pour-proposer-une-offre-haut-debit-sur-la-fibre" target="_blank">CityFibre au Royaume-Uni ont conclu des partenariats stratégiques avec des fournisseurs de services nationaux afin d'étendre leur portée et leur clientèle</a>. Bien qu'il existe des différences sur le marché français, la dynamique de consolidation et de collaboration entre les opérateurs historiques et les opérateurs alternatifs pour répondre à la demande croissante de connectivité à large bande est similaire. </p><h2>Une approche collaborative de l'expansion des réseaux </h2><p>Parallèlement à la vague de consolidation, le modèle d'accès ouvert continue de se développer. Dans ce modèle, plusieurs opérateurs partagent l'infrastructure existante pour se connecter à un réseau unique, ce qui offre aux abonnés davantage d'options et favorise la concurrence entre les fournisseurs. Dans un environnement approprié, il peut s'agir d'une situation gagnant-gagnant, réduisant l'investissement initial en capital pour chaque opérateur, atténuant les risques et faisant baisser les prix pour les utilisateurs finaux. </p><p>Le développement du modèle d'accès ouvert est aujourd'hui principalement motivé par les conditions du marché. Alors que les fournisseurs envisagent de s'étendre au-delà de leurs zones de service actuelles, l'accès ouvert offre un moyen plus simple et plus rentable d'accroître leur base d'abonnés. L'accès ouvert comporte également des défis, tels que le manque de respect pour les infrastructures partagées et la nécessité de réparer les réseaux - un sujet qui a occupé l'Arcep et les opérateurs ces dernières années en France. </p><h2>Plan France Très Haut Débit : le très haut débit pour tous </h2><p>La stratégie française en matière de haut débit est guidée par le <a href="https://www.economie.gouv.fr/treshautdebit/lessentiel" target="_blank">Plan France Très Haut Débit</a> (PFTHD), qui avait fixé l'objectif d'une <a href="https://anct.gouv.fr/programmes-dispositifs/france-tres-haut-debit" target="_blank">couverture à 100 % en haut débit avec des vitesses d'au moins 30 Mbps d'ici 2022</a>. En 2025, la France vise à atteindre une couverture FTTH/B de 98%, avec des stratégies distinctes pour les zones à forte densité, où les opérateurs privés mènent les déploiements, et les zones rurales, où les réseaux d'initiative publique (RIP) bénéficient d'un financement public. </p><p>Selon l'autorité de régulation des télécoms, l'Arcep, la couverture en fibre optique en France a atteint 91 % à la fin décembre 2024. Sur les 44,6 millions de locaux recensés par les opérateurs, 40,6 millions sont raccordables à la fibre, tandis que 4 millions restent à rendre raccordables.* Ces avancées confirment les progrès significatifs réalisés par la France en matière d'infrastructures haut débit, malgré les ralentissements ces dernières années. </p><p>Par rapport à plusieurs autres pays, la France a identifié très tôt le potentiel de la fibre optique et a commencé à investir dans le déploiement du réseau. Ces investissements substantiels ont permis à la France d'assurer une transition en douceur vers la fibre optique pour les ménages et les entreprises au cours des dernières années. Avec une infrastructure de fibre optique en constante augmentation, la France est en bonne voie pour atteindre une couverture nationale FTTH/B, créant ainsi une base solide pour la croissance numérique et la connectivité futures. </p><h2>Des réseaux à l'épreuve du temps : s'adapter à la demande d'IA et au passage du cuivre à la fibre optique </h2><p>À mesure que le développement de l'IA passe des modèles de formation aux applications pratiques, la demande de puissance de calcul va évoluer, rapprochant les capacités de traitement des utilisateurs finaux. En conséquence, les réseaux longue distance devront évoluer et devenir plus puissants et plus souples pour répondre à ces nouveaux besoins. </p><p>Depuis plus d'un siècle, les câbles en cuivre sont utilisés pour transmettre des données et des communications vocales, mais leur vieillissement entraîne des coûts de maintenance élevés et ils ne répondent plus aux exigences croissantes en matière de connectivité. La fibre optique, en revanche, offre une bande passante supérieure, une plus grande fiabilité et une sécurité accrue, tout en <a href="https://europacable.eu/wp-content/uploads/2022/07/Europacable-Whitepaper-on-Energy-Efficiency-of-Fiber-networks-05-July-2022.pdf" target="_blank">réduisant les coûts d'exploitation et la consommation d'énergie jusqu'à 54% par rapport aux réseaux en cuivre,</a> comme le souligne un livre blanc de Corning. Plus durable, la fibre résiste aux intempéries et aux interférences électromagnétiques, ce qui limite les besoins de maintenance. Malgré certains défis réglementaires, ses avantages en termes de performances et de durabilité en font l'investissement à long terme le plus approprié.</p><h2>Conclusion </h2><p>Alors que l'industrie du haut débit se tourne vers l'avenir, il est évident que la planification des réseaux doit aller au-delà des demandes actuelles et se concentrer sur la préparation des besoins futurs. La numérisation croissante dans tous les secteurs entraîne la demande de réseaux résilients et évolutifs capables de fournir une connectivité à très haute capacité. La fibre reste le fondement de cette évolution, car elle fournit l'infrastructure essentielle nécessaire pour répondre aux demandes actuelles et futures en matière de débit. Les entreprises qui fournissent des solutions avancées en fibre optique continuent de jouer un rôle crucial dans l'évolution des télécommunications. </p><p>L'année 2025 devrait offrir d'importantes opportunités, car la dynamique du marché évolue et les technologies de rupture telles que l'IA continuent de progresser. Les opérateurs doivent s'efforcer de s'adapter à ces changements, la fibre optique jouant un rôle central dans l'apport d'une connexion à haut débit aux foyers et aux entreprises. Grâce à des investissements durables dans les infrastructures et l'innovation, le secteur est bien placé pour relever les défis à venir. La connectivité devenant un moteur de plus en plus vital du progrès et de la compétitivité mondiale, les prochaines étapes seront façonnées par ceux qui adoptent une infrastructure de pointe et à l'épreuve du temps.</p><p>*<a href="https://www.arcep.fr/actualites/actualites-et-communiques/detail/n/marche-du-haut-et-du-tres-haut-debit-fixe-130325.html" target="_blank">Marché du haut et du très haut débit fixe | Arcep</a></p>]]></description>
      <link>https://www.journaldunet.com/ebusiness/telecoms-fai/1543437-l-industrie-du-haut-debit-en-2025-entre-la-fin-du-cuivre-la-fibre-pour-tous-et-les-contraintes-budgetaires/</link>
      <guid>https://www.journaldunet.com/ebusiness/telecoms-fai/1543437-l-industrie-du-haut-debit-en-2025-entre-la-fin-du-cuivre-la-fibre-pour-tous-et-les-contraintes-budgetaires/</guid>
      <pubDate>Tue, 22 Jul 2025 10:53:00 +0200</pubDate>
    </item>
    <item>
      <title><![CDATA[Pour consolider la souveraineté numérique, l'open source est indispensable]]></title>
      <description><![CDATA[<p class="app_entry_lead">L'open source offre un équilibre bénéfique entre innovation et souveraineté, grâce à l'autonomie stratégique que cette approche apporte.</p><p>Il n’a jamais été autant question de souveraineté numérique qu’aujourd’hui, sous l’effet de plusieurs facteurs : renforcement des tensions géopolitiques, enjeux autour de la protection des données personnelles, pouvoirs technologiques concentrés dans les mains d’un petit nombre d’acteurs non-européens. Garantir l’autonomie stratégique de l’Europe, tout en préservant sa compétitivité au niveau international, constitue un défi majeur auquel il faut savoir faire face.</p><p>Pour cela, le choix de l’<a href="https://www.journaldunet.com/solutions/open-source/" title="Open source">open source</a> s’avère stratégique. En premier lieu parce qu’il n’implique aucune frontière, un argument de poids pour assurer la souveraineté numérique. Deuxièmement parce que le modèle de développement proposé par l’open source est à la fois transparent, collaboratif et résilient, et qu’il se différencie des solutions propriétaires, tout en incarnant pleinement les valeurs européennes.</p><h2>Adopter un système plus équilibré et durable</h2><p>A l’heure actuelle, il est impossible d’innover sans passer par une approche de collaboration à l’échelle internationale. C’est également l’approche des projets open source, qui sollicitent des contributeurs du monde entier, tout en empêchant toute organisation ou nation de s’attribuer la propriété du code. Un code open source est, par définition, libre, global, et exempt de toute loi extraterritoriale. Ce principe facilite la réversibilité au moment où un contrat d’exploitation avec un fournisseur tiers prend fin, lorsqu’un utilisateur réclame la récupération de ses données.</p><p>Cet avantage signe la fin du modèle dit "de vendor lock-in", selon lequel un utilisateur était contraint de conserver un produit ou un service d’un même fournisseur, sans pouvoir en changer. Il est attendu des fournisseurs de services open source et éditeurs une qualité et une complétude irréprochables sur l’ensemble de la chaîne de valeur, et ce, qu’ils facturent des prestations ou des souscriptions. Cela doit porter aussi bien sur les spécifications fonctionnelles et techniques, le développement de tests unitaires d’intégration, des tests fonctionnels techniques, des tests de performance, de sécurité et de compatibilité ascendante et descendante, ainsi que le support technique et l’accès aux bases documentaires. Les utilisateurs ont la possibilité de choisir le partenaire qu’ils souhaitent, grâce à des modèles économiques construits autour de l’open source, afin de simplifier au maximum cette décision.</p><p>Grâce au code sous licence open source reconnue, comme Apache ou GPL-GNU, les utilisateurs ne sont pas prisonniers et peuvent l’utiliser, le modifier, le partager et le distribuer, sans devoir passer par un partenaire privilégié.</p><h2>L’open source correspond aux exigences de souveraineté</h2><p>Les deux arguments au cœur de l’ADN de l’open source sont la transparence et la sécurité, grâce à la capacité des logiciels open source de laisser n’importe quel utilisateur accéder au code source. Les vulnérabilités de sécurité peuvent ainsi être rapidement identifiées et corrigées, ce qui diminue la possibilité d’une cyberattaque ou d’espionnage.</p><p>L’élément clé d’une véritable souveraineté numérique est l’indépendance technologique. Dans le cas de l'open source, les utilisateurs bénéficient d’une alternative aux solutions propriétaires. L’utilisation et le développement de logiciels open source permet aux organisations publiques ou privées de réduire leur dépendance envers les fournisseurs. Afin de simplifier la gestion des logiciels et des déploiements open source pour les utilisateurs, qui peut au final se révéler difficile, laborieuse et chère en ressources (aussi bien le temps, les processus et les compétences), certains modèles économiques peuvent s’occuper du problème en toute intelligence. Il peut s’agir d’éditeurs ayant un modèle de développement open source, de partenaires technologiques, ou encore d’acteurs indépendants, de consortiums, de cabinets de conseils spécialisés, de fournisseurs de cloud globaux ou régionaux (dont certains portent des qualifications de sécurité impressionnantes).</p><p>Dans le cadre du contexte numérique actuel, il n’y a plus de doute sur le fait que la souveraineté numérique est une nécessité et non un luxe. Avec une dépendance accrue aux données et à la technologie, il est primordial de garantir le contrôle, la sécurité et l'autonomie. Pour garantir aux individus, aux organisations et aux nations une autodétermination sur leur existence numérique, il est indispensable de choisir des technologies ouvertes, des environnements cloud hybrides et, de plus en plus aujourd’hui, des initiatives pour une IA souveraine.</p><p>Puisque la collaboration internationale est inévitable, s’appuyer sur l’open source permet de créer un équilibre bénéfique entre innovation et souveraineté, grâce à l’autonomie stratégique que l’open source apporte. En n’ayant aucune frontière, et en offrant à la fois transparence, sécurité, indépendance, innovation, l’open source est la réponse parfaite à cette évolution et permet aux entreprises et administrations de renforcer la protection de leurs infrastructures.</p>]]></description>
      <link>https://www.journaldunet.com/solutions/dsi/1543317-pour-consolider-la-souverainete-numerique-l-open-source-est-indispensable/</link>
      <guid>https://www.journaldunet.com/solutions/dsi/1543317-pour-consolider-la-souverainete-numerique-l-open-source-est-indispensable/</guid>
      <pubDate>Fri, 18 Jul 2025 19:15:00 +0200</pubDate>
    </item>
    <item>
      <title><![CDATA[Feux de forêt : articuler l'humain et la technologie pour une meilleure prévention]]></title>
      <description><![CDATA[<p class="app_entry_lead">Si la technologie semble incontournable, elle est indissociable d'une vraie réflexion à mener sur notre rapport au vivant et notamment vis-à-vis de la prise en charge de sa protection.</p><p>Il n'y a plus de saison des feux. Un constat qui inquiète autant qu’il interroge sur notre capacité, en tant que société, à offrir une réponse adéquate et pérenne à cette nouvelle réalité incarnée par l’essor des mégafeux. Si la technologie semble incontournable, elle est indissociable d’une vraie réflexion à mener sur notre rapport au vivant et notamment vis-à-vis de la prise en charge de sa protection. Cela ne pourra que renforcer une mobilisation et une prévention d’ores et déjà bien en place.</p><h2>La valeur du sauvé : une piste pour améliorer la prévention</h2><p>Les prévisions pour 2050 n’ont pas de quoi rassurer : selon les scénarios envisagés, une augmentation significative des surfaces brûlées serait inévitable, pouvant aller de +80% jusqu’à un triplement des zones affectées. Le réchauffement climatique et la gestion inégale des forêts en sont les principales causes. Pour autant, il n’est pas question de pointer un ou plusieurs responsables car les différents acteurs de la forêt se mobilisent déjà intensivement au quotidien. La gestion des petits feux s’est d’ailleurs grandement améliorée, réduisant paradoxalement le nombre d’incendies ces dernières décennies en France selon François Plimont<a href="https://www.journaldunet.com/solutions/dsi/1543319-feux-de-foret-articuler-l-humain-et-la-technologie-pour-une-meilleure-prevention/#_ftn1">[1]</a>, ingénieur de recherche en écologie des forêts méditerranéennes à l’INRAE.</p><p>Certes, la synergie entre les acteurs politiques, les services de secours, les acteurs économiques, les propriétaires de forêt et exploitants pourraient être plus efficaces mais ce n’est pas là le seul point d’amélioration. Aujourd’hui, il est difficile d’améliorer l’impact des dispositifs de prévention car les dégâts sur les forêts n’ont pas forcément de valeur monétaire, surtout si aucune exploitation ou habitation n’est touchée. Dès lors, pourquoi ne pas introduire la valeur du sauvé d’un point de vue assurantiel afin de quantifier véritablement le risque incendie et ainsi de décider ce qui doit être protégé ? Traduire la réalité des feux de forêt en chiffres semble essentiel pour justifier et légitimer les investissements réalisés au titre de la prévention incendie. Cela permettra d’améliorer les modèles de prévention et de les répliquer à l’échelle du territoire.</p><p>N'oublions pas que derrière une forêt brûlée, c’est tout un tissu économique incarné pas des acteurs engagés qui est touché. Mais au-delà des considérations économiques, nous devons repenser notre rapport au vivant ; comprendre que notre patrimoine naturel n’est pas éternel. Et il ne s’agit pas tant d’une réflexion personnelle que d’une vision sociétale à même de mieux calibrer nos actions préventives dans les années à venir. </p><h2>La technologie, une solution à double tranchant</h2><p>Pour mieux anticiper et endiguer les feux et notamment les mégafeux, l’usage de solutions spécifiquement dédiées à la surveillance et à la détection des incendies est inévitable. Au regard des immenses dégâts causés par les mégafeux qui deviennent rapidement incontrôlables, la technologie donne l’occasion aux acteurs mobilisés de pouvoir intervenir plus rapidement afin d’éviter que les feux n’atteignent une taille à laquelle il sera difficile de les maîtriser. Analyse de données météorologiques, drones équipés de caméras infrarouges pour surveiller les zones à risques ou encore utilisation de capteurs IoT pour améliorer les simulations au sein des zones inaccessibles, les dispositifs sont à la fois nombreux et complémentaires.</p><p>Si nous reconnaissons l’intérêt de l’approche technologique pour lutter contre les feux de forêt, elle ne peut être dissociée d’une réflexion sur son impact. Dans le cadre des politiques de prévention, nous avons le devoir de ne pas détourner le regard face au coût environnemental des solutions technologiques qui peuvent contribuer indirectement à l’aggravation du risque incendie. Ces dernières ne sont en rien des remèdes miracles et elles doivent être pleinement justifiées afin de s’insérer intelligemment aux moyens d’action existants. Ici, la cohérence et la complémentarité doivent primer pour parvenir à une gestion plus globale des feux de forêt. </p><p><a href="https://www.journaldunet.com/solutions/dsi/1543319-feux-de-foret-articuler-l-humain-et-la-technologie-pour-une-meilleure-prevention/#_ftnref1">[1]</a> « Commission de l’aménagement du territoire et du développement durable : compte rendu de la semaine du 13 juin 2022 : Prévention et lutte contre l'intensification et l'extension du risque d’incendie ».</p>]]></description>
      <link>https://www.journaldunet.com/solutions/dsi/1543319-feux-de-foret-articuler-l-humain-et-la-technologie-pour-une-meilleure-prevention/</link>
      <guid>https://www.journaldunet.com/solutions/dsi/1543319-feux-de-foret-articuler-l-humain-et-la-technologie-pour-une-meilleure-prevention/</guid>
      <pubDate>Fri, 18 Jul 2025 19:09:00 +0200</pubDate>
    </item>
    <item>
      <title><![CDATA[Téléphonie d'entreprise : pourquoi les GAFAM ne sont pas la panacée]]></title>
      <description><![CDATA[<p class="app_entry_lead">Standardisation, support distant, souveraineté floue… et si les solutions télécoms des GAFAM n'étaient pas la réponse idéale pour toutes les entreprises ?</p><p>Quand on parle de téléphonie d’entreprise, il est tentant de se tourner vers des solutions proposées par les géants américains du numérique – Microsoft, Google, Amazon ou encore Meta, parfois regroupés sous l’acronyme <a href="https://www.journaldunet.com/gafa/" title="Gafa">GAFAM</a>. Après tout, ces sociétés sont devenues des références incontournables pour la productivité et la collaboration. Leur promesse ? Une solution clé en main, intégrée, accessible, simple à déployer. Et pour certaines entreprises, c’est exactement ce qu’il faut.</p><p>Mais comme pour un restaurant qui propose un menu fixe, ce qui convient parfaitement à certains ne conviendra pas à d’autres. Certaines entreprises ont besoin d’une offre plus flexible, plus personnalisable, qui s’adapte à leurs réalités métier et à leurs exigences en matière de performance et de sécurité.</p><h2>Standardisation vs personnalisation : un choix stratégique</h2><p>Les solutions des GAFAM sont conçues pour un marché global. Leur approche est généraliste, avec des fonctionnalités pensées pour convenir au plus grand nombre. C’est efficace, mais pas toujours optimal.</p><p>À l’inverse, les opérateurs télécoms spécialisés, qui conçoivent et éditent leurs propres solutions, travaillent sur mesure. Une entreprise avec un service client à forte volumétrie, par exemple, n’a pas les mêmes besoins qu’une PME qui veut simplement moderniser son système de téléphonie. Avec un opérateur télécom dédié, on peut vraiment ajuster la solution à chaque usage. C’est, par exemple, particulièrement vrai pour des secteurs où la disponibilité et la continuité du service sont critiques, comme les cabinets médicaux qui doivent assurer une accessibilité totale à leur patientèle, ou encore les notaires et avocats, qui ont besoin d’une gestion téléphonique sécurisée et d’une intégration fluide avec leurs outils métier.</p><h2>L’enjeu du support : un accompagnement qui fait la différence</h2><p>Si vous avez déjà essayé de résoudre un problème technique avec une grande plateforme, vous savez que le support peut être… compliqué. FAQs, chatbots, tickets en attente… Quand la téléphonie est au cœur de votre activité, avoir un interlocuteur humain qui comprend vos enjeux, ça change tout.</p><p>Les opérateurs spécialisés offrent un support technique réactif et proche de leurs clients. Mais aussi une expertise sectorielle (santé, finance, retail, etc.) pour adapter les solutions aux besoins métier. Ou encore, un accompagnement sur la durée, pas seulement à la mise en place du service.</p><h2>Sécurité et souveraineté : des critères qui comptent</h2><p>Les GAFAM ont une approche centralisée du cloud, souvent avec des serveurs situés en dehors de l’Europe. Pour certaines entreprises, cela pose des questions de confidentialité, de conformité au RGPD et de souveraineté des données.</p><p>Les opérateurs télécoms européens proposent une approche plus locale, avec des infrastructures conformes aux réglementations en vigueur. Ce qui, pour des secteurs sensibles (juridique, santé, services financiers…), peut représenter un critère décisif. L'UCaaS combiné à une infrastructure cloud sécurisée et hébergée en Europe permet de garantir un chiffrement des communications et un strict respect des normes RGPD.</p><h2>La vraie question : quelle solution sert le mieux votre entreprise ?</h2><p>Soyons clairs : toutes les entreprises n’ont pas les mêmes besoins. Certaines privilégient une solution standardisée et simple à intégrer, tandis que d’autres ont besoin d’un accompagnement plus poussé et de garanties spécifiques. Les solutions télécoms des GAFAM conviennent aux entreprises recherchant une approche clé en main, mais celles qui ont des exigences en matière de personnalisation, de support humain ou de sécurité gagneront à s’orienter vers un opérateur spécialisé.</p><p>Par ailleurs, toutes les entreprises n’ont pas le même niveau de maturité numérique. Pour certaines grandes structures, la question est simplement d’optimiser une infrastructure déjà en place - tandis que pour plus de 25% des TPE et PME françaises, la migration des lignes analogiques vers la fibre n’a même pas encore été effectuée (<a href="https://www.francenum.gouv.fr/guides-et-conseils/strategie-numerique/comprendre-le-numerique/barometre-france-num-2024-perception#fibre" target="_blank">source</a>) ! Repousser trop longtemps la transition technologique expose les entreprises à des risques de rupture de service. Avec l’arrêt progressif des infrastructures analogiques, anticiper ces évolutions est essentiel pour garantir une continuité des communications et rester compétitif.</p><p>Alors, GAFAM ou opérateurs télécoms ? En fin de compte, l’important est de choisir en connaissance de cause : selon le niveau de maturité numérique, le secteur d’activité et les priorités de chaque entreprise.</p>]]></description>
      <link>https://www.journaldunet.com/ebusiness/telecoms-fai/1543365-telephonie-d-entreprise-pourquoi-les-gafam-ne-sont-pas-la-panacee/</link>
      <guid>https://www.journaldunet.com/ebusiness/telecoms-fai/1543365-telephonie-d-entreprise-pourquoi-les-gafam-ne-sont-pas-la-panacee/</guid>
      <pubDate>Fri, 18 Jul 2025 19:05:00 +0200</pubDate>
    </item>
    <item>
      <title><![CDATA[Facturation électronique obligatoire : l'archivage légal, angle mort de la réforme ?]]></title>
      <description><![CDATA[<p class="app_entry_lead">Face à l'arrivée de la facturation électronique obligatoire, les entreprises ne doivent pas faire l'impasse sur l'archivage légal qui reste leur obligation.</p><p>À partir de septembre 2026, la réforme de la facturation électronique entrera en vigueur. Elle imposera à toutes les entreprises françaises l’émission et la réception de <a href="https://www.journaldunet.fr/management/guide-du-management/1504557-facture-mention-obligatoire-et-conseils-pour-l-etablir/" title="Facture">factures</a> électroniques structurées, seules recevables en cas de contrôle fiscal.</p><p>Dans ce contexte, l’attention se focalise logiquement sur les plateformes de <a href="https://www.journaldunet.com/solutions/intranet-extranet/dematerialisation/" title="Dématérialisation">dématérialisation</a> partenaires (PDP), au cœur du dispositif. Pourtant, un autre pan fondamental reste trop souvent relégué au second plan : l’archivage électronique.</p><p>Bien plus qu’un simple stockage, l’archivage légal constitue une condition implicite mais essentielle de la conformité. Si nombre d’entreprises comptent sur leur PDP pour gérer l’ensemble du processus, il est essentiel de rappeler que ces plateformes n’ont aucune obligation en matière d’archivage légal. Il revient donc aux entreprises de définir clairement leurs besoins en matière de gestion, de transmission et de conservation des factures, afin de s’assurer du respect des exigences légales imposées par les autorités.</p><h2>Un cadre encore flou : le vide réglementaire de l’archivage légal</h2><p>En effet, à l’approche de la généralisation de la facture électronique, un point critique reste insuffisamment cadré : l’archivage. Car :</p><ul><li>L’administration fiscale peut exercer son droit de reprise pendant six ans,</li>
<li>Tandis que le Code du commerce impose quant à lui une conservation de documents comptables et commerciaux pendant six à dix ans.</li>
</ul><p>Ainsi, la réglementation actuelle ne prévoit aucune obligation d’archivage à la charge des PDP après la transmission des factures.  D’où l’importance de sélectionner une PDP capable d’assurer, en plus de la transmission, un archivage légal à valeur probante, afin de sécuriser pleinement vos obligations fiscales et légales.</p><p>Dans ce contexte, il faut bien noter que l’archivage ne peut se limiter à un simple stockage de fichiers numériques. Il s’agit d’un processus encadré visant à garantir que chaque document puisse servir de preuve fiable, recevable lors d’un <a href="https://www.journaldunet.fr/patrimoine/guide-des-finances-personnelles/1202033-controle-fiscal-entreprise-et-particulier-qui-est-concerne/" title="Contrôles fiscaux">contrôle fiscal</a>, d’un audit ou d’un contentieux. Un véritable archivage à valeur probante repose sur trois piliers essentiels, tels que définis par la norme NF Z42-013 : l’authenticité (tracer l’origine du document), l’intégrité (garantir qu’il n’a pas été altéré) et la lisibilité (assurer sa lisibilité dans le temps). Sans ces garanties, les documents archivés pourraient être considérés comme juridiquement irrecevables.</p><h2>Changement de PDP : un point de rupture possible</h2><p>A ce flou réglementaire, s’ajoute une autre difficulté : le changement de PDP. Ce type de transition, bien que permise par la réforme, peut avoir des conséquences lourdes si la migration documentaire n’est pas rigoureusement encadrée.</p><p>Changer de plateforme ne signifie pas simplement transférer des fichiers : il faut aussi préserver tous les éléments qui garantissent la valeur probante des factures (cf. signature électronique, horodatage, empreinte numérique).</p><p>Sans cette rigueur, une facture pourtant conforme à l’origine peut perdre toute valeur légale après migration. Et lors d’un contrôle fiscal ou d’un audit, elle pourrait tout simplement être rejetée comme preuve.</p><h2>Les risques d’un archivage incomplet ou mal maîtrisé</h2><p>Face à toutes ces considérations, en cas de défaut de conservation probante, les entreprises s’exposent à des sanctions financières et administrative lourdes :</p><ul><li>En cas de non-représentation des factures à l’administration fiscale dans le délai légal de six ans, une amende pouvant aller jusqu’à 10 000 euros peut être encourue.</li>
<li>A cela peut s’ajouter : rejet de comptabilité par l’administration fiscale, redressement, voire exclusion temporaire des marchés publics.</li>
</ul><h2>Mais comment anticiper les enjeux de l’archivage à valeur probante ?</h2><ul><li>Opter pour une PDP qui garantit un stockage sécurisé des factures dans les durées réglementaires imposées par l’administration fiscale et le code du commerce,</li>
<li>Mettre en place un système d’archivage électronique à valeur probante, conforme à la norme NF Z42-013/ NF 461, pour assurer l’intégrité, la traçabilité et la restitution des factures dans le temps ;</li>
<li>Conserver les factures dans leur format d’origine, que ce soit en PDF, XML ou autre, afin de garantir leur authenticité et répondre aux exigences de contrôle fiscal et comptable ;</li>
<li>Bien choisir sa PDP et/ ou anticiper un éventuel changement de PDP, en prévoyant des mécanismes de portabilité et d’exportation sécurisée des archives pour ne pas perdre la valeur probante des documents dans le temps ;</li>
<li>Compléter l’archivage PDP par une politique d’archivage interne, permettant de centraliser, historiser et sécuriser toutes les versions et formats des factures, y compris celles reçues via d'autres canaux.</li>
</ul><p>En l’absence d’un cadre unifié entre les obligations de la réforme et celles du droit fiscal et commercial, c’est bien à l’entreprise qu’incombe la responsabilité de garantir la pérennité et la conformité de ses archives. Un enjeu stratégique, souvent sous-estimé, mais crucial en cas de contrôle.</p><p>Si, la facture électronique marque un tournant, son efficacité dépendra de la capacité des entreprises à sécuriser leur archivage sur le long terme. Il est essentiel d’anticiper, de structurer et de reprendre le contrôle sur la conservation des factures. Au-delà d’une exigence légale, c’est un enjeu de confiance, de conformité et de pérennité. Dans un univers de plus en plus numérique, la mémoire des documents reste le socle de toute gouvernance saine.</p>]]></description>
      <link>https://www.journaldunet.com/solutions/dsi/1543161-facturation-electronique-obligatoire-l-archivage-legal-angle-mort-de-la-reforme/</link>
      <guid>https://www.journaldunet.com/solutions/dsi/1543161-facturation-electronique-obligatoire-l-archivage-legal-angle-mort-de-la-reforme/</guid>
      <pubDate>Wed, 16 Jul 2025 15:05:00 +0200</pubDate>
    </item>
    <item>
      <title><![CDATA[Développer les services dans l'A&D : la "mission readiness" comme nouveau standard ?]]></title>
      <description><![CDATA[<p class="app_entry_lead">Dans l'aéronautique et la défense, l'enjeu n'est plus simplement de livrer, mais d'assurer la performance continue. Place à une approche orientée usage, data et services.</p><p>Pendant longtemps, les grands acteurs de l’aéronautique et de la défense se sont surtout concentrés sur la conception et la livraison d’appareils (avions, satellites, systèmes embarqués…). Nous assistons depuis quelques années à un changement de paradigme.   Aujourd’hui, des efforts sont réalisés pour donner de la visibilité et des insights tout au long du cycle de vie des systèmes qui doivent rester disponibles, opérationnels et surtout pertinents ! On parle ainsi de "mission readiness" (ou maintien en conditions opérationnelles). Autrement dit, il s’agit de rester près des clients !</p><h2>Avion livré ou avion disponible ?</h2><p>Airbus, clairement, n’est plus un simple fabricant d’avions. Le groupe s’est engagé dans une logique de services à travers des solutions comme la prédiction des pannes ou l’optimisation des cycles de maintenance. Sur la maintenance, il faut se rappeler qu’il s’agit du deuxième poste de coût pour une compagnie aérienne.</p><p>Mais comment agir sur cet axe ? Airbus propose des dispositifs capables de capter les données terrain, les exploiter puis les transmettre aux équipes de maintenance. Cela crée ainsi un cercle vertueux avec moins de latence entre d’éventuels problèmes et leurs résolutions !</p><h2>La Défense américaine choisit la disponibilité !</h2><p>Côté défense, le mouvement est plus récent, mais tout aussi structurant. En 2021, la doctrine de la Navy américaine reposait sur le volume : "notre force, c’est le nombre d’appareils, de bâtiments, d’avions, de drones…" Désormais, tout tourne autour de la disponibilité selon le principe qu’un système militaire inopérant est un système inutile.</p><p>Ainsi, la Navy a lancé un programme de transformation basé sur une logique model-based, avec un objectif : optimiser la "mission readiness". Cela implique une compréhension très fine des systèmes, des scénarios d’utilisation, des historiques de pannes, des pièces critiques, etc. Et surtout, la capacité à centraliser ces données pour prendre des décisions éclairées et en temps réel.</p><h2>La continuité numérique comme levier d’activation</h2><p>Le modèle de "mission readiness" implique une forte continuité numérique entre les équipes d’ingénierie et les équipes en charge des services. Les constructeurs doivent anticiper les usages, adapter la maintenance mais aussi être en mesure de faire évoluer les designs en fonction des retours terrain.</p><p>Une plateforme commune à l’ingénierie et aux services est indispensable pour que les équipes puissent non seulement agir sur les produits mais aussi disposer de l’historique complet des activités. A travers la centralisation des données, la plateforme permet le suivi des configurations, la traçabilité des incidents ou encore la gestion des pièces détachées.</p><h2>Vers une logique servicielle native…</h2><p>Cette dynamique n’a pas vocation à rajouter du service en bout de chaîne. Il s’agit bien d’une transformation structurelle : concevoir les produits dès le départ avec une logique servicielle. Cela suppose que les ingénieurs aient accès à des modèles de pannes, à des retours d’expérience ou à des indicateurs d’usure. Cela suppose aussi que les outils de maintenance soient intégrés dès les premières phases de conception.</p><p> Pour quels bénéfices ?  </p><ul><li>Optimiser les coûts de maintenance,</li>
<li>Réduire les indisponibilités,</li>
<li>Maximiser la durée de vie des équipements.</li>
</ul><p>Dans un monde où la supériorité technologique ne suffit plus, la capacité à maintenir les systèmes disponibles devient un avantage compétitif. Qu’il s’agisse de transport civil ou de souveraineté militaire, la question n’est plus de savoir combien on possède de systèmes, mais combien sont réellement prêts à être utilisés.</p><p>C’est pourquoi la "mission readiness" ne peut être atteinte sans un environnement numérique solide, transversal, interopérable.</p><p>Ce socle, c’est une plateforme, non pas au sens marketing du terme, mais au sens stratégique : un espace où convergent la donnée, l’ingénierie et le service.</p>]]></description>
      <link>https://www.journaldunet.com/solutions/dsi/1543263-developper-les-services-dans-l-a-d-la-mission-readiness-comme-nouveau-standard/</link>
      <guid>https://www.journaldunet.com/solutions/dsi/1543263-developper-les-services-dans-l-a-d-la-mission-readiness-comme-nouveau-standard/</guid>
      <pubDate>Wed, 16 Jul 2025 14:57:00 +0200</pubDate>
    </item>
    <item>
      <title><![CDATA[Un socle pour les unifier tous : Pourquoi le platform engineering s'impose dans les organisations modernes]]></title>
      <description><![CDATA[<p class="app_entry_lead">Le platform engineering unifie les outils et pratiques IT en une plateforme partagée, centrée sur l'autonomie, l'efficacité et la collaboration, pour livrer plus vite, sans chaos ni silos.</p><p>Quand j’étais adolescent, j’ai découvert un livre merveilleux : Le Seigneur des Anneaux et une phrase m’est restée, comme une incantation : « Un anneau pour les gouverner tous. » Pas pour dominer. Mais pour unir des mondes fragmentés : elfes, nains, hobbits, hommes… chacun avec ses langages, ses forces, ses fragilités.</p><p>Des années plus tard, cette métaphore résonne étrangement avec notre quotidien IT. Car dans le monde numérique aussi, les royaumes sont éclatés. Les dev, les ops, les SRE, la sécurité, le <a href="https://www.journaldunet.com/cloud/" title="Cloud computing">cloud</a>, la data… chacun avance selon ses propres règles. Et trop souvent, cette fragmentation ralentit l’innovation.</p><h2>Le platform engineering, une réponse à la dispersion</h2><p>L’IT moderne a gagné en vitesse, mais aussi en complexité. Pour aller vite, les équipes ont souvent bricolé leurs propres chaînes d’outils, empilé les scripts, multiplié les pratiques locales. Résultat : des silos technologiques, des redondances, une dette croissante, et une autonomie qui finit par isoler.</p><p>Le platform engineering émerge dans ce contexte non comme un gadget, mais comme une réponse stratégique. Il vise à recentraliser les fondamentaux, pour mieux distribuer l’autonomie. À proposer un socle technique cohérent, partagé par tous, sans forcer l’uniformisation.</p><p>L’idée ? Mettre à disposition des composants standardisés, pensés comme un produit interne. Un portail, des APIs, des services backend — pour faciliter, automatiser, guider. Comme les fameux "Golden Paths" : des parcours balisés qui permettent aux équipes de livrer vite, sans se perdre.</p><h2>L’internal developer platform : pour livrer mieux, ensemble</h2><p>Cœur du dispositif : l’IDP (internal developer platform). Elle ne dicte pas. Elle propose. Elle rend accessible ce qui est complexe. Elle évite que chaque équipe réinvente la roue à chaque sprint.</p><p>L’IDP donne accès à :</p><ul><li>des environnements reproductibles,</li>
<li>des pipelines préconfigurés,</li>
<li>des services partagés comme l’authentification, la gestion des secrets ou l’observabilité.</li>
</ul><p>L’approche est résolument produit : retour utilisateur, expérience fluide, amélioration continue. Ce n’est pas une surcouche, c’est un accélérateur.</p><p>Et surtout, elle porte une vision : faire de la plateforme un levier de delivery, pas un centre de contrôle. Comme dans l’univers de Tolkien, l’anneau n’est pas là pour dominer, mais pour révéler les synergies cachées. Rendre visible ce qui était éparpillé. Faciliter la coopération sans alourdir.</p><h2>Gouverner sans dominer : la nouvelle posture des DSI</h2><p>Ce modèle transforme en profondeur le rôle de la DSI. Fini le support en bout de chaîne. Elle devient fournisseur de services internes. Elle propose des offres claires, mesure leur usage, ajuste leur périmètre en fonction des besoins métiers.</p><p>La plateforme devient alors un outil d’alignement : elle sécurise, standardise, et permet à chacun de contribuer sans friction. Les équipes peuvent se concentrer sur ce qui compte : la valeur métier.</p><p>Mais pour piloter efficacement, il faut des métriques. Les indicateurs DORA sont souvent utilisés (fréquence de déploiement, taux d’échec, MTTR…), auxquels s’ajoutent des éléments qualitatifs : taux d’adoption, satisfaction utilisateur, niveau d’autonomie perçu.</p><h2>Une vision long terme pour fluidifier la collaboration</h2><p>L’ingénierie de plateforme n’est ni un produit miracle, ni un projet de quelques mois. C’est un changement de posture. Une vision long terme pour rendre les équipes plus efficaces, sans leur demander de devenir expertes de tout.</p><p>Elle ne remplace pas l’existant. Elle le fluidifie. Elle n’efface pas les compétences. Elle les amplifie. Elle ne gouverne pas. Elle aligne.</p><p>Et dans un monde où l’IT s’accélère, où la pression monte sur les délais et la qualité, cette approche n’est pas seulement pertinente : elle devient nécessaire.</p>]]></description>
      <link>https://www.journaldunet.com/solutions/dsi/1543275-un-socle-pour-les-unifier-tous-pourquoi-le-platform-engineering-s-impose-dans-les-organisations-modernes/</link>
      <guid>https://www.journaldunet.com/solutions/dsi/1543275-un-socle-pour-les-unifier-tous-pourquoi-le-platform-engineering-s-impose-dans-les-organisations-modernes/</guid>
      <pubDate>Wed, 16 Jul 2025 14:51:00 +0200</pubDate>
    </item>
    <item>
      <title><![CDATA[NoSQL : le vide technologique d'une révolution inévitable]]></title>
      <description><![CDATA[<p class="app_entry_lead">L'essor des bases de données NoSQL constitue une rupture incontournable. Face à l'obsolescence des bases relationnelles, les DSI doivent s'adapter. Quels enjeux pour cette révolution technologique ?</p><p>L’émergence des bases de données <a href="https://www.journaldunet.fr/web-tech/guide-du-big-data/1516869-nosql-definition-principes-technologie/" title="NoSQL">NoSQL</a> marque une rupture majeure dans l’histoire des systèmes d'information. Cette bascule n’est pas simplement technique : elle bouleverse les fondements mêmes de la gestion des données, expose les lacunes des outils traditionnels et impose aux <a href="https://www.journaldunet.com/solutions/dsi/dsi/" title="DSI">DSI</a> un repositionnement stratégique urgent.</p><h2>Un changement de paradigme imposé par les usages</h2><p>À l’origine de cette transition, un constat : les bases relationnelles, bien qu’encore omniprésentes dans les systèmes legacy, ne suffisent plus à répondre aux exigences actuelles de flexibilité, de volumétrie et de performance. La montée en puissance des usages temps réel, des architectures orientées API et de la personnalisation à grande échelle — catalysés par les géants du numérique — a propulsé les bases NoSQL comme nouveau standard fonctionnel.</p><p>Ces bases proposent une structuration des données plus souple, souvent en format JSON, lisible par les métiers, et mieux adaptée aux réalités complexes du monde digital. Cette évolution redonne aux équipes métier une capacité d’intervention directe dans la définition des objets de données. Le modèle n’est plus dicté par le schéma, mais piloté par le besoin.</p><h2>Un vide technologique dans l’écosystème des outils</h2><p>Or, cette avancée s’est accompagnée d’un vide technologique manifeste. Les grands éditeurs d’ETL, historiquement centrés sur les bases <a href="https://www.journaldunet.fr/web-tech/guide-du-big-data/1203603-sql-structured-query-language-definition-traduction-et-acteurs/" title="Structured Query Language">SQL</a>, n’ont pas anticipé l’arrivée massive des formats NoSQL. Faute d’outils adaptés, les entreprises ont dû bricoler : coder en Python ou en Spark, multiplier les scripts, construire des pipelines ad hoc. Ce retour à une logique artisanale, semblable à celle qui précédait l’émergence des ETL dans les années 1990, s’est accompagné d’une explosion du volume de code, d’une dette technique croissante, et d’une perte de maîtrise sur les traitements.</p><p>Les solutions traditionnelles, bien qu’enrichies de briques de gouvernance ou de qualité de données, restent inadaptées à la complexité des objets NoSQL imbriqués. Elles peinent à orchestrer les flux, à garantir la traçabilité des transformations, ou à exposer les données via des APIs dans des formats métiers exploitables.</p><h2>Le risque de reproduire les erreurs du passé</h2><p>Cette situation pose un risque majeur : celui de répéter les erreurs du passé. À l’ère du relationnel, les DSI avaient été piégés par une inflation de développements SQL et de procédures stockées, conduisant à un manque de transparence, une rigidité accrue et une dépendance forte aux profils experts. Sans outils adaptés, l’adoption massive du NoSQL risque d’aboutir au même résultat : des structures informatiques surchargées, inefficaces, et ingérables.</p><p>L’enjeu n’est pas de choisir entre SQL et NoSQL. Le futur est hybride, modulaire, orienté données. Ce qui est en jeu, c’est la capacité à accompagner ce changement avec les bons outils d’intégration, conçus pour modéliser, transformer, tracer et livrer des objets NoSQL de manière gouvernée, déclarative et sans code.</p><h2>Un appel à l’action pour les DSI</h2><p>Le temps n’est plus à la contemplation. Les DSI sont aujourd’hui confrontés à trois impératifs : soutenir l’innovation produits, garantir le temps réel dans les traitements, et améliorer l’expérience utilisateur. Dans chacun de ces domaines, le NoSQL s’impose comme socle technologique. Mais pour en exploiter le plein potentiel, encore faut-il disposer d’une chaîne de traitement adapté.</p><p>C’est le sens des développements récents en matière d’ETL orientés objet : proposer une alternative aux scripts, capable de produire des objets métiers gouvernés, exposables et auditables — sans les contraintes du codage traditionnel.</p><p>La maturité technologique du NoSQL n’est plus à prouver. Ce qui manque encore, c’est une maturité outillée. À l’heure où les DSI doivent faire de la donnée un levier d’innovation, le choix d’un outil adapté au monde NoSQL devient stratégique.</p>]]></description>
      <link>https://www.journaldunet.com/solutions/dsi/1542999-nosql-le-vide-technologique-d-une-revolution-inevitable/</link>
      <guid>https://www.journaldunet.com/solutions/dsi/1542999-nosql-le-vide-technologique-d-une-revolution-inevitable/</guid>
      <pubDate>Tue, 08 Jul 2025 15:51:00 +0200</pubDate>
    </item>
    <item>
      <title><![CDATA[Comment la 5G privée révolutionne le suivi des actifs en intérieur]]></title>
      <description><![CDATA[<p class="app_entry_lead">Bien que la population mondiale passe 80% de son temps à l'intérieur, la technologie GPS a été principalement conçue pour le suivi en extérieur.</p><p>Vous avez du mal à retrouver vos clés ou votre portefeuille ? Essayez un porte-clés ou une étiquette Bluetooth. Vous voulez vous assurer que votre enfant arrive bien à l’école ? Il existe une application pour cela. Pourtant, lorsqu’il s’agit de suivre avec précision des actifs critiques en intérieur, les solutions efficaces font souvent défaut ou sont trop complexes.</p><p>La bonne nouvelle, c’est que, avec l’investissement croissant des entreprises dans la connectivité <a href="https://www.journaldunet.fr/web-tech/dictionnaire-de-l-iot/1196828-5g-technologie-deploiement-debit-20221222/" title="5G">5G</a> pour améliorer la visibilité de leurs opérations — et les outils, tablettes, véhicules à guidage automatique (AGV), <a href="https://www.journaldunet.fr/web-tech/dictionnaire-de-l-iot/1440688-objets-connectes-exemples-d-appareil-et-usages-en-france/" title="Objet connecté">objets connectés</a> et autres dispositifs compatibles 5G — le besoin de suivi des actifs en intérieur va continuer à croître. Avec la solution 5G privée appropriée, les administrateurs réseau et les responsables des technologies opérationnelles peuvent assurer un suivi précis des actifs, avec une précision pouvant atteindre 1 mètre, tout en garantissant que leurs appareils et leurs collaborateurs sont connectés à un réseau privé 5G dédié et sécurisé. Le positionnement précis en intérieur est une fonctionnalité de la 5G privée utilisée pour le suivi des actifs, qui impacte directement la visibilité des opérations, la protection des équipements et la sécurité. Les entreprises de tous secteurs peuvent désormais bénéficier de cette fonctionnalité dans le cadre d’une solution globale et intégrée. Examinons quelques cas d'utilisation où la 5G privée avec positionnement intérieur précis pour le suivi des actifs est vitale pour les opérations quotidiennes.</p><h2>Cas n°1 : Optimiser la production industrielle</h2><p>Dans l’Industrie 4.0, le positionnement précis en intérieur améliore le suivi des actifs dans plusieurs cas. Dans le contexte actuel de l’Industrie 4.0, de nombreux outils de production sont désormais digitalisés, automatisés et connectés à de multiples dispositifs. Toute perte d’équipement peut entraîner des retards dans la fabrication, avec des conséquences sur les délais de production. À l’aide d’une localisation intérieure précise, les responsables savent en permanence où se trouvent outils et personnel, ce qui est essentiel pour la production et la sécurité. Les véhicules à guidage automatique (AGV) deviennent aussi un élément clé des flux de production. Le positionnement en intérieur permet de s’assurer que les AGV arrivent au bon endroit et en temps voulu, évitant ainsi tout retard.</p><h2>Cas n°2 : Améliorer la visibilité et la sécurité des actifs dans la logistique</h2><p>Un suivi efficace des actifs permet aussi aux entreprises de tirer parti des bénéfices de l’Industrie 4.0 via des appareils connectés comme les scanners. Grâce à la précision de la localisation en intérieur, les responsables opérationnels et IT peuvent localiser en temps réel un équipement donné. Les organisations peuvent également utiliser des périmètres de sécurité virtuels pour recevoir des alertes lorsque des appareils pénètrent dans des zones non autorisées, à l’intérieur ou à l’extérieur des sites. Le suivi en intérieur contribue à réduire et à optimiser les coûts, en évitant la perte d’appareils portables et d’outils, qui peuvent être extrêmement coûteux à remplacer, et en améliorant la gestion et la disponibilité des équipements, surtout dans les installations utilisant des centaines voire milliers de dispositifs.</p><h2>Cas n°3 : Suivi en temps réel pour améliorer la prise en charge et l’efficacité dans les hôpitaux</h2><p>Contrairement aux usines intelligentes, les hôpitaux sont aujourd’hui moins automatisés. Infirmiers, médecins et personnel médical ne peuvent pas perdre de temps à chercher du matériel, car cela perturberait les opérations et la qualité des soins. Même si l’utilisation généralisée de la localisation en intérieur est encore à venir, ces cas d’usage offriront une réelle valeur ajoutée aux établissements de santé et à leurs équipes. Le personnel médical connaîtra la localisation exacte des équipements, et les établissements qui associent localisation et intelligence artificielle pourront optimiser les trajets pour les transferts de patients, garantissant une prise en charge rapide.</p><h2>Le partenariat entre la 5G privée et la localisation précise en intérieur</h2><p>La 5G privée facilite le suivi des actifs via une localisation précise en intérieur, en éliminant certaines complexités souvent liées aux systèmes de suivi traditionnels reposant sur le Wi-Fi ou les systèmes de localisation en temps réel (RTLS). Bien que de nombreuses organisations utilisent des RTLS basés sur des balises Wi-Fi ou Bluetooth, cette approche présente des inconvénients. Par exemple, si des balises Bluetooth et des points d'accès Wi-Fi supplémentaires peuvent améliorer la précision du suivi des actifs, les dépenses liées au suivi des actifs peuvent augmenter en fonction de la taille de l'usine, de l'entrepôt ou de l'établissement de santé. Cette approche peut être coûteuse, car elle nécessite une infrastructure lourde pour l’installation et la maintenance.</p><p>L’infrastructure requise pour la localisation en intérieur via la 5G privée est moins complexe. Elle triangule la position d’un actif grâce au réseau d’accès radio (RAN), en utilisant le même réseau privé 5G déjà déployé pour les applications et dispositifs critiques. En intérieur, les radios 5G privées couvrent une zone trois à cinq fois plus étendue que les points d’accès Wi-Fi. De plus, une solution complète en 5G privée ne nécessite pas de balises attachées à chaque appareil ou véhicule pour suivre leur position : elle fonctionne avec n’importe quel dispositif compatible 5G, en suivant ses déplacements via sa puce — maximisant ainsi le retour sur investissement, réduisant les temps d’arrêt pour maintenance et offrant une connectivité plus fiable.</p><p>Les entreprises utilisent aujourd’hui un nombre sans précédent d’appareils mobiles et de véhicules automatisés essentiels à leurs opérations, ce qui accroît le besoin d’un suivi précis des actifs. La 5G privée et la localisation précise en intérieur fournissent la connectivité constante et la résilience dont les industriels, les logisticiens, les établissements de santé et d’autres secteurs dans le monde entier ont besoin.</p>]]></description>
      <link>https://www.journaldunet.com/ebusiness/telecoms-fai/1543029-comment-la-5g-privee-revolutionne-le-suivi-des-actifs-en-interieur-indoor-asset-tracking/</link>
      <guid>https://www.journaldunet.com/ebusiness/telecoms-fai/1543029-comment-la-5g-privee-revolutionne-le-suivi-des-actifs-en-interieur-indoor-asset-tracking/</guid>
      <pubDate>Tue, 08 Jul 2025 15:46:00 +0200</pubDate>
    </item>
    <item>
      <title><![CDATA[Open source : un modèle fondamentalement bon ?]]></title>
      <description><![CDATA[<p class="app_entry_lead">L'open source est souvent présenté comme un acte généreux de mise à disposition collective du savoir et des technologies. Mais au-delà de l'idéologie, c'est aussi un moteur économique considérable.</p><h2>Une économie invisible mais colossale </h2><p>Aujourd’hui, près de 90% des serveurs du monde fonctionnent sur des solutions <a href="https://www.journaldunet.com/solutions/open-source/" title="Open source">open source</a>, principalement Linux, créé en 1991 par Linus Torvalds. À titre de comparaison, une licence Windows Server Standard coûte environ 972 dollars. Avec plus de 100 millions de serveurs en activité, l’économie réalisée chaque année grâce à l’open source atteint plusieurs dizaines de milliards de dollars pour l’industrie numérique mondiale.</p><p>GitHub, plateforme centrale de collaboration open source, comptait en 2022 près de 94 millions de développeurs et enregistrait plus de 413 millions de contributions annuelles. Ces chiffres illustrent la vitalité discrète mais indispensable d’une communauté qui, chaque jour, améliore des bibliothèques critiques pour la sécurité ou la performance des systèmes numériques mondiaux, souvent dans l’ombre et sans reconnaissance directe du grand public.</p><h2>Des entreprises bâties sur l’open source</h2><p>L’open source n’est pas réservé aux initiatives bénévoles. Certaines entreprises en ont fait le socle même de leur modèle économique. Twilio, entreprise américaine cotée au NASDAQ, a bâti son infrastructure sur Asterisk, une technologie open source de téléphonie IP. Sans ce socle ouvert et collaboratif, le modèle économique même de Twilio, aujourd’hui évalué à plusieurs milliards de dollars, aurait été radicalement différent, voire impossible à imaginer.</p><p>Mais cette logique dépasse le monde purement numérique. Historiquement, partager librement une innovation technique peut avoir un impact social et économique majeur. Prenons l’exemple moins connu de Volvo avec l’invention du siège auto pour enfant dos à la route. Volvo aurait pu breveter et verrouiller strictement cette invention révolutionnaire, mais a choisi de partager gratuitement les résultats de ses recherches, sauvant potentiellement des milliers de vies. Ce choix a non seulement renforcé la sécurité automobile mais a aussi engendré un marché plus vaste et ouvert, profitant à l’ensemble des constructeurs et consommateurs.</p><h2>Une générosité devenue stratégique</h2><p>Aujourd'hui, l’esprit initial de générosité radicale et spontanée du « give back », très présent au début du web, semble avoir progressivement évolué, particulièrement après l’éclatement de la bulle internet. Désormais, ce même esprit existe toujours, mais sous une forme différente, plus structurée, plus réfléchie, souvent pilotée par des entreprises aux ambitions complexes. Pourquoi Meta choisit-elle de rendre publiques certaines de ses recherches les plus avancées en intelligence artificielle ? Quelles motivations poussent OpenAI à mettre en open source Whisper, son performant algorithme de transcription ?</p><p>Ces démarches modernes d’open source soulignent une réalité nouvelle, où l’ouverture ne signifie pas nécessairement gratuité absolue. Certaines <a href="https://www.journaldunet.com/solutions/ssii/licences/" title="Licence">licences</a> peuvent introduire des subtilités économiques et stratégiques importantes, modelant différemment la dynamique traditionnelle de l’innovation ouverte. L’open source d’aujourd’hui, porté par de grands acteurs économiques, dessine un paysage inédit dont les motivations réelles méritent d’être explorées avec attention.</p><p>L’open source reste l’un des modèles les plus puissants et inspirants de ces dernières décennies : ses retombées sont immenses, sa posture généreuse, son impact indéniable. Mais entre les mains de certains acteurs, ce modèle peut aussi servir des logiques bien moins vertueuses. Lorsqu’il devient un levier d’influence opaque ou un outil de domination masqué, ce qui était né pour libérer peut aussi enfermer. C’est là toute l’ambiguïté de l’open source aujourd’hui : aussi beau dans son intention qu’il peut être inquiétant dans ses détournements.</p>]]></description>
      <link>https://www.journaldunet.com/solutions/dsi/1543043-open-source-un-modele-fondamentalement-bon/</link>
      <guid>https://www.journaldunet.com/solutions/dsi/1543043-open-source-un-modele-fondamentalement-bon/</guid>
      <pubDate>Tue, 08 Jul 2025 15:41:00 +0200</pubDate>
    </item>
    <item>
      <title><![CDATA[ERP no code : le français Bonx lève 7,5 millions d'euros]]></title>
      <description><![CDATA[<p class="app_entry_lead"><a title=" © JDN avec Sora" href="https://img-0.journaldunet.com/-JmTIALTijZ89_6GSeyF0IwqPFo=/1500x/smart/253847f31db747409d232aa07f28d1d1/ccmcms-jdn/39523375.jpg" class="fancy"><picture><source srcset="https://img-0.journaldunet.com/tLP_kTWBczCh77UpBWv_-NhRX8M=/540x/smart/253847f31db747409d232aa07f28d1d1/ccmcms-jdn/39523375.jpg" media="(max-width: 480px)" /><img src="https://img-0.journaldunet.com/-JmTIALTijZ89_6GSeyF0IwqPFo=/1500x/smart/253847f31db747409d232aa07f28d1d1/ccmcms-jdn/39523375.jpg" alt="ERP no code : le français Bonx lève 7,5 millions d'euros" width="1500" height="1002" /></picture></a> La start-up toulousaine entend profiter de ce nouvel apport de fonds pour poursuivre son développement en Europe. Elle compte en parallèle accélérer sur l'IA.</p><p>Créé en 2022 par OSS Ventures, start-up studio spécialisé dans la digitalisation du manufacturing, l'éditeur d'<a href="https://www.journaldunet.fr/web-tech/dictionnaire-du-webmastering/1445212-erp-ou-pgi-definition-role-et-caracteristiques/" title="PGI">ERP</a> toulousain Bonx boucle un tour de table d'amorçage. A hauteur de 7,5 millions d'euros, il est mené par 9900 Capital avec la participation de Kima Ventures et Purple. Les investisseurs historiques de la jeune pousse que sont OSS Ventures et Dynamo Ventures remettent au pot. Cette opération fait suite à deux levées de pré-seed menées en septembre 2024 et janvier 2025, respectivement de 1,1 million d'euros et 500 000 euros.</p><p>L'offre de Bonx s'articule autour d'un progiciel de gestion intégrée doté de capacité de développement sans code. L'enjeu ? S'adapter rapidement aux particularités de chaque acteur du secteur industriel. "Dans ce domaine, on compte des spécificités dans tous les segments. L'agroalimentaire sera par exemple très différent de la joaillerie. Et au sein d'un même créneau, les process pourront être très divers, notamment en fonction du mode de production, sur stock ou à la commande, en large série ou pas...", détaille <a href="https://www.linkedin.com/in/manufacturing40/" target="_blank">Alexandre Barroux</a>, CEO et fondateur de Bonx.</p><p>Toute la difficulté réside dans l'art de s'adapter. "Avec les ERP traditionnels, il sera nécessaire de mettre en œuvre des phases de développement de plusieurs mois en faisant appel à des consultants en vue d'ajuster la solution. Avec notre produit, le mode <a href="https://www.journaldunet.fr/web-tech/guide-de-l-entreprise-digitale/1498785-no-code/" title="No-code">no code</a> permet un déploiement en quelques semaines", promet Alexandre Barroux. Concrètement, Bonx met en œuvre des champs de données personnalisés et configure un processus en quelques minutes. La plateforme génère des workflows directement calqués sur l'organisation de l'entreprise puis les modifie au fil de l'eau.</p><p>En parallèle, Bonx a déployé des fonctions d'IA. Elles permettent notamment d'automatiser la prise de commande en décryptant les messages communiqués par les clients. Dans cette optique, la solution analyse les e-mails, les fichiers PDF, les captures d'écran... Des contenus non-structurés que Bonx convertit en contenus structurés avant de lancer les ordres d'achats puis de fabrication. Autre application de l'IA, Bonx ingère les règles de gestion de la chaine logistique et réalise une planification de la production sous contraintes à l'aide du machine learning. Objectif : orchestrer la production en optimisant l'utilisation des machines et chaînes de fabrication.</p><p>Fort de sa nouvelle <a href="https://www.journaldunet.com/levee-de-fonds/" title="Levées de fonds">levée de fonds</a>, Bonx entend désormais capitaliser sur des agents d'IA pour automatiser la prise de commandes. L'enjeu ? Permettre à l'acheteur de se concentrer sur la relation avec les fournisseurs et la négociation tarifaire. Autre projet dans l'IA, Bonx compte recourir à cette technologie pour faciliter l'intégration de nouveaux logiciels en réalisant leur analyse et leur interfaçage en quelques clics.</p><p>Côté commercial, l'entreprise est déjà présente en Italie en plus de la France. "Nous envisageons de déployer également une équipe en Espagne. Pour la suite, nous étudions la possibilité de nous implanter en Allemagne, au Royaume-Uni et dans les pays Nordiques", confie Alexandre Barroux. En ligne de mire pour Bonx : être présent à terme dans cinq pays européens.</p><p>Parmi ses références clients, la société compte La Maillecotech, Nervures et Recyc-Matelas Europe ou encore Decathlon pour l'implémentation de Bonx chez ses sous-traitants. D'une trentaine de clients aujourd'hui, Bonx compte passer la barre des 60 d'ici la fin de l'année et celle des 150 fin 2026. Pour soutenir sa croissance, l'entreprise entend passer de 15 collaborateurs aujourd'hui à 35 d'ici la fin de l'année, puis à 70 sur 2026. Avec un mode tarifaire reposant sur un abonnement annuel versé en début de période, Bonx anticipe être à l'équilibre entre fin 2025 et début 2026.  Quant à la prochaine levée de fonds, elle pourrait intervenir fin 2026, avec l'objectif d'une enveloppe à deux chiffres.</p>]]></description>
      <link>https://www.journaldunet.com/web-tech/1542689-erp-no-code-le-francais-bonx-leve-7-5-millions-d-euros/</link>
      <guid>https://www.journaldunet.com/web-tech/1542689-erp-no-code-le-francais-bonx-leve-7-5-millions-d-euros/</guid>
      <pubDate>Mon, 30 Jun 2025 08:00:00 +0200</pubDate>
    </item>
    <item>
      <title><![CDATA[Pour les entreprises, la fin du SMS n'aura pas lieu (avant longtemps)]]></title>
      <description><![CDATA[<p class="app_entry_lead">Nombre de publications se sont succédées ces derniers mois annonçant le remplacement définitif du SMS par le RCS pour 2025. Il convient de s'interroger sur l'environnement d'application de ce dernier.</p><p>Depuis plusieurs mois, de nombreux articles annoncent la fin du SMS au profit de son évolution en ligne, le RCS. Certains anticipent l'arrêt du SMS d’ici la fin de l’année 2025.  </p><p>Si le potentiel du RCS s’annonce prometteur, combinant des fonctionnalités et une esthétique plus en phase avec les habitudes de la jeune génération tout en préservant une autonomie de communication que des plateformes de messagerie en ligne ne peuvent garantir, ce nouveau moyen de communiquer n’est pas forcément ce dont les entreprises ont besoin au stade actuel pour échanger avec leurs parties-prenantes. </p><h2>Le RCS : un potentiel immense, mais de nombreux défis </h2><p>Quoique prometteur, le déploiement du RCS s’annonce plus que jamais incertain et pourrait prendre plusieurs années. Les défis techniques sont nombreux, à commencer par le fait que le déploiement du RCS requiert un suivi basé sur l’ouverture de sessions, ce qui est onéreux, complexe comparé au suivi sur la base des messages et exclusif à l’heure actuelle, car tous les portables ne sont pas configurés pour envoyer et recevoir des RCS.  </p><p>Aussi, outre le flou en matière de conformité règlementaire, l’opinion publique comme les autorités de régulation pourraient craindre des ingérences étrangères dans le déploiement de l’infrastructure nécessaire à cette nouvelle forme de communication. En effet, l’un des GAFAM est actuellement impliqué dans les messageries commerciales RCS en Europe, et les préoccupations liées à la souveraineté technologique de l’Union européenne n’ont jamais été aussi pregnantes. </p><p>Enfin, ne l’oublions pas, l’utilisation du SMS transactionnel dans les cadres B2B et B2E reste stable et remplit parfaitement sa mission, à savoir d’envoyer des informations sans interrompre les flux de travail, à l’instar des rappels, des notifications, des liens hypertextes, des mots de passe ou encore des OTP pour les authentifications fortes. </p><h2>Le SMS reste essentiel pour les communications commerciales </h2><p>Bien que le potentiel du RCS soit indiscutable, son développement demeure, à ce stade, indéterminé et il faut distinguer son adéquation avec un environnement d’application entre particuliers (ou dans certains cas, d’entreprises à particuliers) et un domaine d’application inter-entreprises ou d’entreprise à employé, où sa popularité ne fléchit pas. Basé sur une technologie GSM qui a fait ses preuves, le SMS ne requiert aucune connexion à internet et vante un taux de lisibilité de 98%.  </p><p>Le SMS est donc parfaitement adapté aux processus d’affaires, comme ceux des services bancaires, par exemple, où les SMS relaient des codes d’authentification à leurs clients, leur permettant de confirmer des transactions, ou encore les portails en ligne qui envoient les données d’accès via SMS dans le cadre d’authentifications à deux facteurs. </p><p>Le SMS est donc loin d’avoir terminé sa course, au contraire, il est aujourd’hui possible aux entreprises d’envoyer et de recevoir des SMS à partir d’une boite e-mail, d’un navigateur, ou d’une application toujours en conformité avec les exigences de conformité spécifiques de l'entreprise. Ces solutions sont sécurisées à condition d’être proposées par un fournisseur européen, qui assure que le traitement des données a lieu en Europe et dont les datacenters sont certifiés ISO 27001 et basés sur le territoire de l'UE. </p><p>Enfin, l’utilisation du SMS est particulièrement efficace et reconnue comme telle dans les scénarios d’urgence. Incendies, cyberattaque, accidents, instruction de sécurité... plusieurs de milliers de SMS peuvent être envoyés en une seule fois, évitant des erreurs et permettant aux personnes physiques et morales de se mettre en sécurité, même dans des configurations internationales. </p><h2>Le SMS, canal de communication le plus efficace en entreprise </h2><p>Malgré les promesses du RCS, ses aléas d’implémentation sont nombreux là où le SMS continue à évoluer vers toujours plus d’usages et toujours plus d’efficacité dans la communication des entreprises avec ses employés, ses prestataires, ses partenaires, et aussi ses clients. Si la voie du RCS est certainement à explorer, 90% des SMS envoyés sont lus dans les trois minutes qui suivent, intronisant le SMS comme le moyen de communication le plus simple et le plus efficace dans les contextes d’entreprises. </p>]]></description>
      <link>https://www.journaldunet.com/solutions/dsi/1542511-pour-les-entreprises-la-fin-du-sms-n-aura-pas-lieu-avant-longtemps/</link>
      <guid>https://www.journaldunet.com/solutions/dsi/1542511-pour-les-entreprises-la-fin-du-sms-n-aura-pas-lieu-avant-longtemps/</guid>
      <pubDate>Fri, 27 Jun 2025 13:23:00 +0200</pubDate>
    </item>
    <item>
      <title><![CDATA[L'emailing, un canal sous-estimé mais plus stratégique que jamais]]></title>
      <description><![CDATA[<p class="app_entry_lead"><a title=" © Sinch Mailjet" href="https://img-0.journaldunet.com/69qyoL2faB0wYn3xuvm2nxJWW6k=/1500x/smart/e611d35aef0f483f91f093e387038dc0/ccmcms-jdn/39523147.jpeg" class="fancy"><picture><source srcset="https://img-0.journaldunet.com/At3rcmhXtKtBNInTP3C-gH6uIQ4=/540x/smart/e611d35aef0f483f91f093e387038dc0/ccmcms-jdn/39523147.jpeg" media="(max-width: 480px)" /><img src="https://img-0.journaldunet.com/69qyoL2faB0wYn3xuvm2nxJWW6k=/1500x/smart/e611d35aef0f483f91f093e387038dc0/ccmcms-jdn/39523147.jpeg" alt="L'emailing, un canal sous-estimé mais plus stratégique que jamais" width="1500" height="999" /></picture></a> Et si le canal le plus rentable n'était pas celui que vous croyez ? À l'heure où l'IA bouscule les canaux traditionnels, l'email marketing revient sur le devant de la scène, aussi discret qu'efficace.</p><p>En 2025, le marketing digital continue de s'emballer. L'intelligence artificielle est partout : elle rédige, elle classe, elle répond. Les marques s'y engouffrent. Mais cette accélération bouscule les repères. Le SEO perd du terrain, notamment à cause des LLM (modèles de langage comme ChatGPT) qui répondent directement aux internautes sans passer par les moteurs classiques. Le référencement payant (SEA) devient de plus en plus cher. Et sur les réseaux sociaux, il faut publier sans cesse pour rester visible… souvent pour peu de retour.</p><p>Dans ce paysage instable, certains canaux sont mis de côté. L'email, en particulier. On le juge vieux, dépassé, moins efficace que le SMS ou les posts sponsorisés. On annonce régulièrement sa fin. Pourtant, il reste l'un des canaux les plus solides et les plus rentables.</p><p>L'email, canal durable et fait pour rester    </p><h3 class="h3-like">Une adresse email, c'est le point d'entrée du numérique</h3><p>On peut ne pas être sur Instagram. On peut ne jamais avoir cliqué sur une pub Google. Mais ne pas avoir d'email ? Impossible. C'est le premier identifiant qu'on crée en ligne, et souvent le dernier qu'on abandonne. C'est via lui que l'on s'inscrit, que l'on confirme un achat, que l'on échange dans le cadre professionnel. Tout le monde, ou presque, possède au moins une adresse personnelle et une adresse liée au travail.</p><p>La boîte mail reste un passage obligé du quotidien numérique. Elle est consultée tous les jours, plusieurs fois par jour. C'est un espace personnel, organisé, que chacun apprend à maîtriser. Et c'est là que les marques peuvent s'exprimer — à condition de le faire avec respect et pertinence.</p><h3 class="h3-like">Un canal intégré dans les usages, sans provoquer de rejet</h3><p>Les boîtes mail ont changé, mais les comportements sont restés les mêmes. Gmail, Outlook ou Yahoo filtrent depuis quelques années les emails en différentes catégories : "Principale", "Réseaux sociaux" et "Promotions". Mais attention, ce tri automatique n'a pas mis fin à l'email marketing, il l'a encadré. Il a même amélioré la lisibilité pour l'utilisateur.</p><p>Loin d'être ignoré, l'onglet "Promotions" est devenu un espace consulté à la demande, où les utilisateurs vont chercher les offres qui les intéressent. On n'ouvre pas tout, mais on attend certains messages. C'est un réflexe : on vérifie les bons plans, les codes, les relances.</p><p>Le format email a donc trouvé sa place. Il ne s'impose pas, il reste disponible. Et quand il est bien ciblé et bien conçu, il obtient de meilleurs taux d'engagement que bien des publicités diffusées en masse.</p><h3 class="h3-like">Un coût d'accès maîtrisable, pour un retour mesurable</h3><p>L'email reste aujourd'hui l'un des rares canaux marketing où les coûts sont à la fois prévisibles, stables… et raisonnables. Contrairement au référencement payant (SEA), vous n'êtes pas soumis à un système d'enchères : pas de surprise liée à la saison, à la concurrence ou à un mot-clé devenu trop cher du jour au lendemain.</p><p>En prime, contrairement aux réseaux sociaux, vous ne dépendez pas non plus d'un algorithme capricieux, ni du besoin constant de produire du contenu visuel, engageant, calibré au bon format, pour chaque plateforme.</p><p>L'emailing a bien sûr un coût : l'abonnement à une solution, le temps passé par vos équipes, et la qualité de votre base de contacts. Mais une fois ces fondations posées, le coût d'un envoi est faible. Surtout à grande échelle. Et plus important encore : vous savez exactement ce que chaque campagne a produit.</p><p>Taux d'ouverture, de clic, de conversion, de désabonnement : tout peut être suivi, comparé, interprété. Là où d'autres canaux reposent sur des données partielles ou des estimations floues, l'email offre un pilotage clair, quasiment en temps réel. Cela en fait un outil rare : peu coûteux, autonome, et pilotable à la performance.</p><p>Comment calculer le ROI de l'emailing ?</p><p>Dans un contexte où chaque ligne de budget est remise en question, savoir ce qu'un canal rapporte — et ce qu'il coûte réellement — est en effet devenu essentiel. L'email est peu coûteux par rapport aux autres canaux, mais une question subsiste : combien coûte-t-il vraiment ?</p><h3 class="h3-like">Un coût global, pas juste un abonnement</h3><p>Le coût d'un outil d'emailing, c'est souvent la partie visible de l'investissement. Mais ce n'est pas le seul. Derrière chaque campagne, il y a du temps : celui passé à paramétrer les envois, à créer les contenus, à gérer les segments, à suivre les résultats. Ce sont parfois des heures prises par une équipe en interne, parfois des prestations externalisées à une agence ou à un freelance.</p><p>Il faut aussi prendre en compte le travail sur les données. Une base de contacts ne s'auto-nettoie pas. Elle se construit, se met à jour, se segmente. Plus votre base est bien tenue, plus vos campagnes seront rentables. Mais cela a un coût, humain et technique.</p><p>Bref, l'email n'est pas "gratuit" parce qu'il est moins cher que d'autres canaux. Il est économique, à condition d'en maîtriser tous les aspects.</p><h3 class="h3-like">L'attribution : un sujet plus complexe qu'il n'y paraît</h3><p>Autre difficulté pour le calcul du rendement de l'emailing : l'attribution. Dès qu'on cherche à mesurer le retour sur investissement, plusieurs questions arrivent vite : qu'est-ce qu'on attribue à l'email ? Est-ce le premier contact ? La dernière étape avant conversion ? Ou un élément parmi d'autres dans un parcours plus long ?</p><p>Le choix du modèle d'attribution est clé. Il peut être basé sur le dernier clic, le premier, ou une répartition pondérée. Ce choix détermine comment vous jugez la contribution réelle de l'email dans vos résultats business. Et selon le modèle adopté, les chiffres peuvent varier fortement.</p><h3 class="h3-like">Quel est le ROI réel de l'emailing ?</h3><p>Dans le secteur de l'emailing, plusieurs études — comme le DMA Email Benchmarking Report ou les analyses de Litmus — évoquent depuis plusieurs années des retours sur investissement (Roi) compris entre 30 € et 40 € générés pour 1 € investi. Notons que ces chiffres sont à manier avec précaution, car ils reposent sur des moyennes, tous secteurs confondus, avec des méthodologies parfois différentes. </p><p>Précisons également que par ROI (retour sur investissement), on entend le rapport entre ce qu'une campagne rapporte et ce qu'elle a coûté. Dans les faits, le calcul reste simple : il s'agit de soustraire les coûts engagés aux gains générés, puis de diviser le résultat par ces mêmes coûts. Si vous investissez 1 000 € dans une campagne (en comptant l'outil, le temps passé, la création des contenus…) et qu'elle génère 10 000 € de chiffre d'affaires, votre retour sur investissement est de 9, soit 900 %. Ce type de calcul peut être affiné selon vos objectifs : vous pouvez, par exemple, rapporter vos dépenses au nombre de ventes générées, au nombre de clics ou encore à celui d'ouvertures. L'essentiel reste le même : avec l'emailing, il est possible de mesurer concrètement l'impact de chaque campagne, à partir de données fiables et facilement exploitables.</p><p>Si le ROI réel de l'emailing peut varier,on peut affirmer en revanche que l'email donne les moyens de piloter sa performance au plus juste. En croisant vos résultats avec vos investissements (nombre d'envois, taux de transformation, panier moyen), vous pouvez identifier vos campagnes les plus rentables, affiner vos ciblages et optimiser vos scénarios.</p><p>Ce niveau de visibilité reste rare. Peu de canaux permettent à ce point de relier une action marketing à un chiffre d'affaires concret, avec autant de finesse. C'est ce qui explique que, malgré son ancienneté, l'email conserve une place stratégique dans les plans marketing, notamment quand il s'agit de rationaliser les dépenses.</p><p>Les bonnes pratiques pour optimiser la rentabilité de vos emails</p><h3 class="h3-like">Soignez votre délivrabilité </h3><p>Un email ne sert à rien s'il n'arrive pas à destination. Pour que vos messages atteignent bien la boîte de réception — et pas les spams — plusieurs éléments comptent.</p><p>D'abord, la qualité de votre liste de contacts. N'envoyez vos emails qu'à des personnes qui vous ont clairement donné leur accord (on parle ici d'opt-in, ou mieux encore, de double opt-in, qui ajoute une confirmation par email). C'est la base.</p><p>Ensuite, la configuration technique. Certains réglages permettent aux services de messagerie (comme Gmail, Outlook…) de vérifier que vous êtes bien l'expéditeur. C'est le rôle de trois protocoles : SPF, DKIM et DMARC. Si ces protections sont bien en place, vos emails ont plus de chances d'arriver au bon endroit.</p><p>Enfin, il faut entretenir votre base. Supprimez les adresses qui ne répondent plus, facilitez le désabonnement, et évitez d'envoyer trop souvent les mêmes messages. Tout cela contribue à votre réputation d'expéditeur : un indicateur surveillé de près par les messageries, et qui influence directement vos taux de délivrance.</p><h3 class="h3-like">Personnalisez et segmentez intelligemment</h3><p>Une fois vos emails bien délivrés, encore faut-il qu'ils soient lus. Et pour capter l'attention, rien ne vaut un message bien ciblé. La plupart des outils d'emailing peuvent se connecter à votre CRM, c'est-à-dire votre logiciel de gestion de la relation client. Toutes les données utiles sur vos contacts y sont stockées : prénom, historique d'achat, localisation, comportement en ligne, etc.</p><p>En vous appuyant sur ces informations, vous pouvez adapter vos campagnes et changer le contenu, le ton, ou le moment de l'envoi selon les profils. Ce ciblage fin permet d'envoyer moins de messages, mais des messages plus justes et donc plus efficaces.</p><h3 class="h3-like">Suivez, ajustez, recommencez</h3><p>L'emailing, ce n'est pas un coup d'éclat. C'est un travail dans la durée. Chaque envoi vous donne des informations utiles : combien d'ouvertures, combien de clics, combien de ventes derrière. Ces données doivent vous guider pour améliorer vos prochaines campagnes. Vous devez suivre vos envois, comprendre vos résultats, optimiser vos campagnes, puis tout recommencer.</p><p>Mais attention : la régularité compte tout autant que la performance. Mieux vaut envoyer un message pertinent toutes les deux semaines qu'une salve d'emails sans stratégie. Plus vos envois sont stables et soignés, plus votre réputation d'expéditeur progresse, aux yeux des messageries comme de vos lecteurs. Et plus vos messages ont de chances d'arriver au bon endroit, au bon moment.</p><p>Finalement, contrairement à ce que l'ère des réseaux sociaux peut nous faire croire, l'email est loin d'être mort. Dans un écosystème marketing saturé de canaux, il reste l'un des rares outils à combiner coût maîtrisé, visibilité réelle et retour sur investissement mesurable. Discret mais efficace, il continue de faire le lien entre les marques et leurs publics, de façon directe, maîtrisable et durable.</p><p>Vous souhaitez vous lancer ? Découvrez l'emailing avec <a href="https://www.mailjet.com/fr/">Mailjet</a>.</p>]]></description>
      <link>https://www.journaldunet.com/web-tech/1542611-l-emailing-un-canal-sous-estime-mais-plus-strategique-que-jamais/</link>
      <guid>https://www.journaldunet.com/web-tech/1542611-l-emailing-un-canal-sous-estime-mais-plus-strategique-que-jamais/</guid>
      <pubDate>Thu, 26 Jun 2025 17:50:00 +0200</pubDate>
    </item>
    <item>
      <title><![CDATA[Mobilité : tendances et défis pour les autorités organisatrices des mobilités]]></title>
      <description><![CDATA[<p class="app_entry_lead">2025 est une année charnière pour les collectivités territoriales et les autorités organisatrices de la mobilité (AOM), qui nécessitent de solutions pragmatiques et d'une vision stratégique forte.</p><p>2025 est une année charnière pour les collectivités territoriales, autorité organisatrice de la mobilité (AOM) sur leur territoire. Face à un paysage en mutation rapide – notamment avec un cadre règlementaire en pleine évolution -, elles doivent composer avec une fragmentation croissante des oFres, des budgets contraints, des objectifs climatiques ambitieux et des attentes utilisateurs de plus en plus exigeantes. Les Français expriment en eFet un intérêt croissant pour des modes de transport plus durables. On observe notamment une hausse continue de la fréquentation des transports publics urbains et régionaux (train, bus) depuis 20191. Autant de défis qui nécessitent des solutions pragmatiques et une vision stratégique forte. Voici quelques tendances qui définissent la mobilité dans nos territoires.</p><h2>Établir une cohérence dans une offre croissante et foisonnante</h2><p>Le marché des mobilités explose : ouverture à la concurrence ferroviaire, multiplication des services de micro-mobilité (trottinettes, vélos électriques, covoiturage, VTC), ... De multiples acteurs et offres qui bien que pertinents, nécessitent pour faciliter les déplacements et encourager le choix des mobilités durables d’être agrégées pour favoriser l’intermodalité. Le risque sans cela ? Dérouter et complexifier la vie des voyageurs qui doivent télécharger plusieurs applications et n’ont pas une vue d’ensemble de l’offre disponible pour un endroit ou un trajet donné. En effet, l’éclatement de l’offre pourrait entraîner un manque de lisibilité et de compréhension des différentes propositions de transport qui seraient à disposition ou non selon les plateformes, applications de distribution et ainsi engendrer un retour en force des solutions les plus simples (et moins durables) telles que la voiture individuelle. L’exemple britannique sur le marché ferroviaire en est une illustration. Les défis : établir une cohérence d’ensemble en misant sur l’interopérabilité et la multimodalité, coordonner et faire collaborer entre eux les diFérents acteurs pour une expérience client fluide </p><h2>Coordination et collaboration pour une orchestration réussie </h2><p>On ne compte plus les organismes impliqués dans les projets de mobilité : villes, métropoles, régions, État, opérateurs privés… Chacun gère une partie du périmètre global de la mobilité à l’échelle nationale ainsi que son budget et ses contraintes. Mais pour un usager, ce découpage est un frein : un habitant d’une petite commune qui doit rejoindre une métropole pour travailler va souvent devoir jongler entre différents modes de transport avec autant d’opérateurs, de systèmes tarifaires, de modes de distributions, de moyens de paiements différents et de site ou applications différentes (nécessitant parfois de jongler pour l’itinéraire et l’achat entre différents outils) L’unification des accès aux mobilités en s’appuyant sur les standards (en vigueur et en cours de définition) notamment sera donc un challenge clé à relever.</p><h2>S’adapter aux budgets serrés pour ne pas freiner l’innovation</h2><p>Les villes, métropoles, régions, État et les opérateurs privés doivent faire plus avec moins. La pression budgétaire est devenue la norme : inflation des coûts de fonctionnement, stagnation des dotations publiques, investissements à prioriser. Résultat : les infrastructures lourdes ont la part belle (trains, bus, matériel roulant), tandis que l’expérience utilisateur passe souvent en second plan. Or, la digitalisation de la mobilité, les services multimodaux, les interfaces clients modernes ne sont plus des « options », mais des leviers stratégiques pour garantir l’adoption du transport public et des mobilités décarbonées. L’arbitrage pourrait donc paraître simpliste : faut-il investir dans un réseau de transport plus performant ou dans une application fluide et intuitive ? Les AOM peuvent avoir à faire un choix binaire. Or, il est important de penser l’expérience voyageur dans sa globalité, de la recherche d’itinéraire en passant par l’achat, sans oublier les informations nécessaires lors du trajet (tout en veillant à uniformiser les parcours digitaux et physiques en gares et stations).</p><h2>Data : l’exploiter plus, et mieux</h2><p>88% de la donnée générée chaque jour sur un réseau de transport reste inutilisée. Pourtant, ces informations qui appartiennent aux AOM pourraient révolutionner l’organisation des réseaux et permettre de mieux prévoir la fréquentation, optimiser les itinéraires et les connexions entre différents modes de transports, adapter l’offre en temps réel, etc.</p><p>Aujourd’hui, ces outils technologiques existent. Mais faute de moyens et de compétences, nombre de collectivités restent dépendantes d’outils simples ne répondant pas complétement au besoin du pilotage de la mobilité par la donnée récoltée. L’enjeu ? Investir dans une écoute plus fine des données récoltées permettra un pilotage plus optimisé des mobilités proposées sur un territoire donné.</p><h2>Objectif décarbonation : comment rendre le transport public incontournable ?</h2><p>Face à l’urgence climatique et aux règlementations, les collectivités doivent accélérer la transition vers des mobilités plus durables. Pourtant, la marche est haute : si le rail et les transports collectifs restent des solutions écologiques de référence, l’offre doit être plus attractive, plus simple et mieux connectée aux autres mobilités douces pour oFrir le choix et convaincre un maximum d’usagers. Pour y parvenir, les collectivités doivent casser les barrières des silos existants entre la distribution physique, la distribution digitale, l’information voyageur sur mobile et en gare et le centre relation client pour les services SNM au service d’un parcours fluide et cohérent sans friction. La mobilité de demain doit être coconstruite par des acteurs privés et les acteurs publics. Les AOM et les collectivités ont un rôle central à jouer : piloter une mobilité cohérente, fluide et accessible. La technologie et les solutions numériques qui seront mises en œuvre doivent servir cet objectif pour accompagner les collectivités dans la mise en place de solutions simples et efficaces, à la hauteur des enjeux de mobilité d’aujourd’hui et de demain.</p>]]></description>
      <link>https://www.journaldunet.com/solutions/dsi/1542575-mobilite-tendances-et-defis-pour-les-autorites-organisatrices-des-mobilites/</link>
      <guid>https://www.journaldunet.com/solutions/dsi/1542575-mobilite-tendances-et-defis-pour-les-autorites-organisatrices-des-mobilites/</guid>
      <pubDate>Thu, 26 Jun 2025 15:44:00 +0200</pubDate>
    </item>
    <item>
      <title><![CDATA[Numérique responsable : les clés pour ne pas rater le virage]]></title>
      <description><![CDATA[<p class="app_entry_lead">Le numérique pèse 2,5% de l'empreinte carbone de la France. Pour limiter son impact, misons sur la prise de conscience, l'éco-conception, la longévité des équipements et une démarche éthique.</p><p>Nul ne peut plus ignorer l'impact croissant du numérique sur notre environnement et dans notre société. À l’échelle de la France, le numérique est responsable de 2,5 % de l’empreinte carbone. Il représente 10 % de la consommation électrique, plus de 2 % de la consommation d’eau et 20 millions de tonnes de déchets produits par an sur l’ensemble du cycle de vie selon l’ADEME.</p><p>Si l’intérêt des DSI pour le Numérique Responsable est grandissant, le sujet est encore émergent dans un grand nombre d’organisations. Par où commencer ? Comment déterminer sa feuille de route ? Quels objectifs se fixer pour que le Numérique Responsable reste un allié de la performance ?</p><h2>Première étape : sensibiliser et faire évoluer ses pratiques</h2><p>Engager la transition vers un numérique plus responsable implique la sensibilisation et la formation des collaborateurs, afin qu’ils en saisissent les enjeux et la matérialité pour, à la mesure de leurs fonctions, adopter les meilleures pratiques.</p><p>Mais comment prendre conscience de son impact réel ? Développer un tableau de bord qui permet de calculer l’empreinte carbone liée à l’usage d’applications incontournables comme Microsoft 365, constitue un bon point de départ. Cette solution, facile à implémenter, permet de donner les ordres de grandeur d’empreinte carbone des différents services de MS 365, ainsi que des équivalences concrètes (kilométrages parcourus en voiture, à vélo électrique ou en nombre d’impressions sur papier A4) pour évaluer leurs impacts. L’organisation peut ainsi obtenir une visibilité mensuelle sur les volumes de mails envoyés ou reçus et stockés dans le cloud, ainsi que du stockage de données sur OneDrive, avec une conversion en coût carbone.</p><p>La mise en place de la Fresque du Numérique, inspirée de la Fresque du Climat, permet quant à elle d’aborder les enjeux environnementaux du numérique en permettant d’identifier, chacun à son niveau, les actions à mettre en place pour évoluer vers un numérique plus soutenable.</p><h2>Tracer sa trajectoire Numérique Responsable</h2><p>Le diagnostic de maturité est une étape essentielle qui permet de lancer la réflexion et d’engager les équipes. Sur la base d’un scoring établi selon les cinq dimensions du label Numérique Responsable, allant de la stratégie et la gouvernance aux usages des collaborateurs, l’organisation peut ainsi cerner son niveau de maturité sur le sujet.</p><p>La mesure de l’empreinte carbone de l’organisation est également un prérequis à toute action, afin de cibler rapidement les principaux impacts et d’en observer les principaux gains. Pour mesurer, il convient de commencer par un inventaire le plus exhaustif et détaillé possible de tous les éléments qui constituent l’infrastructure de l’organisation (typologie et volumétrie des équipements, spécifications techniques, consommation électrique, durée de vie, etc.). À cela s’ajoute un autre défi : l’identification des facteurs d’émissions les plus précis possibles. Or les données sont le plus souvent parcellaires, voire obsolètes. Les organisations peuvent prendre une longueur d’avance en ayant recours à un calculateur d’empreinte carbone, qui repose sur une base de données exclusive et qui agrège les facteurs d’émissions les plus précis et qui fournit une répartition de l’empreinte carbone avec une granularité très élevée (au niveau CPU, RAM, etc.).</p><p>Afin d’établir un plan d’actions adapté, il est important de comprendre la répartition de l’empreinte carbone au niveau des composants d’un système sur tout le cycle de via une méthodologie d’analyse du cycle de vie, encadrée par la norme ISO14040-44. Cela permet également d’adopter une démarche d’éco-conception, en intégrant ces connaissances dans le dimensionnement des futures infrastructures.</p><h2>Passer à l’action</h2><p>Éco-conception des architectures et des services, allongement de la durée de vie des équipements et achats responsables sont autant de réponses concrètes à mettre en œuvre.</p><p>L’intégration de la réduction de l’empreinte environnementale dès la phase de conception d’un produit ou d’un service – l’écoconception – est la démarche reconnue comme la plus efficace et la plus pertinente. Elle implique de prendre en compte les impacts à toutes les étapes du cycle de vie (fabrication des équipements, transport, utilisation et fin de vie de ces équipements) dans une approche multicritères. Elle suggère, par ailleurs, dans une notion de responsabilité plus globale, d’intégrer les enjeux sociaux, sociétaux et éthiques, et d’adopter un processus de conception vertueux qui évite tous les transferts de pollution et autres externalités négatives.</p><p>Augmenter la durée d’utilisation des équipements numériques constitue également un levier très efficace. Les outils digitaux liés à l’environnement de travail sont particulièrement concernés. En effet, sur dix ordinateurs remplacés par les entreprises, huit sont encore fonctionnels. Les organisations doivent donc repenser le cycle de vie de ces équipements : réviser la fréquence de remplacement des ordinateurs, écrans et autres smartphones, envisager des solutions de leasing durable, valoriser les matériels décommissionnés en leur donnant une seconde vie (réparation, revente aux collaborateurs, dons à des associations, etc.) et s’assurer d’un recyclage correct des e-déchets. Réduire le taux de possession est également un moyen d’alléger l’empreinte carbone de son parc informatique.</p><h2>L'éthique et la souveraineté : les nouveaux défis d’un numérique durable</h2><p>Au-delà de la décarbonation de l’IT, un numérique durable doit intégrer d’autres dimensions. L’éthique constitue un pilier fondamental, garantissant que nos avancées technologiques respectent et renforcent nos valeurs collectives.</p><p>Les nouvelles technologies – l’IA en particulier – présentent une dualité : elles peuvent servir l’Homme (en fournissant un assistant personnel par exemple) mais aussi l’asservir (avec les solutions de surveillance de masse). Face à cette réalité, les organisations doivent impérativement développer une compréhension approfondie des mécanismes sous-jacents aux solutions technologiques qu’elles déploient et établir un cadre rigoureux pour leur utilisation éthique. Cette vigilance doit s’accompagner d’une réflexion sur la souveraineté numérique, assurant que nos données et infrastructures critiques demeurent sous contrôle.</p><p>L'éthique et la souveraineté ne sont pas des considérations accessoires ; elles constituent les fondations essentielles d'un Numérique Responsable.</p>]]></description>
      <link>https://www.journaldunet.com/solutions/dsi/1542403-numerique-responsable-les-cles-pour-ne-pas-rater-le-virage/</link>
      <guid>https://www.journaldunet.com/solutions/dsi/1542403-numerique-responsable-les-cles-pour-ne-pas-rater-le-virage/</guid>
      <pubDate>Tue, 24 Jun 2025 16:19:00 +0200</pubDate>
    </item>
    <item>
      <title><![CDATA[Innover à budget constant et penser ESG : l'équilibre passe par le financement]]></title>
      <description><![CDATA[<p class="app_entry_lead">DSI et CFO partagent un objectif commun : optimiser leurs budgets IT tout en soutenant l'innovation. Mais comment intégrer les nouvelles contraintes environnementales et sociales ?</p><p>DSI et CFO partagent un objectif commun : optimiser leurs budgets IT tout en soutenant l’innovation. Mais comment intégrer les nouvelles contraintes environnementales et sociales ? À l’heure des IA de plus en plus énergivores et d’une cloudification aux coûts parfois sous-estimés, le financement devient un levier clé.</p><h2>Repenser le budget IT sous contraintes</h2><p>Dans un contexte économique sous tension, beaucoup de budgets IT sont en période de restrictions, maintenir sa compétitivité tout en innovant impose donc une gestion rigoureuse des coûts. Mais cet équilibre est mis à l’épreuve par plusieurs tendances lourdes.</p><p>En premier lieu, face à l’urgence climatique et aux attentes sociétales, de nouvelles obligations ESG s’imposent aux entreprises qui doivent intégrer dans leurs budgets IT des investissements durables — souvent plus coûteux à court terme — tout en démontrant leur engagement via des reportings de plus en plus exigeants.</p><p>Ensuite, la dépendance au « tout Cloud » est en train de s’effriter. Ce fameux Cloud, censé offrir flexibilité et économies, a vu ses coûts exploser. Les dépenses de stockage et de bande passante, souvent sous-estimées, pèsent lourdement sur les budgets. Adopter une stratégie plus hybride devient une nécessité pour limiter cette dépendance.</p><p>Enfin, L’innovation technologique a un coût. Automatisation, intelligence artificielle... Ces innovations sont indispensables mais génèrent des coûts directs (infrastructure, logiciels) et indirects (formation, maintenance). Leur financement doit être anticipé pour éviter les effets de bord sur les autres projets IT.</p><h2>L’analyse du TCO : un passage obligé</h2><p>La majorité des entreprises ne part pourtant pas d'une feuille blanche : elles disposent d’infrastructures hétérogènes, combinant serveurs sur site, solutions cloud privées et publiques. Pour piloter efficacement, une analyse du coût total de possession (TCO) est essentielle. Elle permet de comprendre l’impact budgétaire réel des actifs existants, d’identifier les leviers d’économies et de prioriser les investissements sur des critères financiers, technologiques et environnementaux.</p><p>Cette approche factuelle est d’autant plus cruciale que les nouvelles inconnues — ESG, IA, budgets restreints — complexifient les décisions.</p><h2>ESG, Innovation et transformation numérique : une équation difficile</h2><p>L’ ESG devient une nouvelle variable budgétaire. Les critères ESG ne sont plus une option mais un impératif. Leur intégration impacte directement les décisions d’investissement IT, en imposant plus de transparence sur l’empreinte carbone, la consommation énergétique et la gestion des équipements en fin de vie.</p><p>En parallèle, l’IA et l’automatisation sont des moteurs de croissance mais également de dépenses. L’adoption de l’IA nécessite des équipements de dernière génération, des formations pointues et une maintenance adaptée. Ces investissements stratégiques doivent être pensés sur le long terme pour maximiser leur retour tout en maîtrisant leur coût.</p><p>Enfin, la transformation numérique reste stratégique mais elle est un parapluie devenu trop petit car ne protégeant plus des coupes budgétaires. Les projets doivent désormais démontrer leur valeur ajoutée rapide pour espérer être financés.</p><p>Alors comment maîtriser cette complexité croissante ?</p><p>Face à cette multiplication des contraintes, trois leviers d’action émergent :</p><ul><li>Hiérarchiser les priorités : concentrer les investissements sur les projets critiques, et adopter des stratégies hybrides (cloud + infrastructures sur site) pour optimiser les coûts.</li>
<li>Intégrer l’ESG dans toutes les décisions : chaque investissement doit être évalué non seulement sur son coût et son ROI, mais aussi sur son impact environnemental et sociétal.</li>
<li>Adopter une gestion flexible : construire un budget IT capable de s’ajuster rapidement aux évolutions économiques, technologiques et réglementaires.</li>
</ul><h2>Cinq façons de financer autrement pour innover à budget constant</h2><p>Plusieurs alternatives permettent aujourd’hui de concilier innovation, maîtrise des coûts et impact environnemental réduit :</p><h3>Le matériel reconditionné</h3><p>Acheter du matériel reconditionné permet de réduire les coûts d’acquisition de 40 à 60 %, tout en diminuant l’empreinte carbone de plusieurs tonnes de CO2 par serveur. Un ERP ou une messagerie n’ont pas besoin des toutes dernières générations de serveurs pour fonctionner efficacement.</p><h3>Prolonger la durée de vie des équipements</h3><p>Étendre la durée de vie des équipements de 3 à 5 ans, voire au-delà pour certains matériels non critiques, permet de réduire l’impact environnemental (80 % des émissions carbone d’un équipement sont générées lors de sa fabrication). Du point de vue strictement budgétaire, cela permet aussi de reporter des investissements lourds.</p><h3>Des infrastructures hybrides et flexibles pour mieux piloter les ressources</h3><p>Combiner équipements neufs et matériels reconditionnés permet d’optimiser les investissements IT et de mieux allouer les ressources. Les modèles "As-a-Service" renforcent cette agilité : paiement à l’usage, ajustement en temps réel des ressources aux besoins de l’entreprise, accès simplifié aux dernières innovations technologiques.</p><h3>La location évolutive</h3><p>Plutôt que d’investir massivement en CAPEX, la location d’équipements (serveurs, ordinateurs, solutions de stockage…) permet d'ajuster dynamiquement les capacités IT et de préserver la trésorerie. En travaillant avec des partenaires pratiquant le reconditionnement ou le recyclage, les entreprises renforcent également leur démarche ESG.</p><h3>Miser sur des partenaires spécialisés</h3><p>S’appuyer sur des spécialistes du financement IT est un levier efficace pour acquérir du matériel neuf taillé pour les applications critiques (IA, Big Data). Ces partenaires sont également capables de déployer des équipements reconditionnés pour les usages secondaires et d’étendre la durée de vie des équipements non stratégiques jusqu’à 12 ans. Enfin, ils savent gérer la maintenance et la fin de vie des équipements en conformité avec les normes environnementales.</p><p>Ces partenaires apportent une approche globale combinant financement, technique, et responsabilité environnementale, au service d’une innovation durable.</p><h3>Financer pour innover durablement</h3><p>Adopter une démarche circulaire dans la gestion du parc IT permet d’innover tout en respectant ses contraintes économiques et environnementales.</p><p>Le Financement Durable devient ainsi un levier stratégique pour accélérer les projets, libérer des budgets et répondre aux nouvelles exigences ESG, sans freiner l’innovation.</p><p>Dans un monde où les priorités changent vite, construire aujourd’hui une stratégie IT souple, évolutive et responsable est plus que jamais une nécessité.</p>]]></description>
      <link>https://www.journaldunet.com/solutions/dsi/1542255-innover-a-budget-constant-et-penser-esg-l-equilibre-passe-par-le-financement/</link>
      <guid>https://www.journaldunet.com/solutions/dsi/1542255-innover-a-budget-constant-et-penser-esg-l-equilibre-passe-par-le-financement/</guid>
      <pubDate>Thu, 12 Jun 2025 11:49:00 +0200</pubDate>
    </item>
    <item>
      <title><![CDATA[Bases de données no code : Airtable et Xano dominent]]></title>
      <description><![CDATA[<p class="app_entry_lead"><a title=" © JDN / Dall-E" href="https://img-0.journaldunet.com/wvCviZyZ72DH3V32b8NSwyhMHA0=/1500x/smart/a7341bc2ed2a4f22bd8bd4e7c9e734aa/ccmcms-jdn/39521966.jpg" class="fancy"><picture><source srcset="https://img-0.journaldunet.com/rqdX1logyGJ6lSvWv6BxoNVhH0E=/540x/smart/a7341bc2ed2a4f22bd8bd4e7c9e734aa/ccmcms-jdn/39521966.jpg" media="(max-width: 480px)" /><img src="https://img-0.journaldunet.com/wvCviZyZ72DH3V32b8NSwyhMHA0=/1500x/smart/a7341bc2ed2a4f22bd8bd4e7c9e734aa/ccmcms-jdn/39521966.jpg" alt="Bases de données no code : Airtable et Xano dominent" width="1500" height="1002" /></picture></a> Baserow, NocoDB, Supabase... Tour d'horizon des serveurs de données orientés développement sans code. Le point sur leurs avantages et inconvénients.</p><p>A l'instar <a href="https://www.journaldunet.com/solutions/dsi/1541921-developpement-d-applications-sans-code-deux-approches-se-distinguent/" target="_blank">des outils de création d'applications sans code</a>, les bases de données no code se découpent en deux grandes catégories : les environnements ciblant les citizen developers d'une part, et ceux centrés sur des profils de développeurs plus aguerris d'autre part. "La première est dominée par la solution Airtable, la seconde par Xano. Chacune affiche ses avantages et ses inconvénients", note <a href="https://www.linkedin.com/in/valentin-bert-662624104/" target="_blank">Valentin Bert</a>, CEO de l'agence Nocode Factory.</p><table border="0" cellpadding="0" style="border-spacing: 0px; width: 599px;"><caption>Comparatif des bases de données no code</caption>
<thead><tr><th scope="row" class="c4" style="height: 20px;"> </th>
<th scope="col" class="c5">Airtable</th>
<th scope="col" class="c5">Baserow</th>
<th scope="col" class="c5">NocoDB</th>
<th scope="col" class="c5">Supabase</th>
<th scope="col" class="c5">Xano</th>
</tr></thead><tbody><tr><th scope="row" class="c6" style="height: 20px;">Excel gamifié</th>
<td class="c7">X</td>
<td class="c7">X</td>
<td class="c7">X</td>
<td class="c7"> </td>
<td class="c7"> </td>
</tr><tr><th scope="row" class="c6" style="height: 20px;">Auto-hébergement possible</th>
<td class="c7"> </td>
<td class="c7">X</td>
<td class="c7">X</td>
<td class="c7">X</td>
<td class="c7">X</td>
</tr><tr><th scope="row" class="c6" style="height: 20px;">Gestion du passage à l'échelle</th>
<td class="c7"> </td>
<td class="c7"> </td>
<td class="c7"> </td>
<td class="c7">X</td>
<td class="c7">X</td>
</tr><tr><th scope="row" class="c6" style="height: 20px;">Open source</th>
<td class="c7"> </td>
<td class="c7">X</td>
<td class="c7">X</td>
<td class="c7">X</td>
<td class="c7"> </td>
</tr><tr><th scope="row" class="c6" style="height: 20px;">Repose sur la base PostgreSQL</th>
<td class="c7"> </td>
<td class="c7"> </td>
<td class="c7"> </td>
<td class="c7">X</td>
<td class="c7">X</td>
</tr></tbody></table><p>"<a href="https://www.journaldunet.fr/web-tech/guide-de-l-entreprise-digitale/1496477-airtable-l-application-qui-veut-detroner-excel17122021/" title="Airtable">Airtable</a> et Xano se prêtent à des types de projets bien distincts. Airtable, grâce à sa simplicité, est parfait pour des solutions nécessitant une gestion visuelle et collaborative peu coûteuse. À l'inverse, Xano est conçu pour des projets plus ambitieux, nécessitant une forte personnalisation et une logique backend avancée. Il se révèle de facto plus complexe à appréhender", décrypte Valentin Bert. "Par exemple, une PME cherchant à organiser ses tâches et ses contacts optera probablement pour Airtable. Une entreprise développant une application mobile complexe avec de fortes exigences en termes de performances se tournera plutôt vers Xano."</p><p><a href="https://www.linkedin.com/in/melinda-ferda/" target="_blank">Mélinda Ferda</a>, engineering manager au sein de l'agence Alegria, complète : "Airtable combine une interface de visualisation de type tableur à une base de données relationnelle. Ce qui le rend très abordable pour les personnes qui connaissent déjà Excel. C'est là l'une de ses grandes forces."</p><h2>Airtable pour les opérationnels</h2><p>Airtable est définitivement conçu pour les opérationnels. "L'outil repose sur une structure de base de données avec une interface Excel gamifiée. N'importe quel collaborateur peut afficher et manipuler la donnée, voire créer des automatisation", souligne <a href="https://www.linkedin.com/in/louis-adam1/" target="_blank">Louis Adam</a>, fondateur et dirigeant de l'agence Hyperstack. "C'est une solution puissante qui peut permettre par exemple de créer très rapidement un CRM ou un ERP complet, de la création de leads à la facturation." Dans un second temps, l'entreprise utilisatrice pourra souhaiter développer une interface graphique à l'attention de ses clients ou de ses partenaires. "Dans ce cas, on aura recours à un builder d'apps qui sera utilisé en frontend d'Airtable pour gérer les accès", complète Yann Prigent, développeur chez Hyperstack. A l'opposé d'Airtable figure Supabase qui s'apparente à un backend low code taillé pour accroître la productivité des développeurs.</p><blockquote>
<p class="c8">"Dans le cas d'une start-up avec un potentiel de croissance important, on sera tenté se tourner vers Xano ou Supabase"</p>
</blockquote><p>Autre base de données sans code, Baserow s'inspire d'Airtable. Principale différence : cet outil est open source alors qu'Airtable demeure propriétaire. Du coup, Baserow peut être hébergé à l'emplacement de son choix là où Airtable reste une application SaaS imposant des localisations. Par défaut, ce dernier (qui repose sur le cloud d'AWS) héberge les données utilisateur aux Etats-Unis. Son abonnement "Enterprise" permet cependant de les hoster en Europe, sur la région cloud d'Amazon basée à Francfort. Comparé à Baserow, NocoDB est aussi inspiré d'Airtable. Egalement open source, cet outil se révèle néanmoins plus difficile à appréhender que Baserow.</p><h2>Xano et Supabase pour les développeurs</h2><p>Quant à Xano et Supabase, tous deux proposent une région cloud en France à proximité de Paris. Dans le même temps, ils offrent une possibilité d'auto-hébergement. Un point fort pour les projets impliquant une forte adhérence au RGPD.</p><p>Autre point commun des deux solutions, Xano comme Supabase s'adossent à des bases postgreSQL. "Xano ajoute à cette couche un environnement low code qui permettra de décrire la logique applicative. Ce qui permettra de gérer les modifications, les agrégations, les transformations de données", égraine Yann Prigent. Et Mélinda Ferda chez Alegria de préciser : "Xano est équipé d'un outil de conception d'API. Il génère un code très proche de celui qui aurait été créé par des développeurs. Un programmeur qui utilisera Xano retrouvera ses repères, notamment le fait de dissocier la logique applicative de la base de données ou encore le fait de pouvoir intégrer des packages JavaSript." Xano pourra également encaisser de forts volumes de trafic. Idem pour Supabase.</p><p>Comparé à Xano, Supabase demeure plus difficile d'accès. "Pour certaines requêtes, il sera nécessaire de maîtriser le langage SQL. De même pour créer des fonctions postgreSQL, il faudra maîtriser la syntaxe afférente", note Mélinda Ferda. Face à ses contraintes, on pourra être tenté d'ajouter à Supabase un outil d'automatisation <a href="https://www.journaldunet.fr/web-tech/guide-de-l-entreprise-digitale/1498785-no-code/" title="No-code">no code</a> type n8n en vue de prendre en charge la logique applicative et les fonctionnalités.</p><p>Au final, le choix d'une base de données no code dépendra de la problématique à adresser. Combiner un builder d'apps comme Softr avec Airtable pourra suffire pour développer une application interne assez standardisée. En revanche, un frontend de type WeWeb couplé au backend Xano ou Supabase sera plus approprié pour des produits dotés de fonctionnalités complexes et pointues. "Tout dépendra également des environnements existants, notamment l'utilisation de bases PostgreSQL. Mais aussi de la perspective en matière de montée en charge sur de forts volumes de trafic. Dans le cas d'une start-up avec un potentiel de croissance important, on sera tenté de se tourner vers Xano ou Supabase", ajoute pour finir <a href="https://www.linkedin.com/in/arthur-corre/" target="_blank">Arthur Corré</a>, no code ops et product builder chez Hyperstack.</p>]]></description>
      <link>https://www.journaldunet.com/solutions/dsi/1542011-bases-de-donnees-no-code-airtable-et-xano-dominent/</link>
      <guid>https://www.journaldunet.com/solutions/dsi/1542011-bases-de-donnees-no-code-airtable-et-xano-dominent/</guid>
      <pubDate>Fri, 06 Jun 2025 11:15:00 +0200</pubDate>
    </item>
    <item>
      <title><![CDATA[La dépendance des entreprises européennes aux Gafam est avant tout psychologique]]></title>
      <description><![CDATA[<p class="app_entry_lead">L'Europe prend enfin conscience de l'importance de la souveraineté numérique. Pourtant, le passage aux actes est difficile. Ce blocage n'est pas seulement technologique, mais surtout psychologique.</p><p>Enfin ! La souveraineté numérique est sur toutes les lèvres. En conseils des ministres, dans les couloirs des DSI et jusque dans les délibérations municipales, chacun.e partage désormais la conviction que nos entreprises, nos organisations et nos administrations doivent reprendre leur pouvoir numérique. C’est-à-dire retrouver le choix des outils qu’elles utilisent (hébergement, logiciels métiers, services de messageries, plateformes RH…) et de leurs règles du jeu, ainsi que leur capacité à en contrôler l’accès et garantir la confidentialité de leurs données. Il en va de la résilience de notre économie dans un monde de plus en plus instable, mais aussi de notre souveraineté politique face au retour des empires, qui font du numérique un levier d’influence et de pression.  </p><h2>Le vrai piège : la résignation douce</h2><p>Malheureusement, nous avons encore beaucoup de mal à passer de la volonté aux actes. Une récente étude Ipsos Digital le montre de manière éclatante. Si 78 % des décideurs européens affirment reconnaître l’importance des outils souverains pour l’indépendance stratégique de l’Europe, seuls 32 % en font un critère dans leurs décisions d’investissement. Ils seraient même 37% à encore ignorer où sont hébergées leurs données. Et parmi ceux qui le savent, 20% croient qu’elles sont moins fiables et 28% plus chères. Le bilan est sans appel : 80% des dépenses des entreprises pour des logiciels vont encore dans les poches d’acteurs non européens. Microsoft, Google ou encore Salesforce détiennent les clés d’une immense partie de notre vie économique, politique et sociale.</p><p>Nous sommes comme un fumeur qui voudrait arrêter de fumer, mais qui continue de s’acheter un paquet chaque matin. Cette résignation triste est le plus grand succès des <a href="https://www.journaldunet.com/gafa/" title="Gafa">Gafam</a>, loin devant leurs innovations. Ils nous ont enfermé dans une prison qui est certes technologique – la dépendance à leur code – mais avant tout mentale, en nous faisant croire que sans eux la vie est ennuyeuse et impossible. Qu’aucune alternative crédible n’existe et qu’il est même trop tard pour en créer. A force d’intérioriser leur domination, nous la rendons inéluctable.</p><h2>Et si on changeait notre logiciel mental ?</h2><p>Mais il ne tient qu’à nous de sortir de cet état d’hypnose et d’ouvrir les yeux : les alternatives françaises et européennes sont bel et bien là ! Et c’est vrai pour presque tous nos besoins : la gestion de documents (Talkspirit, Whaller), l’hébergement (OVH, Scaleway) , la messagerie et les mails (Twake). Ces solutions sont robustes, souveraines et souvent moins chères. C’est d’ailleurs la contrainte du prix qui pousse généralement des entreprises à les découvrir, quand elles ne peuvent pas – ou plus – se payer les tarifs très élevés des logiciels et services proposés par les Gafam.</p><p>Une fois qu’on a écrasé sa dernière cigarette, comment ne pas replonger ? On conseille souvent aux fumeurs de hacker leur cerveau : par exemple en visualisant, à chaque fois qu’ils ont envie de tabac, l’argent qu’ils économisent en renonçant à fumer. De la même manière, la France et l’Europe doivent reconfigurer leur propre code mental, en s’émancipant des logiques industrielles et économiques véhiculées depuis des années par la Silicon Valley. Nous ne reprendrons pas notre souveraineté numérique en remplaçant Microsoft par un Microsoft européen… mais en créant un autre modèle qui nous ressemble ! Non pas un monopole qui fonctionne de manière opaque, mais un écosystème souverain et transparent, reposant sur des champions français et européens qui sont solidaires, complémentaires, interopérables. Chacun concrétisant la même vision : donner le choix à l’utilisateur plutôt que l’enfermer dans un fonctionnement qu’il ne comprend pas, A nous de bien jouer les cartes dont nous disposons déjà et de les faire passer à l’échelle.</p><p>Pour reconquérir notre souveraineté numérique, il nous faudra prendre des décisions politiques et industrielles majeures. Mais la mère de toutes les batailles est psychologique : nous devons d’abord la gagner dans nos têtes.  Et nous y arriverons, car nous ne sommes pas seuls. La France compte 67 millions de citoyens et 3,8 millions d’entreprises. A-t-on déjà vu un plus grand club d’anciens fumeurs ?</p>]]></description>
      <link>https://www.journaldunet.com/solutions/dsi/1541891-la-dependance-des-entreprises-europeennes-aux-gafam-est-avant-tout-psychologique/</link>
      <guid>https://www.journaldunet.com/solutions/dsi/1541891-la-dependance-des-entreprises-europeennes-aux-gafam-est-avant-tout-psychologique/</guid>
      <pubDate>Wed, 28 May 2025 16:40:00 +0200</pubDate>
    </item>
    <item>
      <title><![CDATA[Développement d'applications sans code : deux approches se distinguent]]></title>
      <description><![CDATA[<p class="app_entry_lead"><a title=" © JDN / Dall-E" href="https://img-0.journaldunet.com/VbngsJlbGNFKtfQrkBeKK47GA1o=/1500x/smart/5b1b93a8d9fb4cadb38b6f5b60117aef/ccmcms-jdn/39521794.png" class="fancy"><picture><source srcset="https://img-0.journaldunet.com/N4BXdlGtlGocAToON1sAlaJc3ek=/540x/smart/5b1b93a8d9fb4cadb38b6f5b60117aef/ccmcms-jdn/39521794.png" media="(max-width: 480px)" /><img src="https://img-0.journaldunet.com/VbngsJlbGNFKtfQrkBeKK47GA1o=/1500x/smart/5b1b93a8d9fb4cadb38b6f5b60117aef/ccmcms-jdn/39521794.png" alt="Développement d'applications sans code : deux approches se distinguent" width="1500" height="1000" /></picture></a> Au sein des builders d'apps no code figurent deux types d'architecture : les architectures monolithiques d'une part, les architectures modulaires d'autre part. Chacune affiche ses avantages et ses inconvénients.</p><p>Les outils de développement d'applications sans code font partie des quatre grandes familles de solutions <a href="https://www.journaldunet.fr/web-tech/guide-de-l-entreprise-digitale/1498785-no-code/" title="No-code">no code</a> aux côtés des environnements de développement de sites web, des systèmes d'automatisation de workflow et des bases de données. "Cette catégorie de solutions qui permet d'aboutir à des produits finis en un temps record se découpe elle-même en deux grandes familles. La première revêt une approche monolithique, la seconde une logique plus modulaire", explique <a href="http://www.linkedin.com/in/valentin-bert-662624104/">Valentin Bert</a>, CEO de Nocode Factory.</p><table border="0" cellpadding="0" style="border-spacing: 0px; width: 1025px;"><caption>Comparatif des builders d'app</caption>
<tbody><tr><td rowspan="2" class="c4" style="height: 39px;">Caractéristique</td>
<td rowspan="2" class="c5">Adalo</td>
<td rowspan="2" class="c5">Bubble</td>
<td rowspan="2" class="c5">Flutter-Flow</td>
<td rowspan="2" class="c5">Glide</td>
<td rowspan="2" class="c5">Power Apps*</td>
<td rowspan="2" class="c5"><a href="https://www.journaldunet.fr/web-tech/guide-de-l-entreprise-digitale/1511321-softr-une-plateforme-web-no-code-base-sur-airtable/" title="Softr">Softr</a></td>
<td rowspan="2" class="c5">WeWeb</td>
</tr><tr><td class="c6" style="height: 20px;">Environnement monolithique</td>
<td class="c7">X</td>
<td class="c7">X</td>
<td class="c7"> </td>
<td class="c7"> </td>
<td class="c7">X</td>
<td class="c7"> </td>
<td class="c7"> </td>
</tr><tr><td class="c6" style="height: 20px;">Prise en charge de code personnalisé</td>
<td class="c7">X</td>
<td class="c7">X</td>
<td class="c7">X</td>
<td class="c7">X</td>
<td class="c7">X</td>
<td class="c7">X</td>
<td class="c7">X</td>
</tr><tr><td class="c4" style="height: 39px;">S'adosse historiquement à une base de données externe</td>
<td class="c7"> </td>
<td class="c7"> </td>
<td class="c7">X</td>
<td class="c7">X</td>
<td class="c7"> </td>
<td class="c7">X</td>
<td class="c7">X</td>
</tr><tr><td class="c8" style="height: 37px;">S'adosse historiquement à un backend externe</td>
<td class="c7"> </td>
<td class="c7"> </td>
<td class="c7">X</td>
<td class="c7"> </td>
<td class="c7"> </td>
<td class="c7">X</td>
<td class="c7">X</td>
</tr><tr><td class="c6" style="height: 20px;">IA générative d'app</td>
<td class="c7"> </td>
<td class="c7">X</td>
<td class="c7">X</td>
<td class="c7">X</td>
<td class="c7"> </td>
<td class="c7">X</td>
<td class="c7">X</td>
</tr><tr><td class="c6" style="height: 20px;">App mobile cœur de cible</td>
<td class="c7">X</td>
<td class="c7"> </td>
<td class="c7">X</td>
<td class="c7">X</td>
<td class="c7"> </td>
<td class="c7"> </td>
<td class="c7"> </td>
</tr><tr><td class="c6" style="height: 20px;">Export du <a href="https://www.journaldunet.fr/web-tech/dictionnaire-du-webmastering/1203623-code-source-definition-traduction/" title="Code source">code source</a></td>
<td class="c7"> </td>
<td class="c7"> </td>
<td class="c7">X</td>
<td class="c7"> </td>
<td class="c7"> </td>
<td class="c7"> </td>
<td class="c7">X</td>
</tr></tbody></table><p><em>*Power App est le builder d'app proposé par Microsoft au sein de sa Power Platform.</em></p><p>Dans le cas des outils monolithiques, les environnements regroupent à la fois l'interface utilisateur (ou front office), la logique applicative (backend) et la base de données. C'est le cas de <a href="https://www.journaldunet.fr/web-tech/guide-de-l-entreprise-digitale/1511273-bubble-l-outil-star-de-developpement-d-application-no-code/" title="Bubble">Bubble</a>, d'Adalo ou de Microsoft Power Apps. "Cette approche est très pratique pour réaliser un développement rapide sans se prendre la tête. Elle cible les citizen developers qui n'ont aucune connaissance en codage", souligne Valentin Bert, CEO de l'agence web Nocode Factory. Principal défaut de cette approche : sa standardisation limitera la personnalisation de l'interface à sa plus simple expression. "Ces outils permettent néanmoins de réaliser de plus en plus d'adaptations, notamment via la prise en charge de code personnalisé", estime <a href="https://www.linkedin.com/in/melinda-ferda/" target="_blank">Melinda Ferda</a>, engineering manager pour l'agence Alegria.group, avant de relativiser : "Malgré son approche monolithique, Bubble se révèle plus complexe à prendre en main qu'un <a href="https://www.journaldunet.fr/web-tech/guide-de-l-entreprise-digitale/1511289-glide-un-outil-no-code-de-developpement-web-et-mobile/" title="Glide">Glide</a> par exemple (<em>qui, lui, est historiquement modulaire, ndlr</em>)." Yann Prigent, développeur au sein de l'agence Hyperstack, précise : "A la différence de Softr, Glide est équipée d'une fonction d'automatisation interne. Ce qui lui permettra d'orchestrer nativement des workflows." Cet outil se situe par conséquent au milieu du gué.</p><h2>Une frontière mouvante</h2><p>Quant aux outils purement modulaires, ils s'adossent à une base de données voire à un backend tiers. Cette voie est évidemment plus complexe à mettre en œuvre, mais elle n'en reste pas moins plus flexible. Par ailleurs, elle permettra souvent de mieux tenir la charge sur des volumes de trafic importants. Sur ce segment, on retrouve typiquement des produits comme FlutterFlow ou WeWeb. "De leurs côtés, Softr et Glide sont historiquement des outils purement orientés vers le front office qui intègrent désormais leurs propres bases de données", précise <a href="https://www.linkedin.com/in/lucientavano/" target="_blank">Lucien Tavano</a>, chief AI &amp; innovation officer chez Alegria.group. Et <a href="https://www.linkedin.com/in/arthur-corre/" target="_blank">Arthur Corré</a>, no code ops et product builder chez Hyperstack, d'ajouter : "Glide pousse désormais ses propres sources de données au détriment des bases tierces qu'ils supportent historiquement." L'outil confirme ainsi sa position intermédiaire entre monolithique et modulaire.</p><blockquote>
<p class="c9">"Les couples Glide-Airtable ou Softr-Airtable fonctionnent bien"</p>
</blockquote><p>"A l'image de Bubble, WeWeb est une option robuste. Il est utilisé par des entreprises comme PWC. Ce qui démontre sa solidité. Il s'agit aussi d'une solution française", insiste Yann Prigent. "Travailler avec des solutions comme WeWeb découplant le backend et la base de données du frontend répond aux standards de développement classique, ce qui est gage de scalabilité et de fiabilité. C'est aussi un moyen de réutiliser une base de données existantes, reposant sur PostgreSQL par exemple." WeWeb pourra venir s'adosser à un backend comme Xano qui a été développé en parallèle et une base de données telle que Supabase. "Les couples Glide-<a href="https://www.journaldunet.fr/web-tech/guide-de-l-entreprise-digitale/1496477-airtable-l-application-qui-veut-detroner-excel17122021/" title="Airtable">Airtable</a> ou Softr-Airtable fonctionnent également bien", complète Yann Prigent. "En revanche comparé à Weweb qui est très riche fonctionnellement, ces solutions sont au niveau zéro de la personnalisation. Elles seront par conséquent adaptées au développement de petites applications là où WeWeb pourra convenir à des projets plus ambitieux."</p><h2>FlutterFlow et WeWeb : des outils low code</h2><p>Fait particulièrement intéressant, FlutterFlow et WeWeb permettent d'exporter l'intégralité du code source de l'application en vue de l'héberger ailleurs. "En revanche, il ne sera pas possible de le réimporter. A chaque modification, il sera nécessaire de repasser par la solution", note Melinda Ferda. Malgré cette limite, il est potentiellement envisageable via ces outils de reproduire ce qu'aurait réalisé un développeur en ayant accès à l'intégralité du code. Ce n'est évidemment pas le cas avec les solutions monolithiques qui se présentent comme des boîtes noires masquant entièrement les sources sous-jacentes. Toujours sur le plan de l'hébergement, les outils modulaires permettent en outre de choisir où localiser les données, à la différence de leurs équivalents monolithiques. "Ce qui leur permet d'être potentiellement conformes au RGPD", reconnaît Valentin Bert.</p><p>Au final, des outils comme Glide ou Softr seront adaptés à la réalisation d'une preuve de concept (PoC) ou d'un produit minimal viable (MVP) là où des solutions telles que Bubble et WeWeb pourront supporter des développements nettement plus avancés, y compris des projets à destination de clients externes. Ces dernières seront néanmoins plus complexes à prendre en main. "Sur le terrain des applications internes, il ne faut pas minimiser les points forts d'Airtable qui permettra par exemple de développer une application de gestion de la relation client", complète Pierre Launay, CEO de l'école Cube centrée sur le développement no code. Reste qu'Airtable demeure avant tout structurer autour d'une base de données. Il ne s'agit donc pas d'un app builder au sens strict.</p>]]></description>
      <link>https://www.journaldunet.com/solutions/dsi/1541921-developpement-d-applications-sans-code-deux-approches-se-distinguent/</link>
      <guid>https://www.journaldunet.com/solutions/dsi/1541921-developpement-d-applications-sans-code-deux-approches-se-distinguent/</guid>
      <pubDate>Tue, 27 May 2025 14:51:00 +0200</pubDate>
    </item>
    <item>
      <title><![CDATA[La révolution eSIM : redéfinir la sécurité et la connectivité des réseaux gouvernementaux critiques]]></title>
      <description><![CDATA[<p class="app_entry_lead">À une époque où la transformation numérique est au cœur de l'efficacité opérationnelle, garantir une connectivité fluide et sécurisée est essentiel, notamment pour les réseaux gouvernementaux critiques.</p><p>Une brigade de sapeurs-pompiers d’une capitale a déclaré avoir bloqué près de 340 000 cyberattaques l’année dernière. Par ailleurs, un important service de police européen et plusieurs services ambulanciers ont subi des violations de données après que des fournisseurs, qui détenaient des informations confidentielles sur les premiers intervenants, ont été compromis.</p><p>Dans un cas similaire, des services d’urgences ont été victimes d’attaques par ransomware (rançongiciel), notamment une attaque visant un fournisseur clé qui soutenait un programme de radio pour les ambulances, reliant ces dernières aux équipes centrales et autres services d’urgence. </p><p>Les réseaux de communication critiques en matière de sécurité publique sont essentiels pour coordonner les interventions d’urgence, protéger les populations et maintenir l’ordre public.. La police, les pompiers, les ambulances et les agences gouvernementales s’appuient sur des réseaux de communication sécurisés et en temps réel afin de partager des informations essentielles, déployer efficacement leurs ressources et répondre rapidement aux urgences. </p><p>Qu’il s’agisse de réseaux radio, de réseaux mobiles ou de plateformes numériques pour les appels d’urgence, une communication fluide permet de réduire les temps de réponse, de renforcer la sécurité publique et d’assurer un fonctionnement optimal des services. En favorisant une prise de décision rapide et une meilleure collaboration entre les agences gouvernementales, ces réseaux critiques contribuent à sauver des vies, à limiter les perturbations et à maintenir la confiance des populations envers les services d’urgences et gouvernementaux. </p><h2>Renforcer la sécurité avec l’eSIM</h2><p>L’eSIM, ou SIM intégrée, est une <a href="https://www.journaldunet.com/innovation/" title="Innovation">innovation</a> révolutionnaire qui présente des avantages significatifs par rapport aux cartes SIM physiques traditionnelles, notamment en matière de sécurité et de flexibilité dans la transition entre les réseaux publics et privés. En redéfinissant la connectivité des organismes gouvernementaux, l’<a href="https://www.journaldunet.fr/web-tech/dictionnaire-de-l-iot/1489509-esim-qu-est-ce-que-cette-carte-sim-et-comment-fonctionne-t-elle/" title="ESIM">eSIM</a> transforme considérablement la manière dont ces entités communiquent et sécurisent leurs échanges. </p><p>Une eSIM est une carte SIM programmable intégrée directement dans un terminal, permettant aux utilisateurs de basculer entre les opérateurs et les forfaits mobiles sans avoir à changer physiquement de carte SIM. Cette technologie simplifie la connectivité et offre un niveau supplémentaire de sécurité et d’adaptabilité, essentiel pour les opérations gouvernementales et la sécurité publique. </p><p>La sécurité est une priorité absolue pour les réseaux gouvernementaux et de sécurité publique, où le risque de fuite de données peut avoir des conséquences majeures.  Grâce à la <a href="https://www.journaldunet.fr/web-tech/dictionnaire-de-l-iot/1196828-5g-technologie-deploiement-debit-20221222/" title="5G">5G</a>, au Wi-Fi 6E et à l’intégration sécurisée dans le cloud, les solutions mobiles équipées d’eSIM garantissent un accès sécurisé aux données cryptées, même dans les environnements exigeants, assurant ainsi aux équipes terrain  une connexion ininterrompue dans les moments critiques.</p><p>L’analyse basée sur l’IA, l’edge computing et l’accès aux bases de données en temps réel permettent de récupérer immédiatement les dossiers liés aux suspects, les rapports d’incidents ou encore le suivi GPS, tout en respectant les normes de sécurité des données de l’Union Européenne. La technologie eSIM offre des fonctionnalités de sécurité avancées qui en font un choix idéal pour les administrations publiques : </p><ul><li>Approvisionnement sécurisé : les eSIM peuvent être provisionnées et mises à jour à distance, garantissant ainsi la protection des données sensibles contre les risques liés aux manipulations physiques ou aux accès non autorisés.</li>
<li>Réduction du risque de vol et de clonage : intégrées directement dans l’appareil, les eSIM sont bien moins exposées au vol ou au clonage que les cartes SIM physiques, qui peuvent être facilement extraites et utilisées à des fins frauduleuses.</li>
<li>Communications cryptées : les eSIM prennent en charge des protocoles de <a href="https://www.journaldunet.com/solutions/securite/chiffrement/" title="Chiffrement">chiffrement</a> avancés, garantissant des communications sécurisées sur les réseaux publics et privés tout en assurant l’intégrité et la confidentialité des données.</li>
</ul><h2>Transition fluide entre les réseaux publics et privés</h2><p>Les opérations gouvernementales nécessitent une connectivité ininterrompue entre différents types de réseaux. Les eSIM assurent une transition fluide entre réseaux publics et privés, garantissant un service et un échange de données ininterrompus : </p><ul><li>Changement dynamique de réseau : les eSIM permettent aux appareils de basculer automatiquement d’un réseau à l’autre, une fonction primordiale pour les agences gouvernementales qui doivent maintenir des communications sécurisées en déplacement ou en situation d’urgence. </li>
<li>Flexibilité opérationnelle : avec la possibilité de gérer plusieurs profils sur un même appareil, les responsables gouvernementaux peuvent  passer facilement d’un réseau public à un réseau privé sécurisé, tout en assurant une transition transparente pour l’utilisateur final et optimisant ainsi la connectivité en fonction des besoins opérationnels. </li>
<li>Mobilité renforcée : pour les agences ayant du personnel déployé à l’international ou dans des zones reculées, les eSIM offrent une connectivité immédiate aux réseaux locaux, sans les contraintes logistiques liées à la  distribution des cartes SIM physiques. </li>
</ul><p>À mesure que la technologie évolue, l’adoption des eSIM prépare les réseaux gouvernementaux aux innovations futures. En réduisant la dépendance aux infrastructures physiques et en adoptant des solutions numériques, les gouvernements peuvent facilement faire évoluer les solutions de connectivité pour gérer un grand nombre d’appareils connectés et d’applications <a href="https://www.journaldunet.com/iot/" title="Internet des objets">IoT</a> essentielles à une gouvernance intelligente. Cette transition permet également de réduire les coûts liés à la fabrication, à la distribution et à la gestion des cartes SIM physiques. </p><p>Pour les réseaux gouvernementaux critiques, le passage des cartes SIM physiques aux eSIM représente un progrès majeur en matière de sécurité, d’efficacité et d’adaptabilité. À mesure que les entités gouvernementales renforcent leurs capacités opérationnelles, les eSIM constituent un socle fiable pour assurer une connectivité fluide et sécurisée dans un environnement toujours plus numérique.</p><p>Les solutions mobiles robustes et ultra-fiables dotées de d’eSIM viennent compléter et renforcer les communications radio traditionnelles, permettant aux services d’urgence, aux forces de l’ordre et aux agences gouvernementales de rester connectés lorsque en toute circonstance. Contrairement aux terminaux destinés au grand public, les équipements critiques –   tablettes, terminaux mobiles, et terminaux portables  sont conçus pour résister à des conditions extrêmes, garantissant ainsi des communications instantanées et sécurisées dans des situations de crise.</p><p>Grâce aux technologies 5G, Wi-Fi 6E et push-to-talk (PTT), les forces de l’ordre et les équipes d’urgence peuvent partager des informations en temps réel, se coordonner plus efficacement et intervenir plus rapidement. Les technologies de sécurité publique s’intègrent de manière fluide aux bases de données de sécurité nationale et aux réseaux d’urgence, offrant une communication claire, cryptée et fiable même dans les environnements les plus complexes. Ces solutions permettent ainsi aux équipes de sécurité publique de garder une longueur d’avance, de réduire les temps d’arrêts et de garantir la protection des communautés. </p>]]></description>
      <link>https://www.journaldunet.com/ebusiness/telecoms-fai/1541533-la-revolution-esim-redefinir-la-securite-et-la-connectivite-des-reseaux-gouvernementaux-critiques/</link>
      <guid>https://www.journaldunet.com/ebusiness/telecoms-fai/1541533-la-revolution-esim-redefinir-la-securite-et-la-connectivite-des-reseaux-gouvernementaux-critiques/</guid>
      <pubDate>Tue, 20 May 2025 16:44:00 +0200</pubDate>
    </item>
    <item>
      <title><![CDATA[RCS sur iOS : un game changer pour le messaging mobile en France]]></title>
      <description><![CDATA[<p class="app_entry_lead">Le RCS se déploie sur iOS, promettant des campagnes mobiles enrichies, sécurisées et omnicanal. Une révolution pour l'expérience client et le marketing conversationnel en France.</p><p>Avec l’arrivée progressive du Rich Communication Services (RCS) sur <a href="https://www.journaldunet.fr/guides-d-achat/guide-de-l-iphone/1182468-ios-16-031022/" title="IOS 12">iOS</a>, inaugurée par SFR dès septembre 2024 puis amplifiée par Orange en avril dernier, le secteur du messaging mobile entre dans une nouvelle ère.</p><p>Protocole enrichi basé sur internet, le RCS, historiquement limité à <a href="https://www.journaldunet.com/android/" title="Android">Android</a>, se rapproche aujourd’hui de son plein potentiel : devenir la nouvelle norme des échanges entre marques et clients, en remplaçant à terme le <a href="https://www.journaldunet.com/ebusiness/telecoms-fai/sms/" title="SMS">SMS</a> traditionnel.</p><h2>Un déploiement stratégique et accéléré</h2><p>Le déploiement du RCS a suivi une trajectoire par étapes : après SFR, Free et <a href="https://www.journaldunet.com/bouygues/" title="Bouygues">Bouygues</a> ont basculé fin 2024, tandis qu’Orange a consolidé la couverture au printemps. Résultat : la compatibilité du RCS sur iOS devrait atteindre 85 % d’ici fin 2025, dépassant <a href="https://www.journaldunet.com/whatsapp/" title="Whatsapp">WhatsApp</a> (65 % de taux de pénétration en France), un jalon clé pour les acteurs du marketing conversationnel.</p><h2>Une expérience enrichie, un potentiel démultiplié</h2><p>Le RCS transforme radicalement l’expérience client : messages multimédias, boutons d’action intégrés, partage de localisation... tout cela sans installation d’application tierce, un avantage concurrentiel majeur face à WhatsApp ou Messenger. Qu’il s’agisse de communications <a href="https://www.journaldunet.fr/web-tech/dictionnaire-du-webmastering/1203399-p2p-peer-to-peer-definition-traduction-et-acteurs/" title="Peer to Peer">P2P</a> ou A2P, les performances parlent d’elles-mêmes : un taux d’ouverture moyen de 75 %, atteignant 90 % pour les messages de notification.</p><p>En parallèle, la sécurité est renforcée : la <a href="https://www.journaldunet.com/certification/" title="Certification">certification</a> systématique des expéditeurs limite drastiquement le risque de « smishing », un fléau en croissance. Cette traçabilité accrue des messages constitue un argument fort pour les marques soucieuses de préserver la confiance de leurs utilisateurs.</p><h2>Vers des interactions toujours plus intelligentes</h2><p>L’association du RCS et de l’IA ouvre la voie à des scénarios conversationnels avancés : confirmations interactives, suivis logistiques dynamiques, recommandations ultra-personnalisées. Le développement du P2A (Person-to-Application) permet désormais aux consommateurs d’engager directement des conversations fluides avec les marques, renforçant la réactivité et la qualité du service client.</p><h2>Unifié, natif et sécurisé : le nouvel horizon des campagnes mobiles</h2><p>L’intégration du RCS sur iOS signe la fin de la segmentation par <a href="https://www.journaldunet.fr/guides-d-achat/guide-du-jeu-video/1502909-os-jeu-video-definition-traduction-exemple/" title="One shot">OS</a> : les marques peuvent désormais déployer des campagnes omnicanales, immersives et cohérentes, en s’appuyant sur un canal natif et fiable. Ce tournant stratégique permet aussi de mieux adresser des segments premium (utilisateurs <a href="https://www.journaldunet.fr/guides-d-achat/guide-de-l-iphone/" title="IPhone">iPhone</a>) avec des expériences conversationnelles enrichies et à forte valeur ajoutée.</p><p>Pour les entreprises, l’opportunité est double : amplifier leur audience et optimiser leur <a href="https://www.journaldunet.fr/business/dictionnaire-du-marketing/1505777-relation-client-definition-traduction/" title="Relation client">relation client</a> grâce à des messages contextualisés, délivrés au bon moment, dans le bon format, et via un canal 100 % natif. Une véritable révolution pour celles qui placent l’expérience utilisateur au cœur de leur transformation digitale.</p>]]></description>
      <link>https://www.journaldunet.com/ebusiness/telecoms-fai/1541497-rcs-sur-ios-un-game-changer-pour-le-messaging-mobile-en-france/</link>
      <guid>https://www.journaldunet.com/ebusiness/telecoms-fai/1541497-rcs-sur-ios-un-game-changer-pour-le-messaging-mobile-en-france/</guid>
      <pubDate>Tue, 20 May 2025 16:39:00 +0200</pubDate>
    </item>
    <item>
      <title><![CDATA[Automatisation de l'ITSM : comment les entreprises peuvent optimiser l'efficacité de leurs processus]]></title>
      <description><![CDATA[<p class="app_entry_lead">La gestion des services informatiques était associée à des processus manuels et de longues files d'attente de tickets, mais les entreprises utilisent désormais des systèmes intelligents pour l'automatiser.</p><p>Pendant des décennies, le concept de gestion des services informatiques (ITSM) a rimé avec  processus manuels et file d’attente interminable de tickets à résoudre. Les utilisateurs  redoutaient constamment de contacter le centre d’assistance informatique de peur d’être  entraînés dans le "cycle sans fin de résolution des tickets" en attendant que leur ticket soit traité.</p><p>Pourtant, ces dernières années, les changements qui se sont produits ont non seulement  changé l’expérience des utilisateurs, mais également aidé les équipes d’ITSM. À l’heure  actuelle, les entreprises adoptent des systèmes intelligents capables d’automatiser tous les processus, de la résolution des incidents à la gestion des changements, pour améliorer la  qualité du service, accélérer les temps de réponse et réduire les temps d’arrêt. </p><p>Pour illustrer l’impact de l’automatisation, SolarWinds a analysé l’année dernière plus de 2 000 systèmes d’ITSM et plus de 60 000 points de données agrégés et rendus anonymes. Les résultats, publiés dans un rapport intitulé State of ITSM Report: Are You Keeping Pace?, ont révélé que les entreprises qui font appel à des règles d’automatisation économisent plus de trois heures par ticket en moyenne.</p><p>"Ce n’est pas simplement une statistique, cela change la donne", en conclut le rapport. Honnêtement, je n’aurais pas pu dire mieux. On pourrait penser que trois heures ne font pas une grande différence, mais si, en tant qu’utilisateur final, vous ne parvenez pas à vous connecter aux systèmes et aux fichiers, trois heures, c’est une éternité. Et il ne s’agit que d’un cas isolé. Alors, multipliez ce chiffre à l’échelle d’une entreprise et l’impact cumulatif de ces trois heures sur votre centre d’assistance se fait rapidement ressentir.</p><p>Comme le rapport l’indique justement : "Plus vous gagnez de temps, plus vous en avez pour résoudre les problèmes complexes, innover et améliorer la qualité du service."</p><h2>L’automatisation optimise le potentiel de votre équipe</h2><p>Posez la question à un responsable de l’ITSM et il confirmera probablement que ce qui épuise le plus les ressources d’une équipe, c’est le temps gaspillé à exécuter des tâches sans intérêt et répétitives. Et pourtant, on pourrait citer de nombreux exemples de déploiement de l’automatisation pour alléger la charge des équipes ITSM surmenées.</p><p>Par exemple, l’IA et l’apprentissage automatique permettent d’assurer la gestion proactive des problèmes afin d’identifier ces derniers avant qu’ils ne se produisent. De même, l’automatisation de la <a href="https://www.journaldunet.fr/web-tech/guide-de-l-entreprise-digitale/1499169-la-gestion-des-configurations-qu-est-ce-que-c-est-et-comment-en-tirer-parti/" title="Gestion des configurations">gestion des configurations</a> en temps réel permet aux services d’ITSM de surveiller les systèmes et de comparer des configurations à des références approuvées stockées dans la base de données de gestion des configurations. L’automatisation a un rôle à jouer dans tous les domaines.</p><p>Ces exemples illustrent à peine tous les cas d’utilisation de l’automatisation. Le rapport a révélé que l’automatisation aide à réduire de moitié le nombre de contrats de niveau de service (SLA) non respectés et que les secteurs qui adoptent l’automatisation constatent globalement une réduction des durées de résolution des problèmes. L’automatisation garantit également  l’exécution de tâches routinières, de manière cohérente, précise et à grande échelle, le cas échéant.</p><h2>Les portails en libre service accélèrent la résolution des tickets</h2><p>L’automatisation n’est pas déployée seule. En fait, elle peut être encore plus efficace si elle est utilisée avec d’autres solutions. Les portails en libre service, par exemple, font désormais partie intégrante de l’ITSM moderne et ils permettent aux entreprises de rationaliser les processus de support, d’autonomiser les employés et d’améliorer l’expérience globale des utilisateurs. En faisant appel à des modes de communication traditionnels, tels que les e-mails, les appels téléphoniques ou les rendez-vous en personne, les agents consacrent un temps précieux à rassembler les informations nécessaires, ce qui ralentit le processus de résolution. Les portails en libre service centralisent la communication en proposant aux utilisateurs un espace pour soumettre directement des tickets, partager des informations détaillées sur le problème à résoudre et accéder à des ressources permettant d’en identifier l’origine.</p><p>Par exemple, si un employé oublie son mot de passe, au lieu de faire appel au support technique, il peut utiliser un portail en libre service qui pourra vérifier son identité et réinitialiser le mot de passe automatiquement, sans devoir attendre que son ticket soit traité. Le rapport a signalé que les entreprises qui utilisent des portails en libre service peuvent épargner des  heures de travail et accélérer les durées de résolution des problèmes.</p><p>En rationalisant les processus et en réduisant les erreurs manuelles, l’automatisation permet d’accélérer la résolution des incidents et de garantir le respect systématique des contrats de niveau de service afin d’améliorer la qualité globale des services.</p><h2>L’automatisation change la donne</h2><p>Il ne fait aucun doute que l’automatisation aide les entreprises à réduire la charge de travail manuelle des agents du centre d’assistance. Pour les responsables de la gestion des centres d’assistance, elle représente un moyen efficace de gérer leurs opérations ITSM tout en donnant aux membres de l’équipe davantage de temps pour se concentrer sur des initiatives plus stratégiques visant à favoriser la réussite à long terme de l’entreprise. Ces améliorations ne sont pas des moindres. Elles représentent des changements fondamentaux dans le mode de gestion des demandes de service. L’automatisation de l’ITSM présente des avantages considérables en termes d’amélioration de l’efficacité des processus et de la qualité des services. Elle permet de réduire les manquements aux contrats de niveau de service en garantissant une gestion opportune des tâches pour aider  les entreprises à répondre systématiquement aux attentes en matière de niveaux de service. </p><p>Grâce à l’automatisation, les centres d’assistance peuvent se développer efficacement et traiter davantage de tickets sans devoir faire appel à du personnel supplémentaire. L’élimination des tâches répétitives permet aux équipes informatiques de se concentrer sur des projets qui produisent des résultats commerciaux durables. Qui plus est, l’automatisation des flux de travail améliore la précision et la cohérence, limite l’erreur humaine et optimise la fiabilité de la prestation de services. L’automatisation de l’ITSM n’est donc pas uniquement un outil essentiel pour parvenir à l’excellence opérationnelle et pour développer l’activité, mais elle optimise également considérablement l’expérience de l’utilisateur. Pour tous ceux qui ont été piégés dans le "cycle sans fin de résolution des tickets", ça ne peut être qu’une bonne nouvelle.</p>]]></description>
      <link>https://www.journaldunet.com/solutions/dsi/1541461-automatisation-de-l-itsm-comment-les-entreprises-peuvent-optimiser-l-efficacite-de-leurs-processus-et-reduire-considerablement-le-temps-de-resolution-des-problemes/</link>
      <guid>https://www.journaldunet.com/solutions/dsi/1541461-automatisation-de-l-itsm-comment-les-entreprises-peuvent-optimiser-l-efficacite-de-leurs-processus-et-reduire-considerablement-le-temps-de-resolution-des-problemes/</guid>
      <pubDate>Wed, 07 May 2025 12:14:00 +0200</pubDate>
    </item>
    <item>
      <title><![CDATA[Le NaaS rend la gestion des réseaux plus facile que jamais]]></title>
      <description><![CDATA[<p class="app_entry_lead">Le rythme rapide des technologies a transformé les affaires, mais repose sur le réseau, souvent négligé. Le NaaS pour Réseau en tant que Service devient essentiel pour réussir sa transformation.</p><p>Le rythme d'adoption et de changement des technologies au cours des dernières années a été incessant : le cloud, le travail hybride, les appareils IoT (Internet of Things), les données &amp; l'intelligence artificielle (IA) ont tous transformé notre façon de faire des affaires. Mais toutes ces avancées passionnantes reposent sur un élément crucial, souvent négligé : le réseau.<br />Et dans le monde d'aujourd'hui en évolution rapide, les réseaux hérités ne peuvent tout simplement pas suivre. C'est là qu’intervient le Réseau en tant que Service (NaaS - Network-as-a-service), en jouant un rôle essentiel de soutien dans la réussite de la transformation numérique.</p><p>Le NaaS a rendu la gestion des réseaux plus facile que jamais. Le modèle basé sur l'abonnement signifie que tout, de la connectivité et la sécurité à l'optimisation et l'analyse, est livré à la demande et géré pour le client. Ce modèle "en tant que service" offre une multitude d'avantages qui alimentent directement la transformation numérique :</p><ul><li>Agilité et évolutivité : Le NaaS permet de rapidement ajuster les ressources réseau à la hausse ou à la baisse selon les besoins, afin de répondre à l'évolution des demandes de l'entreprise sans cycles d'approvisionnement longs ou configurations complexes. Besoin d'ajouter plus de bande passante pour le déploiement d'une nouvelle application ? Cela ne prend que quelques clics.</li>
<li>Optimisation des coûts : L'infrastructure réseau traditionnelle nécessite un investissement initial important et une maintenance continue. Le NaaS transforme cela en un modèle de dépenses opérationnelles, permettant de payer uniquement ce que le client utilise. Cela libère des capitaux précieux qui peuvent être investis dans d'autres initiatives de transformation numérique.</li>
<li>Sécurité améliorée : La sécurité est primordiale dans le monde interconnecté d'aujourd'hui. Les fournisseurs de NaaS offrent souvent des fonctionnalités de sécurité avancées, comme des pare-feux, la détection d'intrusion et la veille sur les menaces, dans le cadre de leur service. Cela aide à protéger les données et applications sensibles contre les cybermenaces en constante évolution. </li>
<li>Gestion simplifiée : Gérer un réseau complexe peut être un casse-tête. Le NaaS décharge les équipes informatiques de la gestion du réseau, leur permettant de se concentrer sur des initiatives stratégiques qui stimulent la transformation numérique. Le fournisseur s'occupe de tout, de la configuration et de la surveillance aux correctifs et aux mises à niveau.</li>
<li>Amélioration des performances : Les solutions Naas sont souvent construites sur une infrastructure moderne et performante. Cela peut conduire à une amélioration des performances du réseau, à une réduction de la latence et à une meilleure expérience utilisateur, autant d'éléments cruciaux pour soutenir des applications numériques exigeantes.</li>
<li>Se concentrer sur l'innovation : En déléguant la gestion du réseau à un fournisseur NaaS, l’équipe informatique peut se concentrer sur ce qui compte le plus : stimuler l'innovation. Ils peuvent consacrer leur temps et leur expertise au développement de nouvelles applications, à l'exploration des technologies émergentes et à la création de valeur pour l'entreprise.</li>
</ul><p>A titre d’exemple, certaines entreprises doivent migrer des centaines d’applications de leurs infrastructures sur site vers le cloud et ont besoin d’une solution pour connecter leurs centres de données cloud distribués via internet avec une performance équivalente à un VPN MPLS. La solution de connectivité cloud peut jouer un rôle de routeur virtuel, tout en offrant des connexions fiables.</p><p>Finalement, le NaaS avec ses modèles de paiement à l'usage, ses capacités en libre-service et ses services gérés simplifient la complexité opérationnelle et aident les entreprises à réduire les coûts. Tata Communications croit que le NaaS jouera un rôle de plus en plus critique pour assurer des opérations fluides et efficaces dans un monde axé sur le numérique.</p>]]></description>
      <link>https://www.journaldunet.com/ebusiness/telecoms-fai/1541459-au-dela-de-la-connectivite-naas-pour-l-entreprise-moderne/</link>
      <guid>https://www.journaldunet.com/ebusiness/telecoms-fai/1541459-au-dela-de-la-connectivite-naas-pour-l-entreprise-moderne/</guid>
      <pubDate>Wed, 07 May 2025 11:42:00 +0200</pubDate>
    </item>
    <item>
      <title><![CDATA[L'infobésité visuelle : un enjeu business sous-estimé]]></title>
      <description><![CDATA[<p class="app_entry_lead">Chaque jour, des milliers de visuels sont produits, publiés, stockés, dupliqués. Pour les entreprises, la gestion de cette surproduction devient un casse-tête logistique et un centre de coûts.</p><h2>Trop-plein visuel</h2><p>Nous vivons dans une économie de l'image. Alimentés par l’essor du e-commerce, des réseaux sociaux, des activations marketing ou des enjeux de marque employeur, les volumes de ressources visuelles (photos et vidéos) ne cessent de croître. Ils sont gérés et utilisés par les équipes marketing, e-commerce, communication, Brand ou encore RH, et souvent avec plusieurs outils dispersés et non adaptés.</p><p>Pourtant, les ressources visuelles représentent environ 60% d’un site web consulté sur ordinateur et 80% d’un site web mobile. 87% des acheteurs en ligne estiment que la qualité des visuels influence leur décision d’achat.</p><p>Les entreprises retirent de ce pilotage artisanal une perte de temps considérable et une dispersion des ressources, ne serait-ce que pour une simple recherche de visuels. Elles sont contraintes à des tâches manuelles chronophages pour classer, légender, modérer ou retoucher. Enfin, elles s’exposent à une incohérence de marque au travers de visuels non harmonisés, à un risque de publication de contenu inapproprié et enfin, à une performance web impactée par des visuels non optimisés. C’est dire les enjeux business et stratégiques qui se cachent derrière cet inventaire multimédia.</p><h2>Puis vint le DAM</h2><p>Derrière cette abréviation (pour Digital Asset Management), imaginez un Google Drive intelligent dédié aux visuels et capable de stocker, organiser et optimiser toutes les ressources visuelles de l’entreprise.</p><p>Le DAM classe les fichiers grâce à des métadonnées et des organisations dynamiques, sur lesquelles des filtres et des fonctions de recherche avancées reposent. Il automatise les étapes fastidieuses du cycle de vie des contenus visuels, comme la modération, l’enrichissement ou la conversion de formats. Les versions les plus évoluées embarquent des modules de retouches automatisées pour générer des arrière-plans, des détourages sur-mesure ou créer des formats spécifiques selon les usages ou les navigateurs. L’intelligence artificielle s’invite de plus en plus pour doper leur capacité, par exemple en générant des descriptions produit, en classant ou en modérant automatiquement par la reconnaissance d’image. Ces plateformes, intégrées aux outils existants de l’entreprise, assurent un contrôle fin des droits d’accès, garantissant la sécurité et la conformité.</p><p>On perçoit alors les gains immédiats en termes de production graphique, de temps passé et d’agilité. Mais les ressources visuelles d’une entreprise ont aussi une incidence plus concrète et directe sur les performances business.</p><h2>Performance web et empreinte numérique</h2><p>Selon Google, 53 % des internautes quittent un site si la page met plus de trois secondes à charger. Or, des visuels non optimisés sont la première cause de ralentissement. Un bon équilibre entre qualité des visuels, poids et métadonnées agit instantanément sur la performance digitale : chargement accéléré, navigation fluide mais aussi meilleur référencement et in fine taux de conversion améliorés.</p><p>L’autre vertu de cette optimisation réside dans la réduction de l’empreinte carbone numérique des sites, un atout non négligeable à l’heure où les pratiques durables sont louées et que les images représentent 80% du poids d’une page web.</p><p>Dans un monde où l’attention est fragmentée et où le visuel est souvent le premier point de contact entre une marque et son public, les entreprises ne peuvent plus se permettre de gérer leurs actifs visuels de manière artisanale. A l’instar de ce que fût le CRM pour la relation client, le DAM va devenir incontournable pour réconcilier contenu visuel et performance.</p>]]></description>
      <link>https://www.journaldunet.com/solutions/dsi/1541447-l-infobesite-visuelle-un-enjeu-business-sous-estime/</link>
      <guid>https://www.journaldunet.com/solutions/dsi/1541447-l-infobesite-visuelle-un-enjeu-business-sous-estime/</guid>
      <pubDate>Wed, 07 May 2025 10:11:00 +0200</pubDate>
    </item>
    <item>
      <title><![CDATA[Wifi 7 : Le socle technologique d'un nouvel âge de la connectivité d'entreprise]]></title>
      <description><![CDATA[<p class="app_entry_lead">Plus qu'une évolution incrémentale, il s'agit d'un bond technologique majeur, pensé pour répondre aux nouveaux besoins des entreprises modernes.</p><p>À l’heure où les entreprises entrent de plain-pied dans une ère numérique dominée par l’agilité, la <a href="https://www.journaldunet.com/management/ressources-humaines/mobilite/" title="Mobilité">mobilité</a> et la collaboration en temps réel, la question de l’infrastructure réseau ne peut plus être reléguée au second plan. Elle en devient au contraire un levier stratégique. Dans ce contexte de transformation profonde, un constat s’impose : les standards <a href="https://www.journaldunet.fr/web-tech/dictionnaire-de-l-iot/1203421-wifi-definition-signification-et-role-avec-la-5g-20220711/" title="Wi-fi">wifi</a> traditionnels atteignent leurs limites.</p><p>C’est ici qu’intervient le wifi 7. Plus qu’une évolution incrémentale, il s’agit d’un bond technologique majeur, pensé pour répondre aux nouveaux besoins des entreprises modernes. Ce standard redéfinit les attentes en matière de connectivité, et inaugure une nouvelle génération de <a href="https://www.journaldunet.com/solutions/systemes-reseaux/reseaux-sans-fil/" title="Réseaux sans fil">réseaux sans fil</a>, à la fois ultra-performants, flexibles et résilients.</p><h2>Pourquoi le wifi 7 s’impose aujourd’hui ?</h2><p>Avec l’essor du travail hybride, l’augmentation exponentielle du nombre de terminaux par utilisateur et la généralisation des usages temps réel (visioconférences HD, réalité augmentée/virtuelle, cloud computing), les exigences en matière de performance réseau ont explosé. Les environnements professionnels actuels ne tolèrent plus les coupures, les latences ou les congestions qui nuisent à l’expérience utilisateur et à la productivité.</p><p>wifi 7 répond précisément à ces défis. Il introduit des innovations clés :</p><ul><li>Une bande passante doublée (canaux jusqu’à 320 MHz), offrant des "autoroutes" de données pour les applications les plus gourmandes, y compris la 8K, les jumeaux numériques ou l’IA en périphérie.</li>
<li>Une latence quasi inexistante, descendue sous le seuil de la milliseconde, indispensable pour les usages sensibles tels que les systèmes de contrôle industriels, la télé-chirurgie ou la collaboration immersive.</li>
<li>Des connexions simultanées, sur plusieurs bandes de fréquences (2,4 GHz, 5 GHz, 6 GHz), améliorées grâce au Multi-Link Operation (MLO), qui assure des performances stables, dynamiques, et une résilience inédite face aux interférences.</li>
<li>Des débits théoriques décuplés, jusqu’à 46Gbps, dans des conditions optimales, avec la modulation avancée (4096-QAM) qui améliore l’efficacité spectrale.</li>
</ul><p>Par ailleurs, grâce à l'amélioration de technologies comme l’OFDMA et le MU-MIMO, il permet une meilleure répartition des ressources entre utilisateurs, garantissant une expérience fluide, même dans les contextes les plus exigeants : espaces de coworking, sites industriels ou établissements de santé.</p><h2>Des bénéfices concrets, immédiats et durables</h2><p>Adopter le wifi 7, c’est miser sur une connectivité capable de soutenir la croissance, la résilience et la compétitivité des entreprises. C’est offrir à chaque collaborateur une expérience numérique fluide, quel que soit le nombre de terminaux connectés. C’est aussi poser les bases d’une infrastructure agile, évolutive et compatible avec les usages émergents de demain. Pour les directions IT, c’est l’assurance de réseaux plus simples à administrer, plus fiables, et mieux sécurisés. Le wifi 7 intègre les dernières normes de chiffrement (WPA3-Enterprise avec clé de 192 bits, gestion avancée des accès, détection renforcée des points d’accès malveillants) pour une protection adaptée aux secteurs sensibles tels que la finance, la santé ou les services publics.</p><h2>wifi 7 : un catalyseur de transformation au service des entreprises et du secteur public</h2><p>Au-delà de ses bénéfices, wifi 7 démontre toute sa valeur lorsqu’il est mis au service des usages métiers. C’est dans la diversité des contextes professionnels qu’il révèle son plein potentiel : en répondant aux besoins opérationnels spécifiques des entreprises et des acteurs publics.</p><p>Dans les environnements à forte densité (hôpitaux, infrastructures urbaines intelligentes, campus d’entreprises, ...) il assure une connectivité ultra-réactive, indispensable aux applications critiques telles que les dossiers médicaux, les outils de conception ou les plateformes collaboratives.</p><p>Dans l’enseignement supérieur, où les pics de connexion sont constants, il optimise la fluidité des accès et soutient des approches pédagogiques hybrides. De leur côté, les administrations publiques et les secteurs de la défense trouvent dans le wifi 7 une infrastructure agile, conforme aux plus hauts standards de sécurité, adaptée à leurs environnements sensibles et distribués.</p><p>Enfin, dans les secteurs tels que le retail, l’hôtellerie ou la santé, cette nouvelle génération de wifi permet le déploiement fluide de services immersifs (AR/VR), de solutions de localisation intelligente ou d’affichage dynamique, tout en éliminant latence et instabilité réseau.</p><h2>Une modernisation du réseau en toute fluidité</h2><p>Enfin, l’avantage stratégique majeur du wifi 7 est sa compatibilité avec les normes précédentes. Cette continuité technologique permet aux entreprises de migrer en douceur, en intégrant progressivement les nouveaux équipements tout en conservant les infrastructures existantes. Ce déploiement par étapes assure une transition sans interruption de service, tout en valorisant les investissements déjà réalisés.</p><p>Cette évolution vers une infrastructure pérenne, et à l’épreuve du futur, prend tout son sens dans un contexte où de plus en plus d’appareils intègrent nativement la prise en charge du wifi 7. Ainsi, selon les projections d’IDC et de Gartner, plus de 17 % des points d’accès professionnels seront compatibles avec le wifi 7 dès 2025, un chiffre appelé à doubler d’ici 2027.</p><h2>Une opportunité stratégique pour les décideurs</h2><p>Si le wifi 7 capte aujourd’hui l’attention des CTO, des responsables de l’innovation, mais aussi des directions générales, ce n’est pas un hasard. Pour les CIO, il incarne une réponse concrète à l’urgence de bâtir des architectures IT capables d’absorber les nouveaux usages. Les CFO y voient, de leur côté, une opportunité stratégique d’optimiser le coût total de possession, grâce à une réduction significative des pannes, une diminution des coûts de support, et une plus grande longévité des infrastructures.</p><p>Les responsables IT, quant à eux, saluent la simplicité accrue des déploiements, la possibilité de centraliser plus efficacement la supervision, et une gestion nettement moins complexe au quotidien. Et pour les équipes opérationnelles, le bénéfice est immédiat : une couverture réseau fiable, uniforme, même dans des bâtiments aux architectures complexes ou à forte densité d’utilisateurs.</p><p>Le wifi ne se limite plus à être une simple commodité, il s’impose désormais comme un levier stratégique de performance, d’agilité et de création de valeur durable. Dans ce contexte, le wifi 7 incarne cette nouvelle génération de réseau, conçue non pas pour répondre aux usages actuels, mais pour anticiper les futurs besoins. Dans un monde où chaque innovation repose sur une connectivité fluide, fiable et intelligente, choisir une infrastructure à la hauteur de cette exigence, c’est préparer les entreprises à relever les défis de demain.</p>]]></description>
      <link>https://www.journaldunet.com/web-tech/1541195-wifi-7-le-socle-technologique-d-un-nouvel-age-de-la-connectivite-d-entreprise/</link>
      <guid>https://www.journaldunet.com/web-tech/1541195-wifi-7-le-socle-technologique-d-un-nouvel-age-de-la-connectivite-d-entreprise/</guid>
      <pubDate>Mon, 05 May 2025 10:34:00 +0200</pubDate>
    </item>
    <item>
      <title><![CDATA[Nom de domaine : et si le vrai critère d'achat n'était pas le prix ?]]></title>
      <description><![CDATA[<p class="app_entry_lead">L'achat d'un nom de domaine semble un acte technique simple. Pourtant le choix d'un nom de domaine constitue une décision fondatrice, tant sur le plan technique qu'en matière d'image.</p><p>Acquérir un <a href="https://www.journaldunet.fr/web-tech/dictionnaire-du-webmastering/1203437-nom-de-domaine-definition-traduction-et-acteurs/" title="Nom de domaine">nom de domaine</a> semble, à première vue, un acte technique simple et peu engageant. Quelques clics, une somme modique, et l’on se retrouve propriétaire d’une adresse en ligne. Pourtant, derrière cette apparente simplicité se cache un levier essentiel de toute présence numérique sérieuse. Loin d’être une formalité, le choix d’un nom de domaine constitue une décision fondatrice, tant sur le plan technique qu’en matière d’image ou de fiabilité.</p><p>En effet, dans un écosystème numérique où la visibilité, la crédibilité et la maîtrise de l’identité sont devenues des conditions de base pour exister, le nom de domaine joue un rôle structurant. Il incarne l’adresse de référence d’un projet, la première interface entre une entité — qu’elle soit individuelle, associative ou entrepreneuriale — et son public. Il concentre des enjeux d’image, de reconnaissance, de mémorisation, et participe directement à la perception de sérieux ou de professionnalisme.</p><h2>Un socle incontournable pour un projet solide</h2><p>À la différence des plateformes sociales ou des solutions gratuites de création de site, le nom de domaine reste un espace maîtrisé, indépendant, transmissible. Il offre une autonomie technique et <a href="https://www.journaldunet.com/ebusiness/juridique/" title="Juridique">juridique</a> précieuse dans un environnement numérique de plus en plus instable et soumis aux logiques de plateformes. C’est un ancrage durable, qui permet de bâtir une présence cohérente, d’en garantir l’accès, la pérennité, et de s’affranchir des dépendances imposées par les canaux tiers.</p><p>Cependant, tous les noms de domaine ne se valent pas. Et surtout, tous les prestataires ne proposent pas les mêmes garanties. Le marché regorge d’offres à bas prix, souvent séduisantes à première vue, mais qui masquent des pratiques minimalistes en matière d’infrastructure, de sécurité ou de service. Or, un nom de domaine n’est pas un simple produit, c’est un service continu, qui mobilise des ressources techniques et humaines. Derrière un tarif légèrement plus élevé se trouvent souvent des engagements concrets : résilience de l’infrastructure, support client réactif, conformité aux exigences réglementaires européennes (notamment le <a href="https://www.journaldunet.com/economie/services/1208625-rgpd-texte-signification-role-de-la-cnil-juin-2021/" title="Règlement européen sur la protection des données">RGPD</a>), outils de gestion clairs et accessibles, protection renforcée contre les abus ou les détournements.</p><h2>Au-delà du coût : penser global pour choisir juste</h2><p>Ces éléments, souvent invisibles au quotidien, prennent toute leur importance en cas d’incident. Un site indisponible, une adresse mail compromise, un renouvellement oublié ou un litige non résolu peuvent avoir des conséquences immédiates et durables. À l’inverse, une gestion rigoureuse du domaine permet de sécuriser un actif numérique, d’en faire un support fiable pour l’ensemble des services connectés : site web, messagerie, boutique, formulaires, sous-domaines.</p><p>Par ailleurs, le nom de domaine s’inscrit aujourd’hui dans une logique évolutive. Il ne s’agit plus uniquement d’une adresse statique, mais d’un point d’entrée dans un écosystème numérique complet. Les usages ont changé. Le domaine peut porter une <a href="https://www.journaldunet.fr/business/dictionnaire-du-marketing/1504785-marque-definition-synonymes-exemples/" title="Marque">marque</a>, une communauté, un projet éditorial ou commercial. Il participe au référencement naturel, à la stratégie de visibilité, à l’expérience utilisateur. Dans certains cas, il devient même un élément de différenciation concurrentielle, à travers le choix d’une extension originale ou sectorielle (.tech, .ai, .bio...), ou l’usage de sous-domaines thématiques.</p><h2>Plus qu’un nom de domaine, un package de services essentiels</h2><p>Le marché du nom de domaine, en constante évolution, reflète ces nouvelles dynamiques. L’essor des extensions alternatives, la valorisation croissante de certains domaines premiums, ou encore la demande pour des services complémentaires (<a href="https://www.journaldunet.fr/web-tech/dictionnaire-du-webmastering/1203329-hebergement-definition-traduction-et-acteurs/" title="Hébergement">hébergement</a>, certificats SSL, messagerie sécurisée) témoignent de l’importance prise par ces adresses numériques dans la structuration des identités en ligne. Ce mouvement est renforcé par une exigence croissante en matière de souveraineté numérique, de confidentialité des données et de résilience face aux cyberattaques.</p><p>Dans ce contexte, la question du coût doit être reconsidérée. Il ne s’agit plus de chercher le prix le plus bas, mais de comprendre ce que recouvre l’investissement réalisé. Payer un peu plus cher pour un nom de domaine, c’est accéder à un niveau supérieur de service, de sécurité, de fiabilité. C’est également faire le choix de la transparence et de la continuité, dans un secteur où les pratiques <a href="https://www.journaldunet.com/economie/low-cost/" title="Low cost">low-cost</a> peuvent parfois générer des effets contre-productifs, voire dangereux.</p><p>En définitive, le nom de domaine ne doit plus être perçu comme une simple ligne de dépense, mais comme un levier de structuration numérique. Mieux vaut un prestataire engagé, qui investit dans son infrastructure, accompagne ses clients et garantit la maîtrise de leurs outils, qu’une offre à bas coût, sans accompagnement ni assurance de stabilité. Ce choix, apparemment secondaire, peut faire toute la différence dans la construction d’un projet solide, visible, et durable sur le web.</p>]]></description>
      <link>https://www.journaldunet.com/web-tech/1541259-nom-de-domaine-et-si-le-vrai-critere-d-achat-n-etait-pas-le-prix/</link>
      <guid>https://www.journaldunet.com/web-tech/1541259-nom-de-domaine-et-si-le-vrai-critere-d-achat-n-etait-pas-le-prix/</guid>
      <pubDate>Wed, 30 Apr 2025 17:55:00 +0200</pubDate>
    </item>
    <item>
      <title><![CDATA[Réseau souverain et latence minimale : Terralpha trace une nouvelle voie]]></title>
      <description><![CDATA[<p class="app_entry_lead"><a title=" © Terralpha" href="https://img-0.journaldunet.com/q0q1E6OneDnRArC7tLX2zpvWIkQ=/1500x/smart/8f0306105faa44f3a7ebe0542111cc7d/ccmcms-jdn/39520342.png" class="fancy"><picture><source srcset="https://img-0.journaldunet.com/wFjN2ubA1G5QM2mCVblhNJwn-Q0=/540x/smart/8f0306105faa44f3a7ebe0542111cc7d/ccmcms-jdn/39520342.png" media="(max-width: 480px)" /><img src="https://img-0.journaldunet.com/q0q1E6OneDnRArC7tLX2zpvWIkQ=/1500x/smart/8f0306105faa44f3a7ebe0542111cc7d/ccmcms-jdn/39520342.png" alt="Réseau souverain et latence minimale : Terralpha trace une nouvelle voie" width="1500" height="896" /></picture></a> Face à la montée des usages numériques, Terralpha mise sur les voies ferrées pour bâtir et exploiter un réseau ultra haut débit souverain et résilient, au service des territoires.</p><p>Télétravail massif, essor du cloud, flux vidéo en temps réel, explosion des objets connectés… En quelques années, les besoins en bande passante ont connu une croissance exponentielle. Partout, les entreprises, les collectivités et les opérateurs réclament une connectivité plus rapide, plus résiliente, plus locale aussi. Dans ce paysage, Terralpha, filiale de SNCF Réseau, propose un modèle original : s'appuyer sur les voies ferrées françaises pour proposer un réseau en fibre optique à très haute capacité, au plus près des territoires.</p><h2>Un réseau stratégique souverain au cœur des villes</h2><p>Le réseau déployé par Terralpha couvre 20 000 km, traverse 6 000 communes et relie 2 000 gares. Ce maillage repose sur un patrimoine unique : la pleine propriété des fourreaux installés en emprise ferroviaire. L'intérêt ? Une indépendance structurelle qui permet de limiter les interventions tierces, tout en garantissant un contrôle complet des infrastructures, de la fibre jusqu'aux équipements actifs.</p><p>Avec 28 datacenters interconnectés et plus de 110 de points de présence (PoP) ouverts ou en déploiement, la présence territoriale de Terralpha offre aux acteurs publics et privés un accès local à la connectivité ultra haut débit, là où d'autres réseaux s'arrêtent. C'est particulièrement vrai dans les villes moyennes et les territoires ruraux, souvent mal desservis par les dorsales télécoms traditionnelles.</p><h2>La performance 400G pour les besoins les plus exigeants</h2><p>Certaines activités ne tolèrent ni la latence, ni l'instabilité des flux de données. C'est le cas des services cloud, des plateformes de vidéo, des applications industrielles critiques ou encore des opérateurs télécoms alternatifs. Pour ces acteurs, la promesse de débits élevés ne suffit pas : il faut une infrastructure capable de garantir un transport stable, rapide et sécurisé, en toutes circonstances.</p><p>L'offre Terrawave de <a href="https://terralpha.fr/ultra-haut-debit/">Terralpha</a> répond à cette exigence. Elle s'appuie sur un réseau privé basé sur la technologie dite " wave " : des longueurs d'onde optiques dédiées, établies entre deux sites (comme un datacenter et un site client ou entre deux centres d'hébergement). Selon le besoin, les débits peuvent atteindre 100 ou 400 Gb/s, avec une qualité de service constante, sans partage de capacité.</p><p>Concrètement, une collectivité peut par exemple utiliser Terrawave pour raccorder ses équipements numériques répartis sur plusieurs villes, avec une latence de seulement 2,59 millisecondes RTT (round trip time) entre Paris et Tours, ou 4,78 ms RTT entre Paris et Lyon. Une entreprise industrielle, de son côté, peut relier son site de production à son centre de supervision en bénéficiant d'un lien direct, sécurisé et très haut débit, distinct des réseaux Internet classiques.</p><p>Le tracé fibre, qui suit les voies ferrées, permet d'éviter les zones de congestion et assure des parcours plus courts, donc plus rapides. Terralpha complète cette architecture par une gestion unifiée des équipements actifs et passifs, un NOC basé en France, et des mécanismes de sécurisation qui garantissent la continuité de service en cas d'incident. C'est cette combinaison qui permet de répondre aux usages critiques, où chaque milliseconde compte.</p><div class="c5"><figure class="image c4"><img alt="" src="https://img-0.journaldunet.com/kI0mS9tvkXnb8eSiBwRpn0iMZDQ=/600x/smart/753a8bc27c194adfb2b6322675f9047e/ccmcms-jdn/39520343.jpg" /><figcaption data-credit="Terralpha" data-legend="Carte de réseau">Carte de réseau <small>© Terralpha</small></figcaption></figure></div><h2>L'innovation avec l'offre Spectre et les dalles numériques</h2><p>Au-delà du transport de données à très haute vitesse, d'autres questions peuvent se poser. Comment synchroniser deux datacenters distants sans dépendre d'un fournisseur tiers ? Comment héberger une plateforme numérique locale dans une ville moyenne sans infrastructure dédiée ? Pour ces cas très concrets, Terralpha propose deux réponses : l'offre Terraspectrum et les Dalles Numériques.</p><p>Avec Terraspectrum, un opérateur peut par exemple relier ses équipements entre Paris et un point régional, tout en gardant la main sur ses propres matériels de transmission. L'entreprise gère son trafic à sa manière, avec ses protocoles, ses règles de sécurité, mais s'appuie sur le réseau Terralpha pour assurer l'acheminement optique longue distance, et surtout pour gérer l'amplification, un point souvent complexe à déployer seul. Ce service intéresse les hébergeurs cloud, les fournisseurs de services ou les grands comptes qui cherchent à éviter les nœuds de congestion et à garantir une transparence maximale sur le trajet de leurs données.</p><p>Tout savoir sur Terraspectrum de <a href="https://terralpha.fr/fon-amplifiee/">Terralpha</a>.</p><p>Côté infrastructure, les Dalles Numériques répondent à une autre problématique : héberger localement de la donnée.</p><p>À l'heure où nos vies sont de plus en plus connectées, les datacenters sont devenus indispensables. Mais construire un datacenter ne s'improvise pas : il faut un terrain adapté, des infrastructures solides, et un raccordement à des réseaux stratégiques souverain. C'est là qu'intervient Dalle Numérique.</p><h2>La Dalle Numérique : Un terrain clé en main, pensé pour les datacenters</h2><p>Avec les Dalles Numériques, Terralpha propose une solution simple : des terrains déjà prêts à accueillir un datacenter. Fini les longues recherches, les études préliminaires incertaines ou les mauvaises surprises en cours de projet.</p><p>Ces terrains sont soigneusement présélectionnés selon des critères techniques et réglementaires stricts. Ils offrent une planéité optimale pour faciliter les constructions, disposent de l'accord des autorités locales — notamment les mairies — pour l'implantation d'un datacenter, et bénéficient d'un accès immédiat au réseau télécom ultra-haut débit de Terralpha, garantissant une connectivité optimale. Ils sont également dotés d'une capacité électrique importante, indispensable au bon fonctionnement des serveurs, et déjà raccordés aux réseaux d'eau usée et pluviale. Enfin, la sécurité physique du site est assurée par des dispositifs tels que des clôtures et des accès restreints.</p><p>Cette approche représente un gain considérable en temps et en fiabilité pour les projets numériques. En choisissant une Dalle Numérique, les porteurs de projets peuvent se concentrer pleinement sur la construction de leur datacenter, sans se soucier des démarches complexes ni des imprévus techniques. C'est une garantie de rapidité, de conformité et de performance dans un contexte où la demande en infrastructures numériques ne cesse de croître.</p><p>Pour Gabriel Chenevoy, Directeur de Terralpha, " les offres Terralpha permettent aux opérateurs et aux entreprises de bénéficier d'une connectivité à très haute capacité et optimisée pour les applications critiques. Notre architecture garantit une ultra-faible latence grâce à des chemins fibre, positionnés le long des voies ferrées, différents des autres réseaux ".</p><div class="c5"><figure class="image c4"><img alt="" src="https://img-0.journaldunet.com/3Ca0h_Dh9HvF0shqrB_yfyNVFsA=/600x/smart/f34e3936860d40b8a9fa53a6b54ef543/ccmcms-jdn/39520224.png" /><figcaption data-credit="Terralpha" data-legend="Dalle numérique de Saint-Pierre-des-Corps">Dalle numérique de Saint-Pierre-des-Corps <small>© Terralpha</small></figcaption></figure></div><h2>Une vision d'avenir fondée sur l'ancrage local</h2><p>Le modèle proposé par Terralpha répond à une question centrale : comment bâtir une connectivité puissante, mais aussi souveraine, distribuée et au service des territoires ? En combinant des ressources foncières uniques, une infrastructure fibre indépendante et des équipements sous maîtrise nationale, l'opérateur s'impose comme un acteur de référence pour les entreprises et les collectivités en quête de solutions stratégiques et souveraine.</p><p>Concrètement, cela se traduit par l'ouverture régulière de nouveaux points de présence dans des villes moyennes, les innovations technologiques des services éclairés, et la mise à disposition de sites prêts à accueillir des datacenters. Cette approche permet de rapprocher les capacités numériques des bassins d'activité, d'accompagner les besoins croissants des territoires en connectivité, et de proposer une alternative locale aux grands réseaux internationaux. À mesure que les infrastructures se densifient, Terralpha étend un réseau pensé pour durer, résilient, et aligné avec les enjeux de souveraineté numérique.</p><p><a href="http://www.terralpha.fr">En savoir plus sur Terralpha.</a></p>]]></description>
      <link>https://www.journaldunet.com/ebusiness/telecoms-fai/1540807-reseau-souverain-et-latence-minimale-terralpha-trace-une-nouvelle-voie/</link>
      <guid>https://www.journaldunet.com/ebusiness/telecoms-fai/1540807-reseau-souverain-et-latence-minimale-terralpha-trace-une-nouvelle-voie/</guid>
      <pubDate>Wed, 30 Apr 2025 08:00:00 +0200</pubDate>
    </item>
    <item>
      <title><![CDATA[Amazon connecte la Terre depuis l'espace avec ses premiers satellites du Project Kuiper]]></title>
      <description><![CDATA[<p class="app_entry_lead"><a title=" © 123RF" href="https://img-0.journaldunet.com/wakXWUsCWm5zK3SxvgJLbDXua_A=/1500x/smart/97c6bc2b9f804e7e93866c8d1204ac50/ccmcms-jdn/39520763.jpg" class="fancy"><picture><source srcset="https://img-0.journaldunet.com/MO841ly8iUXP0kCwDDdrDu32954=/540x/smart/97c6bc2b9f804e7e93866c8d1204ac50/ccmcms-jdn/39520763.jpg" media="(max-width: 480px)" /><img src="https://img-0.journaldunet.com/wakXWUsCWm5zK3SxvgJLbDXua_A=/1500x/smart/97c6bc2b9f804e7e93866c8d1204ac50/ccmcms-jdn/39520763.jpg" alt="Amazon connecte la Terre depuis l'espace avec ses premiers satellites du Project Kuiper" width="1500" height="999" /></picture></a> Les premiers satellites Kuiper inaugurent une nouvelle phase de la compétition mondiale pour l'internet satellitaire, dominée jusqu'ici par SpaceX et Eutelsat.</p><p>Le 28 avril 2025, Amazon a lancé depuis Cap Canaveral ses premiers satellites destinés à constituer le Project Kuiper, une constellation de plus de 3 200 satellites visant à fournir une connexion internet depuis l'orbite terrestre basse.</p><h2>Un déploiement sous contrainte de temps</h2><p>Transportés par une fusée Atlas V d'United Launch Alliance, coentreprise entre Boeing et Lockheed Martin, les 27 premiers satellites du Project Kuiper ont été placés à 450 kilomètres d'altitude, avant de rejoindre leur orbite finale à 630 kilomètres. Amazon prévoit de commencer à fournir ses premiers services dès que 578 satellites seront opérationnels, comme précisé au régulateur américain des télécommunications, la Federal Communications Commission (FCC), cité par <a href="https://www.lesechos.fr/industrie-services/air-defense/amazon-lance-les-premiers-satellites-de-sa-constellation-kuiper-en-orbite-2162354" target="_blank">Les Échos</a>.</p><p>Pour respecter son autorisation, l'entreprise doit mettre en orbite 50% de la constellation, soit 1 618 satellites, d'ici juillet 2026. Au total, plus de 80 lancements ont été commandés auprès de plusieurs prestataires, dont ULA, Arianespace, Blue Origin et SpaceX, rappelle <a href="https://www.ouest-france.fr/economie/entreprises/amazon/amazon-lance-son-projet-kuiper-ce-lundi-quatre-questions-sur-cette-constellation-de-satellites-b930267a-23fb-11f0-a188-e932bd8916b7" target="_blank">Ouest-France</a>. L'investissement global alloué au projet dépasse les 10 milliards de dollars, un montant qui pourrait être doublé selon certains experts.</p><p>Amazon prévoit de déployer ses satellites à un rythme soutenu en 2025, avec la possibilité de lancer jusqu'à cinq missions supplémentaires cette année, comme l'a indiqué Tory Bruno, directeur général d'United Launch Alliance, dans une interview à <a href="https://www.reuters.com/business/media-telecom/amazon-launches-first-kuiper-internet-satellites-taking-starlink-2025-04-28/" target="_blank">Reuters</a>.</p><h2>Rivaliser avec Starlink et les autres constellations</h2><p>Le lancement du Project Kuiper intervient sur un marché déjà largement occupé par SpaceX et son réseau Starlink, qui compte à ce jour plus de 8 000 satellites en orbite et plus de 5 millions d'abonnés dans 125 pays. Elon Musk, fondateur de SpaceX, dispose également d'un avantage industriel avec la réutilisation de ses lanceurs Falcon 9.</p><p>Jeff Bezos, président exécutif d'Amazon, a estimé qu'"il y a une demande insatiable pour l'internet", ajoutant : "Je prédis que Starlink continuera à réussir, et je prédis que Kuiper réussira aussi". Ce réseau de satellites vise notamment les régions où l'installation d'infrastructures terrestres est difficile ou coûteuse, comme l'a rappelé Amazon cité par <a href="https://www.bfmtv.com/economie/entreprises/aeronautique/internet-spatial-amazon-a-lance-les-premiers-satellites-de-sa-constellation-kuiper-rivale-d-elon-musk_AD-202504290105.html" target="_blank">BFMTV</a>.</p><p>Amazon a conçu des terminaux utilisateurs pour son service, notamment une antenne de la taille d'un disque vinyle et un modèle plus petit comparable à une liseuse Kindle, dont le coût sera inférieur à 400 dollars. Le groupe prévoit d'en produire plusieurs dizaines de millions d'unités.</p><h2>Un maillage spatial en expansion rapide</h2><p>La multiplication des constellations autour de la Terre soulève plusieurs défis. L'encombrement de l'orbite basse, déjà occupée par les satellites de Starlink, OneWeb, Eutelsat et désormais ceux de Kuiper, augmente le risque de collisions spatiales, un sujet de préoccupation.</p><p>Le Project Kuiper s'inscrit aussi dans un contexte où les infrastructures spatiales jouent un rôle croissant dans les communications militaires et civiles. Andy Jassy, directeur général d'Amazon, a déclaré dans sa lettre annuelle aux actionnaires que cet investissement "contribuera de manière significative au résultat opérationnel" du groupe.</p><p>Selon <a href="https://www.lefigaro.fr/economie/satellites-comment-kuiper-la-constellation-d-amazon-veut-defier-starlink-et-oneweb-20250427" target="_blank">Le Figaro</a>, Amazon s'appuie sur cinq types de lanceurs différents pour réduire les risques liés à l'indisponibilité de certains vecteurs : Atlas V, Vulcan Centaur, Ariane 6, New Glenn et Falcon 9.</p><p>Le déploiement progressif des satellites de Kuiper permettra une couverture initiale dans certaines régions d'ici la fin 2025, avec un élargissement progressif vers l'équateur à mesure que de nouveaux satellites rejoindront l'orbite.</p>]]></description>
      <link>https://www.journaldunet.com/ebusiness/telecoms-fai/1541269-amazon-connecte-la-terre-depuis-l-espace-avec-ses-premiers-satellites-du-project-kuiper/</link>
      <guid>https://www.journaldunet.com/ebusiness/telecoms-fai/1541269-amazon-connecte-la-terre-depuis-l-espace-avec-ses-premiers-satellites-du-project-kuiper/</guid>
      <pubDate>Tue, 29 Apr 2025 13:11:00 +0200</pubDate>
    </item>
    <item>
      <title><![CDATA[Voici le meilleur endroit où faire un arrêt cardiaque selon ce médecin]]></title>
      <description><![CDATA[<p class="app_entry_lead"><a title=" © Allie - stock.adobe.com" href="https://img-0.journaldunet.com/Imwet82n0dbkTAV3v9psBSx6ZvU=/1500x/smart/212ca1355f82404ca8bdf99dca54cbfb/ccmcms-jdn/39520316.jpg" class="fancy"><picture><source srcset="https://img-0.journaldunet.com/sxm-2_xpBOdBWwoV3ri8XU3uKQM=/540x/smart/212ca1355f82404ca8bdf99dca54cbfb/ccmcms-jdn/39520316.jpg" media="(max-width: 480px)" /><img src="https://img-0.journaldunet.com/Imwet82n0dbkTAV3v9psBSx6ZvU=/1500x/smart/212ca1355f82404ca8bdf99dca54cbfb/ccmcms-jdn/39520316.jpg" alt="Voici le meilleur endroit où faire un arrêt cardiaque selon ce médecin" width="1500" height="1000" /></picture></a> Un arrêt cardiaque peut survenir n'importe où, à n'importe quel moment. Mais selon un médecin urgentiste, certains lieux augmentent vos chances de survie.</p><p>La réalité des arrêts cardiaques en France est frappante : chaque année, près de 46 000 personnes sont victimes d'un arrêt cardiaque en dehors de l'hôpital. Cela représente plus de 110 personnes chaque jour, un chiffre qui donne le vertige. On parle alors de "mort subite", car sans intervention rapide, les chances de survie sont infimes. Ce fléau silencieux concerne toutes les tranches d'âge, et survient souvent sans signe avant-coureur.</p><p>Dans cette course contre la montre, chaque seconde compte. Les spécialistes insistent : la clé de la survie réside dans les dix premières minutes. Dès que le cœur s'arrête, le cerveau, privé d'oxygène, commence à souffrir. Les séquelles deviennent irréversibles après seulement quelques minutes d'inactivité cardiaque. C'est pourquoi la rapidité de la prise en charge est cruciale, bien avant l'arrivée des secours professionnels. Les témoins, souvent des anonymes, deviennent alors les premiers maillons d'une chaîne vitale.</p><p>Sur le terrain, l'efficacité de l'intervention dépend donc de deux facteurs essentiels : la présence de témoins et l'accès rapide à du matériel adapté, comme un défibrillateur. Chaque minute gagnée augmente considérablement les chances de survie. Les statistiques le prouvent : si le massage cardiaque débute dans la première minute, le taux de survie grimpe à plus de 22%. Au-delà de dix minutes sans intervention, il chute sous la barre des 11%.</p><div class="c5"><figure class="image c4"><img alt="" src="https://img-0.journaldunet.com/ejpDNjZjoDRcA85IcyITpyKlTJo=/1080x/smart/58d4accf4b8b481e9ed5dcd6093a7bb4/ccmcms-jdn/39520317.jpg" /></figure></div><p>C'est dans ce contexte que le témoignage d'un médecin urgentiste, relayé sur les réseaux sociaux, a fait grand bruit. Sur Twitter (devenu X), un médecin urgentiste a partagé l'histoire récente d'un patient victime d'un arrêt cardiaque en supermarché, sauvé par la réactivité des témoins et une prise en charge exemplaire. Le Dr l'affirme : "Il n'y a pas de meilleur endroit, en dehors de l'hôpital, pour faire un arrêt cardiaque qu'un supermarché." Pourquoi ? Parce que ces lieux accueillent un grand nombre de personnes à toute heure de la journée. La probabilité d'y trouver un témoin, voire une personne formée aux premiers secours, est donc bien plus élevée qu'ailleurs.</p><p>Dans l'histoire racontée par le médecin, ce sont précisément des témoins qui, en appelant à l'aide et en débutant le massage cardiaque, ont permis de sauver la vie du patient, aujourd'hui sorti de réanimation. Autre atout décisif : la présence quasi systématique de défibrillateurs automatisés externes (DAE).  Il est devenu presque impossible de faire ses courses dans un grand supermarché sans croiser, quelque part près de l'entrée ou des caisses, un défibrillateur prêt à l'emploi.</p><p>Cette conjonction de facteurs place le supermarché tout en haut des lieux "privilégiés" pour être secouru en cas d'arrêt cardiaque. Le Dr Schrik le résume avec humour : "Arrêtez de vous plaindre quand le parking est blindé et que ça traîne à la caisse… Le héros qui va vous sauver la vie n'est potentiellement pas loin !" Il insiste également sur la nécessité de se former aux gestes qui sauvent, rappelant que même les meilleurs secours professionnels ne peuvent rien si le massage cardiaque ne débute pas avant leur arrivée.</p>]]></description>
      <link>https://www.journaldunet.com/web-tech/1541013-bp1-cardiaque/</link>
      <guid>https://www.journaldunet.com/web-tech/1541013-bp1-cardiaque/</guid>
      <pubDate>Mon, 28 Apr 2025 06:45:00 +0200</pubDate>
    </item>
    <item>
      <title><![CDATA[Fin du réseau cuivre : comment les entreprises doivent se préparer ?]]></title>
      <description><![CDATA[<p class="app_entry_lead"><a title=" © JDN / Dall-E" href="https://img-0.journaldunet.com/bno6N21AQYAQYGS-jpc2YFI2HVg=/1500x/smart/b41d3de832754df7a128c4186ecac8cb/ccmcms-jdn/39518863.jpeg" class="fancy"><picture><source srcset="https://img-0.journaldunet.com/j49nd_QQZ7EegJgR78e1fBOHdNA=/540x/smart/b41d3de832754df7a128c4186ecac8cb/ccmcms-jdn/39518863.jpeg" media="(max-width: 480px)" /><img src="https://img-0.journaldunet.com/bno6N21AQYAQYGS-jpc2YFI2HVg=/1500x/smart/b41d3de832754df7a128c4186ecac8cb/ccmcms-jdn/39518863.jpeg" alt="Fin du réseau cuivre : comment les entreprises doivent se préparer ?" width="1500" height="1000" /></picture></a> Le réseau cuivre, qui porte la technologie ADSL et les lignes téléphoniques analogiques, va progressivement s'éteindre d'ici 2030. Les entreprises doivent d'ores et déjà anticiper leur migration vers la fibre optique.</p><p>Le 31 janvier dernier, les communes de Vanves, de Guyancourt ou de Saint-Leu ont vu leur connexion <a href="https://www.journaldunet.fr/web-tech/dictionnaire-du-webmastering/1203429-adsl-asymmetric-digital-subscriber-line-definition-traduction-et-acteurs/" title="Asymmetric Digital Subscriber Line">ADSL</a> définitivement coupée. Cette date marque le début d'un chantier titanesque qui verra le réseau cuivre d'Orange progressivement s'éteindre d'ici 2030. Le mouvement va aller en s'amplifiant en procédant par plaques géographiques. 162 communes d'un premier lot seront suivies par 892 communes d'un deuxième en janvier 2026 puis 2 145 communes d'un troisième un an plus tard. En tout, 42 millions de lignes seront décommissionnées d'ici la fin de la décennie. <a href="https://www.economie.gouv.fr/treshautdebit/la-fermeture-du-reseau-cuivre-dans-votre-commune?q=Saint-Nom+la+Bret%C3%AAche+78860&amp;op=Lancer+la+recherche" target="_blank">Le site de Bercy</a> indique les dates des décommissionnements ville par ville.</p><p>En soi, la fin de cette infrastructure vieillissante est une bonne nouvelle. Déployée dans les années 70, elle devenait obsolète et difficile à maintenir. Transitant par la fameuse prise en T, les accès à internet en xDSL et les lignes analogiques du réseau téléphonique commuté (RTC) seront avantageusement remplacés par la <a href="https://www.journaldunet.com/ebusiness/telecoms-fai/fibre-optique/" title="Fibre optique">fibre optique</a>. A condition que celle-ci arrive à temps. Si le taux de couverture du territoire national atteint 90%, il reste 4,6 millions de locaux, domiciles ou entreprises, à rendre éligibles selon <a href="https://www.arcep.fr/actualites/actualites-et-communiques/detail/n/marche-du-haut-et-du-tres-haut-debit-fixe-121224.html" target="_blank">le dernier décompte de l'Arcep</a>, l'autorité de régulation des télécoms.</p><p>Pour certains particuliers, passer de l'ADSL à la fibre optique peut relever du parcours du combattant et occasionner des frais importants quand le raccordement exige de creuser une tranchée dans son jardin ou casser une dalle dans son garage. Pour les entreprises, les problèmes sont démultipliés. Elles doivent basculer des accès ADSL/SDSL mais aussi un grand nombre de lignes téléphoniques analogiques et Numeris de type RNIS T0 et T2. Dans le cas des entreprises multisites, ces lignes peuvent être situées sur des lots différents, donnant lieu à autant de plans de fermeture que de sites. </p><h2>Un chantier de 6 mois à un an</h2><p>Plus de 4 millions d'entreprises et 10 millions de lignes au total sont concernées, selon <a href="https://www.celeste.fr/larret-du-cuivre-en-entreprise/" target="_blank">les estimations de l'opérateur BtoB Celeste</a> remontant à avril 2023. A raison d'environ 1 500 euros par ligne et sachant que les PME ont en moyenne cinq lignes de cuivre, les ETI dix et plus, et les grands comptes un nombre bien plus conséquent, l'entreprise évalue la facture totale à 15 milliards d'euros, essentiellement en jours-hommes. <a href="https://infranum.fr/nouveau-barometre-ifop-fibre-et-usages-numeriques-en-entreprise-pour-covage-infranum/" target="_blank">Un autre baromètre</a>, publié en décembre dernier par l'opérateur d'infrastructure Covage, pointe un manque de préparation des entreprises. 48% des sondés, sur un panel de plus de 800 dirigeants d'entreprises, affirment ne pas avoir connaissance de la fermeture imminente du réseau cuivre et 20% seulement jugent que les offres actuelles de connectivité répondent à leurs besoins.</p><p>Directeur marketing de la division Entreprises de Bouygues Telecom, Sylvain Plagne insiste sur l'importance d'anticiper la bascule vers la fibre. "Alors que la fermeture du lot 1 a servi de répétition générale et a fait l'objet d'une forte médiatisation, beaucoup de sociétés, de l'ordre d'une dizaine de pourcents, se sont néanmoins fait surprendre", constate-t-il. Certaines sociétés choisissent délibérément la stratégie de l'inaction. "Elles laissent inactives certaines lignes pour évaluer ultérieurement leur pertinence pour leurs activités", constate Sylvain Plagne.</p><p>Alors que le lot 2 comprend des villes plus importantes que le lot 1, comme Ajaccio, Melun ou un arrondissement de Lyon, les entreprises retardataires risquent de voir les opérateurs et les intégrateurs de proximité surbookés à l'approche de la date fatidique. Entre l'audit de l'existant et la mise en production, un tel projet exige, selon Sylvain Plagne, un délai moyen de 6 mois pour une société lambada et un an pour les entreprises multisites, comme un réseau de magasins, ou les collectivités locales qui possèdent différents bâtiments publics (piscine, médiathèque…). "En solution de secours, nous pouvons déployer en quelques heures un routeur 5G mais, dans les derniers jours, il ne sera pas possible d'en installer dans toutes les entreprises", estime l'expert.</p><h2>Cartographie de l'existant et architecture cible</h2><p>Tout commence par une cartographie de l'existant. "Au-delà des accès internet et des lignes téléphoniques, des équipements comme des ascenseurs, des terminaux de paiement, des machines à affranchir, des interphones ou des systèmes de surveillance et d'alarme pourraient se trouver sans réseau", signale Nicolas Aubé, CEO et fondateur de Celeste. La Fédération français des télécoms a listé, dans <a href="https://www.fftelecoms.org/app/uploads/2017/05/Livre-blanc-FFTelecoms-Fin-du-RTC-1.pdf" target="_blank">un livre blanc</a>, les matériels concernés. "Parfois, il n'y a pas d'autre choix que de faire la tournée des sites et de dresser un inventaire physique pour voir quels appareils sont branchés sur les prises en T", remarque Sylvain Plagne.</p><p>Après avoir dressé cette cartographie, il convient de définir une architecture cible et établir le plan de migration. Tous les équipements n'ont pas vocation à migrer vers la fibre. L'ascenseur peut être relié en 4G. De même, un boîtier 4G peut prendre le relais d'une ligne analogique située, par exemple, dans un hangar. Il en va tout autrement du PABX (Private Automatic Branch eXchange). Pièce maîtresse d'une installation téléphonique, cet autocommutateur, encore appelé dans le langage courant "standard téléphonique", distribue les appels entrants et sortants.</p><h2>Migration a minima ou passage en mode cloud</h2><p>Trois solutions s'offrent à une entreprise. Elle peut conserver son PABX, de marque Alcatel Lucent Enterprise, Mitel ou Avaya, grâce à la technologie dite Trunk SIP. Cette passerelle proposée par des prestataires spécialisés comme Sewan, Dstny, Unyx ou Alphalink, assure la connexion entre le RTC et le système de voix sur IP. Cette migration a minima ne donne toutefois pas accès à des usages innovants comme le serveur vocal interactif (SVI), l'identification de l'appelant (ANI), la messagerie unifiée (appels, mails), le groupement d'appels, la convergence fixe-mobile, l'accès à distance pour le télétravail ou la remontée de fiche client dans un CRM.</p><p>"La bascule vers la fibre est l'occasion de repenser ses habitudes de communications", juge Sylvain Plagne. "Les économies obtenues en rationnalisant le nombre de lignes – la fibre peut servir des usages voix et data - peuvent être réinvesties dans des services innovants." Pour bénéficier des apports du monde IP, une entreprise peut remplacer son vieux PABX par un modèle nativement conçu pour la voix sur IP (IPBX). Dernière possibilité : dématérialiser son système téléphonique pour le faire héberger chez un prestataire (Centrex) ou <a href="https://www.journaldunet.com/cloud/1491697-match-de-la-telephonie-en-mode-cloud-3cx-joue-dans-la-cour-des-grands/" target="_blank">bien le migrer dans le cloud</a> en retenant une solution de communications unifiées en mode SaaS (UCaaS) de type Microsoft Teams ou 3CX.</p><p>"La téléphonie dans le cloud permet d'entamer une nouvelle réflexion sur la distribution des appels en dehors des horaires de travail", avance Sylvain Plagne. "Classiquement, une fois la messagerie saturée, les appels tombent dans le vide. Un serveur vocal interactif permet de router intelligemment ces appels." Un fois la téléphonie virtualisée, il est aussi possible de se débarrasser des postes à touches, n'importe quel terminal connecté - smartphone, ordinateur – faisant office de téléphone. "Ce softphone ne concerne pas toutes les organisations", met en garde Sylvain Plagne. "Certains collaborateurs souhaitent conserver leurs combinés à touches ou leurs téléphones sans fil DECT. Dans un magasin, les vendeurs ne sont pas tous dotés d'un PC, ils partagent quelques téléphones mutualisés."</p><h2>Les technologies alternatives à la fibre</h2><p>"Une entreprise peut également profiter du passage à la fibre pour renforcer sa protection réseaux avec un système de filtrage, de prévention d'intrusion, de détection des vulnérabilités ou d'authentification multifacteur", pointe Nicolas Aubé. Une fois que l'organisation a défini les nouveaux services auxquels elle souhaite souscrire, l'opérateur ou l'intégrateur peut établir un devis mais aussi calculer la capacité réseau nécessaire. La visioconférence est, par exemple, particulièrement consommatrice en bande passante.</p><p>En règle générale, les petites PME optent pour une offre de fibre mutualisée (FTTH) tandis que les ETI et les grands comptes recourent à la fibre dédiée ou garantie (FTTO). Pour les locaux non éligibles à la fibre, il existe des alternatives comme les routeurs 4G/5G - qui offrent des performances et des débits supérieurs à l'ADSL - l'internet satellitaire proposé par Starlink, Nordnet ou SkyDSL, ou la transmission radio par faisceaux hertziens. Notons, enfin, que l'Arcep a mis en ligne <a href="https://www.arcep.fr/mes-demarches-et-services/entreprises/fiches-pratiques/que-va-changer-la-fermeture-du-reseau-cuivre-professionnels.html" target="_blank">une foire aux questions</a> (FAQ) afin de répondre aux interrogations récurrentes des entreprises dans le cadre de la fin programmée du réseau cuivre.</p>]]></description>
      <link>https://www.journaldunet.com/web-tech/1540143-fin-du-reseau-cuivre-comment-les-entreprises-doivent-se-preparer/</link>
      <guid>https://www.journaldunet.com/web-tech/1540143-fin-du-reseau-cuivre-comment-les-entreprises-doivent-se-preparer/</guid>
      <pubDate>Fri, 25 Apr 2025 12:05:00 +0200</pubDate>
    </item>
    <item>
      <title><![CDATA[Comparatif des offres Internet par satellite : Starlink bouscule le marché]]></title>
      <description><![CDATA[<p class="app_entry_lead"><a title=" © JDN / Dall-E" href="https://img-0.journaldunet.com/HQ1mg-0BhFRR9TwOYDp0rarBtu0=/1500x/smart/82aeaf8af4bd4c1381e8b70ff5f1f750/ccmcms-jdn/39519838.png" class="fancy"><picture><source srcset="https://img-0.journaldunet.com/17ANeGBzn0eQPYNaAg4Y_n-OPr4=/540x/smart/82aeaf8af4bd4c1381e8b70ff5f1f750/ccmcms-jdn/39519838.png" media="(max-width: 480px)" /><img src="https://img-0.journaldunet.com/HQ1mg-0BhFRR9TwOYDp0rarBtu0=/1500x/smart/82aeaf8af4bd4c1381e8b70ff5f1f750/ccmcms-jdn/39519838.png" alt="Comparatif des offres Internet par satellite : Starlink bouscule le marché" width="1500" height="1000" /></picture></a> L'arrivée en France de l'Américain a dynamisé le petit monde de l'internet satellitaire. Si l'opérateur, propriété d'Elon Musk, a réveillé un marché endormi, les acteurs historiques disposent de sérieux atouts.</p><p>Le plan France Très Haut Débit a permis de placer la France en tête des grands pays européens en termes de déploiement de la fibre optique. Selon <a href="https://www.arcep.fr/actualites/actualites-et-communiques/detail/n/marche-du-haut-et-du-tres-haut-debit-fixe-130325.html" target="_blank">le dernier décompte</a> de l'Arcep, l'autorité de régulation du secteur des télécoms, 91% des locaux - habitations ou entreprises -, sont aujourd'hui raccordables à la fibre optique. Il reste toutefois des zones blanches mais aussi des zones grises où sévit encore un accès internet en mode dégradé, de type ADSL, qui ne répond pas aux exigences du travail collaboratif et du télétravail.</p><p>Pour les entreprises situées dans les régions rurales ou montagneuses, c'est souvent la double peine. Elles n'ont généralement ni la fibre ni la 4G/5G. Reste une alternative : l'internet par satellite. Avec le satellite, les conditions de couverture ne se posent plus. Pour reprendre la formule de <a href="https://www.journaldunet.fr/web-tech/dictionnaire-du-webmastering/1498265-starlink-zoom-sur-l-alternative-a-l-adsl-d-elon-musk-20221114/" title="Starlink">Starlink</a>, si vous voyez le ciel, c'est que vous êtes éligible. Une parabole, posée sur une toiture, un mur du bâtiment ou un mat, suffit à bénéficier d'un accès internet d'au moins 20 Mbit/s pour le prix d'un abonnement à la fibre (voir le tableau comparatif des offres ci-dessous).</p><table border="0" cellpadding="0" style="border-spacing: 0px; width: 1074px;"><caption>Comparatif des offres internet par satellite pour les entreprises</caption>
<thead><tr><th scope="row" class="c4" style="height: 21px;"> </th>
<th scope="col" class="c5">Starlink</th>
<th scope="col" class="c5">Nordnet</th>
<th scope="col" class="c5">Orange</th>
<th scope="col" class="c5">OuiSat</th>
<th scope="col" class="c5">skyDSL</th>
</tr></thead><tbody><tr><th scope="row" class="c6" style="height: 42px;">Nom de l'offre</th>
<td class="c7">Enterprise</td>
<td class="c7">Neosat Pro</td>
<td class="c7">Satellite Orange avec Nordnet</td>
<td class="c7">OuiSat LEO</td>
<td class="c7">skyDSL Business</td>
</tr><tr><th scope="row" class="c6" style="height: 42px;">Débit théorique descendant </th>
<td class="c7">Jusqu'à 350 Mbit/s</td>
<td class="c7">Jusqu'à 200 Mbit/s</td>
<td class="c7">Jusqu'à 200 Mbit/s</td>
<td class="c7">Jusqu'à 220 Mbit/s</td>
<td class="c7">Jusqu'à 25 Mbit/s</td>
</tr><tr><th scope="row" class="c4" style="height: 21px;">Position satellite</th>
<td class="c7">LEO</td>
<td class="c7">GEO</td>
<td class="c7">GEO</td>
<td class="c7">LEO</td>
<td class="c7">GEO</td>
</tr><tr><th scope="row" class="c4" style="height: 21px;">Trafic prioritaire</th>
<td class="c7">De 50 Go à 200 To</td>
<td class="c7">500 Go</td>
<td class="c7">NC</td>
<td class="c7">De 40 Go à 6 To</td>
<td class="c7">NC</td>
</tr><tr><th scope="row" class="c6" style="height: 42px;">Coût du kit d'installation (HT)</th>
<td class="c7">1 191 euros</td>
<td class="c7">Mise à disposition</td>
<td class="c7">249 euros</td>
<td class="c7">A partir de 449 euros (kit standard)</td>
<td class="c7">399 euros</td>
</tr><tr><th scope="row" class="c4" style="height: 21px;">Tarif mensuel (HT)</th>
<td class="c7">A partir de 44 euros</td>
<td class="c7">99 euros</td>
<td class="c7">A partir de 33 euros</td>
<td class="c7">A partir de 79 euros</td>
<td class="c7">A partir de 19 euros</td>
</tr></tbody></table><p>L'internet venu de l'espace ne sert pas seulement à pallier l'absence de fibre optique dans les zones pas ou mal desservies. Un accès satellitaire peut servir de back-up à un réseau terrestre. En cas de coupure internet ou d'électricité, l'entreprise bascule automatiquement sur ce réseau secondaire, assurant la continuité d'activité.</p><p>L'internet satellitaire permet également de connecter des entrepôts situés loin des agglomérations ou une flotte de camions. Enfin, "il peut constituer un réseau de secours en cas catastrophe naturelle, comme lors des incendies en Gironde ou lors du passage du cyclone Chido à Mayotte, ou ponctuellement pour couvrir un événement comme un festival de musique", avance François Le Gall, chef de produit marketing de Bemove, une marque du groupe Le Figaro (auquel appartient également le JDN) qui édite le site comparatif Ariase.</p><h2>GEO ou LEO ?</h2><p>Le lancement commercial de Starlink au printemps 2021 a bousculé et démocratisé un marché qui ne faisait que vivoter. Nés dans les années 1970, les acteurs <a href="https://www.journaldunet.com/eutelsat/" title="EUTELSAT">Eutelsat</a> et Inmarsat se sont longtemps adressés à quelques riches utilisateurs comme les plaisanciers et les propriétaires de yachts, seuls à même de pourvoir souscrire à leurs offres. Les satellites de ces opérateurs historiques sont dits géostationnaire (GEO). C'est-à-dire qu'ils restent, comme leur nom l'indique, fixes à 36 000 km d'attitude. Ce qui leur permet de garantir une connexion d'une grande stabilité.</p><p>Filiale de SpaceX, propriété d'Elon Musk, Starlink a fait, lui, le choix révolutionnaire de placer ses satellites en orbite basse (ou LEO pour low earth orbit), à environ 550 km au-dessus de la terre. La distance à parcourir entre l'utilisateur et le satellite est donc 65 fois moindre. Ce qui permet à Starlink de revendiquer un débit maximal de 350 Mbit/s et un temps de latence de 25 millisecondes.</p><p>Dans les faits, le site comparatif Zone ADSL&amp;Fibre a mesuré une vitesse moyenne de 92 Mbit/s en download et 14 Mbit/s en upload. Le ping (soit la latence) est, lui, compris entre 30 et 80 millisecondes. Ce qui reste bien inférieur à celui des satellites géostationnaires qui peut s'élever jusqu'à 700 millisecondes. "Ce critère est clé pour les applications temps réel comme la visioconférence", indique Benjamin Gervais, dirigeant de Zone ADSL&amp;Fibre.</p><p>Starlink met aussi en avant la densité de sa constellation, avec plus de 6 750 satellites en orbite et à 42 000 à terme. Par ailleurs, au-delà de l'internet fixe, Starlink propose des forfaits en itinérance pour une utilisation mobile, sur terre et en mer, à des tarifs toutefois nettement plus élevés (à partir de 241 euros).</p><p>En attendant le lancement commercial de Kuiper, le projet concurrent porté par Amazon dont la version bêta devait être lancée fin 2024, Starlink est bien seul dans l'espace. En Europe, seul OneWeb, racheté par le français Eutelsat en 2023, a fait le choix du positionnement en orbite basse avec une constellation de plus de 600 satellites en orbite basse.</p><h2>Des alternatives souveraines à Starlink</h2><p>Le comportement erratique du dirigeant Starlink, Elon Musk, et ses déclarations politiques nuisent toutefois à la réputation de l'opérateur. Comme dans le cas de Tesla, autre entreprise du multimilliardaire américain, des abonnés particuliers ont décidé de boycotter l'opérateur et de rendre leurs antennes, selon <a href="https://www.capital.fr/entreprises-marches/boycott-de-starlink-ces-francais-qui-resilient-le-service-de-musk-quand-dautres-restent-coinces-1510537" target="_blank">un récent appel à témoignages de Capital</a>.</p><p>Les entreprises pourraient aussi réfléchir à deux fois avant de s'engager avec Starlink. "Dans le contexte géopolitique actuel, les solutions alternatives et souveraines sont analysées de près", estime Benjamin Gervais. Pour l'heure, seul OuiSat (ex Numerisat), avec son offre OuiSat, propose un accès satellitaire en orbite basse pour les professionnels en utilisation fixe et mobile comme Starlink.</p><p>Au-delà des seules performances techniques, d'autres critères de sélection doivent être étudiés. "Le spectre radio utilisé par les satellites est limité et partagé entre tous les abonnés", explique François Le Gall. "Comme sur une autoroute, des bouchons peuvent se former. Selon sa politique de 'fair use', un opérateur peut brider ponctuellement son débit pour éviter la congestion de sa bande passante."</p><p>Les opérateurs précisent, dans leurs offres, le quota de data priorisé. Nordnet, filiale d'Orange, propose ainsi un forfait avec un trafic prioritaire de 500 Go en deçà de 100 euros, moins cher que l'offre équivalente chez Starlink.</p><h2>Le coût parfois rédhibitoire du kit d'installation</h2><p>Le coût du kit d'installation (parabole, modem, câble...) entre également en jeu. Bien que son prix a été récemment baissé, celui de Starlink reste particulièrement élevé. A noter qu'une l'entreprise qui retient une solution labellisée - ce qui est le cas de Nordnet, Orange ou Numerisat mais pas de Starlink - peut recevoir une aide de l'Etat allant jusqu'à 300 euros sur le coût d'équipement.</p><p>Pour bénéficier de ce dispositif baptisé <a href="https://anct.gouv.fr/programmes-dispositifs/france-tres-haut-debit/dispositifs/cohesion-numerique-des-territoires#comment-beneficier-du-dispositif" target="_blank">Cohésion Numérique des Territoires</a>, l'entreprise doit se situer dans une commune éligible, et ne pas bénéficier d'un accès internet par les réseaux filaires dont le débit descendant serait supérieur à 30 Mbit/s. Si Starlink préconise l'auto installation de la parabole, le paramétrage s'effectuant à l'aide de son application mobile, il est conseillé de faire appel à installateur agréé. Orange Business assure lui-même l'installation, la maintenance sur site et le support en 7/24. A noter qu'Orange, depuis novembre 2023, commercialise sous sa marque ses propres offres de télécommunication par satellite en s'appuyant sur sa filiale Nordnet.</p><p>De son côté, Starlink dispose également d'un réseau de revendeurs officiels parmi lesquels on trouve Bouygues Telecom Entreprise, ICE Telecom, Sewan. Au-delà de l'installation et le paramétrage de l'équipement, ces revendeurs peuvent assurer le raccordement de la solution Starlink à un routeur d'entreprise ou à une infrastructure SD-Wan, gérer une flotte de paraboles pour les entreprises multisites, filtrer les accès pour éviter les surcoûts ou apporter une couche de cybersécurité supplémentaire.</p>]]></description>
      <link>https://www.journaldunet.com/web-tech/1540727-comparatif-les-offres-internet-par-satellite-pour-les-entreprises/</link>
      <guid>https://www.journaldunet.com/web-tech/1540727-comparatif-les-offres-internet-par-satellite-pour-les-entreprises/</guid>
      <pubDate>Wed, 23 Apr 2025 07:24:00 +0200</pubDate>
    </item>
    <item>
      <title><![CDATA[Smart Building et smart Connectivity : comment améliorer la connectivité dans les nouveaux bâtiments HQE ?]]></title>
      <description><![CDATA[<p class="app_entry_lead">Reposant sur l'IoT, le Smart Building exploite les données en temps réel pour automatiser ses fonctions, s'adapter aux usages et optimiser en continu son fonctionnement.</p><h2>Pourquoi l’IoT est au cœur de l’efficacité énergétique et du confort ?</h2><p>L’IoT joue un rôle central dans l’optimisation de la performance énergétique des bâtiments intelligents. Grâce à une multitude de capteurs et d’actionneurs connectés, l’IoT permet de piloter avec une grande précision l’éclairage, le chauffage, la ventilation ou encore la climatisation. Ces éléments, qui ont un impact significatif sur le bilan carbone d’un bâtiment, peuvent être ajustés en temps réel en fonction de l’occupation ou des conditions météorologiques, et d’autres paramètres pertinents. Par exemple, l’éclairage s’adapte à la luminosité naturelle, et le chauffage se régule en fonction de la présence des occupants. Cette approche permet non seulement de réduire la consommation d’énergie, mais aussi d’améliorer le confort des occupants en leur offrant un environnement personnalisé et adapté.</p><p>De fait, l’approche Haute Qualité Environnementale (HQE) est au cœur de cette démarche, où l’automatisation et l’IoT se conjuguent dans une approche durable et respectueuse de l’environnement. A condition de disposer d’un réseau efficace !</p><h2>Comment le Wifi est devenu le pilier de la Smart Connectivity ?</h2><p>Pour que l’IoT puisse exprimer tout son potentiel, une infrastructure de communication fiable et performante est indispensable. En effet, piloter efficacement l’IoT nécessite un réseau capable de supporter un grand nombre d’appareils connectés, de transmettre des données en temps réel avec un flux important, et d’assurer une couverture étendue à l’intérieur du bâtiment. De plus, l’isolation des bâtiments modernes, conçue pour optimiser l’efficacité énergétique, peut significativement atténuer les signaux des réseaux mobiles, y compris la 5G. Le Wifi, avec ses bornes d’accès placées stratégiquement à l’intérieur du bâtiment, offre une solution plus fiable, plus flexible et performante pour garantir une connectivité optimale. De plus, cette architecture est idéale pour les propriétaires et les gestionnaires de Smart Buildings qui cherchent un pilotage efficace de leur infrastructure.</p><p>« La technologie Wifi offre des leviers d’optimisation bien plus importants que la 5G pour plusieurs raisons. Le coût de sa mise en œuvre est bien moins important face au déploiement d’un réseau 5G indoor, sa compatibilité quasi-universelle est sans comparaison, et le niveau de consommation d’énergie est moindre ».</p><h2>Comment le Wifi vient en aide aux gestionnaires des Smart Building ?</h2><p>Plutôt que de multiplier les solutions ponctuelles dans une démarche « best of breed » (une solution Wifi pour la connectivité des collaborateurs, une solution NAC (Network Access Control) pour la sécurité, une autre pour la gestion de l’IoT, etc.), une approche globale et intégrée est plus judicieuse. <a href="https://ucopia.com/solutions-wifi-ucopia/fonctionnalites-wifi/">Une solution unique comme celle d’Ucopia</a>, capable de piloter l’ensemble de ces aspects, offre une simplification considérable de la gestion et une meilleure cohérence de l’ensemble du système. Cette approche intégrée va grandement faciliter la gestion des points suivants :</p><ul><li>La conformité réglementaire, notamment en ce qui concerne le RGPD et la directive NIS 2. Cela est particulièrement pertinent pour les bâtiments accueillant du public, et encore plus pour les établissements bancaires ou de défense, où la sécurité des données est primordiale. Une gestion centralisée va permettre de simplifier considérablement ces aspects techniques et de conformité.</li>
<li>Le respect de l’environnement, essentiellement avec <a href="https://www.hqegbc.org/qui-sommes-nous-alliance-hqe-gbc/la-certification-hqe/">l’exigence de certification HQE</a>, régie par le code de la construction. Pour être certifié, le bâtiment doit maîtriser son impact environnemental en répondant à 14 critères répartis en 3 grandes catégories : l’impact environnemental, la qualité de l’environnement intérieur et le respect d’objectifs sanitaires.</li>
<li>La performance des connexions. Le véritable talon d’Achille du mobile réside dans sa conception fondamentalement orientée vers l’extérieur. Il est en effet optimisé pour diffuser un signal à travers de vastes zones ouvertes, en s’appuyant sur des antennes-relais positionnées en hauteur. De ce fait, les bâtiments HQE, avec leur isolation performante, constituent de véritables obstacles à la propagation des ondes. Mettre en place une couverture mobile indoor ad hoc représente un investissement considérable, ce qui explique la prédominance du Wifi dans ces environnements.</li>
</ul><ul><li>L’économie d’énergie. La possibilité de couper les points d’accès Wifi selon des plages horaires prédéfinies (par exemple, après 22 heures en semaine dans des bureaux) ou en fonction de l’occupation des lieux (par exemple, dans une salle de conférence vide) permet de réaliser des économies d’énergie considérables à long terme. Qui plus est, une borne Wifi consomme peu d’énergie, tout comme les appareils qui s’y connectent, comparativement aux connexions mobiles.</li>
<li>La personnalisation des services. Une solution de gestion Wifi avancée peut offrir des possibilités de personnalisation intéressantes. Par exemple, il est possible d’afficher le logo d’un client sur un portail captif lors de la location d’une salle de conférence, créant ainsi une expérience sur mesure et renforçant l’image de marque. De plus, il est possible de proposer des offres promotionnelles ciblées aux visiteurs en fonction de leur profil et de leurs préférences, augmentant ainsi l’engagement et la satisfaction des utilisateurs.</li>
<li>L’amélioration de la connaissance client et des services. Le suivi des connexions et des actions des visiteurs via le Wifi permet de mieux comprendre leurs besoins et leurs comportements. Ces données peuvent être utilisées pour proposer des services attractifs, personnaliser l’expérience utilisateur, et alimenter un système CRM. En analysant les données de navigation, les gestionnaires peuvent ainsi identifier les points d’intérêt, les parcours client, et les zones d’attente, ce qui leur permet d’optimiser l’agencement des espaces et d’améliorer l’efficacité des services proposés.</li>
<li>La flexibilité et la sécurité. La possibilité de proposer un réseau Wifi Corporate en parallèle d’un réseau Wifi visiteur est un atout évident. Cette séparation des réseaux, plus complexe à mettre en œuvre avec des bornes 5G, garantit une meilleure sécurité des données sensibles et une plus grande flexibilité dans la gestion des accès. Elle permet également de définir des politiques de sécurité différentes pour chaque type d’utilisateur, en fonction de leurs besoins et de leurs privilèges.</li>
</ul><h2>Quels sont les défis de la mise en œuvre et le rôle de l’expertise dans ce contexte ?</h2><p>La mise en place d’une infrastructure Wifi performante et sécurisée dans un bâtiment intelligent nécessite un savoir-faire technique pointu. Une étude de couverture Wifi approfondie est indispensable pour dimensionner correctement les émissions radio des points d’accès, assurer une couverture optimale tout en évitant les effets de bords, comme des interférences qui pourraient dégrader la qualité du réseau.</p><p>De plus, les gestionnaires de Smart Building sont confrontés au défi de gérer un parc d’appareils hétérogène, dont une partie (ceux des visiteurs notamment) n’est pas sous leur contrôle direct. Ce qui représente donc un véritable challenge en termes de sécurité. C’est également un défi en matière de marketing, car il est important d’offrir une expérience utilisateur fluide et agréable à tous les visiteurs, quel que soit l’appareil qu’ils utilisent.</p><p> « C’est là qu’une solution comme Ucopia prend tout son sens. Elle propose une plateforme unifiée pour la gestion de la connectivité et des services dans les Smart Buildings, ainsi que l’accès à un écosystème riche autour de la valorisation d’un réseau Wifi : gestion d’accès, monétisation et marketing Wifi multi-sectoriels ».</p>]]></description>
      <link>https://www.journaldunet.com/solutions/dsi/1540895-smart-building-et-smart-connectivity-comment-ameliorer-la-connectivite-dans-les-nouveaux-batiments-hqe/</link>
      <guid>https://www.journaldunet.com/solutions/dsi/1540895-smart-building-et-smart-connectivity-comment-ameliorer-la-connectivite-dans-les-nouveaux-batiments-hqe/</guid>
      <pubDate>Tue, 22 Apr 2025 16:43:00 +0200</pubDate>
    </item>
    <item>
      <title><![CDATA[Le mirage de la MACH Alliance]]></title>
      <description><![CDATA[<p class="app_entry_lead">La MACH Alliance est née avec de nobles intentions : briser le monopole des plateformes monolithiques. Ce qui devait être un mouvement de libération technologique s'est transformé en un casse-tête.</p><p>La MACH Alliance est née avec de nobles intentions : briser le monopole des plateformes monolithiques grâce à son approche basée sur les microservices, les API-first, le cloud-native et les architectures headless. Sa vision d’un commerce modulaire, combinant les meilleures solutions du marché, semblait révolutionnaire au premier abord (et elle l’a été pour certains). Pourtant, ce qui devait être un mouvement de libération technologique s’est transformé en un casse-tête et a engendré autant de problèmes qu’il en a résolu.</p><h2>L’énigme de l’intégration</h2><p>Les entreprises se retrouvent noyées sous une multitude d’APIs, jonglant avec des dizaines de fournisseurs et consacrant des heures infinies à construire des couches complexes d’API afin d’harmoniser des services disparates. La promesse d’une intégration transparente s’est révélée être une illusion : maintenir la cohérence des données et assurer des workflows fiables dans ce labyrinthe devient un défi monumental. Chaque nouvelle intégration ajoute une couche de complexité, rendant l’écosystème fragile, où une seule modification peut provoquer un effet domino catastrophique.</p><h2>L’épidémie des coûts cachés</h2><p>Le récit du best-of-breed passe sous silence le fardeau financier de la gestion de multiples fournisseurs, avec leurs licences, leurs contrats de support et leurs exigences d’infrastructure. Les entreprises qui adoptent des solutions hyper-personnalisées finissent par fonctionner comme des éditeurs de logiciels internes, détournant des ressources précieuses de leur cœur de métier. Ce qui semble économiquement viable lors des premières évaluations se transforme en gouffre financier, avec des coûts de développement, de maintenance et d’opération qui explosent. Au-delà des dépenses directes, l’impact réel se mesure aussi en opportunités manquées, en délais de mise sur le marché et en perte d’agilité commerciale.</p><h2>Le bourbier opérationnel</h2><p>Le fardeau opérationnel imposé aux utilisateurs métiers est peut-être l’aspect le plus dévastateur. Dans les grandes entreprises, des millions d’euros sont investis pour construire des expériences utilisateurs et des workflows intégrés sur mesure. Les équipes marketing passent un temps précieux à naviguer entre des systèmes disparates, les équipes merchandising peinent à maintenir une expérience produit cohérente et les créateurs de contenu doivent jongler avec des processus fragmentés, réduisant drastiquement leur productivité.</p><p>Cette expérience fragmentée crée une friction organisationnelle qui affecte directement la performance de l’entreprise : coûts élevés de formation, retards dans les campagnes marketing, incapacité à répondre rapidement aux évolutions du marché. De plus, l’innovation basée sur l’IA devient difficile à exploiter lorsque les données restent cloisonnées, empêchant la personnalisation avancée que le commerce moderne exige.</p><h2>Le cauchemar de la sécurité et de la confidentialité</h2><p>Les architectures entièrement best-of-breed souffrent d’un problème majeur de réplication des données : un même objet de données se retrouve dupliqué dans de multiples systèmes. Pire encore, plusieurs fournisseurs technologiques ont accès à ces données sensibles, exposant l’entreprise à des risques de sécurité accrus.</p><p>Une architecture e-commerce pérenne doit garantir une gestion simplifiée des données et un respect strict des normes de sécurité (PCI, RGPD…). Or, le modèle MACH échoue sur ce point, car il exige des efforts considérables pour standardiser et auditer les pratiques de sécurité sur des dizaines de fournisseurs différents.</p><p>Dans un écosystème numérique interconnecté, la confiance dans les technologies utilisées devient essentielle. Pourtant, les intégrateurs système misent sur des personnalisations coûteuses et des intégrations complexes, créant ainsi une dépendance artificielle qui va à l’encontre de la simplicité architecturale recherchée.</p><h2>La voie à suivre</h2><p>Aujourd’hui, si les principes MACH sont devenus la norme dans le développement d’applications web modernes, ils ne sont plus différenciants. Le véritable enjeu est de créer de la valeur business. L’industrie du e-commerce doit cesser d’idéaliser les concepts architecturaux et se concentrer sur ce qui compte réellement : les résultats commerciaux.</p><p>Pour y parvenir, les architectures de commerce digital efficace doivent appliquer les principes du commerce composable de manière réfléchie, afin de créer un écosystème connecté et performant. Elles doivent être pragmatiques et utiliser le best-of-breed uniquement lorsqu’il offre un retour sur investissement clair et mesurable. Elles doivent être orientées sur les résultats et conçues avec des objectifs business précis, de même que centrées sur l’humain, priorisant les besoins des développeurs, des marketeurs et des consommateurs finaux. Le nouveau MACH doit offrir de la modularité là où c’est pertinent et de la standardisation là où cela simplifie.</p><p>L’Alliance MACH a joué un rôle clé en nous libérant des plateformes monolithiques. Désormais, il est temps de nous libérer du dogme MACH lui-même. Adoptons des écosystèmes interconnectés et standardisés, offrant une solution pérenne, fiable et orientée business. Car l’architecture la plus élégante est celle qui apporte des résultats concrets.</p><p>Pour toutes les raisons expliquées ci-dessus, VTEX suspend temporairement son soutien à la MACH Alliance. La société en sera de nouveau membre si MACH travaille et défend les principes suivants : une architecture simple et légère, un écosystème logiciel entièrement connecté OOTB, pas de middleware ou une couche d'intégration middleware minimale et enfin, défendre les intérêts business des marchands et des marques (et non l’intérêt du fournisseur).</p>]]></description>
      <link>https://www.journaldunet.com/solutions/dsi/1540951-le-mirage-de-la-mach-alliance/</link>
      <guid>https://www.journaldunet.com/solutions/dsi/1540951-le-mirage-de-la-mach-alliance/</guid>
      <pubDate>Tue, 22 Apr 2025 11:56:00 +0200</pubDate>
    </item>
    <item>
      <title><![CDATA[Votre côté préféré du lit trahit votre opinion politique selon cette étude - est-ce vrai dans votre cas ?]]></title>
      <description><![CDATA[<p class="app_entry_lead"><a title=" © CreativeCreations - stock.adobe.com" href="https://img-0.journaldunet.com/rUVtMAezgaCqqkPFLoX_WMQwJuU=/1500x/smart/52dfd8de5b684d2aad9d179e6686d091/ccmcms-jdn/39520243.jpg" class="fancy"><picture><source srcset="https://img-0.journaldunet.com/SHxXdQLi-h6LW5b2hKu14TYaYtA=/540x/smart/52dfd8de5b684d2aad9d179e6686d091/ccmcms-jdn/39520243.jpg" media="(max-width: 480px)" /><img src="https://img-0.journaldunet.com/rUVtMAezgaCqqkPFLoX_WMQwJuU=/1500x/smart/52dfd8de5b684d2aad9d179e6686d091/ccmcms-jdn/39520243.jpg" alt="Votre côté préféré du lit trahit votre opinion politique selon cette étude - est-ce vrai dans votre cas ?" width="1500" height="1000" /></picture></a> Le choix du côté du lit n'est pas anodin. Une étude américaine révèle qu'il en dit long sur votre personnalité… et vos opinions politiques.</p><p>Dans la paisible routine du coucher, un détail apparemment insignifiant structure la vie de millions de couples : la place que l'on occupe chaque nuit dans le lit conjugal. Ce rituel, souvent acquis dès les premiers jours d'une relation, résiste aux déménagements, aux changements de matelas et même aux nuits en hôtel. Mais derrière ce choix, en apparence pratique ou sentimental, se cacherait une réalité bien plus surprenante. Et si, sans même vous en rendre compte, votre côté préféré du lit trahissait vos goûts, vos habitudes… voire vos convictions les plus profondes ?</p><p>Chez les couples, la répartition du lit est parfois l'objet de négociations silencieuses et tenaces. Certains évoquent, à demi-mot, une question de " logique " : la proximité de la porte, une table de chevet à portée de main, ou encore le côté le plus confortable pour sortir du lit au réveil. Pour d'autres, le choix s'impose tout naturellement, fruit du hasard ou d'une entente tacite, scellée dès la première nuit passée ensemble.</p><p>Mais cette habitude banale a attiré l'attention des chercheurs. Une équipe,  mandatée par Slumber Cloud, fabricant de literie, a voulu comprendre ce qui pousse chacun à s'installer à droite ou à gauche, et ce que cela peut révéler sur nos personnalités. <a href="https://dev.swnsdigital.com/us/2019/06/sleeping-on-the-right-or-left-side-of-the-bed-can-reveal-a-lot-about-your-personality/">L'étude, menée auprès de 2 000 Américains</a> par l'institut OnePoll, s'est penchée sur la question avec une curiosité scientifique… et une touche d'humour.</p><div class="c5"><figure class="image c4"><img alt="" src="https://img-0.journaldunet.com/JnhT3ZJbOIEfg1esJzgEnG-31QI=/1080x/smart/ea564e2940c64752be3404bf74e7d7f9/ccmcms-jdn/39520244.jpg" /></figure></div><p>Au fil de l'enquête, les chercheurs ont mis en lumière d'étonnants parallèles entre le côté du lit choisi et les traits de personnalité, voire les préférences politiques. Les dormeurs du côté gauche du lit se déclarent plus fréquemment "cerveau gauche", friands de musique rétro et de films dramatiques. Ils préfèrent la bière au vin, et, détail qui interpelle, se reconnaissent davantage dans les idées de gauche. </p><p>À l'inverse, ceux qui s'installent à droite se disent plutôt "cerveau droit", amateurs de rock et de films d'action, et leur choix de boisson penche vers le vin. Mais surtout, ils affichent une préférence significative pour les opinions de droite. Ainsi, selon l'étude, la position dans le lit pourrait bien refléter, voire renforcer, nos convictions politiques. Un clin d'œil amusant à la polarisation qui traverse la société… jusque sous la couette.</p><p>En chiffres, la tendance est nette : les personnes aux idées de gauche dorment majoritairement à gauche, et celles d'orientation conservatrice à droite. Si la raison première reste la praticité – sortir plus facilement du lit –, le choix du côté révèle, consciemment ou non, des affinités profondes. L'étude souligne aussi l'impact du partenaire : souvent, on s'adapte à l'autre, mais le résultat final n'est jamais tout à fait le fruit du hasard. Et si, la prochaine fois que vous glisserez sous la couette, vous repensiez à ce petit détail… révélateur d'un monde qui vous ressemble, jusque dans votre sommeil ?</p>]]></description>
      <link>https://www.journaldunet.com/web-tech/1540973-bp1-lit-etude-politique/</link>
      <guid>https://www.journaldunet.com/web-tech/1540973-bp1-lit-etude-politique/</guid>
      <pubDate>Mon, 21 Apr 2025 06:45:00 +0200</pubDate>
    </item>
    <item>
      <title><![CDATA[Téléalarmes d'ascenseur : une modernisation nécessaire à l'heure de la fin du 2G/3G]]></title>
      <description><![CDATA[<p class="app_entry_lead">La fin du 2G/3G bouleverse la sécurité des ascenseurs. Trois acteurs unissent leurs expertises pour garantir la continuité des téléalarmes grâce à une solution VoIP validée de bout en bout.</p><p>Alors que les opérateurs annoncent la fin des réseaux 2G et 3G, la filière ascenseur se trouve confrontée à un défi structurel : assurer la continuité d’un service critique — la téléalarme — dans un contexte de mutation technologique rapide et de durcissement réglementaire.</p><p>Les téléalarmes installées dans les cabines d’ascenseur permettent de déclencher un appel d’urgence vers un centre d’écoute en cas de panne ou d’immobilisation. Jusqu’ici, ces dispositifs s’appuyaient majoritairement sur des transmissions analogiques ou des réseaux mobiles de seconde ou troisième génération. Leur disparition impose une transition vers la voix sur IP (VoIP), ce qui change profondément les conditions techniques d’exploitation.</p><h2>Une chaîne de transmission à revalider dans son ensemble</h2><p>Contrairement à ce que l’on pourrait penser, le passage à la VoIP ne se limite pas à changer un modem ou une carte SIM. Il impose une requalification complète de la chaîne de communication, de l’émission jusqu’à la réception :</p><ul><li>Le terminal d’appel (téléalarme) doit être capable d’initier une communication en VoIP via une passerelle 4G,</li>
<li>Le logiciel d’intégration doit pouvoir encapsuler, transporter et traduire les signaux (voix et DTMF),</li>
<li>Le centre de réception d’appels doit garantir la continuité de service 24h/24, 7j/7, sans perte d’information ni dégradation du signal.</li>
</ul><p>Ce triptyque fonctionnel a été mis à l’épreuve dans une campagne de tests de validation de bout en bout, menée par Avire (concepteur de téléalarmes d'ascenseurs), AzurSoft (intégration logicielle et la gestion des protocoles nécessaires à l’acheminement des appels et données de manière fiable vers les infrastructures numériques certifiées) et Sérénité 24H24 (centre d’appel qui réceptionne et traite les appels 24h/24 et 7j/7). L’objectif : garantir une compatibilité VoIP complète sur une infrastructure réseau certifiée. Ces tests ont permis de valider l’interopérabilité du système avec les protocoles les plus utilisés sur le marché.</p><h2>Des enjeux techniques... mais aussi réglementaires</h2><p>Cette transformation intervient dans un contexte où les attentes réglementaires s’intensifient. Un projet de loi, discuté début 2025, vise à imposer des délais précis entre le signalement d'une panne et la remise en service de l’ascenseur.</p><p>Autrement dit, au-delà de la transmission d’un appel d’urgence, les infrastructures doivent désormais permettre la remontée rapide d’informations techniques fiables. Cela inclut la réception instantanée d’alertes, la compréhension du signal par les plateformes logicielles, et l’action immédiate par un opérateur qualifié.</p><ul><li>Les solutions VoIP validées dans cette collaboration répondent précisément à ces exigences :</li>
<li>Conformité aux délais d’intervention imposés,</li>
<li>Sécurisation de la transmission,</li>
<li>Compatibilité étendue avec les différents types de parcs ascenseurs, souvent hétérogènes.</li>
</ul><h2>Une réponse concrète pour un secteur sous pression</h2><p>Le parc d’ascenseurs français reste en grande partie équipé de dispositifs analogiques. La bascule vers des téléalarmes numériques nécessite donc des solutions testées et éprouvées, capables de s’adapter aux réalités du terrain.</p><p>En certifiant la compatibilité VoIP de bout en bout entre les équipements d’Avire, l’infrastructure logicielle d’AzurSoft et les centres d’appel de Sérénité 24H24, ce partenariat établit un modèle opérationnel fiable et immédiatement activable pour les ascensoristes.</p><p>Il s’agit d’une avancée significative pour les 350 sociétés de maintenance d’ascenseur en France, qui doivent garantir une continuité de service sans rupture, tout en préparant leur parc à une transformation technologique inévitable.</p><p>Ce que démontre ce projet, c’est qu’en matière de sécurité, la technologie seule ne suffit pas : c’est l’intégration fluide entre matériel, logiciel et opérateur humain qui crée un système robuste. Dans un secteur où chaque minute compte en cas de panne, cette interopérabilité devient la clé de voûte d’une modernisation réussie.</p>]]></description>
      <link>https://www.journaldunet.com/ebusiness/telecoms-fai/1540641-telealarmes-d-ascenseur-une-modernisation-necessaire-a-l-heure-de-la-fin-du-2g-3g/</link>
      <guid>https://www.journaldunet.com/ebusiness/telecoms-fai/1540641-telealarmes-d-ascenseur-une-modernisation-necessaire-a-l-heure-de-la-fin-du-2g-3g/</guid>
      <pubDate>Mon, 07 Apr 2025 17:00:00 +0200</pubDate>
    </item>
    <item>
      <title><![CDATA[Amazon, Google ou Microsoft : qui gagnera la course à l'informatique quantique ?]]></title>
      <description><![CDATA[<p class="app_entry_lead"><a title=" © JDN / Dall-E" href="https://img-0.journaldunet.com/5hW3LC5r0g9iOwFHkduDKX7H8rQ=/1500x/smart/d718e376f5f445bf88fc552f87841ef8/ccmcms-jdn/39519745.png" class="fancy"><picture><source srcset="https://img-0.journaldunet.com/rapRlP7IOh5X6yPsQoH2W8wd07g=/540x/smart/d718e376f5f445bf88fc552f87841ef8/ccmcms-jdn/39519745.png" media="(max-width: 480px)" /><img src="https://img-0.journaldunet.com/5hW3LC5r0g9iOwFHkduDKX7H8rQ=/1500x/smart/d718e376f5f445bf88fc552f87841ef8/ccmcms-jdn/39519745.png" alt="Amazon, Google ou Microsoft : qui gagnera la course à l'informatique quantique ?" width="1500" height="1000" /></picture></a> Les trois géants se livrent une course effrénée. Chacun développe désormais sa propre technologie : AWS avec Ocelot, Google avec Willow et Microsoft avec Majorana.</p><p>Alors que les ordinateurs d'aujourd'hui utilisent le <a href="https://www.journaldunet.fr/web-tech/dictionnaire-du-webmastering/1203567-bit-definition/" target="_blank" title="Bit">bit</a> comme unité fondamentale, le calculateur quantique, lui, s'adosse sur une valeur appelée le qubit (ou quantum bit). Une valeur qui permet non seulement de s'exprimer par le biais de 1 et 0, mais également par une superposition des deux. La vitesse de calcul se voit ainsi augmenter de manière exponentielle, la machine étant capable de traiter simultanément plusieurs états à la fois. La mesure de puissance du qubit ? Elle est de 2 à la puissance N (N étant le nombre de qubits du processeur). Ainsi, une machine binaire reposant sur une architecture à 6 bits pourrait créer une des 64 (2 à la puissance 6) combinaisons possibles (000000, 000001, 000010...). Le qubit étant une superposition de 1 et 0, peut tendre d'un coup vers 64 états.</p><p>Problème : contrairement aux bits classiques, les qubits sont extraordinairement sensibles aux perturbations environnementales : chaleur, vibrations, rayonnement électromagnétique ou même rayons cosmiques. Ces interférences provoquent des erreurs qui compromettent la fiabilité des calculs. <a href="https://www.journaldunet.com/amazon/" title="Amazon">Amazon</a>, Google et Microsoft, désormais tous les trois engagés dans cette course à l'informatique quantique, divergent précisément sur le terrain de la correction d'erreurs.</p><h2>Microsoft mise sur le fermion de Majorana</h2><p>Face à <a href="https://www.journaldunet.com/cloud/amazon-web-services/" title="Amazon Web Services">AWS</a> et Google, Microsoft a pris le pari le plus audacieux en misant sur une particule exotique appelée fermion de Majorana, qui n'existe pas naturellement. Le cœur de cette innovation réside dans le développement d'un "topoconducteur", un matériau hybride composé d'arséniure d'indium et d'aluminium. Ce matériau crée un état entièrement nouveau de la matière (un état topologique), qui permet d'observer et de contrôler les particules. Contrairement aux qubits traditionnels, les qubits de <a href="https://www.journaldunet.com/microsoft/" title="Microsoft">Microsoft</a> facilitent le contrôle nécessaire à leur fonctionnement ainsi que leur mise à l'échelle. "Notre approche basée sur la mesure simplifie la correction des erreurs quantiques de manière radicale : nous effectuons la correction des erreurs uniquement via des mesures activées par de simples impulsions numériques connectant et déconnectant des points quantiques équipés de nanofils. Ce contrôle numérique rend la gestion de vastes ensembles de qubits beaucoup plus pratique pour des applications réelles", souligne Chetan Nayak, chercheur émérite chez Microsoft.</p><p>En février 2025, <a href="https://news.microsoft.com/source/emea/2025/02/microsoft-devoile-majorana-1-le-premier-processeur-quantique-au-monde-alimente-par-des-qubits-topologiques/?lang=fr" target="_blank">Microsoft affirmait "être parvenu à créer le premier topoconducteur au monde</a>, un matériau capable d'observer et de contrôler les particules de Majorana pour produire des qubits fiables et évolutifs". Selon l'éditeur, cette technologie ouvre une voie claire pour intégrer jusqu'à un million de qubits sur une seule puce tenant dans la paume de la main. Le million de qubits est le seuil considéré comme nécessaire pour atteindre l'avantage quantique. Entendez par là un nombre de qubits au-delà duquel plus aucun superordinateur classique n'est capable de gérer la croissance exponentielle de la mémoire et la bande passante de communication nécessaire pour simuler son équivalent quantique. Une étape que Microsoft entend atteindre d'ici quelques années. "L'<a href="https://www.journaldunet.com/big-data/1137545-informatique-quantique/" title="Informatique quantique">informatique quantique</a> à cette échelle pourrait conduire à des innovations telles que des matériaux auto-réparateurs capables de combler les fissures des ponts, une agriculture durable et des découvertes de produits chimiques plus sûrs. Ce qui nécessite aujourd'hui des milliards de dollars en recherches expérimentales approfondies et en expériences en laboratoire pourrait être réalisé grâce aux calculs d'un ordinateur quantique", commente Chetan Nayak.</p><h2>AWS s'inspire d'Alice &amp; Bob</h2><p>Reposant sur les qubits de chat, nommés d'après <a href="https://fr.wikipedia.org/wiki/Chat_de_Schr%C3%B6dinger" target="_blank">l'expérience de pensée du chat de Schrödinger</a>, la technologie Ocelot d'AWS, qui s'inspire des recherches de la start-up française Alice &amp; Bob, exploite la superposition quantique d'états classiques pour supprimer certains types d'erreurs, notamment les erreurs de bit-flip et phase-flip. Dévoilée fin février 2025, cette technologie utilise des oscillateurs fabriqués à partir d'un film mince de tantale, un matériau supraconducteur. Ils génèrent un signal électrique répétitif avec une synchronisation régulière pour stocker les états quantiques. Architecturalement, Ocelot est composé de deux puces de silicium microélectroniques, chacune d'environ 1 cm², empilées et connectées électriquement. Chaque puce comprend 14 composants principaux : cinq qubits de données (les fameux qubits de chat), cinq "circuits tampon" pour stabiliser les qubits de données, et quatre qubits supplémentaires dédiés à la détection d'erreurs.</p><p>Selon AWS, "le principal atout d'Ocelot réside dans sa capacité à réduire les coûts de la correction d'erreurs quantiques jusqu'à 90% par rapport aux approches conventionnelles". Cette efficacité provient de la suppression intrinsèque de certains types d'erreur par les qubits de chat. Ocelot utilise par ailleurs des processus de fabrication empruntés à l'industrie microélectronique, ce qui facilite sa production à grande échelle. "A l'avenir, les puces quantiques construites selon l'architecture Ocelot pourraient coûter aussi peu qu'un cinquième du prix des approches actuelles. Et ce, en raison du nombre considérablement réduit de ressources nécessaires à la correction d'erreurs. Concrètement, nous pensons que cela nous permettra d'aboutir à un ordinateur quantique exploitable d'ici cinq ans", pointe Oskar Painter, directeur du matériel quantique chez AWS.</p><h2>Google mise sur la technologies des transmons</h2><p>Du côté de <a href="https://www.journaldunet.com/google/" title="Google">Google</a>, Willow utilise des qubits physiques basés sur la technologie des transmons. Ce composant est un condensateur supraconducteur refroidi à des températures extrêmes proches du zéro absolu, et développé initialement à l'Université de Yale il y a 20 ans. L'enjeu pour Google ? Combiner plusieurs qubits physiques en réduisant les erreurs provoquées par le bruit ambiant auquel ces derniers sont sensibles, en vue d'obtenir in fine des qubits logiques stables.</p><p>Présenté en décembre 2024, le processeur développé à ce jour par Google comprend 105 qubits physiques. Le groupe a accordé une attention particulière à l'ingénierie de tous les composants du système, des portes à qubit unique et à deux qubits, à la réinitialisation des qubits en passant par leur lecture. L'entreprise de Mountain View est parvenue à réduire les erreurs des qubits physiques en dessous du seuil critique, rendant possible la création d'un qubit logique fiable. Fait marquant, Willow parvient à réduire le nombre d'erreurs de manière exponentielle avec l'augmentation du nombre de qubits. Google a testé des réseaux de qubits de plus en plus grands, passant d'une grille de 3x3 qubits à une grille de 5x5, puis à une grille de 7x7. À chaque augmentation de taille, le taux d'erreur était réduit de moitié. En termes de performance, Willow a en outre réalisé un calcul d'échantillonnage de circuits aléatoires en moins de cinq minutes. Un traitement qui aurait demandé à l'un des supercalculateurs les plus rapides d'aujourd'hui 10 septillions (10²⁵) d'années pour être réalisé.</p><p>Bien que Willow ait démontré une correction d'erreurs efficace, son approche nécessite toujours un nombre important de qubits physiques pour chaque qubit logique, ce qui pose des défis pour atteindre le million de qubits. Le benchmark RCS utilisé pour démontrer la supériorité quantique de Willow, bien qu'impressionnant, n'a en outre pas d'applications pratiques connues dans le monde réel. Google reconnaît que le prochain défi est de démontrer un calcul qui soit à la fois au-delà des capacités classiques et utile pour une application concrète.</p><p>En comparant les stratégies retenues par les trois acteurs, celle d'AWS semble la plus pertinente tant du plan de la réduction d'erreurs que du passage à l'échelle. Amazon a - pour l'heure - trouvé le meilleur équilibre.</p>]]></description>
      <link>https://www.journaldunet.com/solutions/dsi/1540683-amazon-google-ou-microsoft-qui-gagnera-la-course-a-l-informatique-quantique/</link>
      <guid>https://www.journaldunet.com/solutions/dsi/1540683-amazon-google-ou-microsoft-qui-gagnera-la-course-a-l-informatique-quantique/</guid>
      <pubDate>Mon, 07 Apr 2025 16:05:00 +0200</pubDate>
    </item>
    <item>
      <title><![CDATA[Le rôle caché de la 5G privée dans les stades]]></title>
      <description><![CDATA[<p class="app_entry_lead">Les stades se transforment en lieux d'événements polyvalents, accueillant des concerts, des festivals et d'autres rassemblements nécessitant une infrastructure adaptée.</p><p>Les systèmes câblés traditionnels ne répondent pas aux besoins des artistes et à la gestion des coûts opérationnels. Les réseaux 5G privés offrent une solution, offrant la flexibilité, l'évolutivité et la fiabilité nécessaires pour répondre aux diverses exigences de connectivité des événements et offrir des expériences améliorées.</p><p>La 5G privée offre une bande passante dédiée, une sécurité renforcée et un contrôle total sur les ressources et la performance du réseau. Elle peut garantir que les opérations critiques se déroulent sans accroc, minimiser la congestion du réseau et soutenir des services innovants, comme des options plus interactives pour les diffuseurs afin d’offrir à leurs audiences une meilleure expérience.</p><h2>Les propriétaires de stades bénéficient de la 5G privée</h2><p>L'efficacité opérationnelle est cruciale dans les stades, où des facteurs tels que le flux de la foule, les exigences multiples des événements et les emplacements changeants des points de vente sont en jeu, et les réseaux 5G privés s'avèrent être un véritable catalyseur d’innovation. En réduisant le besoin de câblage, qui peut être coûteux à installer, à maintenir et à adapter, ces réseaux permettent de réduire considérablement les coûts de connectivité et les délais de déploiement. Le déploiement d'appareils IoT, de caméras et de capteurs devient bien plus flexible, sans être contraint par un câblage physique. Cette approche "sans câbles" permet non seulement de reconfigurer plus rapidement et facilement les espaces pour différents événements, mais réduit également les coûts liés à l'adaptation continue de l'infrastructure de connectivité.</p><p>Tout aussi important, la 5G privée renforce la sécurité. L’analyse vidéo en temps réel peut rapidement détecter des problèmes potentiels, tandis que les drones et les robots connectés en 5G améliorent la couverture des zones difficiles ou coûteuses à surveiller uniquement avec du personnel. Cela garantit un environnement plus sûr pour tous, en protégeant les visiteurs, le personnel et les biens.</p><h2>Autonomiser les organisateurs et générer des revenus supplémentaires</h2><p>Les locataires des stades, les équipes sportives, les promoteurs de concerts et d'autres organisateurs d'événements ont besoin d'une connectivité fiable et à haute capacité pour offrir des services et se différencier dans un marché de plus en plus compétitif. La bande passante dédiée de la 5G privée et la segmentation du réseau garantissent un streaming ininterrompu et de haute qualité pour les diffuseurs, une coordination sécurisée des canaux entre le personnel, et un soutien sans faille pour les systèmes de point de vente des vendeurs.</p><p>À mesure que le marché mondial des réseaux cellulaires privés se développe, les stades visionnaires qui adoptent la 5G privée bénéficient d'une plus grande efficacité opérationnelle et d'un potentiel de revenus supplémentaire.</p><p>Au-delà de l'amélioration des opérations, la 5G privée ouvre la voie à de nouvelles sources de revenus. Les stades peuvent proposer des forfaits de connectivité premium aux diffuseurs, aux invités VIP et à d'autres partenaires. Les projections de l'industrie indiquent que le marché mondial des réseaux cellulaires privés pourrait atteindre plus de 90 milliards d’euros d'ici 2030, signalant une tendance plus forte vers l'adoption de réseaux privés dans des secteurs comme le sport et le divertissement. </p><h2>Créer du contenu engageant</h2><p>La faible latence, la grande bande passante et la fiabilité de la 5G privée permettent aux opérateurs de stades de collecter davantage de données pour créer du contenu engageant. En soutenant plusieurs flux provenant de plusieurs angles de caméra haute définition et en utilisant des données en temps réel pour créer des informations plus significatives, les organisateurs peuvent offrir une expérience plus enrichissante aux supporters. Par exemple, le club de football anglais Crystal Palace FC utilise un réseau 5G privé pour son stade de Selhurst Park pour soutenir un système d'amélioration de la vision pour les fans malvoyants, leur permettant de diffuser en direct les images des matchs directement sur des casques spécialement conçus.</p><h2>Leçons des premiers adoptants comme le Stade Vélodrome de Marseille</h2><p>Après des années de développement, l'installation et la gestion d'un réseau 5G privé sont désormais des processus relativement simples. Ces réseaux peuvent souvent être installés en quelques heures, sans avoir besoin d’infrastructures physiques étendues. Pour les stades sans expertise interne, les prestataires de services gérés s’occupent du déploiement et de l'entretien, rendant la technologie accessible aux organisations de toutes tailles.</p><p>Les dernières solutions 5G privées sont également plus conviviales pour l'IT, ce qui signifie que le personnel IT des stades peut gérer le réseau sans avoir besoin d’une formation spécialisée en téléphonie cellulaire. Cette intégration facile permet de réduire les obstacles à l'adoption et facilite la maintenance des réseaux sur le long terme.</p><p>Les premiers stades à adopter des réseaux 5G privés nous ont appris des leçons précieuses. L'une des principales conclusions est l'importance de commencer avec des cas d’utilisation spécifiques et ciblés. En visant des besoins immédiats, les stades peuvent rapidement observer les avantages, ouvrant ainsi la voie à l'expansion vers d'autres usages par la suite. Cette approche est démontrée par le Stade Vélodrome à Marseille, qui a commencé à utiliser un réseau 5G privé pour soutenir une solution de communication "push-to-talk" appelée Team Connect afin de garder les travailleurs connectés. Depuis, il a commencé à expérimenter les livraisons de nourriture et de boissons aux sièges et la surveillance des stocks dans les magasins du stade.</p><p>La scalabilité est un autre facteur clé. Les réseaux 5G privés sont conçus pour évoluer en fonction des besoins d'un stade, et planifier cela dès le départ garantit que le réseau reste un atout à long terme.</p><h2>L'avenir des stades connectés</h2><p>Investir dans la 5G privée ne consiste pas seulement à avoir un meilleur internet, mais à poser les bases d'un avenir où la technologie et le divertissement se rejoignent de manière transparente. Il s'agit de transformer les événements en direct en expériences plus riches, plus interactives et véritablement inoubliables.</p>]]></description>
      <link>https://www.journaldunet.com/ebusiness/telecoms-fai/1540597-le-role-cache-de-la-5g-privee-dans-les-stades/</link>
      <guid>https://www.journaldunet.com/ebusiness/telecoms-fai/1540597-le-role-cache-de-la-5g-privee-dans-les-stades/</guid>
      <pubDate>Wed, 02 Apr 2025 16:10:00 +0200</pubDate>
    </item>
  </channel>
</rss>
