
Le Sénat a publié, lundi, ses 20 propositions correspondant à des mesures dites « pragmatiques et de bon sens », destinées à réduire le fossé qui existe entre certains territoires, sur le terrain numérique.
Quatre ans après le lancement de la Stratégie nationale pour un numérique inclusif, destinée à lutter contre la fracture technologique globale, les Sénateurs font un nouveau constat alarmant. Pour la commission de l'aménagement du territoire et du développement durable, les choses n'évoluent pas comme elles le devraient. En témoigne selon elle une part majoritaire de Français qui affirme avoir renoncé à effectuer certaines démarches en ligne, à cause d'un manque de clarté de ces dernières.
Près de 2 Français sur 10 ne maîtrisent pas encore la moindre compétence numérique de base
La sénatrice LR Patricia Demas, rapporteure de la commission, juge l'engagement de l'État encore parcellaire et insuffisant, appelant au passage à faire de l'inclusion numérique une priorité nationale, avec des financements valant sur le long terme. En premier lieu, le Sénat appelle à mieux appréhender la fracture numérique pour élaborer une politique ambitieuse.
Derrière cette qualification très politicienne, les Sages pointent du doigt un difficile accès aux compétences numériques, aux réseaux et aux équipements numériques dans certains territoires. 17 % des Français ne maîtrisent pas la moindre compétence numérique de base encore aujourd'hui, et la couverture en fibre optique est encore loin d'être totale, alors que la fin de l'année 2022 est censée correspondre à une dématérialisation des services publics à 100 %.
Affirmant que la Stratégie nationale de 2018 n'est pas pleinement efficace, les sénateurs proposent de dresser une feuille de route nationale sur l'inclusion numérique, avec des objectifs clairs et un calendrier pour les atteindre.
Des hubs territoriaux d'accompagnement qui luttent pour leur propre survie
Concernant l'inclusion numérique, la commission sénatoriale s'interroge sur le fonctionnement en silo des interventions territoriales, entre acteurs publics, privés et associatifs, qui aboutissent à un éclatement des sources de financement. En ce sens, désigner un « chef de file » ne semble pas être une bonne idée pour le Sénat, qui estime que chaque échelon peut apporter sa propre valeur. « L'observation du terrain plaide en faveur de la mise en place de coalitions locales au format souple, permettant de renforcer la coordination entre les acteurs », explique-t-il.
Le renforcement de l'inclusion numérique doit aussi passer par le renforcement des hubs territoriaux, dans leur rôle d'appui aux collectivités territoriales, qui aujourd'hui serait insuffisant. Ces hubs (Hinaura, Hub Bretagne, NUMI, Hubik, RhinOcc, Hub du Sud, Les Assembleurs, Hub'Est ou encore Hub-Lo) constituent les interlocuteurs privilégiés des collectivités et de l'État dans la diffusion des dispositifs nationaux sur l'inclusion numérique (réalisation de cartographies, levée de fonds, ingénierie de projet etc.). Les hubs auraient du mal, actuellement, à mobiliser des fonds et assurent en réalité leur propre survie, plutôt que de répondre à leur cœur de mission.
L'importance de l'accès aux réseaux
Enfin, il est aussi évident que l'inclusion numérique passe par un accès aux réseaux internet sur l'ensemble du territoire. Si la généralisation de la fibre optique (prévue pour 2025) avance, les territoires ruraux, plus difficiles à équiper, pourraient encore souffrir de cette absence de déploiement. Le Sénat veut ainsi encourager le recours aux technologies sans fil (comme la 4G fixe par exemple), pour permettre aux logements qui ne peuvent pas bénéficier de la fibre de disposer d'une connexion de 8 Mbit/s au minimum.
Globalement, les collectivités territoriales devront être accompagnées dans leurs projets de soutien aux personnes éloignées du numérique, 8 élus sur 10 affirmant notamment ne pas disposer d'un recensement des acteurs de médiation numérique pourtant présents sur leur territoire. Ce qui rend d'autant plus difficile la tâche qui consiste à atteindre les citoyens qui n'ont pas accès au numérique. En ce sens, l'État devra accélérer et pérenniser le déploiement des conseillers numériques .
Source : Sénat
Excellente idée.
J’ajouterais que l’éducation nationale devrait suivre le même chemin. Cela éviterait de créer une dépendance à des produits propriétaires dès le plus jeune age.
Car une fois habitué à des produits, la migration demande des efforts.
Cela n’est toutefois pas impossible.
Il faut commencer par remplacer très progressivement les logiciels utilisés par des équivalents libres. Au départ, sans supprimer les logiciels propriétaires.
Une fois les gens habitués à travailler majoritairement avec du libre, on peut remplacer l’OS et tout se passera bien.
Bravo!
Oui alors effectivement avec des employés volontaires qui font ça gracieusement ça peut surement se faire avec de la sueur et des larmes. Après, je crois que beaucoup sous-estime le coût du développement et de la maintenance applicative. Si on peut surement se passer de Windows pour les mails, la messagerie, le traitement de texte, etc. Ca me parait beaucoup plus hypothétique pour des logiciels plus spécifique genre base de données ou GED.
Travaillant dans l’éducation nationale… C’est très très dur de ce passer des logiciel propriétaire. Les adolescents ont déjà leur habitude sur Word, tu peux leur faire l’intégralité du cours sur libre office sur les diapo, 50% d’entre eux utilise PowerPoint le jour de l’exercice de présentation.
L’argument du développement des logiciels est toujours mis en avant lorsque l’on parle de quitter Microsoft. Des organisations comme la Nasa, et l’ESA sont eux aussi sur des système Unix et Linux. Ils ont développé ou fait développer des applications pour leur secteur d’activité et ils sont maintenant pleinement indépendant des Géant de l’informatique.
De nombreuse universités utilisent l’open source (Linux, Raspberry, etc…) pour mener à bien leurs recherches.
Les “Landers” Allemands, sont eux aussi passés sur une version personnalisée de Ubuntu pour toutes les stations de travail. Oui, cela demande un gros effort au départ, comme tous les grands projets. Je suis moi-même un pur “produit” Microsoft, élevé avec Dos et Windows 3.11/95/98/NT (J’ai une quinzaine de certifications Microsoft) et après avoir fait l’effort de me plongé dans Mac OS et Linux je me suis très vite rendu compte qu’il était tout à fait possible d’utiliser, de manière professionnel, les logiciels Open Source. Et quad je parle de Open Source, je ne parle pas uniquement des logiciels gratuits mais bien des Suse, des Red hat et Ubuntu qui est payant lorsque vous voulez du support et une gestion centralisée des stations de travail.
Tout cela repose avant tout sur une question de volonté et de compétences. Mais en Europe, nous n’avons pas encore compris que pour avoir des gens compétant, il faut les payer décemment. Ce que les Américains ont compris depuis très longtemps et c’est pour cela qu’il y a depuis des années, une fuite des cerveaux vers les USA.
Une histoire d’argent en somme… rien a voir avec la qualité des softs ou le fait qu’ils soient (ou non) open source
Libre Office… Au secours !
Les grandes bases de données de l’Internet ne tournent pas sous Windows, à commencer par celles de Google…C’est du Maria DB et autres forks sous Linux…Et je n’ai jamais vu une db de site Web tourner sous Windows. Pas que c’est impossible, juste que cela ne viendrait à l’idée de personnes.
Où c’est difficile de virer Windows, c’est justement sur le poste de travail…
Si Microsoft n’avait pas sorti un OS de chiotte comme 10 et s’entêter à le maintenir ils aurait surement vendu plus, et peut être que les prix auraient baissé.
Mais bon il veulent du libre bonne chance à eux je n’ai jamais vu un monde plus absurde, plus égoïste, plus confidentiel, plus obscurantiste que celui de linux.
bonne chance à eux s’il n’ont pas un informaticien dédié “à domicile” lors de bug, qui contrairement aux idées reçues sont très nombreux sous linux qui n’est qu’un OS pour réseau et absolument un OS généraliste.
la censure automatique de clubic est une vraie chiotte…
il était temps…
Qu’ils soient open source permet au CERN de garder la main sur les logiciels, ils ne sont pas dépendants d’une société quelconque.
Bon après l’open source c’est pas 100% miraculeux. Par exemple, ceux qui ont misés sur Scientific Linux sont ravis de devoir passer à autre chose…
Parler DB et mettre en avant MariaDB, déjà c’est drôle
Mais en plus tu te limites uniquement aux “serveurs web”…
Renseigne-toi un peu sur ce qu’est SQL Server, son utilisation, ses usages et ses plateformes, tu verras c’est passionnant
Donc si on te suit bien, au lieu de payer 60€ par an pour un Office 365 au point, avec un suivi derrière, il vaut mieux payer un gars une fortune (parce que les “pro” du développement pour les entreprises n’ont pas peur de demander des prestations hallucinantes) pour développer un logiciel soit disant spécifique mais bien souvent lourdingue car programmé n’importe comment et qui sera totalement inexploitable si la boîte coule (ce qui a quand même beaucoup plus de chance d’arriver qu’avec Microsoft).
Faudra me dire à quel moment on va faire des économies, parce que à la base c’était ça le problème.
Bah oui mais comme tu dis, avoir des gens compétents ça a un coût et c’est pas toujours garanti que ce soit moins cher que les licences. Ce que je veux dire c’est que la réflexion est bien plus compliqué que libre = gratuit.
T’as raison, SQL Server c’est un SGBD pour les PME
C’est juste le leader du marché avec Oracle et pour les plus extrémistes du libre, les nouvelles versions sont sous Linux
Maria DB… non mais sérieux… quelle blague
T’aurais pu au moins parler de NoSQL ça aurait eu plus de gueule 

Voila le genre de truc qui n’arrive pas sur les SGBD payant : https://severalnines.com/blog/6-common-failure-scenarios-mysql-mariadb-and-how-fix-them
Open Source : se dit d’un logiciel ou tout autre dispositif dont les sources sont disponibles librement (et par effet collatéral : gratuitement).
Ce n’est certainement pas égoïste, confidentiel ou obscurantiste, c’est même tout le contraire. Quand à trouver Linux absurde quand celui-ci équipe la plupart des serveurs web (Apache) et supercalculateurs, je demande à voir. C’est encore compliqué de monter un desktop uniforme vu le nombre d’OS dérivés du même noyau monolithique.
C’est le CERN, le Conseil Européen pour la Recherche Nucléaire. Ce sont loin d’être des branquignoles et surtout s’ils sont accompagnés de programmeurs, ça passera crème. Nul besoin de leur souhaiter bonne chance, cependant leur souhaiter profit et réussite ne serait pas de trop.
Ca me fait penser que le CERN avait récemment abandonné Scientific Linux pour se reposer sur CentOS, menant à l’arrêt de Scientific Linux. Donc leur volonté de passer au libre n’est pas récente.
La réussite de Linux est dans sa légèreté. Il est parfaitement adapté pour ce type d’usage mais c’est pas adapté à tous les besoins.
C’est en réalité ce qui m’agace à chaque fois que le sujet est abordé : personne ne semble capable d’envisager qu’un mix open-source et software sous licence est tout à fait possible en adaptant l’OS aux besoins plutôt qu’à des dogmes.
Et la deuxième partie vient directement contredire la première. En effet, si ça a été abandonné c’est précisément qu’un scientifique, aussi bon soit il, est scientifique et pas informaticien. Le développement c’est un métier et avec les budgets limités c’est pas évident du tout de trouver des compétences.
Scientific Linux avait été DÉVELOPPÉ conjointement par Fermilab et le CERN. Donc ils ONT des informaticiens. Ils ont simplement décidé de réorganiser leurs capacités plutôt que de réinventer la roue. Donc les compétences, sans aucun doute, ils les ont. Et s’ils ne les ont pas, ils les obtiendront, à en croire l’article de Clubic :
Donc, non seulement ils ont les ressources mais en plus, il peut s’en créer d’autres. Aussi, puisque je n’ai apparemment pas lu le même article :
Il faut bien moins de 10 ans pour se préparer seul à migrer vers Linux quand on n’a pas de logiciels à adapter soi-même et une volonté certaine de le faire. Avec leurs logiciels développés en interne, puisque pour rappel le CERN a des développeurs qui développaient auparavant complètement une suite Linux, ça prendra plus de temps que simplement passer de Windows à Linux. Ils sauront faire, il n’y a aucun doute là-dessus.
Pour certains types de projets/organisations je serais plus à l’aise de savoir qu’on pourrait taper sur MS en cas de faille de sécurté et autre. Au moins ils connaissent leur bousin et savent réagir méthodiquement.
On parle du CERN, pas d’une association à but non lucrative lambda. On parle de personnes qui pourraient potentiellent nous faire disparaitre dans un trou noir juste pour voir (Les grands sachants rageux, pas besoin de comm. merci. Je crois en Hollywood)