Je n’ai lu que l’article. Pas le temps pour la discutions
qui s’en est suivit désolé.
Je ne suis pas d’accord avec l’analyse.
L’informatique est mon métier et ce que vous envisager me
semble fort improbable.
Vous indiquez 3 facteurs
L’augmentation du débit.
Vous indiquez la possibilité qu’il y ai externalisation des
fonctions, en citant google doc notamment.
Qu’elle société accepterait en termes de sécurité et de
secret professionnel, d’avoir ses données en la possession d’une société
externe tel que Google ?
Cette société passerait elle un contrat avec Google pour
assurer la sauvegarde et la restauration en cas de perte de donnée (l’erreur
humaine est fréquente), comportant en plus une clause de secret ?
Je serais RSI dans une grande entreprise francaise, jamais
je n’envisagerais cela.
Beaucoup de société sont attachées à un service de proximité
et elles ont bien raison.
Plaçons nous au niveau des PME / PMI. Il me semble qu’elles
n’ont pas besoin d’une infrastructure serveurs aussi importante que les grandes
entreprises. Pour les mêmes raisons, pourquoi iraient-elles risquer cela alors
que leur besoin et leur poids est bien moindre que leurs grandes soeurs ?
La réalité c’est qu’il y a aussi (pas que donc) de
nombreuses entreprises francaises qui reviennent sur leur expérience d’externalisation
du développement en Inde, au maroc, etc ... Par ce que le travail n’est pas
aussi bien fait. Si c’est pour devoir refaire derrière quel intérêt ?
C’est un problème de contrat ? Mais justement, le contrat ne
détails pas que les développeurs doivent faire comme ci ou comme ca, ca ne va
pas aussi loin dans le détails. Quand le contrat est respecté, mais que le
résultat n’est pas satisfaisant, la situation est intenable pour l’entreprise
francaise.
Le point 2 et 3 se rejoignent plus ou moins.
Le mainframe existait depuis le début de l’informatique et
les solutions logiciels perpétuent ce fonctionnement.
En quoi cela réduit l’emploi pour l’informatique ? Il faut
bien quelqu’un pour mettre en et pour maintenir cette architecture.
De plus, la virtualisation est adapté à déporter une application « bureautique » tel qu’un
tableur ou un traitement de texte.
Par contre pour une application de CAO qui demande de transférer
énormément d’information graphique, ce type d’architecture déportée n’est pas
adaptée. Et si elle ne l’est pas aujourd’hui, elle ne le sera probablement
jamais. Par ce que la taille des fichiers ne fait qu’augmenter, on aura beau
multiplier les débits de transfert par 1000, si de l’autre coté on augmente la
quantité d’information a transférer par 1000 aussi, le résultat est nul.
Indépendamment de votre analyse, le fait qu’il puisse y
avoir trop d’informaticiens en France est possible.
Qu’il y en ai une quantité phénoménale n’ayant pas une
culture informatique suffisante pour être employé dans ce secteur, une
certitude.
En tant qu’informaticien, je ne suis pas du tout inquiet
pour l’avenir de mon emploi. Il y a des choses que nous savons faire et que la plupart
des gens ne veulent pas apprendre à faire ou n’ont simplement pas le temps d’apprendre
à faire. Surtout l’informatique est produit par des être humains et contient
une quantité astronomique de « Bug » du fait de mauvais développement
(Microsoft en tête de liste puisque c’est le système le plus utilisé sur Terre).
Dans notre société
actuelle on a besoin de garagistes et d’informaticiens et ce n’est pas près de
changer.