linkedin twitter
Loi de Moore
Prévoir le futur est un exercice difficile, rappel !

Avant de nous lancer dans les prévisions des grandes tendances qui vont marquer l’année qui vient, nous allons d’abord faire un bilan de type “prévu/réalisé” de nos prévisions précédentes. Oui, si on veut être crédible vis-à-vis du futur, il faut être honnête vis-à-vis de son passé, n’est-ce pas ?

Or, c’est assez facile de vérifier la précision et la fiabilité de mes prévisions puisque, rien que pour l’année 2020, j’ai rédigé et publié trois chroniques sur ce sujet :

Et, encore un peu plus avant, nous avons cette chronique de janvier 2019 : Tendances décryptées | La prochaine “grande affaire” et les tendances 2019 & 2020.

On a toujours raison d’annoncer que les bourses vont monter (ou baisser)… du moment qu’on ne donne pas de date !

Que peut-on déduire de ces “archives” ?

En fait, toujours un peu la même chose : les prédictions techniques sont souvent vraies si on omet de les rapprocher d’une date d’échéance. C’est l’éternel problème du “quoi” (relativement facile à prévoir) et du “quand” (bien plus difficile à pointer correctement). 

Par exemple, prédire que les voitures électriques (avec l’aide de l’hydrogène ou pas) vont prendre le dessus sur les voitures à moteur thermique est facile, il est beaucoup plus difficile de préciser quand cela va finalement arriver (réponse : pas à court terme !).

Autre exemple, dans la chronique de janvier 2019, j’évoque l’avènement d’une “informatique omniprésente” tout en précisant bien qu’elle va mettre des années à s’installer. Vouloir mesurer l’exactitude de cette annonce alors que deux ans ne sont même pas encore écoulés est simplement prématuré…

Une synthèse pour nous aider à y voir clair

On ne va pas se contenter de ce genre d’excuses (sinon cette chronique aurait peu d’intérêt…) !

Je vais vous résumer l’essentiel de mes prévisions et on verra ensuite comment on peut juger ma “performance”… Donc, dans ces chroniques, j’ai prévu et annoncé les tendances suivantes :

  1. Que les smartphones avaient atteint un pic, que ce marché allait désormais évoluer en plateau et qu’Apple en serait très affecté.
  2. Du coup, le quintet des GAFAM allait passer à un trio (GAM) car Facebook allait aussi connaître une période difficile. 
  3. Que les voitures autonomes allaient se faire attendre.
  4. Que l’enthousiasme en faveur de la Blockchain allait fortement s’atténuer.
  5. Que les “vieux” acteurs de l’informatique (principalement HP, IBM, Oracle et Intel) entraient dans leur période “morts-vivants” et perdaient leur influence sur le marché.
  6. Que le cloud s’imposait partout, y compris dans les besoins qui devaient être couvert par l’edge computing.
  7. Que l’IA allait connaître un nouvel hiver.
  8. Que les espoirs en faveur de l’informatique quantique étaient prématurés.
  9. Et, enfin, que la loi de Moore qui avait été pour notre secteur l’équivalent des “trente glorieuse” est en train de caler (une prévision souvent émise ces dernières décennies !).

On va se contenter de ces 9 points et les revoir un par un à l’aune de la situation actuelle.

1- Les smartphone en plateau, oui, Apple affecté, pas tant que cela

Sur le premier point, il est clair que le marché du smartphone est en train de faire son “soft landing” et qu’il va désormais évoluer en mode “plateau” comme celui des PC avant lui. Mais ça, c’était facile à prévoir : il suffisait de regarder les chiffres du marché. Ceux-ci annonçaient clairement l’inflexion qui, d’ailleurs, était attendue. J’en ai déduis (un peu vite) qu’Apple allait être affecté par cet écrasement de la courbe et que la firme dirigée par Tim Cook allait perdre largement de sa superbe. Là, il faut bien l’admettre, j’ai misé complètement à côté de la plaque !

Pour le moment, en dépit de la crise qui nous secoue tous, on peut dire qu’Apple se porte encore comme un charme… Bref, un zéro pointé sur ce coup-là.

2- Les GAFAM sont toujours là

Emporté par mon élan, j’avais même imaginé que les GAFAM allaient se réduire de 5 à 3 en éjectant Apple et Facebook de leur piédestal respectif. Pour Apple, on vient de voir combien je m’étais trompé et je dois avouer que j’ai plus ou moins commis la même erreur avec Facebook qui, certes, avait passé une année 2019 assez difficile (avec des scandales à répétition vis-à-vis de la confidentialité des données de ses utilisateurs). Mais il est clair que j’avais sous-estimé la résilience du réseau social. Allez, encore un zéro ici si on veut être honnête…

3- Les voitures autonomes en approche… lointain !

Dire il y a deux ans que les voitures autonomes n’était pas pour tout de suite était encore assez à contre-courant. Mais, désormais, c’est un fait acquis que plus personne (à part Elon Musk ?) ne conteste. Ah, j’ai enfin droit à un point !

En passant, c’est amusant de voir comme l’avis des médias peut changer en l’espace de deux ans, vous ne trouvez pas ?

Voitures autonomes ? Pas tout de suite !
Voitures autonomes ? Pas tout de suite !

Les voitures autonomes ont encore beaucoup de situations à résoudre avant de pouvoir être “lâchées” dans nos routes en toute sécurité…

4- La Blockchain, la “next big thing” qui n’a pas eu lieu

Toujours pour se remettre les choses en tête, il y a 2-3 ans, la Blockchain était la vedette des articles des médias traitant de la hi-tech. Le sujet était super trendy (presque autant que l’IA, c’est dire !) et on lui promettait le plus bel avenir. Plus dure fut la chute !

Aujourd’hui, il est clair que la Blockchain n’est pas encore prête pour des projets d’envergure au sein des organisations. La plupart des projets pilotes entamés lors de ces deux dernières années n’ont pas débouché et les entreprises sont désormais bien plus prudentes vis-à-vis de ce sujet. J’avais largement anticipé cette tendance en dénonçant l’illusion de la Blockchain très tôt (dès 2018). Un point de plus !

5- Les morts-vivants du marché de l’informatique

Le marché de l’informatique a beaucoup changé avec la poussée du Cloud. Les acteurs dominants sont nouveaux et ceux dont on avait l’habitude depuis des décennies sont en train de s’effacer. J’avais bien anticipé cette tendance avec toutefois un peu de précipitation en ce qui concerne IBM. J’avais annoncé par exemple que Big Blue allait être vendu par appartements et c’est presque arrivé mais pas tout à fait. Au lieu de se vendre par morceaux, Big Blue est en train de se scinder en deux entités : l’une portant l’espoir, l’autre regroupant tous les “poids morts”…

En revanche, j’ai eu raison en ce qui concerne la cohorte des autres morts-vivants (HP, Oracle et Intel). Certains pourraient trouver excessif de mettre Intel dans ce lot mais cet acteur, autrefois ultra-dominant dans son secteur, est désormais sur un net déclin puisque même Apple (et Microsoft !) s’en détourne pour ses Macintosh (la puce M1 d’origine ARM présente des gains spectaculaires !).

Bon, allez, on va dire un demi-point sur ce sujet…

Le déclin d’Intel se confirme...
Le déclin d’Intel se confirme…

6- Cloud Computing Uber Alles!

En quelques années, on est passé de l’évolution vers le cloud à la généralisation de l’usage du cloud. Le cloud computing est devenu incontestablement LA grande affaire du moment et tout le monde est confronté à soit la question de la migration pour les plus en retard, soit la question de l’optimisation de l’usage pour les plus en avance. La prééminence du cloud sur tout le marché de l’informatique se reflète désormais dans les acteurs dominants : ils sont nouveaux (confirmé par le point N°5) et leur succès vient de leur engagement précoce pour ce type d’offre.

Certains ont cru pouvoir contrer cette tendance en annonçant la montée de “l’edge computing” mais il s’est avéré qu’il s’agissait d’un combat d’arrière garde et que même ce créneau a été promptement avalé par les géants du cloud à l’appétit insatiable !

Bref, voilà une prédiction qui n’était pas difficile à formuler, un point de plus quand même.

7- Le prochain hiver de l’IA ?

Cela fait plus de deux ans que je l’annonce mais, avouons-le, pour le moment ce nouvel hiver de l’IA s’annonce bien plus doux que les précédents (serait-ce donc finalement un “automne de l’IA” ?).

Robots dans la neige
Pendant ce temps, les robots se promènent !

Ceci dit, il est désormais clair que l’enthousiasme débridé des médias envers les exploits du machine learning s’est notablement calmé. Car il n’a échappé à personne qu’il y a un grand décalage entre les bénéfices que peuvent tirer les GAFAM (et les BATX) de l’usage de l’IA et son application généralisée à des organisations plus modestes… Autre indice parlant : l’échec de la commercialisation du machine learning en dépit des tentatives d’IBM et de Google. Alors que Deepmind (Google) multipliait les annonces spectaculaires (effet démo réussi), on attendait toujours que cela se concrétise en contrats commerciaux juteux.

Donc, il semble bien que nous soyons entrés dans une phase médiane : on commence à toucher du doigt les limites du machine learning mais sans encore être (vraiment) déçu par l’IA et son potentiel prometteur. Allez, je m’accorde un demi-point à ce sujet quand même.

8- Ordinateur quantiques, pas pour tout de suite !

Avec l’informatique quantique, nous sommes clairement dans le domaine des “vases communicants » !

En effet, au fur et à mesure que l’étoile du machine learning (et de la Blockchain !) pâlissait, il fallait que la propagande technique se trouve “autre chose”… et ce fut le quantique. Cette fois, il était évident qu’il était dix fois trop tôt : l’informatique quantique n’en est qu’à ses tout-débuts et il va forcément lui falloir passer par la phase de mise au point puis de maturation avant de commencer à penser à une utilisation sortant des laboratoires (premiers pas vers la généralisation). Donc un point de plus (facile, je l’admet) pour moi.

9- Fin de partie pour la loi de Moore

Il fallait être prudent sur ce point car la fin de la loi de Moore a été annoncée de (très) nombreuses fois dans le passé (et à tort, à chaque fois !). Pourtant cette fois, les indices s’accumulaient et étaient significatifs. La loi de Moore n’était plus en mesure de tenir ses promesses et même les parties les plus concernés étaient obligés de l’admettre.

Allez, le point final est pour moi.

Loi de Moore
Une courbe en plateau… voilà qui ne correspond pas à ce que nous avait habitué la loi de Moore !

Score final

Finalement, je m’en sors avec un score de 66% de prévisions correctes. C’est bien sans être fantastique. Mais quand je compare ce score avec celui qu’affiche Cringely (un grand prévisionniste dans le domaine IT, je vous le recommande) année après année, je m’aperçois qu’il fait rarement mieux… Donc, on empoche ce score avec le sourire !

L’ère du plateau, pour commencer

Avec la généralisation du cloud computing et la fin de la loi de Moore, nous entrons de plain-pied dans une nouvelle ère : l’ère du plateau. On pourrait facilement penser que l’agitation habituelle de notre domaine va se calmer un peu et que la qualité des réalisations va prendre le pas, pour un temps, sur la frénésie d’innovation qui a prévalu jusque-là.

Mais, comme le dicton le rappelle, “la vie est pleine de surprises », surtout au moment où l’on s’y attend le moins !

L’IA peut encore nous surprendre

Même si j’ai affirmé et expliqué que le machine learning ne pouvait pas être “tout pour tout le monde”, on peut quand même s’attendre à des surprises (plus ou moins bonnes) dans les domaines de la production du texte et de l’image (ces deux domaines sont particulièrement favorables à la reconnaissance et à la manipulation de schémas ce qui est la compétence principale des systèmes à base de machine learning…). Voire même une résurgence de l’approche symbolique, qui sait ?

Une alternative à la loi de Moore ?

Il ne faut plus compter sur la loi de Moore pour faire progresser l’électronique au rythme qu’on a connu par le passé. Cela, c’est acté. Mais ça ne concerne que la densification des composants !

Il existe bien d’autres voies pour gagner en performances, y compris et surtout dans les domaines de la consommation énergétique et de la production de chaleur (les deux étant le plus souvent liés). Comme le montre la toute récente puce M1 d’Apple (d’origine ARM), on peut encore faire des bonds spectaculaires de performance à condition d’emprunter des voies nouvelles et encore peu explorées (et ce n’est pas une bonne nouvelle pour Intel !).

La toute nouvelle puce Apple M1 (d’origine ARM)a créé la surprise !

Turbulences à venir

Le “plateau” que nous sommes en train de vivre ne va donc sans doute pas durer longtemps et il faut prévoir quelques turbulences dans les années à venir. Dans cette chronique, nous avons évoqué le passé (récent), pour dévoiler le futur (probable), je vous invite à notre prochain webinaire “tendances IT 2021” qui se tiendra le jeudi 28 janvier à 9H00. 

Lors de ce webinaire, nous répondrons ensemble (durant une heure, grand maximum) à quelques questions-clés comme : 

  • Les progrès en performance des autres approches peuvent-elles compenser l’effacement de la loi de Moore ?
  • Les autres branches de l’IA (approche symbolique -systèmes à base de règles- en particulier) peuvent-elles prendre le relais du machine learning dans les domaines autres que le texte et l’image ?
  • L’IA peut-elle se rendre accessible aux organisations autres que les GAFAM ?
  • Les acteurs chinois vont-ils bousculer la hiérarchie des GAFAM à court terme ?
  • Quels sont les (encore grands) acteurs qui vont rejoindre la triste cohorte des morts-vivants (comme IBM, Oracle et Intel) ?
  • Que peut-il arriver au Cloud Computing en 2021 ?
  • Quelle va être l’influence du Cloud Gaming sur notre industrie ?

Et surtout, je vous dévoilerais mes prévisions dans tous les domaines qui sont susceptibles d’évoluer en 2021 : sécurité sur le cloud, RPA, réseaux omniprésents, etc.

Inscrivez-vous sans tarder !

 

Commentaire

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Voir plus
scroll to top