Archives de catégorie : Général

Scientifique en chef : le Québec devient un exemple pour la Francophonie

Le concept de scientifique en chef nous vient de la culture anglo-saxonne de l’administration publique. Pourtant au Canada, le Québec est le seul gouvernement qui, bien que récemment, s’est doté d’un tel personnage. Même Ottawa n’a pas de « scientifique en chef ». Il n’est donc pas surprenant d’apprendre que Rémi Quirion fait des curieux au sein de la Francophonie.

« C’est le deuxième atelier du genre que nous organisons. Je suis allé en Afrique du Sud en premier avec l’INGSA. Là, ce sera pour les pays de la Francophonie avec l’atelier de Dakar », nous expliquait le scientifique en chef du Québec, encore premier du titre, Rémi Quirion, à quelques jours de son départ pour le Sénégal, alors qu’il donnait une conférence devant les membres du Cercle québécois des affaires internationales, à Québec, le 1er mars 2017.

En Israël, il y a même un scientifique en chef au sein de chacun des huit ministères du pays, et chacun avec un rôle décisionnel. L’Union européenne avait tenté l’expérience il y a quelques années, en se nommant une scientifique en chef, « mais elle fut stoppée après une affaire concernant les OGM », nous raconte encore Rémi Quirion, de plus en plus au fait de son rôle et qui sent aussi qu’il y a de la demande pour faire un réseau francophone en la matière.

Il est donc reparti pour l’Afrique pleinement motivé!

À Québec, le mandat du scientifique en chef – en poste depuis 2011 – est multiple, mais il tourne essentiellement autour de ceci :

  • Rôle conseil auprès du ministre (ayant débuté sous Clément Gignac, il en est actuellement a son 4e ministre, avec Dominique Anglade);
  • Chapeauter, administrer et présider les trois Fonds de recherche du Québec;
  • Développer la recherche intersectorielle;
  • Promouvoir et faciliter les collaborations internationales en recherche du Québec.

« J’ai 229 centres, réseaux, groupes, institutions de regroupements de chercheurs, que nous appuyons financièrement pour 192 millions $ annuellement (…) Le Québec, c’est un dixième de 1% de la population mondiale, mais c’est 1% des publications scientifiques dans le monde », rappelle-t-il fièrement.

Le Québec est donc un joueur reconnu sur la scène internationale et ses nombreuses relations institutionnelles le prouvent bien.

Il est membre votant au sein du réseau européen ERA-NET.

Plus récemment, lors de la mission du premier-ministre à Cuba, le Québec est devenu partenaire avec le Centro de Neurociencias, qui implique aussi la Chine, en imagerie cérébrale.

Le Québec est actif avec l’UNESCO en océanographie.

Et il est partenaire au sein de l’International Network for Government Science Advice (INGSA) avec d’ailleurs un autre acteur canadien, soit le Centre de recherches pour le développement international (CRDI).

INGSA provides
a forum for policy makers, practitioners, academies,
and academics to share experience,
build capacity and develop theoretical and practical approaches
to the use of scientific evidence in informing policy
at all levels of government.

Le secrétariat de l’INGSA est actuellement installé au Bureau du Chief Science Advisor du premier ministre de la Nouvelle Zélande.

Oui pour plus de « diplomatie scientifique »

« Le Québec pourrait être capitaine de l’équipe pour la recherche mondiale, notamment, sur l’Arctique, en Artificial Intelligence (AI), sur la radicalisation », lance son scientifique en chef.

Le 23 février, il était aussi à Québec comme co-organisateur de Connexion 2017, une journée complète qui aura réuni une centaine de personnes souhaitant s’attaquer au défi des barrières entre le monde des affaires et le monde de la recherche.

« Je suis le cheerleader de la recherche. Mais on a des cultures à changer. Je rêve de pouvoir lancer des programmes intersectoriels, mais je n’ai pas les ressources pour le faire actuellement », y avait expliqué Rémi Quirion lors de sa prise de parole.

Il attend donc avec impatience la future SQRI : la Stratégie québécoise pour la recherche et l’innovation, annoncée pour mai 2017, par le Gouvernement du Québec.

Et d’íci là, il poursuit sa cause. Car aux yeux de Rémi Quirion, la « diplomatie scientifique » est certainement un outil à promouvoir en relations internationales. Et s’il voyageait plus alors qu’il était lui-même un chercheur de renommé internationale, il ne doute pas un instant de ce que la science peut encore faire pour bâtir un monde meilleur.

————————————————

www.scientifique-en-chef.gouv.qc.ca/en/le-scientifique-en-chef/

International Network for Government Science Advice (INGSA) www.ingsa.org

Photo Credit: Fonds de recherche du Québec

*****

Vous aimez cet article! Faites une DONATION à la rédaction du cyberjournal par un clic au bas de la colonne de droite de cette page... MERCI

Climat : Nuages versus CO2, c’est du 40 contre 1

Depuis l’historique Accord de Paris sur les changements climatiques, l’humanité n’en a que pour la lutte au CO2 ou autres gaz à effet de serre (GES). Mais la maîtrise du climat est tellement plus complexe. Et la méconnaissance humaine envers autant le rôle des nuages, que celui de l’océan mondial, reste surprenante. Saviez-vous que l’abondance et les caractéristiques des nuages sont 40 fois plus importantes que les variations des gaz à effet de serre en matière climatique ? Et nous ne maîtrisons encore presque rien en la matière.

Prédire, voire gérer le climat, c’est évidemment commencer par bien comprendre le cycle de l’eau et la formation des nuages. Or, cette connaissance est encore très nébuleuse… Certes, le rôle des nuages est important dans le maintien de l’équilibre thermique de la planète et une modification, même faible, de leurs caractéristiques – composition, altitude, épaisseur, couverture nuageuse, etc. – pourrait entraîner des conséquences dramatiques pour le climat. En tout temps, environ le deux tiers du ciel autour de la Terre est couvert de nuages ; oui la littérature scientifique nous apprend qu’à chaque instant environ 63% de la Terre est sous couvert de nuages. Le moindre petit cumulus pèse 1 million de tonnes. C’est donc dire l’importance de leur rôle.

Réserve de pluie ou simple passage nuageux ? Allez savoir !

Mais qui s’intéresse aux nuages ?

Trop de mystère… Une problématique qui s’applique également à nos connaissances des océans.

On pense actuellement que l’augmentation des océans s’explique pour 1/3 par la fonte des glaciers; 1/3 par la fonte de la calotte glacière; et encore 1/3 par l’augmentation de la température de l’eau. Juste ça témoigne bien de la complexité du phénomène.

Et pourtant la Terre change et rapidement.

L’expérience de la dérive du voilier Tara, en 2006, est, à ce titre, particulièrement préoccupante. Ce 3 septembre-là, le voilier se laissa emprisonner par la banquise au nord de la Sibérie avec pour objectif de répéter la dérive du norvégien Nansen à bord du Fram, en 1894… jusqu’en 1897, dans son cas. Car il avait fallu trois (3) ans au Fram pour ainsi traverser l’Arctique en se laissant porter simplement par les courants. Mais il faudra seulement 505 jours au Tara pour répéter un siècle plus tard le parcours d’environ 1 800 kilomètres… Oui, soit deux fois plus rapidement que prévu. Preuve manifeste par deux que les glaces fondent vite en Arctique.

Mais qui s’intéresse aux océans ?

Déployés entre 2002 et 2006 dans l’océan mondial, les 3 000 flotteurs autonomes du réseau Argos effectuent des profils de température et de salinité entre la surface et 2 000 mètres de profondeur tous les 10 jours… Mais c’est encore la bonne vieille mesure effectuée à bord des navires qui reste la référence absolue extrême de précision, parce que 10 fois plus précise.

Et ici nous sommes encore à la surface!

Si on vous disait qu’il faut faire une chose bien qu’un élément fondamental dudit phénomène à maîtriser n’est connu qu’à environ 5%… Seriez-vous motivé et convaincu d’agir ?

La connaissance humaine de l’océan se trouve pourtant dans ce bien périlleux contexte. Bien que l’on sache que les profondeurs de 0 à 200 mètres représentent 7,6% de la surface des fonds marins, celles de 200 à 3 000 m 15,3% contre celles de 3 à 7 000 m 77% et celles de 7 000 à 10 500 seulement 0,1%, l’accablant constat ici est que plus des ¾ des océans sont 4 fois plus profonds que la moyenne des terres émergées du globe et que les moyens de l’explorer restent dérisoires.

L’histoire des sous-marins capables d’explorer les véritables profondeurs marines tient en un seul paragraphe et quelques décennies :

Il y a eu, parmi les premiers, la Cyana française au début des années 1970, capable d’atteindre les 3 000 mètres, le Pisces canadien (2 000 m), et aussi l’Alvin américain de 1964 (4 500 m). Aujourd’hui, on compte sur le Nautile (1984) français et le Sea Cliff (1985) américain, qui vont jusqu’à 6 000 m de fond. Les Mir I et Mir II (1987) de Russie, le Shinhaï (1990) japonais sont aussi actifs. En 2000, les Français de l’Ifremer ont également développé le ROV Victor 6000 , un système téléopéré grande profondeur, instrumenté et modulaire, capable de réaliser de l’imagerie optique de qualité, d’emporter et opérer divers équipements et outillage scientifique jusqu’à 6 000 m. Et tout récemment : « Nous avons perdu Nereus aujourd’hui. » Parce que c’est ainsi que le journaliste scientifique Ken Kostel de la Woods Hole Oceanographic Institution annonça sur le site HADES la perte du sous-marin de recherche le plus cher de l’histoire, à 8 millions $US; un sous-marin autonome construit en 2006 dans le but d’explorer le point le plus profond du globe. Une prouesse réalisée en 2009.

L’Ifremer,
en plus d’être un institut de recherche,
est l’une des 3 seules institutions au monde
à posséder, au bénéfice de la communauté
scientifique nationale,
une flotte de navires océanographiques
ainsi que plusieurs engins sous-marins
opérant jusqu’à 6.000 mètres de profondeur
dont le sous-marin habité Nautile,
le ROV Victor 6000
et le nouvel engin autonome HROV Ariane
qui est à la fois un ROV (piloté à distance)
et un AUV (autonome).

Aussi bien dire une micro-aiguille qui explore une pleine grange de foin. Ce qui permettait encore, en 2012, au célèbre quotidien Le Monde de titrer: « 75 % des zones très profondes restent inexplorées », en parlant des océans.

Dans le détail, c’est bien pire: « Les disparités en matière de connaissance de fonds marins sont importantes dans le monde. Ainsi, plus de 95% des zones de 0 à 200 mètres de profondeur du Sud-Ouest du Pacifique et des régions polaires ne sont pas du tout ou mal connues, contre 19% pour la France métropolitaine, 30% pour le Royaume-Uni et 40% pour les États-Unis, selon des données de 2013 de l’OHI », expliquait dans un article que publiait La Presse, la journaliste Sandra Ferrer, de l’Agence France-Presse.

L’OHI, c’est l’Organisation hydrographique internationale, qui dit aussi plus globalement que: « Actuellement, moins de 10% du relief des fonds marins, au-delà de 200 mètres de profondeur, est connu, alors que près des deux tiers des terres de la planète sont couvertes d’eau ».

La fosse des Mariannes, dans le Pacifique, est la fosse océanique la plus profonde actuellement connue, avec un point à – 11 034 mètres. L’humain l’a visitée qu’à 2 reprises. Et la découverte fut saisissante, lorsque le lieutenant Don Walsh, de la US Marine, et l’océanographe suisse Jacques Piccard, y sont descendus pour la première fois le 23 janvier 1960. Ce fut littéralement une petite révolution dans le monde scientifique, avec la confirmation d’une hypothèse : que la vie existe partout sur la planète et que même les abysses sont des univers riches d’écosystèmes inconnus, surtout à proximité d’importantes ressources minérales.

« Les profondeurs des océans restent inconnues à 95 %, et elles nous réservent des surprises », répondait Gabriel Gorsky, à titre de directeur de recherche au Laboratoire d’océanographie de Villefranche-sur-Mer, devant la journaliste Anne-Gaëlle Rico, il y a 5 ans à peine.

Bref, nous ne connaissons pas bien l’océan. Ne dit–on pas d’ailleurs très faussement… « sous les océans », alors que nous parlons et qu’il s’agit bien de ce qui est DANS l’océan… Une faute de langage qui en dit long sur la relation de l’homme avec la mer.

La mer, les océans, qui furent longtemps qu’une grande surface à traverser, à dompter, pour se déplacer. Y pêcher en surface pour se nourrir, mais le moins possible penser au fond, résidence de monstres et de grands périls.

Encore aujourd’hui, nos satellites ballaient l’océan, mais toutes ces données nous aident essentiellement à mesurer la surface des eaux.

Que se passe-t-il au fond, et tout au fond?

Ce chiffre vous fera comprendre toute la mesure du défi. Alors que la moyenne des terres immergées des continents est de 800 mètres de hauts, la moyenne de profondeur de l’océan dépasse les 4 000 mètres, oui cinq fois plus. Et une frange bien mince de nos sous-marins peut plonger sous 4 000 m.

Le «risque océan»!

En surplus de notre mauvaise évaluation de l’importance de l’impact des nuages sur le climat, eh bien c’est ce que représente le « risque océan » en matière de changement climatique.

L’interrelation atmosphère-océan est très bien connue par la science. L’océan mondial pompe par exemple une grande partie du CO2 émis dans l’atmosphère de la Terre. L’océan est aussi un immense régulateur de température. Le climat de l’Europe ne serait pas le même sans l’effet du Gulf Stream, par exemple. Les liens atmosphère-océan sont aussi multiples que fondamentaux.

Le problème arrive lorsque l’on découvre la faiblesse de connaissance de l’humanité en matière d’océan.

Alors comment prendre de bonnes décisions si un tel inconnu demeure dans l’équation? Comment être assurés de bons résultats?

Entre ciel nuageux et mer profonde, le regard trop terrestre de l’humain semble lui réserver une bombe écologique en puissance !

*****

Vous aimez cet article! Faites une DONATION à la rédaction du cyberjournal par un clic au bas de la colonne de droite de cette page... MERCI

 

Clin-d’œil mondial au cuivre, au fer et au lithium

Le Ministère de l’Énergie et des Ressources naturelles du Québec a mandaté l’Institut EDDEC de l’Université de Montréal pour réaliser un large projet de recherche en économie circulaire visant à évaluer le potentiel de trois métaux stratégiques : le fer, le cuivre et le lithium. Un rapport est déjà remis et il permet de faire un intéressant petit tour d’horizon du positionnement mondial de ces trois métaux. Alors petit clin-d’œil mondial au cuivre, au fer et au lithium.

Portrait du cuivre

En plus d’avoir une excellente conductivité thermique et électrique, le cuivre résiste à la corrosion, est antibactérien, malléable et généralement facilement recyclable. Il est habituellement utilisé sous sa forme pure, mais on le retrouve aussi sous forme d’alliages, les plus connus étant le bronze et le laiton.

Les principaux producteurs de ce minerai sont le Chili avec 5,6 millions tonnes (Mt), soit environ le tiers de la production mondiale, les États-Unis avec 1,31 Mt, le Pérou tout proche avec 1,22 Mt, la Chine et la République démocratique du Congo.

Dans le minerai, la teneur varie beaucoup, de 0,5 à 5%, avec une moyenne de 0,8%, selon Bihouix & de Guillebon (2010).

Au Québec, la production de cuivre a fortement diminué de la fin des années 1990 jusqu’en 2006. Le Québec a déjà compté plusieurs mines de cuivre qui sont aujourd’hui épuisées. Ce métal se retrouve maintenant plutôt comme un sous-produit des mines d’or, de nickel et de zinc situées dans les régions de l’Abitibi-Témiscamingue et du Nord-du-Québec. C’est le Québec qui compte cependant la seule fonderie de cuivre au Canada : la Fonderie Horne, située à Rouyn-Noranda, laquelle produit des anodes de cuivre à partir de concentré. Ces anodes sont expédiées à l’Affinerie CCR à Montréal-Est, qui produit à son tour des cathodes de cuivre par procédé électrométallurgique. Ces deux entreprises appartiennent à Glencore. L’Affinerie CCR vend une partie de ses cathodes à Nexans Canada, un fabricant de fils et de câbles de transmission électrique dont le siège social est à Paris. Nexans est la plus importante entreprise de transformation métallique de cuivre.

Au niveau de la répartition, en % de tonnage, des divers usages du cuivre dans le monde, les équipements et le bâtiment constituent les principaux secteurs d’utilisation, représentant respectivement 31 et 30%. S’ajoutent les catégories comme les fils et câbles électriques, électroménagers (petits et gros), équipements mécaniques et industriels, téléphones mobiles et ordinateurs portables, bâtiment et infrastructures, voitures, camions, autobus, transport maritime, ferroviaire, aérien.

Portrait du fer

Le fer est un  métal qui se présente très peu sous sa forme naturelle en raison de sa sensibilité à la corrosion et de ses faibles propriétés mécaniques. On le retrouve généralement sous forme d’alliages, dont les plus communs forment la famille des aciers. Avec une production mondiale brute de trois milliards de tonnes en 2014, le minerai de fer est de loin la substance métallique produite en plus grande quantité et la plus utilisée dans le monde.

Le Québec, pour sa part, a produit près de 26 millions de tonnes de concentré de fer en 2015, ce qui représente plus de la moitié de la production canadienne. En 2014, toujours pour le Québec seulement, le stock de fer en utilisation s’élevait à 98,6 millions de tonnes, soit plus de 2 tonnes par personne.

Au Québec, ArcelorMittal Exploitation minière Canada exploite sur la Côte-Nord le site du Mont-Wright ainsi que sa mine d’appoint, celle de Fire Lake. Le concentré de ce site est par la suite acheminé par voie ferroviaire à Port-Cartier où l’entreprise en transforme une partie dans son usine de bouletage, produisant annuellement près de 10 millions de tonnes de boulettes d’oxyde de fer. Aussi, Rio Tinto Fer et Titane exploite l’ilménite, un minerai composé de fer et de titane, à la mine du lac Tio sur la Côte-Nord. Ce minerai mixte est par la suite transformé au Québec en scorie de titane, en fer et en acier.

Au niveau de la métallurgie primaire, trois entreprises sont actives au Québec : Rio Tinto Fer et Titane, ArcelorMittal Produits longs Canada, Finkl Steel.

Portrait du lithium

Le lithium est un métal léger, ductile, qui s’oxyde facilement au contact de l’air et de l’eau. Dit « modérément » abondant, avec une présence de 65 ppm dans la croûte terrestre, il reste difficilement accessible en majeure partie. Le lithium provient pour environ 60% des saumures, en Amérique du Sud principalement, et pour 40% des pegmatites, en incluant le spodumène qu’on retrouve notamment en Australie et au Québec. Ce qui conduit à des procédés d’extraction différents selon le minerai et selon le produit fini qu’on souhaite obtenir.

Récemment, avec le développement des batteries au lithium, le cours du métal a fortement augmenté. La consommation mondiale de lithium se chiffrait approximativement à 32 500 tonnes en 2015, en augmentation de 5% par rapport à 2014.

Il faut noter que les réserves actuellement citées constituent les ressources jugées susceptibles d’être techniquement et économiquement exploitables. Mais la Bolivie, qui ne figure pas dans la répartition ci-dessous, aurait des ressources de lithium estimées à 9 millions de tonnes, selon le Bureau géologique US.

Principales réserves de lithium dans le monde, en tonnes :

  • Chili : 7 500 000
  • Chine : 3 200 000
  • Argentine : 2 000 000
  • Australie : 1 500 000
  • Autres pays : 169 000

Le Québec présente un bon potentiel pour le lithium. À l’heure actuelle, quatre projets d’extraction de lithium y sont à un stade de mise en valeur : Nemaska Lithium, Lithium Amérique du Nord, Glen Eagle Resources et Critical Elements Corp.

Deux entreprises y sont actives dans le secteur de la fabrication des batteries : Johnson Matthey Matériaux pour Batteries, qui fabrique des cathodes de batteries en phosphate de fer lithié (LiFePO4) et Solutions Bleues, qui fabrique des batteries Lithium-Métal-Polymère (LMP).

Source : mern.gouv.qc.ca/publications/mines/metaux-economie-circulaire-quebec.pdf

*****

Vous aimez cet article! Faites une DONATION à la rédaction du cyberjournal par un clic au bas de la colonne de droite de cette page... MERCI

Prendriez-vous un médicament électronique ?

L’édition février de Futura Tech, sous la signature de Marc Zaffagni, nous informe qu’ne équipe du Massachusetts Institute of Technology (MIT) a développé un micro-générateur électrique pouvant être alimenté par l’acide gastrique présent dans l’estomac. Ce qui signifie qu’éventuellement, on pourrait faire fonctionner des capteurs, ou des « pilules électroniques »… chargées de vous diffuser un traitement, à même votre organisme. Alors posons sans attendre la question: Prendriez-vous un médicament électronique ?

Micro-générateur déclenchant la diffusion d’un médicament

Cette science-fiction ne l’est pas vraiment ! Des essais ont été conduits avec des porcs. Et une fois dans l’estomac de la bête, la gélule électronique s’est mise à fonctionner en envoyant toutes périodiquement des informations sur sa température, à un récepteur sans fil placé à deux mètres de distance.

Chemin faisant, une fois passé dans l’intestin grêle dans lequel l’acidité est moindre, le micro-générateur est malheureusement tombé à environ 1% de sa capacité initiale. Mais il est tout de même resté opérationnel.

Les chercheurs estiment d’ailleurs que le capteur pourrait continuer à recueillir et transmettre des informations « à des intervalles plus longs ».

On pense même pouvoir aller plus loin dans la miniaturisation, ceci en réduisant la taille à environ un tiers des dimensions actuelles.

L’équipe du MIT envisage ainsi plusieurs déclinaisons sous forme de capteurs de signes vitaux, et carrément de médicaments chargés de diffuser un traitement.

Il faut aussi savoir que les auteurs de cette étude avaient déjà développé plusieurs médicaments électroniques. L’un d’eux étant une pilule qui, une fois dans l’estomac, s’ouvrait comme une étoile pour diffuser un traitement contre le paludisme.

Rien n’arrête donc le génie humain… D’ailleurs, la plupart des piles et des batteries ne fonctionnent-elles pas à partir d’acide? Une expérience pédagogique souvent pratiquée à l’école illustre bien ce principe avec la « pile au citron »: vous prenez un demi-citron, plongez dans la pulpe un morceau de zinc et un autre de cuivre. Cela permet de produire et faire circuler du courant en utilisant l’acide citrique en guise d’électrolyte. On peut ainsi s’amuser à alimenter de petits appareils électroniques ou à faire fonctionner une Led. Et c’est en s’inspirant de ce procédé que des chercheurs du MIT et du Brigham and Women’s Hospital, aux États-Unis, ont conçu ledit micro-générateur alimenté par l’acide chlorhydrique de nos estomacs.

Source de l’image: www.futura-sciences.com/

*****

Vous aimez cet article! Faites une DONATION à la rédaction du cyberjournal par un clic au bas de la colonne de droite de cette page... MERCI

 

Le marché de l’eau : pourquoi Sabia a choisi Suez ?

Nous vous l’avons expliqué dans un article antérieur : l’industrie de l’eau dans le monde est justement perçue comme un milieu oligopolistique, avec ses deux géants que sont Veolia (Vivendi) et Suez. Autant dans le marché de la distribution, que dans les marchés de l’assainissement ou du traitement. Alors pourquoi le grand patron de la Caisse de dépôt et placement du Québec Michael Sabia a choisi Suez ? La question se pose, alors que vient d’être annoncé le rachat, par ce duo, de GE Water pour quelque 4,5 milliards $CAN (3,2 milliards d’euros)…

Le CDPQ, organisme d’État bas de laine des Québécois, allongera ainsi plus de 700 millions $US (environ 944 M $CAN) pour une participation de 30%. Mais il choisit aussi de s’associer au numéro 2 de l’industrie mondiale du secteur.

Pour bien mesurer de qui et quoi l’on parle, prenons un petit recul. Disons 5 ans! Il y a cinq ans, le chiffre d’affaires de Veolia Environnement fut le double de celui de Suez.

Veolia Environnement 
Chiffre d’affaires 2012 : 29,4 milliards d’euros
(eau, déchets, énergie : 310 000 collaborateurs en excluant Transdev)

Suez Environnement
Chiffre d’affaires 2012 : 15,1 milliards d’euros
(eau et déchets : 80 410 collaborateurs)

Veolia détient 38%
du marché de la distribution d’eau potable en France,
contre 20% pour Suez

À la même époque, Veolia détient d’ailleurs environ 38% du marché de la distribution d’eau potable en France, contre 20% pour Suez Environnement. Si SAUR (Société d’aménagement urbain et rural) – fondée en 1933 pour ensuite devenir une filiale du groupe Bouygues – est avec 10% du marché le numéro 3 du domaine : chiffre d’affaires de 2,4 milliards d’euros en 2000, c’est manifestement Veolia (ex-Vivendi et Générale des Eaux) qui occupe historiquement la tête, et Suez le second rand.

Or, pas trop longtemps plus tard, précisément le 20 février 2014, la Bourse de Paris vécu un moment historique, alors que la capitalisation boursière de Suez dépassa celle de Veolia (7,1 milliards, contre 6,9 milliards d’euros), ce bien que le premier dégageait deux fois moins de chiffre d’affaires que son concurrent leader historique.

« Si Veolia est toujours miné par une lutte intestine au sein de son conseil d’administration, mais aussi par la négociation de son plan de départs dans sa division d’eau en France, Suez se dit aujourd’hui correctement configuré pour profiter du retour progressif de la croissance en Europe, qui reste son premier marché avec 71% de son chiffre d’affaires, dont 36% rien qu’en France », expliquaient alors les analystes.

Un secteur en profond changement

Les dernières années ont par ailleurs imposé aux deux grands leaders de profonds changements de leurs modèles traditionnels. La concurrence, autant que la tendance à la reprise par le secteur public de la gestion de la ressource, imposent des bouleversements. Et les deux opérateurs historiques n’ont pas d’autre choix que de « réinventer » leurs métiers. Ce qui passe, selon les analystes encore, par « la création de nouveaux modèles de codécision, de prestations de conseils, etc., mais aussi par la conquête de la clientèle industrielle ».

Et l’avantage semble ici du côté de Suez.

Veolia, qui a longtemps opté dans son développement pour une stratégie offensive à base de grosses acquisitions, se trouve contrainte au « recentrage stratégique » pour éponger sa dette et assurer la rentabilité. Une stratégie préalablement adoptée par Suez Environnement, depuis une bonne dizaine d’années.

À l’aise depuis longtemps dans son fauteuil, son dg Jean-Louis Chaussade avait choisi de privilégier les acquisitions ciblées (sauf lors du rachat en 2010 de l’espagnol Agbar) avec pour recette de préserver la rentabilité et ne pas être présent à tout prix sur l’ensemble des marchés, mais de cibler les plus prometteurs.

Suez Environnement s’honore donc d’avoir mis en place un modèle équilibré entre ses activités eau et déchets, mais aussi entre la France, l’Europe et le marché mondial).

Selon les experts, « les prestataires de services à l’environnement qui réussiront à être les plus agiles pourraient être les gagnants de demain ». Par exemple – encore SAUR – si ce numéro trois français de la gestion de l’eau parvenait à trouver une solution à son endettement qui frisait le 2 milliards d’euros, pour un chiffre d’affaire de 1,7 milliard d’euros en 2012, elle pouvait avoir une carte à jouer dans cette reconfiguration du secteur de l’eau.

Le Groupe Veolia, possédant notamment la Générale des Eaux, avait mis la main en 1999 sur le premier fournisseur américain de services d’eau, U.S. Filter, payé alors 6,2 milliards $US.

En 2017, Suez (70%) et la CDPQ (30%) débourseront pour GE Water une somme beaucoup moins imposante, soit 3,2 milliards d’euros. Cette filiale du géant General Electric spécialisée dans la gestion et aussi le traitement de l’eau compte plus de 7 500 employés. Présente dans 130 pays, GE Water se spécialise dans la fourniture d’équipements, de produits chimiques et de services pour le traitement des eaux usées. Mais GE Water est aussi un leader mondial de la gestion et du traitement de l’eau industrielle.

Le marché l’eau industrielle

Le marché mondial de l’eau industrielle est estimé à 95 milliards d’euros. Globalement, les consommateurs industriels sont responsables d’environ 20% de la consommation mondiale d’eau.

« GE Water a bâti une activité de premier plan avec des revenus récurrents et une clientèle de qualité et diversifiée. Cet investissement s’inscrit dans la vision à long terme de la Caisse et dans sa stratégie de développement d’actifs stables, ancrés dans l’économie réelle, aux côtés d’opérateurs de classe mondiale tels que Suez. »

— Michael Sabia, président de la Caisse de dépôt et placement du Québec

La CDPQ a aussi indiqué qu’elle souhaitait « accroître son exposition au secteur de l’eau puisque, à long terme, elle anticipe que la demande d’équipements, de produits chimiques et de services pour le traitement des eaux devrait demeurer forte ».

Cette transaction « (…) accélère la mise en oeuvre de la stratégie de Suez en renforçant sa position sur le marché très prometteur et en forte croissance de l’eau industrielle », a spécifiquement commenté le grand patron, Jean-Louis Chaussade.

Suez estime de plus que cette acquisition lui permettra de réaliser « d’importantes synergies au chapitre de ses dépenses et de ses revenus sur cinq ans ». En 2016, avec plus de 82 000 employés, Suez a généré un chiffre d’affaires de 15,3 milliards d’euros (21,8 milliards $CAN) en plus d’afficher un résultat net de 420 millions d’euros. Elle affirme alimenter à l’heure actuelle quelque 92 millions de personnes en eau potable.

Début 2017, l’actif net de la CDPQ s’élevait à 270,7 milliards $CAN. Un nouveau partenaire-bailleur que Suez saura certainement bien apprécier.

Pour GE Water, la clôture de la transaction doit encore obtenir l’aval des autorités à Washington, ainsi que de l’Union européenne. Prévue à l’été, sa confirmation impliquera que les activités seront regroupées au sein d’une nouvelle unité d’affaires au sein de Suez.

*****

Vous aimez cet article! Faites une DONATION à la rédaction du cyberjournal par un clic au bas de la colonne de droite de cette page... MERCI