Prolongement des centrales nucléaires : comment se calculent les coûts ?

 En 2015, à la centrale de Saint-Laurent-des-Eaux lors d’un contrôle décennal. Guillaume Souvant/AFP


En 2015, à la centrale de Saint-Laurent-des-Eaux lors d’un contrôle décennal. Guillaume Souvant/AFP

Le 19 mars dernier s’est ouvert le débat public sur la programmation pluriannuelle de l’énergie (la PPE), cette feuille de route qui fixe la politique énergétique de la France jusqu’en 2023.

La PPE doit mettre en œuvre les objectifs de la loi de transition énergétique adoptée en 2015 : réduire les émissions de gaz à effet de serre, réduire la consommation d’énergie, augmenter la part des énergies renouvelables dans la consommation énergétique, faire baisser la part du nucléaire dans la production d’électricité.

Évaluer les coûts du nucléaire

Dans ce débat public sur la PPE, il sera notamment question de l’évaluation des coûts du nucléaire. Si ce sujet a été abordé à maintes reprises, le débat de la PPE aborde cette question par une confrontation inédite et directe entre deux modalités de calcul des coûts, ce qui pourrait venir alimenter un des arbitrages importants que devra rendre la PPE : à savoir, le prolongement des centrales nucléaires ou la fermeture de certaines d’entre elles.

Le site Internet de la PPE donne accès à deux évaluations de ces coûts : celles produites par la Cour des comptes en 2014 et 2016 et un document rédigé par la Société française d’énergie nucléaire.

Ce ne sont pas les seules expertises existantes : nous pourrions ajouter le rapport de la Commission d’enquête parlementaire dirigée par François Brottes et Denis Baupin, publié en 2014 ; ainsi que le rapport réalisé la même année par le cabinet WISE pour l’ONG Greenpeace.

L’enjeu de l’objectivation des coûts

Le débat sur l’industrie nucléaire a toujours porté à la fois sur la sécurité et sur la compétitivité par rapport aux autres sources d’énergie. Depuis la fin des années 1990, l’argument de la compétitivité relative du nucléaire est présenté comme la clé de voûte du soutien d’une large partie de l’opinion publique en France.

La diversité dans l’évaluation des coûts provient essentiellement des éléments qui sont pris en compte dans le calcul et de la difficulté d’anticiper des coûts à venir et non de la crédibilité des informations données par les entreprises du secteur.

« L’escalade des engagements »

Les retours d’expériences de plusieurs grands projets nous interpellent sur notre capacité à aborder des décisions « au milieu du gué », quand d’importants investissements passés ont été réalisés et qu’il existe une incertitude sur les investissements et bénéfices futurs.

Tout projet s’inscrivant dans une longue temporalité et qui se trouve soumis à de fortes incertitudes peut ainsi être confronté à un phénomène d’« escalade des engagements », identifié en 1993 par les chercheurs Jerry Ross et Barry Staw à propos de la construction de la centrale nucléaire de Shoreham (près de New York).

Cette construction a connu un dépassement de coût de 5 milliards de dollars sans que jamais elle ne soit mise en exploitation pour des raisons économiques et de sûreté. L’une des explications de cette fuite en avant tient à l’existence d’un processus de décision qui rend les acteurs prisonniers des investissements passés et influence leurs délibérations via des estimations optimistes concernant les dépenses et bénéfices à venir.

En quoi ce concept d’escalade des engagements peut-il nous éclairer sur le prolongement du nucléaire français ? En quoi peut-il nous aider à clarifier le débat sur les coûts de ce prolongement ?

Le calcul de la Cour des comptes

Le calcul des coûts habituellement pris comme référence dans les débats sur l’industrie nucléaire est celui de la Cour des comptes.

Dans son rapport de 2016, celle-ci annonce un coût de production du nucléaire de 62,6 €/MWh, qui pourrait s’accroître jusqu’à 70 €/MWh dans le cas d’un doublement des coûts d’investissement pour le prolongement. Ce coût est parfois pris comme référence dans le débat pour une comparaison avec des sources d’énergies renouvelables : l’éolien terrestre se situe entre 50 et 108 €/MWh selon la localisation et le taux d’actualisation choisi (de 3 % à 8 %), alors que le photovoltaïque varie entre 64 et 167 €/MWh pour les centrales au sol.

D’après cette première comparaison, reprise et complétée par le rapport de WISE pour Greenpeace, les coûts complets des ENR et de l’électricité d’origine nucléaire sont donc tout à fait comparables.

De son côté, EDF a réalisé dès 2008 son propre calcul des coûts du prolongement des centrales existantes. Il s’agissait alors de choisir entre le prolongement des centrales existantes ou leur remplacement par des EPR. Dans une récente intervention donnée dans le cadre du débat public sur la PPE, le représentant d’EDF, Olivier Lamarre, annonçait un coût de 32 €/MWh pour l’électricité nucléaire provenant d’une centrale en prolongement.

D’où vient une telle différence avec le calcul de la Cour des comptes ?

Le calcul d’EDF

Le calcul d’EDF consiste à ne prendre en considération que le coût « restant à engager » pour produire de l’électricité nucléaire, à savoir 17 €/MWh d’exploitation des centrales, 10 €/MWh d’investissement de prolongement et de maintenance, 5 €/Mwh de combustible (y compris retraitement et provision pour le stockage des déchets). Dans son document, la SFEN propose un calcul similaire.

La décomposition des coûts est donc bien différente de la valeur de la Cour des comptes qui raisonne en « coût complet économique », c’est-à-dire un coût qui neutralise les effets de la temporalité des investissements. Ce coût prend ainsi en considération un « loyer économique » équivalent à 20 €/Mwh environ. Il s’agit d’estimer la valeur de l’utilisation de l’investissement, calculé à partir de la valeur de remplacement et de déconstruction des centrales existantes.

Le débat entre Olivier Lamarre (EDF) et Yves Marignac (WISE) souligne cette différence : le premier propose d’aborder le calcul dans le contexte actuel français en prenant en considération le fait que l’outil de production nucléaire existe et qu’il est préférable d’en tirer bénéfice.

Le second défend, au contraire, le raisonnement en « coût complet économique », considérant que le choix entre le nucléaire et les énergies renouvelables doit s’inscrire dans une logique de long terme. Pour lui, le raisonnement en termes de « coûts restant à engager » revient à se soumettre aux choix passés et conduit à renoncer à investir dans des solutions alternatives en accentuant une « dépendance au chemin emprunté » déjà bien établie.

Le coût de la sûreté après Fukushima

Même si l’on suit le raisonnement d’EDF, il existe plusieurs incertitudes quant au calcul des coûts d’investissement pour le prolongement ainsi que la durée des amortissements.

Les coûts évoqués par EDF s’appuient en effet sur la mise en œuvre d’un référentiel de sûreté qui intègre le retour d’expériences post-Fukushima, l’Autorité de sûreté nucléaire (ASN) ayant toutefois rappelé – au sujet des visites de contrôle des réacteurs de 900 MW – que les études de réévaluation doivent être conduites au regard des objectifs de sûreté applicables aux nouveaux réacteurs.

Il n’existe aujourd’hui aucune estimation rendue publique des conséquences économiques d’une augmentation de ces exigences de sûreté.

Dans son intervention, Yves Marignac identifie aussi des incertitudes économiques liées à la combinaison entre l’accroissement des exigences de sécurité et le vieillissement des centrales, qui pourront se combiner pour donner lieu à une hausse des coûts d’exploitation ou une réduction de la durée de vie des centrales.

La question de la temporalité des investissements

Outre les estimations des coûts, se pose également la question de la temporalité de ces investissements et de leur articulation avec les décisions de prolongement.

On observe que les principaux investissements de modernisation sont engagés bien avant l’échéance des 40 ans, qui correspond à la durée de vie des centrales autorisée jusqu’à présent par l’ASN. Par exemple, les changements des générateurs de vapeur, qui sont les équipements les plus importants et les plus coûteux à remplacer, ont été déjà en partie réalisés autour des 27 ans de fonctionnement.

Cela signifie que la décision de prolongement se trouve contrainte par le fait que les investissements les plus coûteux ont déjà été réalisés. Cette situation peut laisser craindre un mécanisme d’escalade des engagements, la décision publique de prolongement risquant d’être influencée par des investissements réalisés quelques années plus tôt.

Si un gouvernement décide donc de fermer une centrale nucléaire alors que l’exploitation de celle-ci est autorisée par l’ASN, il devra indemniser EDF pour le « manque à gagner ». Et celui-ci sera d’autant plus élevé que les investissements de prolongement auront été réalisés.

Clarifier les incertitudes économiques

Le débat autour de la PPE constitue une belle opportunité pour clarifier quelques-unes de ces incertitudes économiques, et tout particulièrement celles associées au nouveau référentiel de sûreté. Ce débat pourra aussi être l’occasion de s’interroger sur le décalage en matière de décision publique entre les décisions d’investissements de maintenance (prises avant 40 ans) et les décisions de prolongement.

Si le coût du nucléaire comprend encore des incertitudes, rappelons que c’est aussi le cas des énergies renouvelables, dont on ignore l’impact économique du caractère intermittent.

Il faudra enfin prendre en considération les incertitudes quant aux prix de marché de l’électricité qui, en Europe comme aux États-Unis, affectent la rentabilité des exploitants des centrales nucléaires, pouvant parfois entraîner des fermetures pour raison économique.

et

Source  Conversation 10/04/2018

La militante espagnole de l’aide aux migrants Helena Maleno jugée au Maroc : “Un moyen d’intimider les défenseurs des droits humains”

Capture d'écran d'un entretien avec Helena Maleno mené par Javier Sánchez Salcedo pour le site d'information Mundo Negro. Visible sur YouTube et sur le site web.

Capture d’écran d’un entretien avec Helena Maleno mené par Javier Sánchez Salcedo pour le site d’information Mundo Negro. Visible sur YouTube et sur le site web.

Le 31 janvier, la militante des droits humains et chercheuse espagnole Helena Maleno devait comparaître en justice au Maroc pour la deuxième fois, accusée de participation à un réseau de  traite des êtres humains du fait de son activité d’aide aux migrants qui se retrouvent à la dérive en Méditerranée.

Helena Maleno fait partie de l’organisation non gouvernementale Caminando Fronteras (Marcher les Frontières), qui défend les groupes de migrants surtout en provenance d’Afrique sub-saharienne. L’accusation portée contre elle est basée sur ses appels téléphoniques aux services de sauvetage maritime pour les alerter sur la présence de canots en perdition.

Les multiples organes de médias qui l’ont interviewée ces derniers jours soulignent souvent que Maleno a toujours son téléphone à la main, et reçoit constamment des appels de personnes en danger en mer. “Mon téléphone leur est accessible. Je ne sais pas qui sont la plupart des gens qui m’appellent. Ils se donnent mon numéro les uns aux autres et m’appellent quand il y a une urgence”, a dit Maleno au quotidien espagnol El País.

Les ennuis judiciaires de Maleno ont commencé en Espagne, où un tribunal a conclu en 2017 qu’ il n’y avait aucun caractère délictuel dans le travail de Maleno. En revanche, les autorités du Maroc, pays où elle a travaillé pendant 16 ans, a rouvert l’affaire en réponse à la plainte d’un service de la police espagnole appelé Unité centrale contre les réseaux d’immigration et de faux papiers (UCRIF, en espagnol), le même qui avait saisi la justice espagnole.

Ce que je ne comprends pas, c’est pourquoi la police espagnole a envoyé au Maroc un dossier où on m’accuse de trafic d’êtres humains, alors qu’un procureur en Espagne a déjà déclaré l’affaire close. Nous ne pouvons pas établir un précédent où l’on poursuit ceux qui font un travail humanitaire.

 

Criminaliser la migration et le travail humanitaire

La même inquiétude est partagée par les divers militants et organisations qui soutiennent le travail de Maleno, comme l’équipe de direction de la Fondation porCausa, un collectif de journalistes et de chercheurs dédié à représentation du phénomène migratoire dans les médias.

[…] la personnalisation d’une offensive politique comme celle qu’exécute le Maroc contre Helena Maleno est une façon d’intimider ceux qui veulent faire quelque chose de semblable. Cela affaiblira encore plus les déjà rares réseaux de protection des migrants utilisant cette route […] La possibilité que le Ministère de l’Intérieur espagnol — ou certains de ses agents — transfère au Maroc l’attaque qui n’a pas abouti ici [en Espagne] revêt une gravité si extraordinaire qu’elle doit être clarifiée au plus tôt.

[…] La frontière sud de l’Espagne est le théâtre de nombreuses illégalités, dont aucune n’est en relation avec l’activité de Maleno : renvois immédiats (sanctionnés par la Cour de Strasbourg), violation d’autres garanties de protection internationale, détentions arbitraires, maltraitance et mépris des droits des enfants, pour ne citer que les violations les plus criantes. S’embarquer dans un harcèlement aussi féroce des défenseurs des droits humains serait franchir un point de non-retour.

Les expulsions collectives, ou renvois imméediats, mentionnés ci-dessus font référence à l’expulsion sous la contrainte de migrants arrivés sur le sol espagnol, une pratique au mépris des protections établies par le droit international.

Le cas de Maleno n’a rien d’exceptionnel. Selon des signalements d’Amnesty International, José Palazón, le président de l’ONG Pro Derechos de la Infancia (Pour les droits de l’enfance), a été attaqué injustement par plusieurs organes de médias dans la ville de Melilla, une enclave espagnole sur la côte nord du Maroc, ainsi que par le Conseiller au Bien-être social. Les attaques verbales prétendaient disqualifier le travail de Palazón en prétendant qu’il ne s’agissait que d’une “bataille personnelle” ne bénéficiant à personne.

Ceci coïncide avec l’attitude générale de rejet des migrants arrivant en Europe qui se banalise à travers l’Union européenne, tandis que les périls demeurent pour ceux qui y cherchent refuge en traversant la Méditerranée : depuis le début de 2014, 14.000 personnes sont mortes en mer.

#DéfendreCeuxQuiDéfendent

Maleno a reçu un soutien résolu du monde entier, et les témoignages de solidarité sont visibles sur les médias sociaux.

Une pétition, créé sur la plate-forme Intermón d’Oxfam et diffusée sous le mot-clé #DefenderAQuienDefiende (#DéfendreCeuxQuiDéfendent), exige que le gouvernement espagnol intervienne pour aider Maleno.

Dans le même temps, en Espagne, les membres de plus de 20 organisations ont manifesté leur soutien dans les rues de Grenade :

Hier, par accionenred Granada [Action sur le net Grenade], avec plus de 20 organisations sociales et partis politiques, nous avons voulu montrer notre solidarité et soutien à Helena Maleno et au travail solidaire qu’elle effectue.

 

Avec leur système d’alerte, Maleno and Caminando Fronteras ont contribué au sauvetage de centaines de personnes qui se sont embarquées dans des conditions précaires pour des traversées incroyablement périlleuses. Maleno aide aussi à donner aux migrants une meilleure qualité de vie et se bat pour la reconnaissance de leurs droits humains de base.

Son activité de militante et sa dénonciation des injustices sociales ont valu à Maleno d’être distinguée par le Conseil général des avocats espagnols en 2015.

Le fondement du travail de Maleno et de Caminando Fronteras est aussi d’humaniser ceux qui s’embarquent pour l’Europe. Une partie de cet effort se voit dans leur travail de sensibilisation pour essayer de faire comprendre aux citoyens européens les circonstances et la résilience des populations qui arrivent à leurs frontières. Elle l’explique dans la vidéo ci-dessous :

https://www.youtube.com/watch?v=5efK7gugYag

« Je ne veux pas qu’il y ait des renvois immédiats. […] Ce n’est pas parce que tu es de Guinée-Bissau, pas parce que tu es noir, mais parce que je veux un monde sans renvois immédiats. […] c’est parce que aujourd’hui c’est toi et demain ça sera nous […] Ça peut changer à tout moment. […] Nous sommes tous dans le même bateau […] s’il coule nous coulerons tous. »

Source : Global Voices 01/02/2017

Voir aussi : Actualité internationale, Rubrique Société citoyenneté, Justice, rubrique Politique, politique de l’immigration,

Désolé pour les gens qui meurent en Afrique, Facebook va maintenant se concentrer sur l’écureuil qui meurt devant votre porte

7a970fdc3f2e23fd4aac5f0986ed5c2c

Le changement d’algorithme de Facebook agite le monde des médias et de la communication.

L’algorithme Facebook est à l’information ce que le taux directeur de la Fed est à l’économie mondiale. Le réseau social a atteint une telle puissance (plus de 2 milliards d’utilisateurs réguliers) qu’un battement d’aile de son algorithme peut avoir des conséquences immenses.

En 2012, par exemple, Facebook avait discrètement augmenté la part de news politiques dans le fil d’actualités de 2 millions d’utilisateurs américains avant l’élection présidentielle. Juste pour voir. Résultat : l’équipe data de Facebook avait mesuré une augmentation de la participation chez les électeurs concernés.

Les contenus des amis avant tout

Voici donc le nouveau tremblement de terre : Facebook a annoncé jeudi un changement majeur dans son algorithme : priorité sera donnée aux contenus postés par ses amis proches au détriment des contenus postés par les pages professionnelles (médias, marques, personnalités…). Avant même que l’on connaisse les effets réels de ce changement, tout le secteur des médias et de la communication est déjà en état de panique.

Telle une encyclique papale, Mark Zuckerberg a énoncé dans un post la philosophie de cette réforme du news-feed:

«La vidéo et autres contenus publics ont explosé sur Facebook ces dernières années. Puisqu’il y a désormais plus de contenus et de vidéos créés par les marques que de posts publiés par vos amis, le news-feed s’est détourné de ce qui est le plus important — nous aider à nous connecter avec les autres. Nous voulons nous assurer que nos services ne sont pas juste fun à utiliser, mais aussi utiles au bien-être des utilisateurs.»

Mark Zuckerberg, prof de yoga

Mark Zuckerberg parle donc maintenant comme un prof de yoga et veut se concentrer sur le «bien-être» de ses utilisateurs. Un mot relativement neuf dans son répertoire.

Le sens profond de cette réforme du news-feed est contenue dans cette phrase prêtée à Mark Zuckerberg : «un écureuil qui meurt devant votre porte risque de davantage vous intéresser que des gens qui meurent en AfriqueCette loi du mort au kilomètre avait été développée devant ses équipes en 2005 lors de la création du fil d’actualités, selon David Kirkpatrick, auteur de «The Facebook Effect».

Tout sauf la passivité

Une information qui ne fait pas réagir n’en est pas une. Zuckerberg ne veut pas que Facebook soit consommé façon «couch potato», passivement dans son lit ou son fauteuil, de la même manière qu’on regarde la télévision. Il convoque la science pour expliquer ce choix:

«Les recherches montrent que quand nous utilisons les réseaux sociaux pour se connecter avec des gens qui comptent pour nous, cela peut être bon pour notre bien-être. On peut se sentir ainsi plus lié aux autres et moins seul, et il existe une corrélation sur le long terme avec les indicateurs de bonheur et de bonne santé. Au contraire, lire des articles ou regarder des vidéos passivement — même si ces contenus sont divertissants ou instructifs — peut ne pas être aussi bon [pour le bien-être]»

Lutter contre les fake news ? Vraiment ?

Cette modification de l’algortihme est parfois interprétée — à tort, à mon sens — comme une manière de lutter contre les fake news. En réalité, selon cette nouvelle philosophie zuckerbergienne, le critère d’invisibilisation d’un contenu n’est pas sa fausseté mais son incapacité à faire réagir ou à créer le bien-être à long terme. On mesure bien à quel point l’objectif est totalement opposé à celui d’une éthique de l’information.

En privilégiant l’interaction au détriment du contenu pertinent, Mark Zuckerberg fait de l’information un simple support de conversation. Et rien de telle qu’une fake news pour susciter de l’interaction.

La pub veut de l’interaction

Facebook hait la passivité. Sans doute d’abord pour des raisons publicitaires. Un utilisateur passif, c’est un utilisateur qui ne crée pas de data et donc de valeur publicitaire.

«Si on analyse ce que dit Mark Zuckerberg, c’est une mesure qui vise à optimiser la performance publicitaire, estime Emmanuel Parody. Le critère de performance de Facebook, ce sont des contenus qui engagent, avec des internautes qui cliquent, partagent et commentent. Ce sont autant de critères de performance publicitaire»

Ce changement de paradigme chez Facebook marque la fin programmée d’une pratique qui a fait les grandes heures du réseau : le stalking. Facebook, pour les anciens, c’était d’abord cette machine fascinante à afficher des photos de quasi inconnus, à s’immerger dans des vies lointaines et à se perdre dans les abîmes de la sérendipité sociale.

La fin de la «machine zone»

En 2013, l’époque où Facebook était encore davantage un réseau de photos que de news, le journaliste Alexis Madrigal avait comparé l’ivresse de la consultation du réseau à celle que l’on ressent devant les machines à sous.

Selon lui, Facebook nous ferait entrer dans la «machine zone», cet état hypnotique que ressentent les joueurs de machine à sous, tel que décrit par l’anthropologue Natasha Schüll. Les joueurs ne sont pas tant aimantés par l’argent que par le rythme incessant de la machine, qui les plonge dans une forme d’hypnose.

Cette hypnose du stalking, ce plaisir si spécial du combo Facebook/kebab à 5h du matin en rentrant de soirée, est une activité que ne veut plus encourager le réseau. Car le stalking ne produit pas de «réactions», pas de «j’aime», pas de «grrr», pas de «wow». C’est une pure perte de temps. Et Facebook dit explicitement vouloir lutter contre ces «pertes de temps».

La vie quotidienne est ailleurs

Les contenus que Facebook veut maintenant encourager sont les événements de la vraie vie, prompts à créer de l’interaction avec ses amis : naissance, mariage, changement de job, déménagement, voyage… Le souci est que ces événements ne sont pas si légion. C’est pour cela que Facebook relance sans cesse, avec lourdeur, en proposant de repartager ces contenus un an, deux ans, trois ans, quatre ans après.

Facebook peut bien décider de se couper progressivement des médias et des marques, le problème est que ses utilisateurs ne produisent de toute façon plus assez de contenus perso. La vie quotidienne, banale et infra-ordinaire, vrai pétrole des réseaux, est partie sur Snapchat ou Instagram. Ne restent plus sur Facebook que les «actualités», personnelles (que Facebook veut renforcer) ou du monde (que Facebook veut minorer).

Il va falloir que beaucoup d’écureuils meurent devant nos portes sinon on va vite s’ennuyer sur ce réseau.

Vincent Glad

Source Libération 13/01/2018

Voir aussi : Rubrique InternetDe l’art ou de l’amour ? fb censure sans chercher, Dans l’enfer de la modération Facebook : les règles secrètes ont été dévoilées, rubrique Médias, Comment Facebook achète la presse française, rubrique Education, rubrique Politique, Société civile, rubrique Société, Citoyenneté,  rubrique International, rubrique Politique,

Google Facebook. Censure et chaussettes roses,

« Les faux aliments ont colonisé jusqu’à 50% de nos supermarchés »

16375169

Dans un livre passionnant, le docteur Anthony Fardet met en garde contre les « aliments ultra-transformés », qui font des ravages sur notre santé.

Ingénieur agronome, spécialiste de la science des aliments et de la nutrition, Anthony Fardet, qui se dit «chercheur dans l’âme», estime que la Recherche publique doit être «au service de l’humain»: «Après tout, je suis payé par les impôts des Français, il est normal qu’ils aient un retour sur investissement», écrit-il en préambule de l’ouvrage brillant qu’il publie aux éditions Thierry Souccar. Dans «Halte aux aliments ultra-transformés», il démontre que les produits industriels déversés depuis les années 1980 dans les petites et grandes surfaces sont responsables des épidémies contemporaines comme le diabète ou l’obésité. Et il explique très clairement pourquoi.

Depuis quelque temps, ce scientifique était gêné par l’idée qu’en dépit de 150 ans de sciences en alimentation, les Occidentaux sont de plus en plus malades et leur espérance de vie en bonne santé de plus en plus basse. On vit plus vieux, mais moins bien. Vingt-et-un ans de santé dégradée, puis ultra-dégradée: c’est le destin désormais classique du Français passé les 60 ans. Est-ce une fatalité? Non. Alors il a écrit un livre pour le dire. Un grand livre sur la nutrition. Entretien.

BibliObs. L’apport majeur de vos recherches est de montrer l’effet dévastateur sur la santé  des produits «ultra-transformés». Qu’est-ce qu’un produit ultra-transformé?

Anthony Fardet. Le concept scientifique de «produit ultra-transformé» est récent. Il a été défini en 2009 par Carlos Monteiro, chercheur en épidémiologie pour la nutrition et la santé à l’Université de Sao Paulo. Face à la montée croissante des «épidémies» d’obésité et de diabète de type 2, il était important de distinguer, au sein des aliments transformés, les produits ultra-transformés, lesquels marquent le passage des «vrais» aux «faux» aliments. Tous les produits transformés ne sont pas délétères pour la santé, loin de là. Mais faire le bon diagnostic, c’est-à-dire distinguer le transformé de l’ultra-transformé, est essentiel: cela permet d’apporter le bon remède. Un produit ultra-transformé – et non un «aliment» car ce n’en est plus vraiment un – se distingue tout d’abord par une longue liste d’ingrédients et additifs utilisés essentiellement par les industriels: au-delà de quatre-cinq de ces composés la probabilité d’être en présence d’un produit ultra-transformé est très forte.

Ce produit est artificiel. La part d’aliments naturels est donc très faible; vous ne trouverez pas dans nos champs de cultures de barres chocolatées. Il est régulièrement enrichi en gras, sucre et sel. Son emballage est souvent coloré, très attractif pour favoriser l’acte d’achat. En ce qui concerne les aliments pour enfants, le packaging est habilement pensé pour les attirer vers ces produits, avec des personnages de Walt Disney ou des super héros du moment… Vous observerez aussi que souvent, sur les emballages, on trouve des «informations nutritionnelles», enfin soit disant, du type: «enrichi en…», «sources de…», «Bon pour…». Cela laisse croire qu’un aliment est bon pour votre santé alors qu’on cherche juste à rétablir une valeur nutritionnelle pour un produit qui l’a perdue lors de son ultra-transformation. On peut parler sans exagération de «faux amis» qui trompent le consommateur.

Thierry Souccar Editions

Thierry Souccar Editions

Que font ces produits lorsqu’ils sont consommés avec excès, voire lorsqu’ils composent  la base de notre alimentation?

Ils créent le lit pour l’obésité et le diabète, pas moins. Ils sont, pour la plupart, hyperglycémiants, c’est-à-dire qu’ils favorisent l’élévation rapide du glucose dans le sang. Une consommation régulière de produits ultra-transformés, source de sucres «rapides» (souvent ajoutés) favorise le gain de poids et l’insulino-résistance qui est l’étape prédiabétique. Puis vient le diabète de type 2: l’ajout de sucre, sel et gras crée une forme de dépendance à ces produits car ces trois composés donnent envie d’y revenir. Or le diabète de type 2 et l’obésité sont les portes d’entrée vers des maladies plus graves comme certains cancers (un sur trois serait lié à une mauvaise alimentation), les maladies chroniques hépatiques (stéatose, stéato-hépatites) et les maladies cardiovasculaires (coronariennes et AVC). Ces produits sont aussi pauvres en fibres et en micro- et phyto-nutriments protecteurs, c’est-à-dire en antioxydants, vitamines, minéraux, oligo-éléments, polyphénols, caroténoïdes. On parle alors de calories «vides».

Mais pourquoi ces «produits» (on ne parle pas d’«aliments» donc) sont-ils peu rassasiants?

Pour deux raisons principales. D’abord, ils sont riches en sucres et gras, et plus pauvres en fibres et protéines; or les fibres et les protéines sont les deux composés les plus rassasiants. Ensuite, de par leurs textures recombinées et artificielles, souvent molles, liquides, semi-solides et facilement friables – de types sodas, desserts lactés, yaourts à boire, céréales du petit-déjeuner, snacks croustillants, etc. – ces produits nous font moins mastiquer et les textures liquides et semi-solides entrent moins longtemps en contact avec la muqueuse digestive: or ce sont là deux paramètres qui stimulent l’hormone de satiété, c’est-à-dire la leptine.

« Les produits ultra-transformés sont le fruit de l’approche réductionniste »

Dans votre livre, vous mettez à disposition du grand public des notions précieuses, de nature à favoriser la réflexion sur le lien entre l’alimentation et la santé. Tout d’abord, il y a celle d’approche «holistique», bien connue en médecine chinoise traditionnelle, parfois utilisée en médecine occidentale quoique cela reste marginal, et aujourd’hui par vous pour penser l’alimentation. Qu’est-ce que «l’holisme»?

Holisme [du grec ancien hólos signifiant «entier»] se définit globalement par la pensée qui tend à expliquer un phénomène comme étant un ensemble indivisible, la simple somme de ses parties ne suffisant pas à le définir. Dans la pensée holistique, le tout est donc supérieur à la somme des parties, ou dit autrement 2 > 1+1. On retrouve ce principe dans l’adage «l’union fait la force» qui indique que la force d’un groupe en cohésion est supérieure à la somme de la force de chaque individu pris isolément. En alimentation, cela signifie donc qu’il faut percevoir l’aliment comme un tout et non comme une somme de nutriments dissociables les uns des autres. Or c’est que l’on fait depuis cent cinquante ans que la recherche en nutrition a commencé.

Et vous nous apprenez que cette façon d’aborder la recherche en nutrition porte un nom: le réductionnisme. 

Oui. On parle de «pensée réductionniste» par opposition à la «pensée holistique» justement. Les produits ultra-transformés sont le fruit de l’approche réductionniste qui considère que puisque l’aliment n’est qu’une somme de composés, alors on peut bien le fractionner en une multitude de composés puis les recombiner. Or il n’en est rien: les calories et les nutriments ne sont pas interchangeables d’un aliment à l’autre en raison du principe d’holisme. Une calorie d’un aliment A n’est absolument pas égale à une calorie d’un aliment B.

Ainsi consommer une carotte entière ou le même mélange recomposé des nutriments de la carotte n’a rien à voir, notamment pour notre physiologie. Ou bien consommer du fructose issu de sirop de fructose (obtenu par hydrolyse de l’amidon de maïs) dans un produit ultra-transformé n’a pas du tout le même effet sur la santé que le fructose naturel des fruits. Selon une vision holistique le fructose dans les fruits possède une matrice et donc un environnement de fibres, minéraux et vitamines; et il est aussi libéré plus lentement dans l’organisme car «piégé» dans une matrice fibreuse.

La «matrice»: voici encore une notion que vous explicitez dans un chapitre passionnant  et à laquelle vous consacrez d’ailleurs un article ce mois-ci dans l’excellente revue «Pratiques en nutrition» (1). Comment la définir simplement pour les néophytes que nous sommes?

Pour faire simple la matrice de l’aliment, c’est le résultat des interactions entre les différents nutriments de l’aliment. Une matrice peut être solide (fromages), visqueuse (yaourts), liquide (laits), plus ou moins dense, poreuse, de différentes couleurs (rouge pour les tomates, orange pour les carottes, etc.). Cette matrice est essentielle car elle influe sur le sentiment de satiété via notamment le temps de mastication, la vitesse de libération des nutriments dans votre organisme (par exemple sucres «lents» versus «rapides»), la sécrétion des hormones, la vitesse de transit digestif. En résumé, l’effet «matrice» des aliments correspond à l’influence de la matrice alimentaire sur les paramètres physiologiques et métaboliques de l’homme.

Je vais le formuler autrement: deux aliments de même composition mais avec des matrices différentes n’auront pas le même effet sur la santé. Par exemple, consommer une amande entière ou en poudre n’a pas le même effet sur votre métabolisme bien que les deux produits aient exactement la même composition.

Depuis quand connaît-on «l’effet matrice»?

Le sujet suscite un intérêt croissant depuis les années 2000 mais la première étude à l’avoir mis en avant est celle de Gregory Haber, docteur en médecine à Bristol, et de ses collaborateurs en 1977. Cette équipe a démontré qu’une pomme entière est moins hyperglycémiante (élève moins rapidement le niveau de glucose dans le sang) et hyper-insulinémiante (élève moins rapidement le niveau d’insuline dans le sang) qu’une compote, et qu’une compote est moins hyperglycémiante et hyper-insulinémiante qu’un jus de pomme. Le degré de déstructuration de la «matrice pomme» va augmentant si on passe de la pomme entière au jus. Plus tard, quelques autres études ont été menées sur cet effet «matrice» avec des résultats qui vont dans le même sens que l’étude d’Haber.

Dans la même logique, l’hyper-transformation du blé expliquerait-t-elle aussi l’allergie au gluten?

Je parlerais plutôt d’«hypersensibilité au gluten» dont la prévalence s’est accrue ces dernières années, et qui est différente de la maladie céliaque et de l’allergie au blé. Mais je pense que oui. Dans un article (2), j’ai en effet défendu l’hypothèse que cette nouvelle forme «d’intolérance» n’était pas à chercher dans les protéines du blé en elles-mêmes mais dans l’hyper-transformation du blé, et donc des protéines de gluten. Il semble exister un parallèle entre l’utilisation de plus en plus massive du gluten dans de nombreux plats préparés (le gluten est notamment utilisé comme ingrédient technologique de texture) et l’augmentation de cette hypersensibilité.

De plus, il se pourrait, même si cela reste à démontrer, que les traitements industriels drastiques appliqués aux céréales aient pu retarder ou dégrader la digestibilité de ce gluten, déplaçant sa digestion du duodénum, partie initiale de l’intestin grêle, vers l’iléon, la partie terminale (3). Associé à une alimentation pauvre en micronutriments protecteurs (antioxydants, anti-inflammatoires…), ce cocktail délétère peut sans doute contribuer à cette hypersensibilité. S’ajoute à cela, l’effet «nocébo» qui consiste, suite à la création d’une angoisse ou d’une peur artificielle, à se sentir mieux quand on retire le produit de notre alimentation: c’est alors purement psychologique et non physiologique.

Au-delà de sa dimension scientifique, l’approche holistique semble relever aussi du  bon sens. Pourquoi est-elle ignorée, pour ne pas dire dénigrée, dans les milieux scientifiques?

C’est une question difficile. Je pense que dans nos sociétés occidentales, nous avons été élevés dans la pensée réductionniste, laquelle imprègne la recherche en nutrition depuis cent cinquante ans. La pensée réductionniste, notamment systématisée par le philosophe René Descartes dans «le Discours de la méthode», est typiquement occidentale. Ainsi, dans les sciences, l’application du réductionnisme tente l’explication des systèmes entiers en termes de parties isolées. Cette culture est enseignée sur les bancs des écoles, des grandes écoles d’ingénieurs, des écoles de diététique et des universités (médecine et sciences de la vie), notamment dans les cursus agro-alimentaires. Personne n’y échappe; moi-même n’y ai pas échappé.

Si la pensée holistique est aujourd’hui si peu reconnue dans les milieux académiques occidentaux (mais cela commence à évoluer dans le bon sens, reconnaissons-le), c’est parce qu’elle est perçue comme pas suffisamment scientifique. Avoir une approche globale ou holistique renvoie à des approches ou philosophies souvent orientales que les chercheurs académiques tendent à rejeter. Donc si vous prônez des approches plus transversales, holistiques et globales, pour certains chercheurs vous n’êtes plus dans la science réelle mais dans des mouvements «orientaux» quelque peu ésotériques ou des approches non scientifiques. Pour ces chercheurs une vraie recherche est réductionniste, très spécialisée, et doit décortiquer les mécanismes dans une certaine forme de verticalité scientifique.

Or cela est faux: on peut tout aussi bien être chercheur transversal et holistique que chercheur vertical et réductionniste. Il faut les deux comme dans le maillage d’un tissu. S’il n’y a que des fils verticaux et peu de fils horizontaux, le tissu est lâche et ne tient pas. En ce qui me concerne, je suis un chercheur holistique, mais j’utilise souvent les travaux de chercheurs réductionnistes pour faire avancer ma réflexion. Les deux sont nécessaires et indissociables.

Revenons au fractionnement par l’industrie agroalimentaire des aliments naturels. Cela porte un nom, racontez-vous.

On appelle ça le «cracking». Grâce à différents procédés chimiques ou mécaniques, le craquage casse un aliment (lait, œufs, céréales, légumineuse…) en plusieurs éléments ayant une valeur commerciale importante. La somme de ces éléments rapporte plus que l’aliment entier. Les aliments naturels «craqués» et transformés en une multitude d’ingrédients bon marché participent de cette vision occidentale réductionniste.

Thierry Souccar Editions

Thierry Souccar Editions

Est-ce à cause du cracking que tout est «enrichi en» ceci ou cela?

Il faut bien comprendre pourquoi on enrichit. La plupart du temps, c’est pour améliorer un aliment qui a perdu de sa qualité nutritionnelle via l’ultra-transformation, comme pour les céréales du petit-déjeuner pour enfants enrichis en vitamines et/ou minéraux, les margarines enrichies en oméga 3 ou phytostérols, etc. Ces aliments participent d’une vision erronée qui cherche à corriger une alimentation déséquilibrée via des produits toujours ultra-transformés et «enrichis en» pour compenser. Idem pour les compléments alimentaires utilisés pour corriger le déséquilibre induit par l’ingestion de produits ultra-transformés et sources de calories «vides». Bien sûr, ils peuvent être utilisés à bon escient comme des produits de niche dans certaines situations ou prescrits à des populations à risque: pour des gens âgés ou des femmes enceintes ou pour corriger à l’occasion une déficience ponctuelle significative.

Concrètement, comment reconnaître un aliment ultra-transformé en supermarché?

Juste un conseil: lisez bien la liste d’ingrédients et d’additifs. Plus elle est longue (c’est-à-dire globalement supérieure à quatre ingrédients/additifs mais cela reste indicatif) et moins vous connaissez les noms (car leur utilisation est exclusivement industrielle), plus vous avez de chance d’être en présence d’un produit ultra-transformé.

Vous expliquez que le jus d’orange à base de concentré est un aliment ultra-transformé. En quoi?

Un jus d’orange peut avoir subi divers niveaux de transformation. Un jus d’orange 100% fruits pressés frais est encore assez peu transformé même si l’effet «matrice» est un peu perdu. Un jus reconstitué à base de concentré avec du sucre ajouté est transformé. Un jus d’orange à base d’arômes artificielles, d’additifs et sucre ajoutés (comme dans certaines boissons sucrées ou sodas) est ultra-transformé.

Que dire du Chocapic donné le matin aux enfants?

Malheureusement, les céréales du petit-déjeuner pour enfants sont une véritable catastrophe nutritionnelle. Près de 100% de ces produits sont ultra-transformés. Ce ne sont plus des céréales mais des bonbons que l’on donne à nos enfants. Certaines «céréales» contiennent jusqu’à plus de 28% de sucres comme dans Miel Pops (soit 88% de glucides en tout), et surtout des sucres «rapides». Ainsi «nourris» de sucres rapides et peu rassasiants, les enfants auront la fringale à 11h. Il reste à espérer qu’ils ne se jettent pas alors à nouveau vers d’autres produits ultra-transformés. Le Chocapic, c’est 37% de sucres environ et 76% de glucides, essentiellement des sucres «rapides». A exclure, donc.

Et les yaourts aux fruits?

Tout dépend de la liste d’ingrédients et/ou d’additifs. Si vous le faites vous-même en mélangeant des vrais fruits ou de la confiture maison avec du yaourt nature, aucun problème. Mais quand vous voyez la liste d’ingrédients et additifs dans des yaourts aux fruits industriels comme «Panier de Yoplait», il s’agit de produits ultra-transformés. Liste des ingrédients: Yaourt (lait écrémé à base de poudre de lait – lait écrémé – crème – poudre de lait écrémé et/ou protéine de lait – ferment lactiques) – fruits: poire 11% ou pêche 11,2% – sucre 8,3% – sirop de glucose-fructose: 2,3% – amidon transformé de maïs – arômes – épaississants: gomme de guar, pectine – colorants : extrait de paprika, lutéine, curcumine. Additifs: E412 – Gomme de guar. E440i – Pectine. E160c – Extrait de paprika. E161b – Lutéine. E100 – Curcumine. Notre organisme n’est pas habitué à de telles quantités de sucres simples. Nous ne sommes pas programmés pour cela. Le corps finit par réagir par du diabète. A éviter ou à consommer exceptionnellement, donc.

Comment  se fait-il que les industriels ne soient pas attaqués pour publicité mensongère et incitation à la malbouffe?

Question difficile aussi. Les industries agro-alimentaires qui emploient de nombreuses personnes en France sont l’un de nos fleurons économiques à l’étranger. On ne veut donc pas s’attaquer à elles de front, et on préfère émettre des recommandations alimentaires qui ne les remettent pas trop en cause. De plus, la malbouffe a colonisé jusqu’à 50% des rayons de nos supermarchés: il est peu aisé de s’y attaquer. On taxe les sodas, mais il faudrait taxer la plupart des produits ultra-transformés. La tâche est rude pour un politique. S’attaquer au tabac et à l’alcool est sans doute plus «facile», les cibles étant plus aisément identifiables.

Jusqu’à aujourd’hui en effet, on n’avait pas identifié et défini scientifiquement les «coupables». On parlait bien d’«aliments transformés», mais comme beaucoup d’aliments transformés ne posent pas de problème pour la santé, cela restait confus. Il fallait donc définir le concept de produit «ultra-transformé», avec le passage  d’une technologie au service de l’aliment  aux aliments au service de la technologie: la cible étant maintenant bien identifiée et bien définie scientifiquement, peut-être les choses vont-elles commencer à changer…

Vous proposez d’ailleurs d’appeler un chat un chat et d’adopter cette nouvelle dénomination: «Maladies chroniques d’industrialisation».

Oui car les scientifiques utilisent plutôt le terme «maladies de civilisation», ce qui n’a pas de sens. De quelles civilisations parle-t-on? On ne sait pas. Les maladies chroniques ne sont pas dues à la civilisation mais bien à l’hyper-industrialisation de l’alimentation. Les renommer ainsi, c’est rendre service au grand public en mettant l’accent sur les vraies causes.

A propos de chat: nos animaux domestiques de plus en plus souvent terminent leur vie douloureusement,  obèses ou/et cancéreux. Les boîtes et les croquettes ne seraient-ils  pas des aliments ultra-transformés?

C’est une «vraie» question de fond. En effet, il faudrait aussi s’intéresser à la malbouffe de nos «amis» préférés. Je ne me suis pas penché sur la question pour être honnête mais, oui, beaucoup de croquettes et de boîtes sont très probablement des produits ultra-transformés. Les chats et les chiens étant des mammifères comme nous, il faudrait qu’ils consomment aussi de vrais aliments.

« Tout aliment consommé en excès devient délétère pour la santé »

«L’Enquête Campbell» (4), du nom de ce chercheur américain de renommée mondiale, est la plus longue enquête jamais menée sur  les relations entre l’alimentation et la santé. Elle tend à démontrer que l’ingestion quotidienne de protéines animales, viandes ou laitages, est comme un engrais qui favorise le cancer et les maladies chroniques. Vous parlez de «maladies chroniques d’industrialisation», lui parle de «maladie de la prospérité»: l’état d’esprit est  proche mais son livre est controversé. Comment vous situez-vous par rapport à Colin Campbell?

Il est tout à fait possible que ses études soient critiquables, comme le sont d’ailleurs aujourd’hui les études qui ont été à la base de la diabolisation du cholestérol et des acides gras saturés. On sait aujourd’hui que les choses ne sont pas si simples. Je ne suis pas anti-protéines animales car la science ne va pas dans ce sens. Mais comme tout aliment consommé en excès et ultra-transformé devient délétère pour la santé, c’est donc vrai aussi pour les produits animaux et végétaux.

Là où Colin Campbell ne se trompe pas, c’est sur la mise en avant du régime «Whole Plant Based Diet» (WPBD), à base de produits végétaux peu transformés. Toute la science va dans ce sens, à savoir qu’une alimentation riche en produits végétaux peu transformés et variés est protectrice: on peut le voir avec les régimes Okinawa et Méditerranéen. Avant l’apparition du concept de «produit ultra-transformé», Campbell avait déjà pressenti que le degré de transformation était un paradigme capital.

Son travail a été controversé, mais il est vrai que lorsque des résultats scientifiques vont à l’encontre d’intérêts «puissants», la controverse est systématique. C’est un «classique». Il suffit de regarder en arrière avec les industries du tabac et de l’alcool, et aujourd’hui avec celle des produits ultra-transformés justement. Certains industriels seraient bien inspirés de critiquer leurs propres études d’intervention court-termistes et réductionnistes, celles-là même qu’ils ont utilisées pour obtenir l’autorisation pour la commercialisation de certains additifs, alors qu’il faudrait mener des études sur le long terme, prendre en compte l’effet «cocktail», etc. Mais là, curieusement, peu de gens se sont élevés pour remettre en question ces travaux. C’est heureusement en train de changer.

Pourriez-vous dire, comme le fait l’américain Ben Goldacre au sujet de l’industrie pharmaceutique, que le financement privé influence les chercheurs et entraîne la production d’une «bad science»?

C’est une question difficile: la recherche publique a toujours eu des financements privés, ce qui n’en fait pas pour autant de la mauvaise science. Sauf qu’aujourd’hui le problème est la diminution des financements publics, ce qui ne permet pas d’explorer suffisamment des «chemins risqués ou vierges», comme je l’ai fait d’ailleurs. Les financements privés exigent  généralement de l’innovation derrière: il faut que «ça marche». On sait qu’il existe un biais en science appelé le «biais fondamental», à savoir que plus de résultats «positifs» que «négatifs» sont publiés; ce qui laisse à penser qu’une entreprise pourrait être réticente à publier des résultats qui sont défavorables à son produit alimentaire.

Aujourd’hui on favorise la recherche réductionniste alors qu’il faudrait favoriser des recherches plus holistiques au profit de tous. Mais mener des recherches holistiques sur les bienfaits d’un régime à base de produits végétaux peu transformés rapporte moins d’argent, c’est clair. On préfère travailler sur les effets de telle ou telle molécule avec l’idée du produit qu’on pourra développer ensuite.

Quelle est la part du financement privé dans la recherche en France sur le lien entre alimentation et santé?

Je ne sais pas exactement, mais il est certain qu’il est trop important et qu’il influence la nature des recherches menées. Colin Campbell, pour revenir à lui, a bien analysé la situation aux Etats-Unis, pire que chez nous: le privé utilise des résultats scientifiques partiels et réductionnistes pour faire le maximum de profit. Par exemple, les phytostérols diminuent le cholestérol donc on va vendre des margarines enrichies en phytostérols en quantité en faisant passer le message que c’est bon pour votre santé, alors que ce n’est pas le cas.

Comment en sommes-nous arrivés là?  

Le passage des aliments transformés aux produits ultra-transformés, le passage des «vrais» aux «faux» aliments, tout cela s’est produit au cours des années 1980. La technologie était jusqu’alors au service des aliments pour mieux les conserver et garantir la sécurité alimentaire – fermentations, conserves, confitures, etc. Elle s’est dévoyée. L’aliment a été mis au service de la technologie pour des gains de temps et d’argent. Le potentiel-santé des aliments n’est pas la préoccupation majeure; il s’agit plutôt de fournir à des prix toujours plus bas des aliments très sûr sur le plan sanitaire et très «bons» au goût, d’où les ajouts massifs de sucres, sel et gras.

Cette transition récente est concomitante avec l’explosion des maladies d’industrialisation. Jamais, dans le passé, notre organisme n’avait ingurgité autant d’ingrédients et d’additifs industriels et de matrices alimentaires artificielles. Mon hypothèse est qu’il n’est pas étonnant que notre organisme réagisse par des maladies chroniques, des intolérances ou des hypersensibilités: il se défend. A avoir détruit l’harmonie de l’aliment, on détruit en quelque sorte l’harmonie métabolique, donc notre santé.

Colin Campbell et vous êtes d’accord sur une chose: le diabète, en principe inguérissable, est réversible par un changement d’habitudes alimentaires. De quelle manière? Ne craignez-vous pas de susciter de faux espoirs chez des malades?

Oui, quelques études menées dans les années 1980 ont montré qu’en revenant à un régime riche en produits végétaux peu transformés on pouvait revenir «en arrière», soit totalement, soit partiellement. La question est de savoir à partir de quel stade il est possible d’inverser le diabète. Doit-il être pris très tôt? Je n’ai pas la réponse. Il faudrait mener des études d’intervention de long terme chez des diabétiques à différents stades pour obtenir une évidence scientifique plus solide. Cependant, au vu des résultats obtenus avec certains malades, il semble possible de «revenir en arrière» – avant la prise d’insuline – en changeant son alimentation et en reprenant une activité physique régulière.

Le chercheur brésilien que vous évoquez à plusieurs reprise dans votre livre, Carlos Monteiro, spécialiste d’épidémiologie et professeur de nutrition à l’université de Sao Paulo, est l’inventeur d’une classification alimentaire, la NOVA, basée sur le degré de transformation des aliments. Où en est-il?  

La classification internationale NOVA distingue en effet quatre groupes technologiques. Le Groupe 1, ce sont les aliments bruts ou peu transformés: les parties comestibles des végétaux (graines, fruits, feuilles, tiges, racines) ou des animaux (muscles, abats, œufs, lait), les champignons, les algues, l’eau, les fruits secs, etc. Les aliments peu transformés sont des aliments naturels soumis à un ou des traitements parfois, mais qui n’en modifient pas pour autant substantiellement les propriétés nutritionnelles.

Le groupe 2 ce sont les ingrédients culinaires, extraits du Groupe 1 par des transformations physiques et chimiques, tels que le pressage pour l’huile d’olive par exemple, le raffinage, la meunerie, et le broyage, ou des ingrédients provenant directement de la nature comme le sel.

Dans le Groupe 3, on recense les aliments transformés, mais dont la transformation est relativement simple, obtenue essentiellement avec l’ajout de sel, de sucre ou une autre substance d’utilisation culinaire du Groupe 2 comme l’huile ou le vinaigre. La plupart des aliments transformés sont constitués d’un ou deux ingrédients. Les procédés incluent des méthodes de conservation et de cuisson variées, et, dans le cas du pain et du fromage, des fermentations non alcooliques. L’objectif  principal de la fabrication des aliments du Groupe 3  est d’augmenter la durée de vie  des aliments du Groupe 1, ou de modifier ou d’améliorer leurs qualités sensorielles. Les aliments transformés peuvent contenir des additifs utilisés pour conserver leurs propriétés originales ou pour résister à la contamination microbienne. Les aliments des groupes 1 à 3 devraient constituer la base de notre alimentation.

Le Groupe 4 réunit les aliments ultra-transformés. Vous l’aurez compris, ce sont des inventions industrielles réalisées avec cinq ingrédients ou plus, souvent bien plus. Parmi les ingrédients que l’on ne trouve que dans le groupe 4, il y a des substances dont le but est de masquer les qualités sensorielles indésirables des produits finaux. Le Groupe 4 inclue les colorants, les stabilisants de couleurs, les arômes, les exhausteurs de flaveurs, les édulcorants et les aides technologiques telles que la carbonatation, les épaississants, les agents de charge, les anti-moussants, les agents antiagglomérants, les agents de glaçage, les émulsifiants, les séquestrant et les agents humectant. Les aliments du Groupe 4 doivent vraiment être consommés avec modération – pas plus de 15% de nos apports énergétiques quotidiens!

La classification NOVA a le grand mérite d’avoir ouvert le débat sur l’implication du degré de transformation des aliments dans leur potentiel-santé, ce qui n’était pas le cas auparavant. Elle est controversée bien sûr, ce qui était attendu. Mettre en avant le degré de transformation, c’est mettre en cause les industries agro-alimentaires et donc des intérêts économiques gigantesques.

« La classification NOVA est reconnue par les décideurs politiques »

Si ce n’est par l’industrie agroalimentaire, par qui la classification NOVA est-elle reconnue?

Par les décideurs politiques dans les rapports de la FAO et de la Pan American Health Organization. Elle est validée comme un outil pour la recherche en nutrition et en santé publique. D’ailleurs, depuis 2010, des études scientifiques ont été régulièrement publiées sur la base de la classification NOVA. Elle est à la base des principales recommandations du guide national brésilien pour l’alimentation et la nutrition.

Au Brésil encore, elle a été utilisée pour évaluer, entre autre, l’association entre la consommation de produits ultra-transformés et l’obésité. Aux États-Unis, elle a servi à mesurer l’impact des produits ultra-transformés sur la consommation de sucre ajouté. Au Royaume-Uni, on a pu estimer, grâce à elle, la réduction potentielle du risque de maladies cardio-vasculaires dès lors que l’on réduit la consommation de produits ultra-transformés. Elle a aussi été utilisée au Canada, au Chili, en Suède et en Nouvelle-Zélande pour décrire le profil nutritionnel des aliments des supermarchés.

On découvre dans votre livre que le pain blanc, dont on pourrait penser que c’est un aliment simple et traditionnel, n’est pas si formidable. Qu’est-ce qui cloche avec la baguette?

D’abord, c’est du pain blanc, donc issu d’une farine raffinée pauvre en fibres et micronutriments protecteurs. L’amidon du pain blanc est aussi trop vite digéré en glucose dans le tube digestif, générant pour notre organisme des sucres «rapides». Le pain est l’un des aliments de base en France. Il faudrait donc revenir à des pains plus complets, si possible bio et fermentés au levain, sources alors de sucres plus «lents». J’ajoute qu’il faut absolument éviter les pains ultra-transformés blancs vendus sous cellophane en supermarché car ils sont additionnés de divers ingrédients industriels. Ne parlons pas du pain de mie à consommer à l’occasion seulement.

Propos recueillis par Anne Crignon

 

Halte aux aliments ultra transformés. Mangeons vrai,
par Anthony Fardet, Thierry Souccar éditions,
252 p., 19,90 euros.

(1) « L’effet matrice des aliments », un nouveau concept. Pratiques en Nutrition 2017

(2) Fardet A, Boirie Y. Associations between food and beverage groups and major diet-related chronic diseases: an exhaustive review of pooled/meta-analyses and systematic reviews. Nutr Rev 2014;72:741-62.

(3) Fardet A. Wheat-based foods and non celiac gluten/wheat sensitivity: is drastic processing the main key issue? Med Hypotheses 2015;85:934-9.

(4) «L’Enquête Campbell » avec Thomas M. Campbell. Disponible en poche (J’ai Lu).

Source : Bibliobs 30/12/2017

Voir aussi : Actualité France, rubrique Société, Santé, Consommation, rubrique Politique, Politique économique, Perturbateurs endocriniens : la fabrique d’un mensonge, rubrique Environnement, rubrique Ecologie,

En France, les hommes gagnent 50 % de plus que les femmes. Vrai ou faux ?

GenderGap Age12-

Réponse : c’est parfaitement vrai, mais il faut expliquer car ce chiffre est plus élevé que ceux qui circulent (en général à l’occasion de la journée mondiale du 8 mars, avant de tomber dans l’oubli les autres jours de l’année…).

Je débute l’année 2018 avec ce billet dont l’idée m’est venue en lisant le formidable rapport mondial sur les inégalités (malheureusement en anglais), dont la presse a abondamment parlé… pendant quelques jours. On trouve le rapport complet sur le site http://wir2018.wid.world/ , mais aussi un résumé en français (20 pages), ainsi que de nombreux fichiers de données sur la page « methodology ».

Dans ce rapport figure une section (n° 2.5) consacrée aux inégalités de revenu en France, dont, à la fin, une brève analyse du « gender pay gap » (écart de revenu du travail entre les femmes et les hommes) dans un paragraphe intitulé « Gender pay gaps may be falling, but men are still paid approximately 50% more than women ». Soit : l’écart des rémunérations selon le sexe se réduit, mais les hommes gagnent encore environ 50 % de plus que les femmes.

Les preuves statistiques se trouvent dans l’un des fichiers liés au rapport lui-même, mais elles sont plus complètes dans un article de fond que je vais utiliser et dont le lien est ici : http://piketty.pse.ens.fr/files/GGP2017DINAAppendix_WIDWP201705.pdf

Commençons par le graphique choc qui justifie ce chiffre de « environ 50% » (de plus pour les hommes en moyenne). C’est un graphique par âge. Pour chaque âge entre 25 ans et 65 ans, on a le rapport entre les rémunérations du travail des hommes et celles des femmes en 2012. Par exemple, à 25 ans, les hommes gagnent environ 25% de plus que les femmes du même âge (coefficient 1,25 sur l’axe vertical), à 35 ans, c’est 41% de plus, à 40 ans c’est 51% de plus, et à partir de 55 ans, on dépasse 60 % de plus pour les hommes. Encore faut-il préciser ce que l’on calcule alors comme « rémunération du travail » des femmes et des hommes pour chaque âge.

Il y a deux points essentiels pour comprendre ces données. Le premier est que les revenus du travail (ou associés au travail) pour chaque âge incluent non seulement les salaires ou une fraction du « revenu mixte » des entrepreneurs et indépendants (ce que l’on peut assimiler à une rémunération d’activité personnelle), mais également l’assurance chômage éventuelle, et les éventuelles pensions de retraite des 65 ans et moins. Cette extension est une convention, discutable comme toutes les conventions, mais elle me semble bienvenue pour évaluer ce que les uns et les autres perçoivent vraiment comme revenus liés à l’activité professionnelle entre 25 et 65 ans.

En d’autres termes, si on se limite aux personnes en emploi, les hommes ne gagnent pas en moyenne 50 % de plus que les femmes. C’est plutôt de l’ordre de + 34 à 35 % selon une étude à laquelle j’ai contribué et dont j’ai parlé sur ce blog (lien : https://blogs.alternatives-economiques.fr/gadrey/2017/10/31/les-couts-gigantesques-des-inegalites-professionnelles-entre-les-femmes-et-les-hommes ). Mais si l’on tient compte de l’inégalité des taux d’activité ou d’emploi selon le sexe, alors oui, le graphique précédent est impeccable et le chiffre moyen de 50% est exact.

Cet écart est énorme, mais vous pouvez si besoin vous rassurer en vous disant que, en 1970, le rapport moyen des rémunérations H/F, au sens donné dans cette étude, n’était pas de 1,5 comme aujourd’hui, mais d’environ 3,5. Cela s’explique par le fait qu’en 1970, le taux d’emploi des femmes était encore très bas : pour les femmes de 25 à 59 ans, il était de 46 % (93% pour les hommes), contre 79 % aujourd’hui (88% pour les hommes).

« PLAFOND DE VERRE » ET « PLANCHER COLLANT »

Inversement, au cas où l’argument précédent vous aurait un peu trop rassuré, au point de vous faire croire que la bataille de l’égalité était sur le point d’être gagnée, voici de derniers chiffres pour tempérer votre optimisme. Certes, les choses ont globalement bien changé au cours des dernières décennies, mais le taux d’accès des femmes aux emplois les mieux payés reste misérable. En 2012, la proportion de femmes parmi les 1% les mieux rémunéré.e.s n’était que de 16%, et de 12% seulement parmi les 0,1% « du haut ». Pis encore : ces proportions « en haut » n’augmentent que très lentement, au point que, au rythme actuel de ce rattrapage, il faudrait attendre l’an 2102 pour atteindre l’égalité au sein des 1%, et 2144 pour les 0,1%…

Mais ce n’est pas tout. Il n’y a pas qu’en haut de la hiérarchie des professions et des revenus que les femmes restent très inégalement traitées. Ce « plafond de verre » est une injustice, mais le « plancher collant » en est une autre, qui concerne encore plus de monde. On rappelle, ce qui n’est pas dans le rapport mondial (mais ce n’est pas son objet), que les femmes représentent environ 75 % du sous-emploi (temps partiel subi et chômage technique), 80 % des emplois salariés à temps partiel, mais aussi 80% des employé.e.s considéré.e.s comme « non qualifié.e.s », c’est-à-dire en réalité sous-payé.e.s en dépit de compétences et de responsabilités réelles mais non reconnues, comme dans le cas des auxiliaires de vie des personnes âgées.

Le second point est plus important encore : ces calculs concernent toute la population de chaque âge, pas seulement celle qui occupe un emploi rémunéré (ou qui est au chômage ou à la retraite). C’est une perspective également très intéressante pour évaluer la répartition des revenus d’activité entre les sexes en intégrant dans l’analyse le fait que les femmes et les hommes (de 25 à 65 ans) accèdent inégalement à l’activité et à l’emploi, ce qui se répercute sur les revenus liés à l’activité de chaque sexe.

Jean Gadrey

Source Blog de Jean Gadrey hébergé par Alternative Economique 08/01/2018

Voir aussi : Actualité France, Rubrique SociétéDroit des femmesEmploi, rubrique Economie,